Prozess als Gestalt: Parametrie als grundlegendes Funktionsprinzip von Gestaltung 9783839460962

Die Bedingungen der digitalen Gegenwart lassen ein Entwerfen in starren Schemata und isolierten Einzelbetrachtungen läng

258 49 5MB

German Pages 362 [383] Year 2022

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Prozess als Gestalt: Parametrie als grundlegendes Funktionsprinzip von Gestaltung
 9783839460962

Citation preview

Fabian Kragenings Prozess als Gestalt

Design  | Band 56

Fabian Kragenings, geb. 1987, ist selbstständiger Designer mit den Schwerpunkten Corporate Branding und User Experience Design. Er promovierte an der Hochschule für Gestaltung Offenbach zum Thema Parametrie und Prozessgestaltung. Er ist Begründer des »Design Iteration Award«.

Fabian Kragenings

Prozess als Gestalt Parametrie als grundlegendes Funktionsprinzip von Gestaltung

Ursprünglich Dissertation an der Hochschule für Gestaltung Offenbach, 2021 (Erstgutachter: Prof. Dr. Martin Gessmann, Zweitgutachterin: Prof. Dr. Sabine Foraita). Publiziert mit der Unterstützung des Promotionsbereichs der Hochschule für Gestaltung Offenbach. Zu dem Promotionsprojekt gehört ein praktischer Teil, bestehend aus einem im Jahr 2018 deutschlandweit durchgeführten Designwettbewerb (Design Iteration Award), der den Fokus nicht auf finale Produkte und Resultate, sondern auf die diesen vorgelagerten Entwurfsprozesse legte.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http:// dnb.d-nb.de abrufbar. © 2022 transcript Verlag, Bielefeld Alle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Fabian Kragenings Druck: Majuskel Medienproduktion GmbH, Wetzlar Print-ISBN 978-3-8376-6096-8 PDF-ISBN 978-3-8394-6096-2 https://doi.org/10.14361/9783839460962 Buchreihen-ISSN: 2702-8801 Buchreihen-eISSN: 2702-881X Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: https://www.transcript-verlag.de Unsere aktuelle Vorschau finden Sie unter www.transcript-verlag.de/vorschau-download

Inhalt

1.

Einführung............................................................................... 9

2.

Parametrie – Begriff und Entwicklung ................................................... 17

3. 3.1 3.2 3.3 3.4

Handwerk und Parametrie .............................................................. Langsamkeit und Evolution .............................................................. Messbarkeit und Evaluation .............................................................. Mathematik und Konstruktion ............................................................ Werkzeug und Konfiguration .............................................................

4. 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10

Industrie und Parametrie ............................................................... 43 Werkzeug und Maschine ................................................................. 45 Distanz und Interaktion .................................................................. 48 Sichtbarkeit und Unsichtbarkeit.......................................................... 50 Autonomie und Qualifikation ............................................................. 54 Restriktion und Möglichkeitsraum ........................................................ 59 Absicht und Kontrolle .................................................................... 66 Komplexität und Einfachheit .............................................................. 71 Reproduktion und Variation .............................................................. 76 Standardisierung und Presets............................................................ 79 Zeit und Animation ...................................................................... 85

27 30 32 34 36

Gestalt und Parametrie ................................................................. 93 Das Ganze und seine Teile ...............................................................100 5.1.1 Austauschbarkeit der Bestandteile ................................................102 5.1.2 Beziehungen der Bestandteile.....................................................104 5.1.3 Veränderung der Bestandteile..................................................... 107 5.1.4 Unendlichkeit der Gestalt ......................................................... 110 5.1.5 Höhe und Reinheit der Gestalt..................................................... 112 5.2 Gesetz und Gestalt....................................................................... 114 5.2.1 Gesetze des menschlichen Sehens ................................................ 115 5. 5.1

5.2.2 Gesetze des technischen Erkennens .............................................. 124 6. 6.1 6.2 6.3

Problemlösen und Parametrie .......................................................... 147 Problem und Lösung ..................................................................... 149 Reproduktives und Produktives Denken ................................................. 158 Umstrukturierung und Einsicht...........................................................162

7. 7.1 7.2 7.3 7.4 7.5 7.6

Kreativität und Parametrie ............................................................. 175 Phänomen und Begriff ................................................................... 181 Hin-Sicht und Ab-Sicht ................................................................. 202 Situation und Improvisation............................................................. 207 Spiel und Integration ................................................................... 222 Simulation und Computation ............................................................ 260 Kontinuität und Disruption ............................................................... 281

8. 8.1

Prozess, Gestalt und Parametrie ....................................................... 303 Phänomene und Attribute............................................................... 305 8.1.1 Messbarkeit und (Un-)Entscheidbarkeit ........................................... 305 8.1.2 Prozessualität und Reversibilität .................................................. 311 8.1.3 Relationalität und Wichtung ....................................................... 315 8.1.4 Spielhaftigkeit und Modellierbarkeit ............................................... 319 8.1.5 (Un-)Sichtbarkeit und Handhabbarkeit............................................ 322 8.1.6 Auflösungsgrade und Prozessgestalt ............................................. 325

Literaturverzeichnis......................................................................... 331 Internetquellen .............................................................................. 356 Abbildungsverzeichnis ...................................................................... 359

Für Ruth, Martin, Christoph und Dominique

Aus stilistischen Gründen stehen im Folgenden allgemeine, Personengruppen bezeichnende Begriffe wie ›Gestalter‹, ›Entwerfer‹ und ›Designer‹ immer für Frauen, Männer und andere gleichermaßen. Das grammatikalische Geschlecht spiegelt nicht das biologische wider.

1. Einführung

Prozesse implizieren Veränderung. Und wenn es Domänen und Felder gibt, in denen Veränderungen anschaulicher werden als in anderen, darf angenommen werden, dass es vorwiegend gestalterische sind. In der Auseinandersetzung mit dem, was noch nicht ist und den Bedingungen, unter denen Neues entstehen kann, eröffnet sich jeder gestalterische Prozess zunächst als ungewiss und ergebnisoffen, mit dem Ausblick auf ein vages und ebenso veränderliches Ziel, das es – wie auch immer – zu erreichen gilt.1 Entsprechend bieten Prozesse Spielräume für Verhandelbarkeit auf allen Ebenen. Sie ermöglichen es, zu experimentieren, fehlzuschlagen, zu korrigieren, zu lernen, zu wachsen und somit einzelne Entwurfsinhalte, Erfahrungen und Ideen iterativ in eine ganzheitliche Ordnung zu bringen. Je komplexer Prozesse jedoch werden, desto schwieriger wird es, mit Veränderungspotenzialen umzugehen und eine solche Ordnung herzustellen. Nicht zuletzt angesichts der technologischen Entwicklungen der digitalen Gegenwart, die unseren Lebens- und Berufsalltag mitunter durch unsichtbare Algorithmen, künstliche Intelligenzen und autonome Systeme maßgeblich prägen, ist schnell ein Ausmaß erreicht, das den Überblick über die ablaufenden Prozesse verlieren lässt. Die Tiefen, Komplexitäten und Wandlungsfrequenzen ebenjener digitalen Kontexte und Medien lassen ein Denken und Handeln in statischen Inhalten und isolierten Einzelbetrachtungen längst nicht mehr zu. Vielmehr bedarf es einer Flexibilisierung der Herangehensweisen, medial und mental, um die wechselseitigen Beziehungen und vielschichtigen Komplexe erfahrbar und handhabbar zu machen. Es lässt sich daher fragen, welche Möglichkeiten ein Entwerfen der digitalen Gegenwart bereithält, um diese Entwicklungen mitzugehen, und ebendieser Frage widmet sich dieses Buch. Die Anforderungen an ein Entwerfen, das auf die genannten technologischen Entwicklungen zu reagieren vermag, sind schnell auszumachen. Sie zeigen sich einmal auf Seiten der medialen Instrumente, mit denen entworfen wird, und andererseits in der Sphäre der menschlichen Wahrnehmung, in Form gestalterischer Denkprozesse. Dies

1

Als Designprozess ließen sich in dieser Hinsicht – und gemäß dem etymologischen Ursprung des Wortes – zunächst alle gestalterischen Bestrebungen verstehen, sich in Zielrichtung vorwärtszubewegen (lat. ›procedere‹ = dt. ›vorwärtsgehen‹). Vgl. Kluge; Seebold (2011: 728), Prozess.

10

Prozess als Gestalt

setzt voraus, dass Prozesse als dynamische Strukturen verstanden werden, die medial und mental erfasst werden können – erst dann kann mit ihnen gestaltet werden. Dazu braucht es einerseits digitaltechnische Werkzeuge, die es ermöglichen, sowohl Veränderungen im Entwurf immer schon mitzudenken als auch Beziehungen sichtbar und komplexe Wechselwirkungen dadurch handhabbar zu machen. Daraus geht andererseits auf menschlicher Seite die Notwendigkeit eines Bewusstseins für die Zusammenhänge der Dinge als Ganzheiten hervor, d.h. für eine Sensibilisierung der Wahrnehmung für die Beziehungen und Wirksamkeiten, die mit einzelnen Veränderungen verbunden sind. Nur so können Prozesse als eigene Konstrukte mitsamt ihren eigenen Maßstäben betrachtet, gestalterisch angeleitet und verwertet werden. Beide Anforderungen, so der hier dargelegte Vorschlag, können anhand von zwei Begriffen verhandelt und mittels dieser auf die Praxis des Entwerfens appliziert werden; jene der Gestalt und der Parametrie. Ziel der Auseinandersetzung ist entsprechend eine Umdeutung des Gestaltungsprozesses, der, wie zu zeigen sein wird, nunmehr als mentaler wie medialer Gestaltbildungs-Prozess verstanden werden muss, um den oben genannten Ansprüchen einer digitalen, ubiquitär vernetzten Lebenswelt zukünftig gerecht werden zu können. In Bezug auf die Praxis des Entwerfens lässt sich daran ein Paradigmenwechsel nachvollziehen, der Gestalter nunmehr auf einer Metaebene wirksam werden lässt, wodurch stetig weniger am konkreten Entwurf gearbeitet wird, in ausführender Rolle, sondern an den Bedingungen des Entwerfens selbst, in kuratierender Rolle. Es wird entsprechend zunehmend erforderlich, nicht mehr in statischen Inhalten, sondern in dynamischen Beziehungen zu denken; nicht mehr in abgeschlossenen Produkten und Resultaten, sondern in anschlussfähigen Prozessen. Für die Tätigkeit des Entwerfens heißt dies vor allem, Veränderungen im Entwurf immer gleich mit anzulegen. Dementsprechend geht es nicht mehr um die Endgültigkeit des Entwurfs, sondern um dessen Anschlussfähigkeit in Bezug auf die sich permanent verändernden Kontexte, die ihn umgeben. Diese Anschlussfähigkeit zu gestalten, d.h. jene Konstrukte resp. jene Gestalten, die ihre Stabilität durch ihre prinzipielle Veränderbarkeit und Anpassungsfähigkeit beziehen, wird, so kann behauptet werden, Hauptaufgabe eines Designs sein, das sich medialen Entwicklungen ausgesetzt sieht, die zunehmend mehr durch Algorithmen, künstliche Intelligenzen und autonome Systeme bestimmt sein werden. Dabei ist auszumachen, dass die medialen Instrumente, die notwendig sind, um diese Entwicklung mitzugehen, bereits vorhanden sind. Als solche machen sie die vielschichtigen, komplexen, schnelllebigen und dynamischen Phänomene eben jener Entwicklungen für die Entwurfstätigkeit nicht nur sichtbar, sondern vor allem handhabbar. Bei diesen Instrumenten handelt es sich um parametrische Softwareprogramme, die spätestens seit den 2000er-Jahren zusehends stärker in die Entwurfspraxis Einzug erhielten und es nunmehr verstehen, Beziehungen, Verhältnissen und Abhängigkeiten nicht nur eine Sichtbarkeit zu verleihen, sondern ebenso, eine Handhabbarkeit ihrer Gestaltung anzubieten: wenn in ihnen Parameter gesetzt, assoziativ miteinander verbunden, Verhältnisse gewichtet und dadurch Entscheidungen reversibel verhandelt werden. Parametrische Systeme befördern entsprechend ein Entwerfen in antizipierter Veränderung; ein prozessuales, iteratives Herantasten, das durch den unmittelbaren Abgleich von Komparativen vorangebracht wird: mehr, weniger, dicker, dünner, medi-

1. Einführung

terraner, weniger mediterran usw. Parameter stellen entsprechend immer eine Bandbreite dar und bedingen damit einen Entwurfsmodus der Wahl gegenüber einem der Herstellung. Ihre größte Wirkkraft entfalten Parameter jedoch im mehrdimensionalen Verbund, als wechselseitige assoziative Bezugssysteme: In solchen bleiben die Verhältnisse und Verknüpfungen zwischen den einzelnen Parametern bestehen, auch wenn sich die Inhalte verändern. Dies hält sie flexibel und gleichzeitig stabil; d.h., sie gewährleisten kontingente Veränderbarkeit bei gleichzeitigem Erhalt ihrer Gesamtstruktur. Ebendiese Eigenart parametrischer Systeme lässt sich dabei nicht nur medial in gegenwärtigen Entwurfsprogrammen veranschaulichen, sondern, wie gezeigt werden soll, ebenso auf jene kognitiven Prozesse beziehen, die seit jeher Grundlage allen Entwerfens sind und jedem Entwurf notwendigerweise vorausgehen; eben jene Prozesse der Wahrnehmung von Gestalten, wie sie vor allem durch die Gestalttheoretiker seit dem ausgehenden 19. Jahrhundert eingehend untersucht wurden. Parametrie, verstanden als das antizipatorische Wahrnehmen von Beziehungen und das Denken in Veränderungen bei gleichzeitigem Erhalt einer gedanklichen Gesamtstruktur, so kann behauptet werden, war also schon immer Grundlage allen Gestaltens. Was sich heute als instrumentalisierte Speerspitze digitaler Innovation in der gegenwärtigen Entwurfspraxis medial widerspiegelt, ist also nicht etwa neu, sondern derweil lediglich so hoch aufgelöst, dass nunmehr sichtbar – und vor allem handhabbar – wird, was immer schon da war. Der methodische Ansatz der folgenden Erörterung versteht sich entsprechend darauf, die gestalttheoretischen Maximen mit Hinsicht auf parametrische Mechanismen und Verfahrensweisen auf die Zukunft von Gestaltung zu projizieren und die Wesensmerkmale eben jener Verfahrensweisen dabei mit größtmöglicher Sättigung herauszustellen. Dazu bedarf es einer umfassenden Auseinandersetzung nicht nur mit den Medien von Gestaltung, sondern ebenso mit dem zukünftigen menschlichen Umgang mit jenen hochfrequenten Dynamiken und Komplexitäten, welche die Technologien der digitalen Gegenwart dafür bereithalten. Parametrie versteht sich dabei als didaktischer Schlüsselbegriff, der die Auseinandersetzung in methodischer Engführung von Beginn an anleitet: zunächst innerhalb einer einführenden Begriffs- und Kontextbestimmung (Kapitel 2), dann im historischen Zusammenhang von Handwerk und Industrie als grobe Konturierung parametrischer Wesensmerkmale und Mechanismen (Kapitel 3 u. 4), dann als struktureller Abgleich eben jener Mechanismen mit den Grundlagen der Gestalttheorie (Kapitel 5), darauf aufbauend als praxis- und anwendungsorientierte Weiterführung der Erkenntnisse im Feld des klassischen Problemlösens (Kapitel 6) und schließlich als jene Beförderung eines kreativen Potenzials, dessen gestalterische Verwaltung es für die digitale Gegenwart nunmehr neu zu bestimmen gilt (Kapitel 7). Ein letztes Kapitel fasst die erarbeiteten Erkenntnisse übergreifend zusammen, differenziert sie mit Hinsicht auf die digitalen Technologien weiter aus und artikuliert damit einen technikphilosophischen Ausblick auf die zukünftige Entwicklung der Praxis des Entwerfens (Kapitel 8). Eben in dieser Leitlinie der Auseinandersetzung verorten sich entsprechend auch die drei großen Begriffe der Arbeit: Prozess, Gestalt und Parametrie, die in der übergreifenden Erkenntnis Vereinbarung finden, dass Prozesse durch Parametrie als Gestalten erfahrbar und handhabbar werden.

11

12

Prozess als Gestalt

Parametrie stellt entsprechend die methodische Brücke dar, um die wesentlichen Bedingungen des Entwerfens im Kontext der gestalttheoretischen Maximen und der digitaltechnischen Instrumente auszuloten und anschaulich zu machen. Die Struktur des Buches folgt somit einer parametrischen Entwicklungslinie, dessen erstes Zwischenziel sich darauf versteht, die Wesensmerkmale von Parametrie in erster Kontur zu umreißen. Dazu werden zunächst Mittel und Wege handwerklicher und industrieller Entwurfs- und Herstellungsprozesse in den Fokus gestellt, in Gegenüberstellung zu parametrischen Entwurfsprogrammen der digitalen Gegenwart diskutiert und ausgelotet, an welchen Stellen Gemeinsamkeiten und Unterschiede zwischen den Herangehensweisen bestehen bzw. wo gemeinsame Anlagen deutlich werden, und wo nicht. Diese Kontrastierung macht anschaulich, dass parametrische Mechanismen im Digitalen zwar ihre höchste Wirksamkeit entfalten, ihre Grundanlagen jedoch ebenso in analogen Formen des Entwerfens erfahrbar werden. Für das Handwerk sei dies vorrangig anhand von Beispielen aus dem Musikinstrumentenbau anschaulich gemacht; einerseits aufgrund der zeitlich weit zurückreichenden vorhandenen Literatur, andererseits und vor allem jedoch aufgrund der Vielfalt der Prozesse und Herangehensweisen, die ein hohes Maß an Präzision, Messbarkeit und Erfahrungswissen voraussetzen. Für die Erörterung im industriellen Metier wird dagegen auf eine Auswahl verschiedenartiger Beispiele zurückgegriffen, um die parametrische Sättigung auch hier größtmöglich zu halten: Watts Dampfmaschine, Evans und Taylors Fließband, Schinkel und Beuths Musterbücher oder Mareys Vogelflugaufzeichnungen zur Visualisierung von Bewegung und Zeitverlaufskurven. Der Fokus liegt übergreifend entsprechend nicht auf dem WAS konkreter Produkte, sondern auf dem WIE der vorgelagerten Prozesse und Herangehensweisen und dem parametrischen Gehalt, der daraus hervorgeht. Dieser läuft zusammenfassend in der Erkenntnis zusammen, dass Parametrie die wesentlichen Eigenarten aus handwerklichen und industriellen Entwurfs- und Produktionsprozessen auf sich vereint: einerseits die Unmittelbarkeit manuell-körperlicher Virtuosität, andererseits die Exaktheit technisch-medialer Reproduzierbarkeit. Beides läuft innerhalb assoziativer Bezugssysteme in zyklischen, reversiblen Prozessen zusammen, welche dem Gestalter durch ihre Unmittelbarkeit der Handhabung im digitalen Raum nahezu spielerische Umgangsformen anbieten. Diese erste Annäherung dient entsprechend dazu, ein Vokabular parametrischer Wirkmechanismen aufzubauen; als Grundlage und zur weiteren Ausdifferenzierung im Verlauf der Erörterung. Im zweiten großen Segment, das sich als Vorbereitung der Thematiken für den dritten großen Abschnitt der Arbeit versteht, dem Versuch zur Neubestimmung eines Kreativität-Begriffs der digitalen Gegenwart, steht die menschliche Gestaltwahrnehmung im Sinne der klassischen Gestaltpsychologie im Zentrum der Diskussion. Dieser wird sich in zwei Stufen angenähert: einerseits zunächst anhand der passiven Wahrnehmung in Form von Gestaltgesetzen, physiologischen Prinzipien und Transformationsleistungen, die innerhalb eines methodischen Vergleichs den Möglichkeiten dessen digitaltechnischer Rekonstruktion durch künstliche neuronale Netzwerke gegenüberstellt werden, und andererseits anhand der aktiven Umstrukturierung eben jener Wahrnehmung im Rahmen eines produktiven Problemlösens, das sich aus der gestalttheoretischen Auffassung entwickelte.

1. Einführung

Aus dieser Verfahrensweise geht erstens hervor, dass Prozesse der menschlichen Mustererkennung, wie sie in den Gestaltgesetzen und diesen übergeordneten Prinzipien und Leistungen begründet sind, als technische Prozeduren innerhalb künstlich neuronaler Netzwerke zuverlässig nachmodelliert werden können, und dass Letztere die menschlichen Kapazitäten zudem mittlerweile gar überholt haben. Zweitens soll in der Betrachtung klassischer Fragen und Vorgehensweisen des Problemlösens nachverfolgt werden, wie das gestaltpsychologische Erkennen von Beziehungen und dessen Umstrukturierung zu neuen Einsichten und Verständnissen von Problemsituationen führt und wie diese parametrisch zu deuten sind. Dabei veranschaulichen klassische grafische Beispiele der Gestaltpsychologen Max Wertheimer und Karl Duncker die wesentlichen Grundzüge eines produktiven Denkens, verstanden als jene mentale Anstrengung, Widerstände und stille Vorannahmen aufzubrechen, dadurch Einsicht in die inneren Strukturgesetze der Phänomene zu gewinnen und sich Problemen schließlich in neuen Betrachtungsweisen anzunehmen, nicht zuletzt durch den bewussten Wechsel der Auflösungsgrade, in dem die Dinge betrachtet werden. Die daran erarbeiteten Grundlagen – die der menschlichen Gestaltwahrnehmung, des technischen Erkennens und des produktiven Problemlösens – bereiten demnach die Inhalte für die Erörterung im ausgedehnten Hauptteil des Buches vor, in welchem sie unter den Prämissen eines kreativen Denkens für das gestalterische Feld anschlussfähig gemacht und neu verortet werden sollen. Der Begriff der Kreativität markiert dabei zunächst den Ausgangspunkt der Erörterung. Dieser ist innerhalb der Kreativitätsforschung weniger auf eine einheitliche Definition zu bringen als vielmehr in vier Gewichtungen nachzuvollziehen, die zunächst gemäß dem Stand der Forschung nachgezeichnet werden: dem kreativen Produkt, der kreativen Person, der kreativen Situation und dem kreativen Prozess. Kreativität versteht sich innerhalb dieser Zusammenhänge als die antreibende Kraft in jeder Form gestalterischer Denkprozesse, die dazu befähigt, Widerstände, Spannungen, Unsicherheiten und Ambiguitäten auszuhalten, etablierte Verhältnisse aufzubrechen, multiple Lösungen in der Breite zu akzeptieren, den eigenen Standpunkt zu verändern und vermeintlich Widersprüchliches in sinnvolle Zusammenhänge zu bringen. Dazu sei zu Beginn der Erörterung der Vorschlag dargelegt, die beteiligten kognitiven Prozesse in eine Ausrichtung der Hin-Sicht und eine der Ab-Sicht zu unterscheiden, d.h. in bewusste Betrachtungen von Wahrnehmungs- und Gestaltungsinhalten in der Tiefe und Breite, zwischen denen im parametrischen Zusammenhang stufenlose gewechselt werden kann und welche sich gleichsam als Handlungsformen der Improvisation und des Spiels in Anwendung bringen lassen. Ein kreatives Denken wird dabei innerhalb von Improvisationen als Beanspruchung des situativ Gegebenen durch das situativ Geforderte ansichtig, ebendann, wenn es um die temporäre und provisorische Umdeutung von Gegenständen und Handlungsroutinen zur Erreichung bestimmter Ziele und Lösungen geht, durch die Betrachtung der jeweiligen Gegebenheiten in verschiedenen Auflösungsgraden. Während die situativen Rahmenbedingungen einer Improvisation dabei ein Gegebenes darstellen, das je nach Situation einzigartig, unvorhersehbar und damit nur von begrenzter Dauer ist, lässt die Handlungsform des Spiels die jeweiligen Rahmenbedingungen als Gestaltbares kontingent verhandeln und sorgsam gestalten. Das Spiel ist dabei von einer wesenseigenen Ambivalenz geprägt, die sich auf mehreren Ebenen wiederfinden lässt: im Innen und Au-

13

14

Prozess als Gestalt

ßen seiner Struktur (in Spielräumen), im Vor und Zurück seiner Performativität (durch Spannungsverhältnisse) sowie im Sinn und Un-Sinn seiner Resultate (als Sinnzusammenhänge). Für die Praxis des Entwerfens bilden die Untersuchungen entsprechend dort markante Anschlusspunkte, wo sie auf die grundlegendsten Prozesse der GestaltBildung verweisen, die, wie vorzuschlagen ist, als Vorgänge der Integration verstanden werden können. Es geht demnach darum, die Handlungsform des Spiels auf mehreren Ebenen für die gestalterische und parametrische Praxis des Entwerfens zu animieren und die charakteristischen Wesensmerkmale dabei herauszustellen. So stellen sich Spielräume zunächst als konstruierte Modelle dar, die nach außen hin abgrenzen, um nach innen Verhandelbarkeit anzulegen. Dies folgt dem Grundsatz, dass nur durch Einschränkungen überhaupt erst Richtungen entstehen und dass nur durch Richtungen Prozesse voranschreiten können. Der Gestalter entwirft entsprechend als Metagestalter immer schon die Bedingungen und Reglementierungen seines Spielfeldes, um anschließend darin gemäß ebendieser Bedingungen neue Freiheiten und Möglichkeiten spielerisch explorieren zu können. Dabei ist das gestalterische Spiel getrieben von einer Spannung, die aus dem »unentschiedenen Zugleich entgegengesetzter Tendenzen« hervorgeht,2 d.h. aus jenen Kontroversen, Widersprüchen und Ambiguitäten, die erst in der Tätigkeit des Spielens selbst in neue Ordnungen gebracht und zu sinnvollen Ganzheiten prozessiert werden. Dieser Prozess der Sinnherstellung offenbart sich entsprechend als zyklisches, mentales Wechselspiel aus einem performativen Vor- und Zurück, einem Sich-Nähern und Sich-Entfernen, einem Festhalten und Loslassen; als »Bewegung, die [immer wieder] in sich selbst zurückkehrt«,3 wodurch sich ein bewegtes Gleichgewicht einstellt, das die Zielrichtung des Entwurfs fortwährend stabilisiert, wodurch sich mehr und mehr dessen eigene Regeln, Maßstäbe, Handlungsroutinen und Umgangsformen als Entwurfsgestalt verfestigen. Dieses mentale Wechselspiel kann entsprechend als Gestaltbildungs-Prozess und in weiterer Ausdifferenzierung als Integrations-Prozess verstanden werden; ebendann, wenn in einem solchen heterogene Einzelphänomene in zyklischen Schleifen zu einer ganzheitlichen Gestalt zusammengeführt werden. D.h. auf Seiten des Gestalters, Entwurfsinhalte nicht wahllos und unreflektiert aneinanderzureihen, sondern sie zu einer Gesamtheit, einer Gestalt, zu integrieren. Dies setzt weiter die Bereitschaft voraus, den eigenen Standpunkt stets aufs Neue zu verlassen, die Gegebenheiten von allen Seiten zu hinterfragen und Veränderungen ganzheitlich anzubringen. Dabei spielt vor allem die Betrachtung und Transformation der Phänomene in verschiedenen Auflösungsgraden eine übergeordnete Rolle, als wesentliches Merkmal einer parametrischen Herangehensweise an Entwurfsprozesse, wie es in den letzten beiden Kapiteln des Abschnittes ausführlich betrachtet werden soll: zunächst in technikphilosophischem Bezug zu den Entwurfsmedien der digitalen Gegenwart im Sinne hochauflösender Simulationen, dann als perspektivische Öffnung der gestalterischen Disziplin in Anbetracht sowohl ihrer entwicklungsgeschichtlichen Herkunft als auch ihrer Zukunft im Spannungsfeld von Kontinuitäten und Disruptionen. Die erste Auseinandersetzung mündet dabei in

2 3

Scheuerl (1954/1973: 91) Lazarus (1883: 36).

1. Einführung

der Erkenntnis, dass sich mit steigender Auflösung und Zuverlässigkeit der digitaltechnischen Medien, d.h. von Algorithmen, künstlichen Intelligenzen und autonomen computationalen Systemen, die Rolle des Gestalters nunmehr insofern verändert, als dass der Fokus der Entwurfstätigkeit sich zukünftig nicht mehr auf die Ausarbeitung singulärer Gestaltungsinhalte verstehen wird, sondern auf die kuratorische Anleitung gestalterische Ökosysteme, die sich konsistent nach den vom Gestalter gesetzten Bedingungen entwickeln. Dies kann mitunter anhand der prozeduralen 3D-Modellierung anschaulich gemacht werden. Damit geht ein Sattelpunkt der Entwicklung einher, der vor allem den Umgang mit ebendiesen Medien betrifft: Während sich die Technik bisher durch die sukzessive Erhöhung ihrer Auflösungsgrade an den Menschen ›heranrechnete‹, vermag dieser sich nunmehr verstärkt aus der technischen Sphäre ›herausziehen‹ zu müssen, um die Vorteile der technischen Systeme in seiner Lebenswelt sinnvoll verwerten zu können. D.h., je hochaufgelöster, intransparenter und eigenständiger die technischen Prozesse werden, desto mehr Bedarf es sorgsam gestalteter Anschlusspunkte in menschlichen Auflösungsgraden, um die Entwicklung zielgerichtet und menschlich sinnvoll anzuleiten. Ebendies kennzeichnet jenen gegenwärtigen und zukünftigen Umgang mit Technik, der den menschlichen Fokus nicht mehr auf die Erzeugung der Daten im Einzelnen, sondern auf die Anschlussverwendung und Nutzung der Ergebnisse im Ganzen richten lässt. Parametrie stellt dazu die medialen und mentalen Voraussetzungen bereit, als Vermittlungsinstanz zwischen den Auflösungsgraden, durch welche die Zusammenhänge von Entwicklungen erst dann sichtbar werden, wenn sie sich auf ein gewisses Niveau erhöhen, wie es anhand der Begriffe der Kontinuität und Disruption für eine entwicklungsgeschichtliche Perspektive des Designs anschaulich gemacht wird. Das letzte große Kapitel ›Prozess, Gestalt und Parametrie‹ trägt infolgedessen die wesentlichen Erkenntnisse der Erörterung zusammen, differenziert sie resümierend weiter aus und gibt einen Ausblick auf die Entwicklungen, die damit verbunden sind. Es geht entsprechend um Messbarkeit, Reversibilität, Relationalität, Modellierbarkeit, Sichtbarkeit, Handhabbarkeit und Auflösungsgrade, aber nicht zuletzt vor allem um die Souveränität der gestaltenden Persönlichkeit selbst, die sich im gestalterischen Spiel mit gewisser Ungewissheit im unentschiedenen Zugleich entgegengesetzter Tendenzen ergibt, welches wiederum erst dann seine größte Wirkkraft entfaltet, wenn Prozesse durch Parametrie als Gestalten gedacht und bewusst als solche gestaltet werden.

15

2. Parametrie – Begriff und Entwicklung

Ein Parameter (gr. ›para‹ = dt. ›gegen/neben‹, gr. ›metron‹ = dt. ›das Maß‹)1 versteht sich allgemeinhin als eine messbare Stellgröße, die für einen Fall konstant gehalten und für einen anderen wiederum variiert werden kann.2 Er repräsentiert somit nicht einen einzelnen Wert, sondern stets eine Bandbreite von Werten, welche nicht etwa die endgültige Festlegung einer Entscheidung fordert, sondern vielmehr dessen reversible Verhandlung ermöglicht. Als definierte und dennoch veränderliche Größen finden sich Parameter dabei nicht nur im Kontext mathematischer Berechnungen, sondern gegenwärtig annähernd in allen lebenspraktischen Feldern, in denen bestehende Prozesse, Abhängigkeiten und Beziehungen formal beschrieben, d.h. gemessen, und damit handhabbar gemacht werden sollen: Zeit, Materialkosten, Leistungsfähigkeit, Verkaufszahlen, Zielgruppen, Nutzerverhalten, Wohnort, Lebensalter, Produkt, Farbe, Form, Oberflächenbeschaffenheit und buchstäblich unendlich viele andere Faktoren, die als Parameter erfasst werden können und dadurch eine dezidierte Beschreibung und Handhabung wie auch immer gearteter Prozesse erst möglich machen. Dabei beziehen sich Parameter nicht allein auf die Beschreibung einzelner Phänomene, sondern gleichsam auf die Beschreibung der Wechselwirkungen und Abhängigkeiten, die zwischen ihnen bestehen: Verändert sich ein Parameter, ändern sich all jene, die mit ihm verbunden sind, gleich mit. Diese assoziative Verbundenheit erweist sich vor allem bei mehrschichtigen und vielfach verzweigten (Gestaltungs-)Prozessen als mitunter größte Stärke parametrischer Mechanismen, da sie die Komplexität der wechselseitigen Beziehungen zu handhabbaren Formen der Einfachheit komprimieren:3 Komplexe Phänomene werden durch die Übersetzung in nur wenige Parameter handhabbar, ohne die strukturelle

1 2 3

Vgl. Kluge; Seebold (2011: 682), para-; Ebd.: 619, -metrie. Vgl. zur allgemeinen Definition Brockhaus Enzyklopädie (2006: 11), Parameter; Duden (2011: 1308), Parameter; Wörterbuch der philosophischen Begriffe (2013: 483), Parameter. Wie Jabi es für parametrische Entwurfssysteme beschreibt: »One of the most seductive powers of a parametric system is the ability to explore many design variations by modifying the value of a few controlling parameters.« Jabi (2013: 11).

18

Prozess als Gestalt

Verbundenheit der Einzelbestandteile dabei aufzulösen.4 Dadurch ergeben sich neue Ebenen der Einflussnahme, die den jeweiligen Prozess als Ganzes erfassbar machen und steuerbar werden lassen; etwa im Unternehmensmanagement, wenn Abteilungen übergeordnet koordiniert, Unternehmenskennzahlen auf einen Blick validiert und in entsprechende Handlungsanweisungen überführt werden können.5 Gleiches gilt etwa für logistische Lieferketten oder Produktions- und Kommunikationsprozesse, in denen bestimmte Faktoren (bspw. Verfügbarkeit, Verkaufspreis, Marketing etc.) unmittelbar mit anderen zusammenhängen (etwa mit der logistischen Infrastruktur, Entwicklungskosten, Zielgruppen etc.). Im gestalterischen Feld verhält es sich ganz analog. So versinnbildlichen Parameter etwa im Produktdesign Fragen nach der Benutzerfreundlichkeit, der Nachhaltigkeit, dem Innovationsgrad oder dem symbolischen Gehalt eines (materiellen wie immateriellen) Produktes.6 Sie bilden entsprechend begriffliche und messbare Orientierungen, an denen sich sowohl der Entwurf als auch der Entwurfsprozess auszurichten vermögen.7 Diese Orientierungen verstehen sich in parametrischer Hinsicht dabei nicht als dogmatische Bedingungen eines ›Ja‹ oder ›Nein‹, sondern vielmehr als verhandelbare Bandbreite eines ›mehr‹ oder ›weniger‹, als das Abwägen von Komparativen: höhere Produktkosten zugunsten gesteigerter Nachhaltigkeit? Weniger Menüpunkte zugunsten besserer Bedienbarkeit? Größerer oder kleinerer Radius? Weniger rot, mehr blau? Oder doch in Graustufen? So abstrakt und ungreifbar derartige Überlegungen vorerst erscheinen, so konkret und sichtbar werden sie in der medialen Reflexion im analogen Entwurfsmodell oder dem digitalen Entwurfsprogramm. Dabei verkörpern parametrische Modelle als mediale Konstrukte nicht nur einen einzigen Zustand eines Entwurfs, sondern immer auch schon dessen Veränderung sowie die Beziehungen der Einflussfaktoren zueinander. Dass dies kein Phänomen der digitalen Neuzeit ist, zeigen die experimentellen Entwurfsprozesse Antoni Gaudís (1852-1926) und Frei Ottos (1925-2015), die aufgrund ihrer Arbeit mit assoziativen Modellkonstruktionen mitunter als vordigitale Wegbereiter eines ›parametrischen Designs‹ gelten.8 Beiden Protagonisten war gemein, dass sie die For4

5

6

7

8

Dementsprechend komprimieren parametrische Mechanismen Komplexitäten vielmehr, als sie lediglich zu reduzieren – die (komplexen) Verbindungen bleiben bestehen, während sie jedoch in anderer Form einfacher handhabbar werden. Eine solche Handhabung der Prozesse auf Managementebene versteht sich allgemeinhin als sog. Business Intelligence, einem Feld der Wirtschaftsinformatik, das die Sammlung, Visualisierung und Bewertung von Daten auf sich vereint. Vgl. Müller; Lenz (2013). Vgl. dazu die Bewertungskriterien des German Design Award 2021: »Ergonomie » Funktionalität und Bedienbarkeit » Gebrauchswert » Gesamtkonzept » Gestaltungsqualität » Innovationsgrad » Langlebigkeit » Markenwert und Branding » Marktreife » Nachhaltigkeit » ökologische Qualität » Produktästhetik » Produktgrafik und -semantik » Sicherheit und Barrierefreiheit » symbolischer und emotionaler Gehalt » technische Qualität » technische Funktion » Fertigungstechnik und -qualität.« Vgl. Rat für Formgebung (2020). Arnold Schürers akribische Auseinandersetzung mit dem ›Einfluss produktbestimmender Faktoren auf die Gestaltung‹ von 1969 macht dies besonders anschaulich. Schürer führt darin insgesamt 66 Faktoren als Kategorien und Unterkategorien auf, die im Entwurf eines Industrieproduktes Berücksichtigung finden sollten. Vgl. Schürer (1969). Vgl. Schumacher (2016: 13); Burry (2016: 34); Davis (2013b); Tedeschi (2014: 18ff).

2. Parametrie – Begriff und Entwicklung

men ihrer Entwürfe nicht ausschließlich mathematisch-formal berechneten, sondern sie vorwiegend anhand von physischen Modellen unmittelbar visuell erfahrbar machten und fortwährend veränderlich hielten. Während Gaudí dazu sog. Hängemodelle konstruierte, welche aus schier unzähligen an Schnüren oder Ketten hängenden variablen Gewichten bestanden, wodurch sich durch die Schwerkraft kurvenstetige, bogenförmige Konturen ergaben,9 experimentierte Otto u.a. mit modularen und veränderlichen Drahtmodellen, die er in Seifenlauge tauchte, wodurch sich dünne Laugenmembranen als dreidimensionale Flächentopologien über diverse Maßstabskonstruktionen spannten.10 Mittels der eigens konstruierten Modelle konnten Gaudí und Otto die entstehenden Formen im unmittelbaren Abgleich visuell iterieren, d.h. die Parameter, etwa die Masse und Position der Gewichte bzw. die Höhe der Aufhängepunkte im Drahtmodell, verändern, ohne den Formfindungsprozess zu unterbrechen.11 So ließen sich mit einem einzigen Modell multiple Entwurfsvarianten hervorbringen, weil nun nicht mehr einzelne Entwürfe als feststehende Konstrukte, sondern die Rahmenbedingungen für die Exploration einer Bandbreite von Entwürfen als kontinuierlicher Prozess im Modell definiert wurden. Die assoziative Veränderung war in der Modellstruktur bereits mit angelegt: Veränderten sich die Parameter (Gewicht, Position etc.), änderte sich die Flächentopologie demgemäß gleich mit. Gaudís und Ottos Formfindungsmodelle bildeten demgemäß parametrische Systeme,12 in welchen bestehende Abhängigkeiten (Gewichte zu Kurvenform bzw. Drahtgestell zu Flächenform) in sichtbare Formen praktischer

9

10

11

12

Die resultierenden Formen entstanden dementsprechend auf dem Kopf stehend und mussten zur Realisierung invertiert werden. Gaudí nutzte daher zur unmittelbaren Evaluation der Form unter dem Modell verlegte Spiegelflächen. Vgl. Tomlow (1989). Vgl. Vrachliotis; Kleinmanns; Kunz; Kurz; Otto (2016); Liptau (2015). Otto suchte in seinen Experimenten dabei verstärkt Inspiration in der Formenvielfalt der Natur; durch die Analyse von Zellstrukturen, Knochen, Stämmen, Halmen, Kieselalgen, Spinnennetzen, Sandhügeln oder Seifenblasen. Vgl. Hanselka; Schielke; Vrachliotis; Kurz (2016: 18). Entsprechend gilt Otto auch als früher Vertreter der Bionik, »indem er Kräftegesetze der Natur unmittelbar in Konstruktion übersetzt[e]« Kruft (1995: 507). Das Prinzip der Formfindung im veränderbaren Modell erweiterte dabei die traditionellen Praktiken der Handzeichnung. Es markiert gleichsam einen Anspruch an eine objektiv ›natürliche‹ und ›richtige‹ Form, die nicht etwa der reinen Willkür des Architekten, sondern vielmehr zum Großteil natürlichen Gesetzmäßigkeiten entspringt und die es als ›wahre‹ und ›vollendete‹ Gestalt lediglich zu finden gilt, wodurch nicht zuletzt eine Parallele zur gestalttheoretischen Auffassung ersichtlich wird: »Die Gebäudeform entwickelt sich aus intensiver Untersuchung. Je eingehender diese Untersuchung, je freier von vorgefasster Meinung der Architekt, desto größer die Chance, eine Form höchster plastischer Qualität und damit symbolischen Ausdrucksgehaltes zu finden.« Otto zitiert nach Vrachliotis (2016: 23). Neben Gaudí und Otto waren es vor allem Heinz Isler (1926-2009) und Sergio Musmeci (1926-1981), welche mittels dynamischer Modelle versuchten, Prinzipien der natürlichen (gesetzmäßigen, physikalischen) Formfindung auf die Architektur zu übertragen. Vgl. Tedeschi (2014: 18). Für das Feld der Produktgestaltung hat Max Bill im Jahr 1956 eine ähnliche Methode zur Suche nach ›wissenschaftlich‹ richtigen Entwurfslösungen vorgeschlagen, die sog. morphologische Methode, welche die »herstellung eines einheitlichen feldes [ermöglicht], innerhalb dessen die wahl getroffen werden kann. dieses feld ermöglicht es, die wahrscheinlichen möglichkeiten zu finden, vorerst unter ausschaltung persönlicher bevorzugungen« Bill (1956/2008b: 104). Vgl. Jabi (2013: 10ff).

19

20

Prozess als Gestalt

Handhabung übersetzt wurden, wodurch Veränderungen eine unmittelbare Nachvollziehbarkeit erhielten und Formvarianten vor allem schnell herbeizuführen waren, als stark verdichtete Zyklen des ›trial-and-error‹. Dem Gestalter (Architekten) kam dabei entsprechend weniger eine ausführende als vielmehr eine anleitende, evaluierende und dezisive Rolle zu.13 Während Gaudí und Otto weithin als prominenteste frühe Vertreter eines parametrischen Entwerfens gelten, lässt sich die historische Entwicklungslinie parametrischer Mechanismen und Denkweisen jedoch noch wesentlich weiter zurückverfolgen. Überall dort, wo weltliche Phänomene in handhabbare Größen übersetzt, innerhalb modellierter Umgebungen in assoziative Verhältnisse gebracht und mit Hinsicht auf ihre implizite Veränderbarkeit geplant wurden, lassen sich parametrische Wirkmechanismen ausfindig machen; d.h. in jenen Anwendungskontexten, in denen gemessen, gezählt, notiert, geplant und gebaut wurde. Entsprechend lassen sich die Anfänge der parametrischen Entwicklungslinie auf die Ursprünge der anwendungsorientierten (vorgriechischen) Mathematik zurückführen: auf die Prä- und Frühdynastische Zeit (Altes Ägypten und Mesopotamien), in welcher die Entstehung der Geometrie und der Arithmetik – auch wenn sie erst in der griechischen Mathematik als getrennte Felder benannt und behandelt wurden –14 aus der praktischen Notwendigkeit hervorging, weltliche Phänomene durch die Übersetzung in messbare Größen handhabbar zu machen,15 d.h., sie als abstrakte Gebilde zu ordnen und Vergleichbarkeit herzustellen, um etwa Eigentum abgrenzen oder wirtschaftliche Prozesse notieren und verwerten zu können.16 Es wurden neue Bezugssysteme geschaffen, in denen den Dingmengen Zahlenbegriffe zugeordnet wurden, wodurch sich Verhältnisse, Abhängigkeiten und Veränderbarkeiten überhaupt erst darstellen und bearbeiten ließen. Während sich die vorgriechische Mathematik entsprechend vor allem darauf verstand, aus dem direkten Bezug zur Wirk-

13

14 15

16

Otto spitzt dies insofern weiter zu, als dass er dem Prozess der Formgenerierung die aktive entwerferische Einflussnahme ganz und gar abspricht, wenn er anführt, dass »Gebäudeformen überhaupt nicht entworfen werden sollten – der Architekt kann nur Hilfe leisten, wenn sie entstehen« Otto zitiert nach Vrachliotis (2016: 23). Vgl. Neugebauer (1934: 121). Wie Lelgemann es in vier Hypothesen zusammenfasst: »1. Die Genesis der Messkunst waren praktische Bedürfnisse. 2. Messkunst beruht auf Maßeinheiten, Messinstrumenten, Messmethoden und MesszahlVerknüpfungen mittels geometrischer Konstrukte. 3. Die Genesis der Mathematik war die Messkunst. 4. Das Resultat jeder Messkunst sind numerische Angaben.« Lelgemann (2010: 23). Die babylonische Keilschrift gilt dabei als mitunter frühestes Notationssystem (im Sexagesimalsystem auf Basis der Zahl 60) zur Erfassung wirtschaftlicher Verhältnisse in Form mathematischer Berechnungen, etwa von Zahlungen, Inventarbeständen oder Flächenabgrenzungen. Vgl. Neugebauer (1934: 117, 166ff); Frey (1967: 8ff); Pichot (1995: 48ff). Während sich die babylonische Mathematik vorwiegend auf die algebraische Berechnung weltlicher sozialer und wirtschaftlicher Verhältnisse verstand, lässt sich die Entstehung der ägyptischen Mathematik, wie sie von den griechischen Autoren seit Herodot überliefert wurde, vor allem auf geometrische Fragen der Landvermessung (Feldmesskunst) zurückführen, die deshalb notwendig wurde, da das Land nach jeder Überschwemmung des Nils zur Steuerbemessung neu vermaßt und verteilt werden musste. Vgl. Russo (2005: 74ff); Cantor (1894: 61ff); Frey (1967: 10ff); Neugebauer (1934: 121ff); van der Waerden (1956: 24ff).

2. Parametrie – Begriff und Entwicklung

lichkeit abstrakte Formen der praktischen Anwendbarkeit herzuleiten,17 vollzog sich die Entwicklung der griechischen Mathematik in geistigen Anleihen der ägyptischen und babylonischen Fundamente18 hin zu einer eigenen »axiomatisch fundierte[n] und streng beweisende[n] Wissenschaft«,19 dessen griechische Vertreter »Mathematik um der Mathematik willen« betrieben.20 Das pythagoreische Weltbild war bestrebt, die Welt nach rationalen Zahlenverhältnissen zu ordnen,21 d.h., eine neue Ebene der (rationalen) Abstraktion einzuführen, die es ermöglichte, wahre Erkenntnis darzustellen und zu vermitteln.22 Ein Maßsystem, das dies besonders anschaulich machte, indem es arithmetische und geometrische Betrachtungsweisen miteinander vereinte, war jenes der figurierten Zahlen, ein Raster-basiertes Spielsteinsystem, in welchem Zahlen als grafische Elemente (Steine, Punkte oder Kreise) visuell ›berechnet‹ (gelegt) und dadurch nunmehr Proportionen unmittelbar an der ganzheitlichen Gestalt (als Quadrate, Dreiecke oder Rechtecke) abgelesen werden konnten.23 In dieser Hinsicht verkörperten figurierte Zahlen in rückwärtiger Betrachtung nicht nur gestalttheoretische Ansätze der Ganzheitswahrnehmung einzelner Wahrnehmungsinhalte als Gestalt, verstanden als harmonische Ordnung mit eigener Bedeutungsqualität,24 sondern ebenso jene der assoziativen Übersetzungslogik parametrischer Mechanismen. Neben der arithmetischen und geometrischen etablierte sich im pythagoreischen Weltbild entsprechend eine harmonische Dimension,25 wie sie etwa sowohl für die griechische Plastik im polykleti17

18 19

20 21 22 23

24

25

»Wir können also zusammenfassend feststellen, daß in jenen Frühzeiten, in denen die Reflexion noch eine geringe Rolle spielte, die Entstehung der Mathematik und ihre Anwendung auf die uns umgehende Wirklichkeit noch eng verbunden waren.« Frey (1967: 12). Vgl. Sprague de Camp (1964: 101); Russo (2005: 34ff); van der Waerden (1956: 57ff). Meschkowski (1997: 24). Anschaulich wird dies vor allem an der um 300 v. Chr. entstandenen Schrift der ›Elemente‹ des Euklid, welcher die Beweisführung mathematischer Prinzipien innerhalb eines logisch geschlossenen Programms verhandelt. Vgl. Euklid; Lorenz (1809); Meschkowski (1997: 43ff). Frey (1967: 18). Gemäß der pythagoreischen Überzeugung wurde »die Vielheit der Welt […] durchschaubar durch die Gesetze der Zahl« Meschkowski (1997: 25). Vgl. Frey (1967: 14ff). Vgl. Ebd.: 13ff; Herrmann (2014: 28); van der Waerden (1956: 162ff). Pichot spricht dementsprechend auch von einer »Geometrisierung der Zahlen«, an denen die Eigenschaften der jeweiligen Konstellation »unmittelbar sichtbar gemacht« werden, insofern, als dass bspw. »die Summe der aufeinanderfolgenden ungeraden Zahlen stets ein Quadrat ergibt – eine Zahl, die gleichzeitig geometrisch als Quadrat oder [arithmetisch] als 2. Potenz dargestellt werden kann; […]« Pichot (1995: 336-337). In dieser Hinsicht verkörperten figurierte Zahlen ein Maßsystem, das aufgrund dessen assoziativer Übersetzungslogik als ein parametrisches System verstanden werden kann. So bezeichnet etwa Max Bill den Gestalt-Begriff als »harmonische[n] ausdruck der summe aller funktionen« (Bill (1958/2008: 135)), wobei er Funktionen als die wechselseitigen Relationen von Ereignissen versteht. Es sei entsprechend »die natürliche, die selbstverständliche erscheinung« einer Form, die an ihr die Qualität ihrer Gestalt ansichtig werden lässt. Ebd. Vgl. Herrmann (2014 : 28); Diels (1965 : 25); Poulsen (1962 : 6); Gruben (2007 : 84). Van der Waerden fasst die pythagoreische Harmonielehre, d.h. die Lehre von Verhältnissen, in diesem Zusammenhang anschaulich zusammen: »Wenn eine Saite oder eine Flöte um die Hälfte kürzer gemacht wird, wird der Ton eine Oktave höher. Ebenso gehören zu den Verkürzungsverhältnissen 3:2 und 4:3 die Intervalle Quinte und Quarte. Die Einsicht, dass die wichtigsten symphonen Intervalle auf diese Art durch die Verhältnisse der Zahlen 1, 2, 3, 4 erhalten werden, war für die Pythagoreer von hervorragender Bedeutung: Es bestätig-

21

22

Prozess als Gestalt

schen ›Kanon‹ als Harmonie- und Proportionslehre26 als auch insbesondere im griechischen Bauwesen eine unmittelbare Anschaulichkeit erhielt; bei Letzterem etwa in der Konzeption frontaler Tempelfassaden, der Wahl der Säulenordnung oder der Festlegung übergeordneter Maßverhältnisse.27 Durch die rationale Berechnung von Proportionen und Maßverhältnissen ließ sich die griechische Baukunst zunehmend mehr als planerische Tätigkeit begreifen.28 Entsprechend verfestigten sich übergreifend Bautraditionen der modularen und repetitiven Anordnung einzelner Bauelemente, wie es mitunter an diversen Tempel- und Gemeinschaftsbauten, etwa dem Parthenon auf der Athener Akropolis oder dem Thersilion im damaligen Megalopolis, anschaulich wird.29 Die den archäologischen Überresten nachempfundenen Grundrisszeichnungen zeigen dabei auf, dass die Planung der Bauten in weiten Teilen einer übergeordneten Grammatik folgte, in der die mögliche Veränderung des Entwurfs im Entwurf immer auch gleich mit angelegt war.30 So waren etwa die insgesamt 67 tragenden Säulen im Innenraum des genannten Thersilions, einer rund 3000 m² großen Versammlungshalle mit Platz für mehr als 6000 Menschen,31 so angeordnet, dass sie konzentrische Fluchtlinien zum im südlichen Zentrum der Halle stehenden Podium bildeten und dadurch für jeden Versammlungsteilnehmer von jeder Position aus eine freie Sicht auf den Redner gewährleisteten.32 In der Planung der Grundstruktur der Versammlungshalle wurde entsprechend eine Beziehung zwischen dem Standpunkt des Podiums und der darauf ausgerichteten Säulenkonfiguration etabliert, ein »inneres Strukturgesetz«,33 das auch bei Veränderung der Parameter (Größe der Halle, Säulenanzahl, Position des Podiums etc.) stets konsistent blieb und sicherstellte, dass jede konstruktive Lösung stets mit dem festgelegten Ziel (freie Sicht auf den Redner) übereinstimmte. Die Konfiguration der Variablen konnte entsprechend für den einen Fall so, für einen anderen wiederum auch

26

27 28

29 30

31 32 33

te ihre allgemeine These ›Alles ist Zahl‹ oder ›alles ist nach Zahlen geordnet‹.« van der Waerden (1956: 156-157). Vgl. dazu Beck; Polyclitus (1990); Hafner; Polyklet (1997); Wundsam (1966). Polyklet ging es dabei mitunter um die theoretische Manifestierung von Proportionsverhältnissen des menschlichen Körpers, die aus den beiden Hauptprinzipien des Kanons abzuleiten sind, dem rhythmos (Komposition) und der symmetria (Proportionalität). Vgl. dazu Flynn (1998: 36). Vgl. Müller (1989: 86); Müller-Wiener (1988: 29ff). Dies führte jedoch nicht zu vereinheitlichenden und verbindlichen Baudefinitionen, sondern vielmehr zu einer übergeordneten Stilstruktur, die für jedes Bauprojekt stets aufs Neue als Kompromiss verschiedenster Faktoren, etwa den technischen Bedingungen, der finanziellen Möglichkeiten oder der lokalen Bautraditionen, verhandelt wurde. Vgl. Müller-Wiener (1988: 29). Vgl. dazu etwa die Darstellungen griechischer Tempelformen, ihrer Grundrisse und Säulenordnungen bei Müller (1989: 129ff); Müller-Wiener (1988: 138ff). So etwa in den Grundrisszeichnungen sowohl des Apollontempel im Thermos-Heiligtum in Ätolien als auch in den Hera-Tempeln (Heraion) in Samos, Paestum und Olympia. Vgl. Abb. 67 bei White (1984: 75). Vgl. Lauter-Bufe (2017). Vgl. Abb. 68b bei White (1984: 77). Der Ausdruck der inneren Strukturgesetze geht auf den Gestaltpsychologen Max Wertheimer zurück und beschreibt im gestaltpsychologischen Vokabular die wechselseitige Verbundenheit von Einzelphänomenen, auf der die Wahrnehmung derselben als Ganzheit gründet und durch welche sich gleichsam dessen übersummative Qualität ergibt. Vgl. Wertheimer (1925: 42). Eine ausführliche Erörterung der gestalttheoretischen Maximen erfolgt in Kap. 5 ›Gestalt und Parametrie‹.

2. Parametrie – Begriff und Entwicklung

anders ausfallen. In ihr waren nicht absolute Maße festgelegt (gr. ›metron‹ = dt. ›das Maß‹), sondern die nebenstehenden Bedingungen (gr. ›para‹ = dt. ›gegen/neben‹), d.h. die Parameter der zu konstruierenden, ganzheitlichen Gebäudegestalt. Während sich parametrische Bedingungen innerhalb griechisch-antiker Planungsprozesse durch rationale Zahlenverhältnisse und Proportionen artikulieren ließen, wurde diesen in der eigentlichen Ausführung der Konstruktion am Bau geradezu entgegengearbeitet. Die sog. optischen Korrekturen, die ab dem 6. Jh. v. Chr. zunehmend im antiken Hellas Verbreitung fanden,34 sollten der mathematischen Strenge der Tempelbauten und den damit einhergehenden ›verzerrten‹ Seheindrücken durch die individuelle Anpassung einzelner Komponenten entgegenwirken: etwa sowohl durch die proportionale Verdickung und Verjüngung einzelner Säulen (Entasis/Inklination) als auch durch die mittige Überwölbung des obersten Tempelplateaus (Kurvatur), des sog. Stylobat.35 Durch optische Korrekturen sollte einem »geistlose[n] und nicht anmutige[n] Anblick«36 resp. einem »schwülstige[n] und unschöne[n] Aussehen«37 entgegengearbeitet werden, wie der römische Architekt Vitruv es später darlegte; »Denn das Auge scheint die Dinge nicht zu sehen, wie sie wirklich sind, sondern der Verstand wird in seinem Urteil öfter von ihm getäuscht.«38 Entsprechend »muß die optische Täuschung durch Berechnung künstlich ausgeglichen werden.«39 Gemäß dieser Beobachtungen ging es im griechisch-römischen Bauwesen – im ästhetischen Idealfall – entsprechend weniger um die starre Anwendung berechneter Maße und Proportionen im Einzelnen, sondern um die für jeden Anwendungsfall neu abzuwägenden Anpassungen der Proportionen mit Hinsicht auf die harmonische Gesamtgestalt des Baus in seiner jeweiligen Umgebung.40 Demgemäß lässt 34 35 36 37 38 39 40

Vgl. Müller-Wiener (1988 : 135). Vgl. Ebd. : 135ff; Büsing (1984) als auch die schriftliche Überlieferung der Thematik durch den römischen Architekten Vitruv bei Vitruv; Fensterbusch (1964/1991: 6.2. 1-5, 3.3.11-13). Ebd.: 3.3.13. Ebd.: 3.3.11. Ebd.: 6.2.2. Ebd.: 3.3.11. Der Anspruch an eine solche harmonische Gesamtgestalt wird dabei etwa in Vitruvs Ordnungsprinzipien anschaulich, vor allem an jenen der eurythmia und der symmetria. Vgl. Ebd.: 1.2.1-9. Während eurythmia den Anspruch an eine »harmonische Gliederung des Bauwerks« benennt, beschreibt symmetria »das Verhältnis der Teile eines Bauwerks untereinander und zum Ganzen auf der Basis eines festgelegten Moduls« Johannes (2009: 74). Dabei diente grundlegend der menschliche Körper als Ausgangspunkt und Maß der idealen Proportionen: »Denn kein Tempel kann ohne Symmetrie und Proportion eine vernünftige Formgebung haben, wenn seine Glieder nicht in einem bestimmten Verhältnis zu einander stehen, wie die Glieder eines wohlgeformten Menschen.« Vitruv; Fensterbusch (1964/1991: 3.1.1). Demgemäß manifestierte Vitruv ein anthropomorphes Maßsystem, das letztlich im sog. vitruvianischen Menschen eine plastische Anschaulichkeit erhielt und in der Renaissance von Protagonisten wie Alberti, Vasari und Palladio wieder aufgenommen (»Im Ganzen und in den Teilen muß das Gebäude nach dem Vorbild des menschlichen Körpers gestaltet sein. […]« Vasari; Lorini; Burioni (2006: 73)) und u.a. durch Begriff des disegno neu belebt wurde: »So kommt es, daß disegno nicht nur in menschlichen und tierischen Körpern, sondern auch in Pflanzen, Gebäuden, Skulpturen und Gemälden das Maßverhältnis des Ganzen zu den Teilen, der Teile zueinander und der Teile zum Ganzen erkennt.« Ebd.: 98. Entsprechend kann Vitruv gleichsam als Wegbereiter sowohl einer parametrischen Herangehensweise an die gestalterische Praxis als auch einer gestalttheoretischen Auffassung der Ganzheitswahrnehmung betrachtet werden.

23

24

Prozess als Gestalt

sich die Herangehensweise der griechisch-römischen Baumeister nicht nur in planerischer, sondern ebenso in ausführender Hinsicht als parametrisch verstehen, insofern, als dass sie der starren Berechnung und Anwendung absoluter Ergebnisse fortwährend entgegenarbeiteten, indem sie die rationalen Maßstäbe einer objektiven Berechenbarkeit buchstäblich aus menschlicher Perspektive infrage stellten und sie auf einer neu geschaffenen Gestaltungsebene zweiter Ordnung abermals verhandelten.41 Diese Beobachtung erhält durch die Übertragung in die digitale Gegenwart eine neue Brisanz: Was in der griechisch-römischen Antike zunächst in mühseliger und manueller Kleinarbeit mathematisch ausdifferenziert, in Proportionsverhältnisse übersetzt und auf Basis der menschlichen Wahrnehmung optisch korrigiert wurde,42 kann gegenwärtig innerhalb digitaler Entwurfsmedien durch multiple Übersetzbarkeiten, algorithmische Funktionen und prozedurale Modellierumgebungen als kontinuierlicher Prozess unmittelbar am Entwurf selbst nachvollzogen und durchgehend reversibel verhandelt werden.43 Ein solches ›parametrisches Design‹, wie es insbesondere in der Architektur seit den 2000er-Jahren stets stärkere Etablierung fand,44 versteht sich dabei auf die unmittelbare Sichtbarmachung ganzheitlicher Formgestalten als Resultat der assoziativen Bedingungen (Parameter), die ihnen vorgelagert sind. Über letzte41

42

43

44

Die optischen Korrekturen lassen sich in parametrischer Hinsicht entsprechend als neue Bezugssysteme (zweiter Ordnung) für bestehende Bezugssysteme (erster Ordnung) verstehen; als neu etablierte Zusammenhänge zwischen den Messgrößen resp. als neue Nebenmaße (Parameter). Vitruv führt etwa an, dass »man die Ecksäulen um den fünfzigsten Teil ihres Durchmessers dicker machen« müsse oder der Säulenschaft einer 15 bis 20 Fuß hohen Säule »in 6 12 Teile geteilt werden und die obere Dicke der Säule 5 21 dieser Teile betragen« solle. Vitruv; Fensterbusch (1964/1991: 3.3.11-12). Vitruv formulierte entsprechend Abhängigkeiten, die bestehende Abhängigkeiten als Referenz vereinnahmten. Damit schuf er ein mehrdimensionales Beziehungsgeflecht, wie es auch für parametrische Systeme charakteristisch ist. Die römische Baukultur beruhte dabei in wesentlichen Aspekten auf der griechischen (vgl. Vogt (1951: 321ff)), erweiterte sie jedoch insofern zu einer gewissen Eigenständigkeit, als dass durch die Ausdehnung des Römischen Reiches und die damit zusammenhängende erhöhte Nachfrage sowie die schnelle Bedarfsdeckung Formen der Standardisierung und der Rationalisierung der Produktionsbedingungen notwendig wurden: Bspw. wurden Statuen und Kaiserabbilder als Rohlinge in Einzelteilen vorgefertigt (vgl. Lahusen (2010: 191); Nolte (2006: 144, 151)), Bauteile in Serienproduktionen hergestellt (vgl. Lamprecht (1985)) und Vorläufer massenindustrieller Fabriken etabliert (vgl. Schneider (1992: 98)). Entsprechend kann auch die römische Antike in der Rückschau unter parametrischen Vorzeichen gedeutet werden, wie es in der vorliegenden Diskussion jedoch nicht weiter vertieft werden soll, um den Fokus auf der gestalterischen Praxis der Gegenwart zu halten. Erste Zugänge zu einer solchen Form parametrischen Entwerfens legte Ivan Sutherland 1963 mit der von ihm entworfenen (ersten) digitalen, grafischen Mensch-Maschine-Schnittstelle ›Sketchpad‹ (›A man-machine graphical communication system‹), mit welchem es möglich war, primitive grafische Körper nicht nur zu zeichnen, sondern auch Beziehungen (Parallelität, Orthogonalität, Symmetrie etc.) zwischen ihnen festzulegen. Vgl. sowohl Sutherland (1963) als auch den historischen Abriss bei Davis (2013a: 1ff); Tedeschi (2014: 20ff). Sketchpad markierte den Anfang der Entwicklung digitaler CAD-Programme, wie sie ab den 1970er-Jahren zur Modellierung und Evaluierung von Entwürfen genutzt wurden und seitdem sowohl in ihren Funktionen als auch in ihrer allgemeinen Verbreitung stets weitere Ausdehnung erfahren haben. Vgl. dazu etwa Woodbury (2010); Jabi (2013); Tedeschi (2014); Terzidis (2006); Schumacher (2009); Schumacher (2013).

2. Parametrie – Begriff und Entwicklung

re lassen sich Formgenerierungsprozesse entsprechend nicht nur auf technisch-funktionaler, sondern ebenso auf formalästhetischer Ebene steuern, wie es bspw. an den Entwürfen des Londoner Architekturbüros Zaha Hadid besonders anschaulich wird, welche durch ihre oftmals geschwungene, polymorphe und integrative Formgebung der sie umgebenden (Natur-)Landschaft ein geradezu künstlich-technifiziertes Pendant gegenüberstellen, das sowohl mit dessen Umgebung zu verschmelzen scheint als sich auch gleichzeitig als autarke und selbstreferenzielle Einheit ihr gegenüber zu behaupten sucht.45 Die Entwürfe sind von einer Spannung und Dynamik geprägt, die durch fließende Formübergänge, prägnante Kontraste und polygonale Muster nicht etwa endgültigen Stillstand, sondern progressive Veränderung versinnbildlichen – den Eindruck, dass der Entwurf so, oder auch ganz anders aussehen könnte, würden die konkreten Werte der formgebenden Parameter nur vereinzelt etwas abgewandelt werden. Die Gebäudeentwürfe resp. ihre inneren Strukturgesetze suggerieren dabei Veränderbarkeit bei gleichbleibender Stabilität ihrer Gesamtgestalt und Erhalt dessen übersummativer Qualität, verstanden als das Zaha-Hadid-Haftige, indem sie nicht den Eindruck eines einzig wahren Entwurfs, sondern vielmehr den einer Bandbreite unendlich vieler richtiger Entwürfe evozieren. Die konkrete, auf Dauer gestellte Form scheint dabei sinnbildlich und fortwährend gegen sich selbst zu arbeiten – im Sinne eines para-metrischen Prozesses (gr. ›para‹ = dt. ›gegen/neben‹, gr. ›metron‹ = dt. ›das Maß‹) bzw. als optische Korrektur, die sich stets aufs Neue selbst zu korrigieren sucht und gerade dadurch als Veränderung inkorporierende Prozessgestalt erfahrbar wird.46 Der dargelegte knappe Abriss einer parametrischen Entwicklungs- und Wirkungsgeschichte konnte somit anschaulich machen, dass Parametrie weniger als ein Phänomen der (digitalen) Oberfläche, sondern vielmehr als eines der wahrnehmungsspezifischen Tiefenstruktur gestalterischer Prozesse zu verstehen ist. Eine parametrische Betrachtung gestalterischer Prozesse und Praktiken verschiebt dabei den Fokus von den starren Einzeldingen zu den dynamischen Beziehungen, die zwischen ihnen bestehen, indem Parameter den komplexen, teils kontroversen und widersprüchlichen Wechselbeziehungen zwischen den Einzeldingen nicht nur eine unmittelbare Sichtbarkeit und Handhabbarkeit verleihen, sondern damit gleichsam ihre Gestaltbarkeit verkörpern, nicht zuletzt, weil in ihnen die Veränderung im Entwurf immer gleich mit angelegt ist 45 46

So etwa das Heydar Aliyev Cultural Center in Baku, Aserbaidschan oder das Port House in Antwerpen, Belgien. Vgl. https://www.zaha-hadid.com/, abgerufen am 30.06.2020. So anschaulich der parametrische Gedanke anhand dieser Interpretation wird, so unzureichend wäre es, die ästhetische Dimension von Parametrie als einzige wesentliche anzunehmen, wie es vor allem durch Patrik Schumacher, der bis 2016 leitender Architekt bei Zaha Hadid war, als ›Parametrizismus‹ (›Parametricism‹) resp. als ›New Global Style for Architecture and Urban Design‹ und damit als epochale Ausdrucksform einer »Eleganz von geordneter Komplexität« (›elegance of ordered complexity‹, Schumacher (2009: 15)) provokativ und medienwirksam erfolgt ist. In einer solchen Betrachtung erscheint ›parametrisches Design‹ allenfalls als die sichtbare und nicht zuletzt kommerziell taugliche Oberfläche einer stilistischen Bewegung, die den Kern und das Potenzial parametrischer Mechanismen in der gestalterischen Praxis jedoch verfehlt. Davis fasst die Rolle Schumachers entsprechend wie folgt zusammen: »After all, it is the stylistic outputs that Schumacher sees, not the methodology or procedure.« Davis (2013a: 29). In dieser Hinsicht soll Parametrie in der folgenden Auseinandersetzung nicht als Phänomen der Oberfläche, sondern als eines der Tiefenstruktur gestalterischer Prozesse verstanden werden.

25

26

Prozess als Gestalt

und damit fortwährend die Möglichkeit, die Dinge auch anders zu betrachten. Durch Parameter lassen sich Prozesse visuell erfassen, multimedial übersetzen, assoziativ verbinden, relational gewichten und reversibel bearbeiten. Sie ziehen komplexe Prozesse an einem Ort zusammen und lassen sie als ganzheitliche Gestalten wahrnehmen und verändern; nicht mehr im Modus eines linear aufeinander aufbauenden Nacheinanders, sondern im sorgsam abgesteckten Spielraum eines zyklischen und gleichzeitigen Nebeneinanders, in welchem etablierte Beziehungen aufgebrochen, neu verhandelt und in auch andere Sinnzusammenhänge gebracht werden können. Parameter verkörpern dementsprechend nicht absolute Wahrheiten, sondern relative Richtigkeiten, und diese sorgsam – und immer wieder neu – auszubilden, zu argumentieren und visuell zu kommunizieren, ist Aufgabe des (parametrischen) Gestalters. In dieser Hinsicht werden Prozesse als Gestalten durch Parametrie erfahrbar und damit auch erst gestaltbar. Welche Mechanismen und Vorgänge daran beteiligt sind, wo sie verortet sind und wo sie hinführen, soll die folgende Erörterung aufzeigen.

3. Handwerk und Parametrie

Handwerkliche Prozesse sind Gestaltungsprozesse: Eine Idee in einen Plan zu übersetzen, den Plan auszuführen und letztlich ein Ergebnis zu begutachten, versinnbildlicht eine Prozesskette, die einen Regelkreis schließt – nicht zuletzt einen der Sinnhaftigkeit. In einem solchen – handwerklichen – Prozess verdichten sich mitunter Kreativität, Planungsverhalten, Arbeitsfleiß, Leidenschaft, Ordnungssinn, Sparsamkeit, Zielorientiertheit, Qualitätsbewusstsein und Lernprozesse zu einer Leistung,1 die aus einem ursprünglichen Material ein spezifisches Ding werden lässt, das bestimmte Qualitäten auf sich vereint.2 Handwerker operieren entsprechend nah am Gegenstand, erfassen ihn nicht nur formal, sondern in seiner konkretesten, materialisierten Form. Sie lernen ihn sukzessiv kennen, formen ihn durch ihre Hände, eignen sich Praktiken zumeist nicht durch Lehrbücher, sondern durch körperliche Erfahrung an. Die Form der Wissenstradierung ist demnach weniger eine akademisch-methodologische, sondern vielmehr eine der imitativen Praxis resp. der Nachahmung.3 Die Objekte der Bearbeitung sind sogleich immer Unikate. Sie vermitteln in ihrer Eigenheit den Wert eines menschlichen Bezuges, der in industriellen Produktionsweisen nicht mehr zwangsläu-

1

2

3

Vgl. Bauer; Stöckle; Panter (1996: 9ff). Der Begriff des Handwerks ist ein vielschichtiger, der sich einer allgemeingültigen Definition weitestgehend entzieht. Doch lassen sich übergreifende Merkmale festhalten, die dem Begriff und seinen Eigenarten eine grobe Kontur verleihen, wie Elkar, Keller et al. es darlegen: Erstens zeichnet sich die handwerkliche Tätigkeit durch menschliche Handarbeit aus. Zweitens arbeitet sie an der stetigen Verbesserung ihrer Werkzeuge. Drittens wird handwerkliches Können praktisch erlernt und weitergegeben. Viertens ist jede handwerkliche Leistung eine individualisierbare und damit einzigartige. Fünftens meint Handwerk immer auch ein Arbeiten in sozialer Gemeinschaft. Sechstens befindet sich Handwerk als Begriff und Tätigkeit in stetigem Wandel. Vgl. Elkar; Keller; Schneider (2014: 9). Der etymologische Ursprung des Begriffs Ding geht dabei auf das althochdeutsche Wort ›thing‹ zurück, das vor allem die Bedeutung des Übereinkommens und der Versammlung auf sich vereint, wie sie später auch in Heideggers Existenzphilosophie Berücksichtigung findet. Vgl. Kluge; Seebold (2011: 202), Ding als auch Heidegger (1927/2006). Vgl. dazu den Begriff der ›working knowledge‹ bei Harper (1992) sowie den Begriff der ›tacit knowledge‹ bei Polanyi (1985).

28

Prozess als Gestalt

fig gegeben ist.4 Darüber hinaus tendieren handwerkliche Praktiken und Objekte nicht selten dazu, eine verstärkt romantische Sicht auf die Dinge anzubieten und ein nostalgisches Bild des Handwerks und dessen qualitativer Arbeit nachzuzeichnen.5 Doch kann nicht verneint werden, dass auch die Praktiken des Handwerks über definierte Vorgehensweisen, technologische Werkzeuge, planerische Handlungen und Denkstrategien verfügen, die den Entwurfs- und Herstellungsprozess einem Modus der Effizienz unterwerfen. In Architektur, Bildhauerei und Kunst ist dieses Moment seit jeher gegeben, nicht zuletzt aus ökonomischen Beweggründen: Gebäude, Statuen wie auch Gemälde, die auftragsbasiert gefertigt werden, bedingen allein durch ihre ökonomische Anschlussverwertung eine planerische Voraussicht: Wird das Ziel nicht eingehalten, erfolgt auch keine Vergütung, die den Lebensunterhalt sichert.6 Ist hier im Folgenden also von Handwerk zu sprechen, versteht sich die Perspektive nicht auf eine romantische-nostalgische Vorstellung der Prozesse und Phänomene, sondern auf eine technisch-rationale. Dies bildet den Anschlusspunkt für die parametrische Diskussion, da Parametrie innerhalb der Entwurfspraxis zwischen der Virtuosität der handwerklichen Praxis und der stringenten, planerischen Koordination von Prozessen vermittelt – durch die Setzung und Variation von Parametern, Abhängigkeiten und dem spielerischen Abgleich der Ergebnisse. Für die Praxis des Entwerfens soll entsprechend herausgestellt werden, inwieweit Prozesse des traditionellen Handwerks parametrisch gedacht und mit Hinblick auf die digitalen Entwurfsmedien der Gegenwart interpretiert werden können. Um dies anschaulich aufzuzeigen, seien im Folgenden ausgewählte Beispiele aus dem Musikinstrumentenbau angeführt; einerseits aufgrund der weit zurückreichenden vorhandenen Literatur, an welcher nicht zuletzt die evolutionäre Entwicklung der Musikinstrumente und Bearbeitungswerkzeuge abzulesen ist,7 andererseits und vor allem jedoch aufgrund der Vielfalt der Prozesse und Herangehensweisen, die ein hohes Maß an Präzision, Messbarkeit und Erfahrungswissen voraussetzen. Die

4

5

6

7

»Wo der arbeitende Mensch durchgängig dem Takt der Maschine folgen muss, endet Handwerk und herrscht Fabrikarbeit.« Elkar; Keller; Schneider (2014: 9). Vgl. zur Anonymität industrieller Produktionsweisen auch Giedion (1987). Eine derartige Darstellung findet sich etwa bei Sennett (2014), der beinahe sämtliche (gegenwärtigen) Berufsfelder der Handwerksausübung zuordnet, dadurch, dass »sie ihrer Arbeit mit Hingabe nachgehen und sie um ihrer selbst willen gut machen wollen« Ebd.: 32. Vgl. dazu auch das sog. FlowErlebnis bei Csikszentmihalyi (2010), wonach sich bei der intensiven, ausgiebigen Beschäftigung mit einem Phänomen resp. einem »autotelischen Erleben eines […] völligen Aufgehens des Handelnden in seiner Aktivität« ein erlebtes Glücksgefühl einstellt. Ebd.: 58. Letzteres findet sich bereits bei Aristoteles umschrieben, wenn er davon spricht, dass »ein glücklicher Mensch« resp. der »wirklich tüchtige und besonnene Mann […] aus dem jeweils Gegebenen das denkbar Beste gestaltet. […] [D]er tüchtige Schuster fertigt aus dem Leder, das er zur Hand hat, das schönste Schuhwerk, und so machen es die Handwerker alle.« Aristoteles (2013: 1100b 25 – 1101a 15). Vgl. eine entsprechende Definition von ›Handwerk‹ auch bei Kurz (2015: 14-22). Dabei stellt sie im Verweis auf Sombart das Handwerk als wirtschaftliche Organisationsform heraus, in welcher der Handwerker als »selbstständiger Produzent die materielle Basis für seine Existenz erwirtschaftet« Ebd.: 19. Eine zeithistorische und funktionelle Rekapitulation der Entwicklungen findet sich etwa bei Jüttemann (2010).

3. Handwerk und Parametrie

Grenzen zwischen Prozessen der Planung und Produktion sind in diesem Zuge neu zu verhandeln: Sind die Sphären im Handwerk noch in Phasen der Entwurfszeichnung (Planung) und Entwurfsumsetzung (Produktion) zu trennen, läuft im digitalen Entwurfsraum beides zusammen. Entwürfe können dort hochauflösend artikuliert, evaluiert und reversibel verändert werden, wodurch die Distanz zwischen Entwurf und Resultat dermaßen klein gehalten werden kann, dass beides in einem fließenden Prozess zusammenläuft.8 Vollziehen sich die Entwurfs- und Produktionsiterationen, d.h. die ›trial-and-error‹-Prozesse, im Handwerk demnach mitunter über mehrere Jahrhunderte als vernakuläre Prozesse des Wachstums sprich Evolutionen, lassen sich die Zyklen im parametrischen, digitalen Entwurfsraum so stark zeitlich verdichten, dass sie als zusammenhängende Sequenzen unmittelbar als Ganzes erfahrbar und gestaltbar werden. Die im Handwerk getrennten Sphären aus Planung, Herstellung und Evaluation fließen im parametrischen Entwurfsraum zusammen – und dies nicht mehr Modus eines linearen Nacheinanderss, sondern in einem des gleichzeitigen Nebeneinanders. Parametrie trägt dabei ein grundlegendes Moment der Messbarkeit in sich – diese ist bereits im Begriff selbst angelegt: (gr. ›para‹ = dt. ›gegen/neben‹, gr. ›metron‹ = dt. ›das Maß‹) – durch welche sich weltliche Inhalte überhaupt erst in einem übergeordneten Bezugsfeld repräsentieren und bewerten lassen. Parameter nehmen entsprechend eine repräsentative Funktion ein, als mathematische, visuelle oder wie auch immer geartete Übersetzungen, durch die weltliche Phänomene erst sowohl medial als auch gedanklich handhabbar werden. Als mediale Verkörperungen fungieren parametrische Mechanismen entsprechend als Werkzeuge, die wiederum bestimmte Eigenarten und Merkmale auf sich vereinen; etwa ihre freie Konfiguration und Modularität, durch welche Gestalter zu Metagestaltern ihrer eigenen Werkzeuge werden, ihre individuelle und effiziente Anpassbarkeit für jeden Anwendungsfall sowie die Bündelung komplexer Strukturen und Prozesse zu handhabbaren Formen einer möglichst einfachen Benutzung – und dies, ohne die Komplexität dieser Strukturen dabei aufzulösen. Parametrie verspricht entsprechend eine Flexibilisierung der Herangehensweise bei gleichzeitigem Erhalt einer übergeordneten Gesamtstruktur. Demgemäß soll die Betrachtung handwerklicher Prozesse im Musikinstrumentenbau offenlegen, welchen Stellenwert etwa das Moment der Zeit, die in den Prozessen notwendige Messbarkeit, die mathematische Berechenbarkeit und zuletzt die entwurfsartikulierenden Werkzeuge einnehmen und inwieweit die genannten Phänomene in Bezug auf parametrische Entwurfswerkzeuge der digitalen Gegenwart neu gedacht und verstanden werden können.

8

Die Gestaltung digitaler Apps, die nach Veröffentlichung durch Nutzerfeedback iterativ optimiert werden macht dies ebenso anschaulich wie Formen des Rapid Prototyping, dessen physische Resultate per Knopfdruck herzustellen sind und somit immer Stillstände eines aktiven Entwurfsprozesses verkörpern.

29

30

Prozess als Gestalt

3.1

Langsamkeit und Evolution

Die handwerkliche Fertigung einer Geige ist langwierig. Sie kann mitunter vier Wochen andauern bzw. etwa 150 – 180 Arbeitsstunden auf sich vereinen.9 In dieser Hinsicht ließe sich mit Sennett konstatieren, dass das Handwerk ein Moment der Langsamkeit in sich trägt, aus welchem sich nicht zuletzt ein wertsteigernder Gehalt ergibt: einerseits durch die Befriedigung des Handwerkers in der Ausübung seiner Fertigkeiten, andererseits durch die Anregung seiner Fantasie, d.h. durch die zeitliche Möglichkeit zur Reflexion.10 Das Moment der Zeit prägt und reguliert demnach den gesamten handwerklichen Prozess. Die Zeit wird nicht zuletzt sogar zum Instrument und Werkzeug der Bearbeitung selbst: zu welcher Jahreszeit das verwendete Holz gefällt wurde, wie lange das Material trocken lagerte oder wie lange der Leim aushärten sollte – alles spielt in den handwerklichen Prozess hinein.11 Die Dimensionen erstrecken sich dabei von Stunden über Monate zu Jahren, was nicht zuletzt den mythischen Gehalt des Prozesses – auch heute noch – aufrechterhält.12 Einhergehend mit dem Phänomen der Zeit ist auch die sukzessive Veränderung sowohl der Werkstücke als auch der Werkzeuge im Verlauf der Zeit. Dazu lassen sich zwei unterschiedliche Perspektiven einnehmen: einerseits eine technikhistorische, welche die Betrachtung der zeitlichen Evolution der Geige als eigenständiges Instrument im Laufe der letzten Jahrhunderte nachvollzieht,13 andererseits eine handwerklich-performative, welche den eigentlichen Herstellungsprozess betrachtet, in welchem die Geige durch den Geigenbauer in mehreren Schritten innerhalb einer gewissen Zeitspanne geformt und zusammengesetzt wird. Beide Perspektiven kommen sowohl in der sukzessiven Veränderung der Praktiken und Herangehensweisen als auch der Auswahl der Materialien zusammen, die im Sinne eines evolutionären Wachstums als ein vorwiegend langsames Experimentieren mit Form und Material verstanden werden kann. Auch wenn der Geigenbau seit mehreren Hundert Jahren keine nennenswerte Veränderung erfahren hat,14 ist es gerade diese Konstanz, die Momente der Variation im

9 10 11 12 13

14

Vgl. Kolneder (1984: 25). Vgl. Sennett (2014: 391). Vgl. dazu ebenso Pallasmaa (2009: 96ff). Vgl. dazu vor allem Kolneder (1984: 20ff); Möckel (1997: 123ff). So etwa im sog. Stradivari-Mythos, der mitunter ebensolche zeitlichen Aspekte betont und wirkmächtig inszeniert. Vgl. dazu auch Boger (1942); Sacconi (1981); Wali (2010). Kolneder führt etwa an, dass die Geige im 17. und frühen 18. Jahrhundert ihre Standardprägung erfahren, die auf die Modelle Amatis, Stainers, Stradivaris und Guarneries zurückgeht und seither nur geringfügig verändert wurde. Vgl. Kolneder (1984: 11). Vgl. Neudörfer (2007: 1). Ebenso preist der österreichische Komponist und Musikverleger Tobias Haslinger im Vorwort zu ›Violinschule von Louis Spohr‹ von 1832 die Violine als Jahrhunderte überdauerndes Instrument ersten Ranges an: »Der Violine gebührt unter allen, bis jetzt erfundenen musikalischen Instrumenten der erste Rang […] Noch immer ist sie in derselben einfachen Gestalt, die sie bereits vor 300 Jahren hatte«. Haslinger zitiert nach Kolneder (1984: 10). Ähnlich schildert es auch Fritz Winckel im Vorwort zur zweiten Auflage von Otto Möckels ›Kunst des Geigenbaus‹ und setzt dabei noch ein Jahrhundert früher an: »Die Geige hat sich als die Königin der Instrumente nach Form und Material seit 400 Jahren gegen Neuerungsbestrebungen und auch im heutigen Sturm der alles verändernden Technik behauptet.« Winckel zitiert nach Möckel (1997: VI).

3. Handwerk und Parametrie

Sinne einer Evolution am deutlichsten aufzeigt: Niederheitmann etwa hat anhand verschiedener f-Löcher der großen italienischen Geigenbauer gezeigt, dass die Formen derselben sich über die Jahrhunderte kaum verändert haben und sie sich lediglich in Detailausarbeitungen voneinander unterscheiden lassen.15 Kolneder und Angeloni zeigen in metrischen Zahlentabellen auf, wie Maße und Formen der Geige sich über Jahrhunderte hinweg nur im Millimeterbereich verändert haben.16 Seit der ›goldenen Zeit‹ des Geigenbaus zu Anfang des 18. Jahrhunderts wurden unterschiedlichste Experimente sowohl hinsichtlich der Bandbreite von Formen wie auch der Materialien angestellt. Dabei handelte es sich um experimentelle Entwurfsserien mit dem Ziel, den Klang des Instrumentes weiter zu verbessern und ihn kontrollierbar zu machen. Es ging dabei entsprechend nicht mehr um die eigentliche Erzeugung, sondern um die Abwandlung der Einflussfaktoren. Beinahe jede bauliche resp. handwerkliche Maßnahme am Instrument war und ist entsprechend auf die Klangeigenschaften zurückzuführen: Die Auswahl des Holzes und dessen Trockenzeit, die Wölbung von Decke und Boden, die Dicke des Holzes, die Form der f -Löcher sowie die Schichten Lackierung und die chemische Zusammensetzung des Lackes; jede Veränderung hat eine (vermeintliche) Auswirkung auf den Klang.17 Die Klangforschung im Geigenbau vollzog sich demnach als Jahrhunderte überdauernde Evolution gemäß dem Prinzip von ›trial-and-error‹, d.h. als zeitliche Auslese dessen, was funktioniert, und was nicht.18 In der parametrischen Übertragung lässt sich dieser evolutionäre Gedanke nun aufnehmen und unter neuen Gesichtspunkten betrachten; eben jene Digitalität und der automatisierten Berechenbarkeit von Entwurfsinhalten. Im Digitalen sind alle Inhalte grundsätzlich verhandelbar. Dort beschreibt Parametrie entsprechend sowohl eine grundlegende Anpassungsfähigkeit des Entwurfsgeschehens auf Basis von Parametern als auch die zeitliche Verdichtung der Generierungs- und Bewertungsprozesse, d.h. der Evolution von Entwürfen, und dies nicht zuletzt dann, wenn KI in die Prozesse Einzug erhält. Eine solche KI ist entsprechend dazu in der Lage, innerhalb eines parametrischen Systems aus Abhängigkeiten und Relationen eigenständig unzählig viele Entwurfsvarianten zu erzeugen und diese hinsichtlich bestimmter Parameter zu optimie-

15 16 17 18

Vgl. Niederheitmann (1877: 145). Vgl. Kolneder (1984: 26ff); Angeloni (1923: 323ff). Vgl. dazu etwa die umfassenden Versuche zur experimentellen Notation und Vergleichbarkeit von Klangeigenschaften bei Roussel; König (1990). ›Trial-and-error‹ beschreibt dabei den grundlegenden zyklischen Prozess, der den Kern der darwinistischen Evolutionstheorie bzw. der natürlichen Selektion ausbildet. Vgl. Darwin (1872/2003). Karl Popper bezieht das Prinzip des ›trial-and-error‹, verstanden als ›Probierbewegungen‹, wie er es im Verweis auf Konrad Lorenz anführt, dabei auf jegliche Art von Lebensprozessen im Allgemeinen wie auch die menschlichen im Besonderen: »Ich behaupte also, Lebewesen sind aktiv, indem sie dauernd tasten, nach allen Richtungen tasten, wie die Käfer. Wir fühlen uns an die Dinge heran, mit allen Mitteln, die wir zur Verfügung haben. […] Wir sind aktiv, wir probieren dauernd aus, wir arbeiten dauernd mit der Methode von Versuch und Irrtum. Und das ist die einzige Methode, die wir haben.« Popper (1997: 139-140). Ähnlich beschreibt Simon das Problemlösen als ›natürliche Selektion‹: »Problemlösen erfordert selektive Zyklen des Versuchens und Verwerfens. […] Mit einiger Überlegung sieht man, daß Zeichen für einen Fortschritt im Problemlösungsvorgang dieselbe Rolle spielen wie die stabilen Zwischenformen im biologischen Evolutionsvorgang.« Simon (1968/1994: 153).

31

32

Prozess als Gestalt

ren.19 Dadurch können Entwicklungszyklen des ›trial-and-error‹ nicht nur maßgeblich verkürzt, sondern auch reversibel adjustiert werden. Prozesse müssen dadurch nicht von Neuem, sondern können rückwirkend verändert und die Resultate dieser Veränderung unmittelbar evaluiert werden. Die Umkehrbarkeit von Entwurfsentscheidungen ist bereits im Prozess impliziert – Entwerfen vollzieht sich dabei nicht nur als vorwärtsgewandte, sondern ebenso als rückwärtsgewandte Evolution. Die Entwurfselemente sind miteinander verbunden und reagieren entsprechend auf Veränderungen untereinander: Verändert der Gestalter (oder die KI) einen Parameter, ändern sich alle anderen entsprechend mit. Demzufolge lassen sich Entscheidungen dynamisch und effizient anpassen als auch jederzeit widerrufen, wodurch Prozesse nicht mehr im linearen Nacheinander, sondern in zyklischen Schleifen des gleichzeitigen Nebeneinanders verlaufen. Nicht mehr isolierte Einzelentwürfe stehen im Fokus, sondern die Generierung von variantenreichen Entwurfsserien. Die handwerklich-manuelle Ausführung der Einzelarbeit löst sich zugunsten einer strategisch-evozierten Evaluation der Serie auf. In dieser parametrischen Hinsicht verschiebt sich das handwerkliche Arbeiten von einem Modus des Machens hin zu einem Modus des Wählens, vom manuellen Herstellen der Einzeldinge auf die bedarfsgerechte Anwendung der Ergebnisse.

3.2

Messbarkeit und Evaluation

Um (Entwurfs-)Ergebnisse in Anwendung zu bringen, bedarf es einer Bewertung, die eine Unterscheidung der Inhalte in mehr oder weniger geeignete bzw. relevante zulässt. Dazu bedarf es Formen der Messbarkeit, die durch vereinheitlichende Maßstäbe eine Orientierung anbieten.20 So versteht es sich etwa als oberstes Ziel des Geigenbaus, mithilfe von Messungen ein optimales Klangresultat zu erzielen – durch empirisches Vergleichen: Im traditionellen handwerklichen Prozess prüft der Geigenbauer zunächst durch ein Abklopfen des Holzscheites, wie dicht und klangleitend das Holz ist – entsprechend verläuft diese Messung rein wahrnehmungsspezifisch und erfahrungsbasiert.21 Daneben verstehen sich Instrumentenbauer auf die Verwendung unterschiedlicher Werkzeuge der Messung, etwa bestimmte Zirkel, Schablonen und StärkenMessgeräte. Messungen erhalten dadurch ein formales, numerisches Adäquat; dem physischen Stoff wird in eine mathematische Repräsentation zugeordnet. Anschaulich

19

20 21

Beispiele dafür versammeln sich oftmals unter dem Stichwort des ›Generativen Designs‹. So hat etwa der Flugzeughersteller Airbus bestimmte Kabinenteile hinsichtlich ausgewählter Parameter (Material, Gewicht, Stabilität, Kosten etc.) durch eine automatisierte Variantenbildung optimiert oder die Fläche eines Konstruktionshangars hinsichtlich der optimalen Flächenausnutzung durch eine KI berechnen lassen. Vgl. Deplazes (2019). Weitere Beispiele finden sich bei Swenson (2019). So bemerkte es auch schon Wittgenstein: »Alles was ich [zum Messen] brauche ist: Ich muß sicher sein können, daß ich meinen Maßstab anlegen kann.« Wittgenstein (1984/2015: 78). So spricht Möckel etwa davon, dass das Ohr »mancherlei psychologischen Täuschungen ausgesetzt [ist], außerdem ermüdet es sehr schnell, und schließlich ist der Klangcharakter von vielen äußeren Umständen, vor allen Dingen den Eigenschaften des Raumes, abhängig. Infolge Unterschätzung aller solcher Faktoren kommen dann Fehlbeurteilungen vor, die zu Meinungsverschiedenheiten unter den Sachverständigen führen.« Möckel (1997: 1).

32

Prozess als Gestalt

ren.19 Dadurch können Entwicklungszyklen des ›trial-and-error‹ nicht nur maßgeblich verkürzt, sondern auch reversibel adjustiert werden. Prozesse müssen dadurch nicht von Neuem, sondern können rückwirkend verändert und die Resultate dieser Veränderung unmittelbar evaluiert werden. Die Umkehrbarkeit von Entwurfsentscheidungen ist bereits im Prozess impliziert – Entwerfen vollzieht sich dabei nicht nur als vorwärtsgewandte, sondern ebenso als rückwärtsgewandte Evolution. Die Entwurfselemente sind miteinander verbunden und reagieren entsprechend auf Veränderungen untereinander: Verändert der Gestalter (oder die KI) einen Parameter, ändern sich alle anderen entsprechend mit. Demzufolge lassen sich Entscheidungen dynamisch und effizient anpassen als auch jederzeit widerrufen, wodurch Prozesse nicht mehr im linearen Nacheinander, sondern in zyklischen Schleifen des gleichzeitigen Nebeneinanders verlaufen. Nicht mehr isolierte Einzelentwürfe stehen im Fokus, sondern die Generierung von variantenreichen Entwurfsserien. Die handwerklich-manuelle Ausführung der Einzelarbeit löst sich zugunsten einer strategisch-evozierten Evaluation der Serie auf. In dieser parametrischen Hinsicht verschiebt sich das handwerkliche Arbeiten von einem Modus des Machens hin zu einem Modus des Wählens, vom manuellen Herstellen der Einzeldinge auf die bedarfsgerechte Anwendung der Ergebnisse.

3.2

Messbarkeit und Evaluation

Um (Entwurfs-)Ergebnisse in Anwendung zu bringen, bedarf es einer Bewertung, die eine Unterscheidung der Inhalte in mehr oder weniger geeignete bzw. relevante zulässt. Dazu bedarf es Formen der Messbarkeit, die durch vereinheitlichende Maßstäbe eine Orientierung anbieten.20 So versteht es sich etwa als oberstes Ziel des Geigenbaus, mithilfe von Messungen ein optimales Klangresultat zu erzielen – durch empirisches Vergleichen: Im traditionellen handwerklichen Prozess prüft der Geigenbauer zunächst durch ein Abklopfen des Holzscheites, wie dicht und klangleitend das Holz ist – entsprechend verläuft diese Messung rein wahrnehmungsspezifisch und erfahrungsbasiert.21 Daneben verstehen sich Instrumentenbauer auf die Verwendung unterschiedlicher Werkzeuge der Messung, etwa bestimmte Zirkel, Schablonen und StärkenMessgeräte. Messungen erhalten dadurch ein formales, numerisches Adäquat; dem physischen Stoff wird in eine mathematische Repräsentation zugeordnet. Anschaulich

19

20 21

Beispiele dafür versammeln sich oftmals unter dem Stichwort des ›Generativen Designs‹. So hat etwa der Flugzeughersteller Airbus bestimmte Kabinenteile hinsichtlich ausgewählter Parameter (Material, Gewicht, Stabilität, Kosten etc.) durch eine automatisierte Variantenbildung optimiert oder die Fläche eines Konstruktionshangars hinsichtlich der optimalen Flächenausnutzung durch eine KI berechnen lassen. Vgl. Deplazes (2019). Weitere Beispiele finden sich bei Swenson (2019). So bemerkte es auch schon Wittgenstein: »Alles was ich [zum Messen] brauche ist: Ich muß sicher sein können, daß ich meinen Maßstab anlegen kann.« Wittgenstein (1984/2015: 78). So spricht Möckel etwa davon, dass das Ohr »mancherlei psychologischen Täuschungen ausgesetzt [ist], außerdem ermüdet es sehr schnell, und schließlich ist der Klangcharakter von vielen äußeren Umständen, vor allen Dingen den Eigenschaften des Raumes, abhängig. Infolge Unterschätzung aller solcher Faktoren kommen dann Fehlbeurteilungen vor, die zu Meinungsverschiedenheiten unter den Sachverständigen führen.« Möckel (1997: 1).

3. Handwerk und Parametrie

wird dies mitunter an der Darstellung der Schwingungskurven im Geigenbau, welche gemäß den Gesetzen der Akustik in mathematischen Graphen und Diagrammen dargestellt werden.22 Jene Repräsentations- und Verweisungsdynamik kann dabei als ein Wesenskern parametrischer Mechanismen betrachtet werden: Mit jeder Form der Messbarkeit gehen Maße einher, die nicht nur Wahrnehmungsphänomene als fassbare (numerische) Werte repräsentieren, sondern darüber hinaus eigene Bezugssysteme ausbilden. Die Werte resp. Parameter sind dabei wechselseitig miteinander verbunden, sodass nicht nur die gemessenen Einzelinhalte, sondern die Verhältnisse anschaulich werden, die zwischen ihnen bestehen. Sie werden dadurch fassbar, erfahrbar und gestaltbar. Die Schwingung des Schalls beispielsweise wäre ohne die diagrammatische Darstellung als Kurve nicht greifbar, ebenso wenig nachvollziehbar und vor allem nicht bewusst veränderbar. Die mathematische und visuelle Übersetzung in eine fassbare Diagramm-Kurve macht sie dadurch erst handhabbar – die physikalische Schwingung wird parametrisiert und ermöglicht erst dadurch eine Evaluation, verstanden als Unterscheidbarkeit im gleichzeitigen Nebeneinander der Ergebnisse.23 Gegenwärtige parametrische Verfahren zur Messung von Schall-Verhalten und Klangeigenschaften verstehen sich dabei nicht nur auf mathematisch-abstrakte Repräsentationen, sondern gleichsam auf physikalisch-visuelle Simulationen. So entwickelt etwa der Geigenbauer und Physiker Martin Schleske seit den 1990er-Jahren Verfahren zur Messung von Schallwerten und Klangeigenschaften, die er unmittelbar mit der Geometrie der Bauteile und dessen Materialzusammensetzung ins Verhältnis setzt.24 Die Arbeiten Schleskes zeigen dabei nicht nur die mathematischen Schwingungskurven an (Resonanzprofile), sondern visualisieren die erhobenen Daten zeitgleich anhand geometrischer 3D-Modelle und topografischen Verdichtungen (Modalanalyse). Die erzeugten Resonanzprofile finden in der dreidimensionalen Visualisierung ein plastisch-geometrisches Adäquat, welches das Verhalten der Schwingungskurven nicht mehr nur mathematisch abstrakt anzeigt, sondern vielmehr, wie die bauliche Beschaffenheit der Geige dazu im räumlichen Verhältnis steht: Schwingungs-Kurven werden zu Schwingungs-Formen, durch dessen Evaluation unmittelbar Anpassungen an der Geige vorgenommen werden können.25 Sie erlauben die gezielte Modifikation der Bauteile und etablieren eine direkte Wechselwirkung zwischen den gemessenen Werten und der Beschaffenheit des Instrumentes und nehmen eine aktive, d.h. vor allem eine produktive Rolle im Entwurfsprozess ein, indem sie in iterativen Feedbackschleifen erfahrbar machen, welche Wirksamkeiten an die jeweiligen Veränderungen 22 23

24 25

Vgl. dazu sowohl das Kapitel über die Akustik bei Möckel (1997: 1-62) als auch das Kapitel zur Klangerzeugung bei Kolneder (1984: 13-20). Erste Experimente zu derartigen Formen der grafischen Repräsentation finden sich ab dem 19. Jahrhundert, beginnend mit Étienne Jules Marey, der mittels des von ihm erfundenen Spygmographen den Pulsschlag des Menschen als graphische Linien-Sequenz abbilden konnte, über William Playfair, der erste Datendiagramme erstellte. Vgl. dazu Giedion (1987: 37ff). Vgl. Schleske (2003). »Erst die Kenntnis der eigentlichen Schwingungsformen gestattet es, durch gezielte Modifikationen der Plattenausarbeitung und -wölbung die Resonanzen des entstehenden Instruments in Richtung des entsprechenden Referenzinstruments zu verändern […].« Ebd.: 31.

33

34

Prozess als Gestalt

der Parameter geknüpft sind.26 Parametrie versteht sich in dieser Betrachtungsweise als ein Phänomen der unmittelbaren Handhabbarkeit im Sinne einer kontrollierten Steuerung der Verhältnisse und Bedingungen, die durch Formen der Messbarkeit nicht etwa verloren gehen, sondern vor allem sichtbar, räumlich erfahrbar und damit gestaltbar werden.

3.3

Mathematik und Konstruktion

Während sich Formen der Messbarkeit einerseits auf Seiten des Klanges offenbaren, ergeben sie sich andererseits bereits bei der Entwurfsplanung in Form von Zeichnungen und mathematischen Konstruktionen. Angeloni etwa zeigt anschaulich auf, wie die handwerkliche Tradition sich nicht etwa auf die menschliche Toleranz der Freihandzeichnung versteht, sondern wie die einzelnen Formen und Bauteile einer Violine mathematisch und geometrisch durchdrungen sind: So lassen sich etwa Wölbungskurven des Korpus durch ein Netz verschiedener Kurvenquerschnitte darstellen oder Grundkörper in der Draufsicht mittels diverser Kreisbögen unterschiedlicher Radien konstruieren (Abb. 01). Der Geigenbauer vereint durch eine derartige Herangehensweise Eigenschaften des Ingenieurs auf sich, der den Prozess nach mathematisch-wissenschaftlichen Prinzipien anleitet.27 Die konstruktiven Methoden weisen evidente Parallelen zu den Vorgehensweisen in parametrischen Entwurfsprogrammen auf:28 Es werden Kurven erstellt, im digitalen CAD-Raum vor- und nebeneinander angeordnet und mittels geometrischer Flächen überblendet. Ein Geigenkörper versteht sich demnach als mathematisch durchdrungenes Artefakt, das mittels Wölbungskurven, Biegeradien und Winkelmaßen besser, d.h. präziser zu beschreiben ist, als es durch rein körperlich-imitative Praktiken im klassischen handwerklichen Sinne möglich wäre. Der Unterschied zur traditionellen Herangehensweise im Handwerk besteht mit Hinsicht auf Parametrie nunmehr darin, dass im digitalen Entwurfsprogramm Abhängigkeiten angelegt werden können, die sich, wie auch bereits weiter oben kurz dargestellt, assoziativ zueinander verhalten. Anschaulich wird es etwa am Beispiel der Spiegelsymmetrie: Der Geigenbauer überträgt die Kontur des Geigenkorpus in einer frühen Phase des Prozesses mittels einer Schablone auf das Holzscheit. Die Schablone ist an der Längsachse halbiert, sodass zunächst die eine, dann die andere Hälfte der Kontur auf das Werkstück gezeichnet werden kann. Der Geigenbauer erledigt die 26

27 28

Wie Kirsten Maar es in allgemeiner Hinsicht für computergenerierte Entwurfsverfahren zusammenfasst: »Hier schließlich greift die Nutzung computergenerierter Entwurfsverfahren, da sie ständige Rückkopplungen zwischen den computergenerierten 3D-Modellen und dem physikalischen Modell erlauben. Diese Geschwindigkeit in der Übersetzung macht die CAD-Programme zu einem aktiven Werkzeug innerhalb des Entwurfsprozesses, in den Tabellen, Statistiken, statische Informationen und andere Daten mit einfließen.« Maar (2012: 91). Vgl. Roussel; König (1990: 14). So offenbaren sich annähernd in allen CAD-Programmen Parameter-basierte Funktionen und Entwurfswege, etwa in Solid Works, Solid Edge, Rhinoceros Grasshopper, Cinema 4D als auch in Programmen der Adobe Suite wie Adobe Photoshop, Adobe Illustrator oder Adobe After Effects.

34

Prozess als Gestalt

der Parameter geknüpft sind.26 Parametrie versteht sich in dieser Betrachtungsweise als ein Phänomen der unmittelbaren Handhabbarkeit im Sinne einer kontrollierten Steuerung der Verhältnisse und Bedingungen, die durch Formen der Messbarkeit nicht etwa verloren gehen, sondern vor allem sichtbar, räumlich erfahrbar und damit gestaltbar werden.

3.3

Mathematik und Konstruktion

Während sich Formen der Messbarkeit einerseits auf Seiten des Klanges offenbaren, ergeben sie sich andererseits bereits bei der Entwurfsplanung in Form von Zeichnungen und mathematischen Konstruktionen. Angeloni etwa zeigt anschaulich auf, wie die handwerkliche Tradition sich nicht etwa auf die menschliche Toleranz der Freihandzeichnung versteht, sondern wie die einzelnen Formen und Bauteile einer Violine mathematisch und geometrisch durchdrungen sind: So lassen sich etwa Wölbungskurven des Korpus durch ein Netz verschiedener Kurvenquerschnitte darstellen oder Grundkörper in der Draufsicht mittels diverser Kreisbögen unterschiedlicher Radien konstruieren (Abb. 01). Der Geigenbauer vereint durch eine derartige Herangehensweise Eigenschaften des Ingenieurs auf sich, der den Prozess nach mathematisch-wissenschaftlichen Prinzipien anleitet.27 Die konstruktiven Methoden weisen evidente Parallelen zu den Vorgehensweisen in parametrischen Entwurfsprogrammen auf:28 Es werden Kurven erstellt, im digitalen CAD-Raum vor- und nebeneinander angeordnet und mittels geometrischer Flächen überblendet. Ein Geigenkörper versteht sich demnach als mathematisch durchdrungenes Artefakt, das mittels Wölbungskurven, Biegeradien und Winkelmaßen besser, d.h. präziser zu beschreiben ist, als es durch rein körperlich-imitative Praktiken im klassischen handwerklichen Sinne möglich wäre. Der Unterschied zur traditionellen Herangehensweise im Handwerk besteht mit Hinsicht auf Parametrie nunmehr darin, dass im digitalen Entwurfsprogramm Abhängigkeiten angelegt werden können, die sich, wie auch bereits weiter oben kurz dargestellt, assoziativ zueinander verhalten. Anschaulich wird es etwa am Beispiel der Spiegelsymmetrie: Der Geigenbauer überträgt die Kontur des Geigenkorpus in einer frühen Phase des Prozesses mittels einer Schablone auf das Holzscheit. Die Schablone ist an der Längsachse halbiert, sodass zunächst die eine, dann die andere Hälfte der Kontur auf das Werkstück gezeichnet werden kann. Der Geigenbauer erledigt die 26

27 28

Wie Kirsten Maar es in allgemeiner Hinsicht für computergenerierte Entwurfsverfahren zusammenfasst: »Hier schließlich greift die Nutzung computergenerierter Entwurfsverfahren, da sie ständige Rückkopplungen zwischen den computergenerierten 3D-Modellen und dem physikalischen Modell erlauben. Diese Geschwindigkeit in der Übersetzung macht die CAD-Programme zu einem aktiven Werkzeug innerhalb des Entwurfsprozesses, in den Tabellen, Statistiken, statische Informationen und andere Daten mit einfließen.« Maar (2012: 91). Vgl. Roussel; König (1990: 14). So offenbaren sich annähernd in allen CAD-Programmen Parameter-basierte Funktionen und Entwurfswege, etwa in Solid Works, Solid Edge, Rhinoceros Grasshopper, Cinema 4D als auch in Programmen der Adobe Suite wie Adobe Photoshop, Adobe Illustrator oder Adobe After Effects.

3. Handwerk und Parametrie

Abb. 01: Konstruktionskurven einer Violine nach Angeloni (1923: 194, 415): a) zeigt die Überwölbung des Korpus in der Tiefendimension, während b) die radiale Vermessung aus der Draufsicht zeigt.

Angeloni (1923: 194, 415).

Arbeit nacheinander, während derartige Anpassungen im parametrischen Entwurfsraum annähernd gleichzeitig erfolgen: Durch das Anlegen einer Beziehung zwischen einzelnen Zeichnungskomponenten kann die Zeichnung bestimmten Restriktionen unterworfen werden.29 Neben etwa Orthogonalität, Parallelität oder Tangentialität kann zudem auch Symmetrie als Beziehung vorgegeben werden. Entsprechend verändert sich die gespiegelte Kurve assoziativ, sobald die Ausgangskurve abgewandelt wird.30 Dabei ist herauszustellen, dass diese Anpassung ohne menschlich wahrnehmbare Verzögerung, d.h. praktisch zeitgleich erfolgt. Darüber hinaus muss diese Veränderung nicht mehr zwangsläufig eine Richtung haben, da die Parameter im wechselseitigen Verhältnis zueinander stehen, d.h. die aktive Veränderung kann von multiplen Stellen ausgehen, da die assoziative Verknüpfung gleichrangig ist.31 Festzuhalten ist entsprechend, dass sich die Konstruktion von Entwurfselementen im parametrischen Entwurfsraum nicht mehr vorrangig auf die einzelnen Elemente an sich versteht, sondern vor allem auf die Setzung von Verhältnissen zwischen ihnen. Es ist demnach nicht mehr etwa die exakte Länge einer einzelnen Geraden interessant, sondern einzig ihr Verhältnis zu allen anderen Elementen des Entwurfs. Entsprechend 29

30 31

Als erste digitale Artikulation einer solchen Vorgehensweise gilt das Programm ›Sketchpad‹, das von Ivan Sutherland im Rahmen seiner Dissertation am MIT entworfen wurde. Vgl. dazu Sutherland (1963). In diesem Sinne bleibt es ein Nacheinander, das jedoch, da es automatisiert und zeitlich stark verdichtet wird, den Eindruck von Gleichzeitigkeit hervorruft. Gleichermaßen verhält es sich auch mit einzelnen Entwurfselementen; beispielsweise, wenn etwa der Durchmesser eines Kreises immer halb so groß sein soll wie die Strecke einer bestimmten Geraden. Beide Elemente können buchstäblich maßgebend sein.

35

36

Prozess als Gestalt

vermag der Gestalter nur noch bedingt die exakte Länge der Geraden manuell für jeden Einzelfall zu verändern, sondern vielmehr, ein System aus Relationen zu etablieren, dass die Länge über die entsprechenden Abhängigkeiten definiert.32 Ein solches System ist entsprechend als ein parametrisches System zu bezeichnen.33

3.4

Werkzeug und Konfiguration

Wenn derartige Systeme in ihrer Struktur parametrisch angelegt sind, stellt sich gleichsam die Frage, wie sie an die gestalterische Praxis anzuschließen bzw. in den Entwurfsprozess einzubinden sind. Als anschlussfähiger Begriff sei dabei zunächst der des Werkzeuges angeführt, der kulturanthropologisch seit jeher dienliches Mittel der menschlichen Lebensgestaltung ist.34 In ontologischer Tradition ist das Werkzeug nach Heidegger einerseits in der Welt als materielles Artefakt vorhanden, andererseits als Mittel zur menschlichen Weltformung zuhanden, d.h. unmittelbar an der Formung der eigentlichen Existenz des Menschen im Dasein beteiligt.35 In funktionaler Hinsicht erweitern Werkzeuge dabei das Spektrum menschlicher Möglichkeiten, indem sie diverse körperliche Fähigkeiten und Fertigkeiten gezielt verstärken bzw. ihnen eine neue Struktur geben:36 Der Baum wird nicht mit der Hand, sondern mit der Axt bzw. der Säge gefällt, wodurch die Struktur der menschlichen Tätigkeit ›Baumfällen‹ eine Veränderung erfährt. Neben der Verstärkung bieten Werkzeuge durch ihre Struktur und Handhabung zumeist auch eine höhere Präzision als rein körperliche Krafteinwirkungen: Ein Holzbrett könnte zwar von Hand gebrochen werden, der Schnitt mit der Säge ist jedoch weitaus gleichförmiger und entsprechend auch präziser planbar. Die Funktionen der Verstärkung sowie der erhöhten Präzision kumulieren dabei im übergeordneten Ziel der Effizienz. Dieses durchzieht die gesamte Evolutionsgeschichte des Werkzeuges und baut

32 33 34

35 36

Nach Dörner stellt sich ein System in seiner allgemeinsten Form als »ein Geflecht von miteinander verknüpften Variablen« dar. Dörner (2002: 109). Vgl. Jabi (2013: 10). Vgl. zu einem Abriss der Entwicklungsgeschichte des Werkzeugs auch Childe (1951); Kelly (2010); Forbes (1954); Elkar; Keller; Schneider (2014), zum antiken Begriff des Werkzeuges auch White (1984: 49ff). Vgl. Heidegger (1927/2006). Vgl. eine allgemeine Definition des Werkzeugs im Hinblick auf Gestaltung bei Erlhoff; Marshall (2008: 453ff). Vgl. weiter auch Schmitz; Groninger (2012: 19ff); Elkar; Keller; Schneider (2014: 62ff); Froschauer (2013: 50); Sennett (2014: 259ff), welche darin übereinstimmen, dass sie dem Werkzeug eine Zweckorientiertheit sowie eine Erweiterung der menschlichen Fähigkeiten zuschreiben. Melanie Kurz und Frank Zebner führen diese Erweiterung auf einen notwendigerweise technischen Design-Begriff zurück, welcher Mittel und (prothetische und orthetische) Werkzeuge hervorbringt, die als »nicht-natürliche Extensionen« die natürlich gegebenen Grenzen des Menschen, dessen »Mesokosmos«, überwinden lassen. Vgl. Kurz; Zebner (2011: 181). Eine allgemeine Definition und Kategorisierung des Prothesen-Begriffs nimmt Tomás Maldonado vor: Neben der Verstärkung der reinen Muskelleistung, der Geschicklichkeit oder der Bewegungsleistung (Bewegungsprothesen) benennt er Wahrnehmungsprothesen, Intelligenzprothesen und die alle Kategorien verbindende Klasse der synkretischen Prothesen. Vgl. Maldonado (1997/2007: 168ff).

36

Prozess als Gestalt

vermag der Gestalter nur noch bedingt die exakte Länge der Geraden manuell für jeden Einzelfall zu verändern, sondern vielmehr, ein System aus Relationen zu etablieren, dass die Länge über die entsprechenden Abhängigkeiten definiert.32 Ein solches System ist entsprechend als ein parametrisches System zu bezeichnen.33

3.4

Werkzeug und Konfiguration

Wenn derartige Systeme in ihrer Struktur parametrisch angelegt sind, stellt sich gleichsam die Frage, wie sie an die gestalterische Praxis anzuschließen bzw. in den Entwurfsprozess einzubinden sind. Als anschlussfähiger Begriff sei dabei zunächst der des Werkzeuges angeführt, der kulturanthropologisch seit jeher dienliches Mittel der menschlichen Lebensgestaltung ist.34 In ontologischer Tradition ist das Werkzeug nach Heidegger einerseits in der Welt als materielles Artefakt vorhanden, andererseits als Mittel zur menschlichen Weltformung zuhanden, d.h. unmittelbar an der Formung der eigentlichen Existenz des Menschen im Dasein beteiligt.35 In funktionaler Hinsicht erweitern Werkzeuge dabei das Spektrum menschlicher Möglichkeiten, indem sie diverse körperliche Fähigkeiten und Fertigkeiten gezielt verstärken bzw. ihnen eine neue Struktur geben:36 Der Baum wird nicht mit der Hand, sondern mit der Axt bzw. der Säge gefällt, wodurch die Struktur der menschlichen Tätigkeit ›Baumfällen‹ eine Veränderung erfährt. Neben der Verstärkung bieten Werkzeuge durch ihre Struktur und Handhabung zumeist auch eine höhere Präzision als rein körperliche Krafteinwirkungen: Ein Holzbrett könnte zwar von Hand gebrochen werden, der Schnitt mit der Säge ist jedoch weitaus gleichförmiger und entsprechend auch präziser planbar. Die Funktionen der Verstärkung sowie der erhöhten Präzision kumulieren dabei im übergeordneten Ziel der Effizienz. Dieses durchzieht die gesamte Evolutionsgeschichte des Werkzeuges und baut

32 33 34

35 36

Nach Dörner stellt sich ein System in seiner allgemeinsten Form als »ein Geflecht von miteinander verknüpften Variablen« dar. Dörner (2002: 109). Vgl. Jabi (2013: 10). Vgl. zu einem Abriss der Entwicklungsgeschichte des Werkzeugs auch Childe (1951); Kelly (2010); Forbes (1954); Elkar; Keller; Schneider (2014), zum antiken Begriff des Werkzeuges auch White (1984: 49ff). Vgl. Heidegger (1927/2006). Vgl. eine allgemeine Definition des Werkzeugs im Hinblick auf Gestaltung bei Erlhoff; Marshall (2008: 453ff). Vgl. weiter auch Schmitz; Groninger (2012: 19ff); Elkar; Keller; Schneider (2014: 62ff); Froschauer (2013: 50); Sennett (2014: 259ff), welche darin übereinstimmen, dass sie dem Werkzeug eine Zweckorientiertheit sowie eine Erweiterung der menschlichen Fähigkeiten zuschreiben. Melanie Kurz und Frank Zebner führen diese Erweiterung auf einen notwendigerweise technischen Design-Begriff zurück, welcher Mittel und (prothetische und orthetische) Werkzeuge hervorbringt, die als »nicht-natürliche Extensionen« die natürlich gegebenen Grenzen des Menschen, dessen »Mesokosmos«, überwinden lassen. Vgl. Kurz; Zebner (2011: 181). Eine allgemeine Definition und Kategorisierung des Prothesen-Begriffs nimmt Tomás Maldonado vor: Neben der Verstärkung der reinen Muskelleistung, der Geschicklichkeit oder der Bewegungsleistung (Bewegungsprothesen) benennt er Wahrnehmungsprothesen, Intelligenzprothesen und die alle Kategorien verbindende Klasse der synkretischen Prothesen. Vgl. Maldonado (1997/2007: 168ff).

3. Handwerk und Parametrie

auf einer Steigerungslogik auf: Was vor Jahrtausenden mit dem Universalwerkzeug des Faustkeils begann, offenbart sich gegenwärtig in computergesteuerten Werkzeugen wie dem Laserschneider, der CNC-Fräse oder dem 3D-Drucker – Produktionswerkzeuge, die durch ihre physische Verstärkung und Präzision ein neues Maß an Effizienz erreichen.37 Die Zwischenschritte dieser Werkzeugevolution sind entsprechend sowohl auf die jeweiligen Anwendungsgebiete als auch auf das tradierte Wissen der jeweiligen Zeit zurückzuführen.38 Ist das Moment der Effizienz der Diskussion nunmehr vorangestellt, ergeben sich für die Betrachtung von Parametrie in diesem Zusammenhang drei wesentliche Anschlusspunkte: Erstens entwickeln sich Werkzeuge in genannter Evolution und im Wechselspiel zwischen Phasen der Diversifikation und Vereinheitlichung. Anschaulich wird dies mitunter am Beispiel verschiedener Werkzeuge des Geigenbaus, etwa Sägen, Schraubzwingen, Stecheisen oder Hobel, welche nicht nur in einmaliger, sondern in mehrfacher Form im Werkstattinventar vorhanden sind. Für jeden Teilschritt des Prozesses steht eine am besten geeignete Spezifikation des Werkzeuges zur Verfügung.39 Dabei kommt der jeweiligen Ausprägung des Werkzeuges eine entsprechende Funktion zu: beispielsweise eine Säge für den groben Zuschnitt und eine andere für die präzise Detailarbeit. Für zwei Funktionen bedarf es zweierlei Sägewerkzeuge.40 Ebenso verhält es sich bei den Zwingen, die in ihrer Größe und Stärke variieren. Anders jedoch beispielsweise beim Hobel, der mit auswechselbaren Klingen und Halterungen eine Art grammatikalischen Überbau bereitstellt und dadurch mehrere Konfigurationen anbietet. Das Werkzeug des Hobels vereint dementsprechend mehrere Funktionen auf sich und bildet durch seine Austauschbarkeit der Bestandteile eine Anpassbarkeit gegenüber dem Entwurfsgegenstand aus.41 Der Hobel komprimiert und kondensiert

37

38

39

40 41

Vgl. dazu auch die technikhistorische Rekapitulation der Entwicklungen bei Forbes (1954); Neuburger (1919/1984), die Darstellung der technologischen Werkzeuge in der Antike bei Hodges (1992); Landels; Mauel (1980/1999); Cech (2012/2017), als auch zum Stellenwert gegenwärtiger Entwurfsund Produktionswerkzeuge Gänshirt (2009); Hehenberger (2011). Vgl. dazu Kelly (2010). Sennett beschreibt in diesem Zusammenhang, dass Werkzeuge vor allem dann ein evolutionäres Moment bestärken, sobald sie eine Herausforderung darstellen, d.h. ihren Anforderungen nur noch bedingt oder gar nicht mehr entsprechen. Vgl. Sennett (2014: 259). Erst dann wird verändert, neu gedacht und gestaltet, mit Vorhandenem improvisiert und iterativ entwickelt. Vgl. zum Begriff der Improvisation im Zusammenhang mit handwerklichen Entwurfsprozessen auch Frye (2017). Möckel nennt beim Hobel etwa den Schropphobel, Schlichthobel, Doppelhobel, Putzhobel, die Raubank und den Zahnhobel, den kleinen Eisenhobel sowie sechs Wölbungshobel. Er betont, dass alle Hobel nach dem gleichen Prinzip konstruiert sind; es verändern sich demnach lediglich die sekundären (akzidentiellen) Elemente, wie etwa das schneidende Eisen und der Holz- oder Eisenkeil, der Ersteres fixiert. Vgl. Möckel (1997: 64). Dazu Sennett: »Jedes Werkzeug hat seine Aufgabe. Von diesen Werkzeugen geht eine Botschaft der Klarheit aus, des Wissens, was womit zu tun ist […].« Sennett (2014: 259). Vgl. dazu auch den Begriff der Multifunktionalität bei Sennett (2014: 260). Childe führt dazu aus, dass Werkzeuge seit jeher und immer schon eine Mehrzweckfunktion innehatten und sich erst durch ›trial-and-error‹-Prozesse spezifische Verwendungen und Artikulationen der Werkzeuge herausgebildet haben. Vgl. Childe (1951: 46).

37

38

Prozess als Gestalt

demgemäß mehrere Funktionen zu einer Einheit zugunsten einer verbesserten Handhabbarkeit. In diesem Zusammenhang ist das Wechselspiel von Diversifikation und Vereinheitlichung für die parametrische Diskussion insofern bedeutsam, als dass es ein Wesensmerkmal analoger wie digitaler (parametrischer) Systeme darstellt: Werkzeuge verkörpern darin zumeist nicht nur eine singuläre Funktion, sondern sind sie vor allem ein Funktionskondensator. Das heißt, sie fassen mehrere Funktionen in sich zusammen. Die Bohrmaschine wird nicht mehr nur mit einem Bohrer ausgeliefert, sondern als modulares, anschlussfähiges Set. Die letzte Form der Verwendung liegt demnach nicht auf Seiten der Bohrmaschine, sondern beim Nutzer. Noch deutlicher wird dies im digitalen Entwurfsraum: Sind es dort ebenso einzeln abrufbare Funktionen wie ›Kurve zeichnen‹, ›Extrusion‹ oder ›Deckfläche erstellen‹, die jeweils in einem digitalen Werkzeug(-Symbol) artikuliert sind, besteht darüber hinaus die Möglichkeit, dieselben wiederum innerhalb einer kompakten Funktionseinheit zusammenzufassen. Dies erfolgt in einer eigens konfigurierten Abfolge der Funktionen, sodass diese automatisch und nacheinander ausgeführt werden (Algorithmus42 ). Dies bedingt den Eindruck von Gleichzeitigkeit zugunsten einer besseren Handhabbarkeit.43 Durch die Verschachtelung von Funktionen in eigens angelegte Entwurfseinheiten (Kondensation) wird der Gestalter zum Autor seiner eigenen Werkzeuge, mit denen er entwirft. Es bildet sich eine Form der Metagestaltung heraus, innerhalb welcher er weniger einzelne Schritte und Funktionen selbst ausführt, als vielmehr eine Bandbreite von Funktionen anleitend moderiert. Werkzeuge werden demnach umso mehr selbst zum Gegenstand der Gestaltung, je weiter der Gestalter sich vom zu bearbeitenden Entwurf distanziert, indem die Mittel der Hervorbringung als auch der Prozess selbst in den Fokus der Bearbeitung rücken.44 Zweitens, und dieser Punkt geht aus dem ersten unmittelbar hervor, ist die beschriebene Form der Metagestaltung eng mit dem Phänomen der individuellen Anpassung verbunden. Anschaulich wird dies abermals am Beispiel des handwerklichen Instrumentenbaus, welcher sich nicht zuletzt durch die gängige Praxis auszeichnet, Werkzeuge entsprechend den individuellen Bedürfnissen des Betriebes resp. des Handwerkers anzupassen und abzuwandeln. Dies fängt beim Aufbereiten der Werkzeuge an, etwa der Anpassung des Holzgriffs oder dem Schärfen der Messer und Klingen und lässt sich weiter in eigens angefertigten Schablonen oder modularen Aufbauten zur

42

43

44

Vgl. dazu die Definition von Peter Weibel: »Unter einem Algorithmus versteht man eine Entscheidungsprozedur, eine Handlungsanweisung, die aus einer endlichen Menge von Regeln besteht, eine endliche Folge von eindeutig bestimmten Elementaranweisungen, die den Lösungsweg eines spezifischen Problems exakt und vollständig beschreiben.« Weibel (2004). »Dabei ist«, wie Lenzen es darlegt, »ein Algorithmus erst einmal etwas ziemlich Banales: eine Vorschrift, die beschreibt, wie man ein Ziel Schritt für Schritt erreicht. Auch ein Kochrezept oder eine Wegbeschreibung oder eine Lego-Bauanleitung werden in diesem Sinne oft als Algorithmen bezeichnet.« Lenzen (2018: 42). Beispiele dafür sind etwa die Softwareprogramme Rhinoceros Grasshopper oder Cinema 4D, in denen Funktionen und Objekte über-, zu- oder untergeordnet und in kompakte Funktionseinheiten zusammengefasst werden können. Vgl. dazu Woodbury (2010); Tedeschi (2014). Wie Terzidis es etwa für die Software-Programmierung formuliert: »CAD Software developers are meta-designers, i.e. designers of design-systems.« Terzidis (2006: 54).

3. Handwerk und Parametrie

Fixierung von Werkstücken nachvollziehen.45 Wie der Musikinstrumentenbauer Martin Skowroneck es etwa am Bau des Cembalos ausführt, ist der handwerkliche Prozess vor allem durch die Anfertigung eigens konzipierter Werkzeuge geprägt, die ebendann notwendig werden, sobald die standardisierten Werkzeuge nicht mehr ausreichen oder mitunter gar nicht vorhanden sind.46 Dies umfasst sowohl die Umarbeitung vorhandener Werkzeuge, etwa wenn diese nicht dem qualitativen Anspruch entsprechen, als auch die komplette Neufertigung.47 Dieses Aufarbeiten bestärkt das o.g. Moment der Evolution insofern, als dass sowohl Werkzeuge als auch Herstellungsprozesse stellenweise neu gedacht und für jeden Anwendungsfall neu evaluiert werden können – der Handwerker macht sich die Werkzeuge buchstäblich zu eigen.48 Dies ist nicht nur anhand der Werkzeuggegenstände an sich, sondern auch innerhalb der Struktur und dessen Anordnung festzustellen, d.h. innerhalb der Werkstattumgebung selbst: Wird die Werkstatt als literarisches Phänomen stellenweise ins Licht eines romantisch-nostalgischen Rückzugsraumes des handwerklich arbeitenden Individuums gestellt,49 ist es in der Diskussion um Parametrie vielmehr die rationale Organisation der Werkzeuge an sich, die für die gestalterische Auseinandersetzung bedeutsam ist. Während etwa der Werkzeugschrank und die Wandhalterung zentrale Drehpunkte für die handwerkliche Werkstattorganisation darstellen, sind Werkzeuge und Funktionen im digitalen Entwurfsraum zumeist frei zu platzieren bzw. individuell an die jeweilige Verwendung anzupassen.50 Individualisierbare Menüs und flexibel veränderbare Layouts bilden dabei nur die sichtbare Oberfläche51 – in tieferer Dimension der Programmierung können Befehle und Funktionen abgeändert, komplett neu geschrieben oder eigene Ar45 46 47 48

49 50

51

Vgl. dazu Möckel (1997: 87ff). Vgl. Skowroneck (2003: 14ff). Wie Skowroneck es beschreibt: »Profilhobel lassen sich relativ leicht selbst herstellen. Für Profile, die ich weder kaufen, noch aus anderen Hobeln umarbeiten konnte habe ich selbst welche gemacht.« Ebd.: 14. Dabei entsteht zumeist eine enge Verbindung zwischen Handwerker und seinem Werkzeug. Vgl. dazu den Werkstattbericht eins Schmiedes bei Bauer; Stöckle; Panter (1996: 15): »Lebenslanger Umgang mit ihm [dem Werkzeug] hat Nähe und Vertrautheit entstehen lassen. Werkzeuge sind wie Teile von ihm selbst.« Werkzeuge erweitern entsprechend nicht nur die körperlichen Fertigkeiten, sondern wirken ebenso auf die strukturelle, geistige Herangehensweise zurück. Arno Baruzzi spricht in diesem Zusammenhang von einer Unterordnung des menschlichen Denkens unter die Mechanismen werkzeugspezifischer/maschineller Abläufe: »Das Denken sub specie machinae geht zurück auf ein mechanisches Subjekt, das seine Doppelung in den menschlichen Produkten erfährt. Durch diese Analogieumkehrung werden die Wesensmerkmale der Maschine zu Wesensmerkmalen des Menschen.« Baruzzi zitiert nach Giannetti (2004: 26). So etwa bei Sennett (2014: 77); Bauer; Stöckle; Panter (1996: 6, 15). Woodbury benennt dies als Konsequenz der zunehmenden Komplexität parametrischer Medien und Werkzeuge, die nicht nur verstanden, sondern beherrscht und für das Design adaptiert werden müssen. Entsprechend bedarf es eigener, vom Gestalter für sich nutzbar gemachter parametrischer Werkzeugkästen (»develop your toolbox«). Woodbury (2010: 47). So etwa bei allen Programmen der Adobe Suite, in welchen der Arbeitsbereich an verschiedenen Zwecken der Anwendung ausgerichtet werden kann, etwa ›Typografie‹, ›3D-Bearbeitung‹ oder ›Animation‹. Die vorgefertigten Arbeitsbereiche verstehen sich dabei als sog. Presets, die jeweils andere Konfigurationen der Menüfenster, Eingabemasken etc. anzeigen und im Weiteren individuell durch den Nutzer angepasst werden können. Zum Phänomen der Presets vgl. auch weiter unten Kapitel 4.9 ›Standardisierung und Presets‹.

39

40

Prozess als Gestalt

beitsbereiche für dieselben festgelegt werden.52 Im Vordergrund dieser individuellen Anpassung steht die bessere Handhabbarkeit, der bessere Workflow,53 im übergeordneten Sinne eine zu steigernde Effizienz, durch die der eigene Entwurfsprozess in einen erfahrbaren Fluss gerät.54 Mit dieser Feststellung geht der dritte Punkt einher, der die grundlegende Komplexität der Werkzeuge betrifft: Parametrische Werkzeuge verstehen sich durch die Kondensation von Funktionen als Vereinfachung der Ausführungsprozesse, wodurch wiederum eine effizientere (schnellere, übersichtlichere) Handhabung erzielt werden kann. Durch die Verdichtung von Funktionen bündeln sie komplexe Prozesse und formen sie zu handhabbaren Größen. Anschaulich wird dies etwa im Feld der WebseitenProgrammierung, in welchem textlicher (kryptischer) Code in den letzten Jahren verstärkt durch visuelle Programmieroberflächen ergänzt wurde, über welche die Gestaltung erfolgen kann.55 Es bedarf entsprechend nicht mehr der spezifischen fachlichen Qualifikation, Code selbstständig schreiben zu können, sondern lediglich die weitaus allgemeinere Fähigkeit, vorgefertigte visuelle Bausteine in eine neue Ordnung zu bringen (etwa per ›Drag & Drop‹). Hervorzuheben ist dabei, dass der Funktionsumfang dabei nicht etwa abnimmt, wie es bei heuristischen Reduktionen von Prozessen durchaus angenommen werden könnte, sondern im Gegenteil, dazugewinnt.56 Dies liegt daran, dass parametrisch übersetzte Inhalte ihre Verbundenheit zum Ursprung ihrer Herkunft nicht etwa auflösen, sondern beibehalten. Es ändert sich lediglich die Form der Darbietung – durch Transformationsprozesse, welche den Inhalten eine neue – und an jeden Anwendungsfall neu angepasste –, handhabbare Gestalt verleihen, ohne ihre Wurzeln zu kappen. Parametrie verdichtet Komplexität zu Formen handhabbarer Gestaltbarkeit. So komplex die Phänomene auch verlaufen mögen: Parametrische Werkzeuge erscheinen nicht nur geeignet, sondern gar notwendig, diese Komplexität wieder einzufangen

52

53

54

55 56

In allgemeiner Hinsicht ist die Tiefendimension (des Computers) in letzter Instanz allein durch die binäre Codierung von Zuständen begrenzt. Alle höherliegenden (Software-)Anwendungen bauen entsprechend auf dieser binären Logik auf, weshalb der Computer in medientheoretischem Verständnis auch als Universalmaschine verstanden werden kann, wie vor allem Kittler es prominent gemacht hat. Vgl. Kittler (2013: 297ff), ebenso van den Boom (1987: 8ff). Hier verstanden als durchgängiger Arbeitsprozess, wie er seit den 2000er-Jahren zusehends in verschiedensten Unternehmensprozessen gedacht wird. Vgl. dazu auch van der Aalst; van Hee (2004). Besonders anschaulich wird dies etwa anhand von Pop-Up-Menüs, die mit oft benötigten Funktionen und Befehlen besetzt werden können. Beinahe alle gängigen Entwurfs- und CAD-Programme bieten diese Möglichkeit an – in Hinsicht auf Parametrie seien vorrangig die Adobe Suite, Rhinoceros, Cinema4D, SolidEdge und SolidWorks zu nennen. Dies wird etwa durch Website-Builder wie Elementor oder Webflow anschaulich. Vgl. dazu https:// elementor.com/als auch https://webflow.com/, abgerufen am 14.05.2020. Im Feld der Webseiten-Programmierung sind etwa Funktionen wie Roll-Over- oder parallaktische Scroll- Effekte, die einst einen längeren Programmieraufwand erforderten, durch visuelle Bausteine (Presets) über nur wenige Eingaben herbeizuführen. Ebenso verhält es sich mit ganzen Online-Shop-Systemen, die als vorkonfigurierte Webseiten-Templates innerhalb nur weniger Klicks funktionsfähig sind. Vgl. dazu etwa den Anbiter Shopify, https://www.shopify.de/, abgerufen am 14.05.2020.

3. Handwerk und Parametrie

und in handhabbaren Dimensionen resp. Gestaltungsformen an die menschliche Lebenswelt zurückzubinden. Es ist daher vorerst festzuhalten: Je komplexer die Inhalte von Gestaltung werden, desto einfacher (handhabbarer) werden die Werkzeuge ihrer Bearbeitung.57 Parametrische Werkzeuge verstehen sich demnach zusammenfassend auf folgende Merkmale: Wie alle Werkzeuge haben sie ein effiziente(re)s Arbeiten zum Zweck. Dabei verstehen sie sich im Sinne der Diversifikation und Vereinheitlichung nicht nur auf die Ausführung einer Funktion, sondern kondensieren mehrere Funktionen in kompakte und handhabbare Funktionseinheiten. Diese können vom Gestalter individuell und reversibel angepasst werden; einerseits die einzelnen Funktionen selbst, andererseits dessen Struktur und Platzierung im Entwurfsraum. Daran wird vor allem die Dynamik parametrischer Werkzeuge besonders deutlich: So sind sie nicht etwa auf eine Funktion festgelegt, sondern in Form und Struktur jeweils wandel- und verhandelbar. Nicht mehr der Nutzer passt sich den Werkzeugen an, sondern umgekehrt: Der Gestalter wird zum Autor der Strukturen und Verhaltensweisen seiner Werkzeuge, indem er gestaltend moderiert, anstatt selbst handwerklich, d.h. linear, manuell, physisch, auf die Dinge einzuwirken. Auch wenn sich diese Prinzipien und Mechanismen, wie gezeigt wurde, in Ansätzen auch für das handwerkliche Metier nachvollziehen lassen, erhalten die Prozesse jedoch erst im parametrischen Kontext ihre eigentliche Wirkmacht, da die Bedingungen der Digitalität weitaus größere Möglichkeitsräume eröffnen – nicht zuletzt, da sie sowohl von der materiellen als auch von der zeitlichen Dimension weitestgehend losgelöst sind bzw. diese als gestaltbare Größen vereinnahmt haben. Wenn der Entwurf in dieser Hinsicht nicht mehr als irreversibles handwerkliches Werkstück, sondern als reversible prozessuale Gestalt verstanden wird, passen sich entsprechend auch die den Entwurf artikulierenden Werkzeuge dieser Dynamik an: Nicht mehr starre Strukturen und Umgangsformen bestimmen die Arbeit am Entwurf, sondern anpassungsfähige Algorithmen und visuelle Repräsentationen derselben, in welchen nicht etwa Gleichförmigkeit, sondern Veränderbarkeit als grundlegendes Funktionsprinzip angelegt ist. Was im Handwerk mitunter Jahrhunderte der werkzeugspezifischen Feinabstimmung bedurfte – durch ›trial-and-error‹ resp. Diversifikation und Vereinheitlichung –, verdichtet sich im parametrischen Bezugsfeld zu iterativen Prozessschleifen, die sich annähernd unmittelbar und dynamisch an den jeweiligen Entwurf und eine jeweils geeignete Arbeitsweise des Gestalters anzupassen vermögen. Dadurch, dass die Entwicklungszyklen so nah zusammenrücken, vollzieht sich der Entwurfsprozess nicht mehr im Modus eines linearen Nacheinanders, sondern in einem des gleichzeitigen Nebeneinanders: Entwurf, Werkzeug und Gestalter stehen im zyklischen prozessualen Wechsel-

57

Das Smartphone macht diese Entwicklung nur allzu anschaulich. In gleicher Hinsicht formuliert Norbert Bolz: »Je komplexer unsere Welt wird, desto dringlicher wird Gestaltung der Schnittstelle von Menschen und Systemen.« Bolz (2000: 12). Ebenso Bürdek: »Je komplexer also die Handlungsstrukturen sind, die einem Produkt zugrunde liegen, umso einfacher muss sich dessen Bedienung auf der Oberfläche darstellen. Dies kann als eine generelle Maxime für das Design digitaler Produkte gelten.« Bürdek (2015: 253). Vgl. dazu auch die Auseinandersetzung der Thematik weiter unten in Kapitel 7.5 ›Simulation und Computation‹.

41

42

Prozess als Gestalt

verhältnis – variiert einer der Parameter, ändern sich alle anderen gleich mit, im Sinne einer Ko-Evolution der beteiligten Wirkkräfte.58 Sie fügen sich zu einer ganzheitlichen Prozess-Gestalt zusammen,59 die genau durch jenes multidirektionale Zusammenwirken seine spezifische Qualität ausbildet, wobei sie nicht nach ihrem endgültigen Abschluss, sondern vielmehr nach stetiger Erneuerung, ihrem ReDesign, strebt.60

58

59

60

Der Ausdruck der Ko-Evolution stammt aus der Biologie und wurde von Kees Dorst und Nigel Cross auf das Design übertragen. Vgl. Dorst; Cross (2001). Vgl. dazu auch weiter unten Kapitel 6.1 ›Problem und Lösung‹. Der Begriff der Gestalt sei hier im psychologischen Verständnis anzuwenden, wie er durch den Wiener Gestalttheoretiker Christian von Ehrenfels und deutsche Vertreter wie Max Wertheimer, Kurt Koffka und Wolfgang Köhler erstmals Bedeutung erlangte, als »Summe des Ganzen«. Erlhoff; Marshall (2008: 176). Eine knappe Übersicht zur Entwicklungsgeschichte der Gestaltpsychologie findet sich bei Behrens (1996/1998) und Lück (2007). Vgl. auch weiter unten Kapitel 5 ›Gestalt und Parametrie‹, in welchem das Phänomen der Gestaltbildung ausführlich diskutiert wird. Der Ausdruck des ReDesigns nimmt dabei an dieser Stelle die Notwendigkeit vorweg, Entwürfe kontinuierlich an die sich verändernden Bedingungen der menschlichen Lebenswelt anzupassen und Veränderungen im Entwurf immer gleich mitzudenken. Wie weiter unten gezeigt werden soll, bildet Parametrie dazu die medialen und mentalen Voraussetzungen. Vgl. dazu Kapitel 7.6 ›Kontinuität und Disruption‹.

4. Industrie und Parametrie

In der Auseinandersetzung mit dem Begriff und dem Metier des Handwerks konnte nun ein erster Schritt unternommen werden, die Konturen eines parametrischen Gestaltens grob zu umreißen und ein Bewusstsein für dessen Prozesse, Verhältnisse und Umgangsformen vorzuformen. Dabei stellten sich die dargelegten Aspekte der handwerklichen Arbeit als anschlussfähig dar, um parametrische Mechanismen daran zu diskutieren. So ließ sich zeigen, dass Parametrie den evolutionären Charakter der handwerklichen Tradition nicht etwa negiert, sondern maßgeblich beschleunigt. Die im Handwerk durch Materialität und Zeit bedingte Irreversibilität der Prozesse löst sich im parametrischen Kontext zugunsten einer reversiblen Entwurfsfindung auf, wodurch die artikulierten Lösungen im Sinne eines geleiteten Experimentierens stets anschlussfähig und verhandelbar bleiben. Dabei liegt der Fokus weniger auf der Herstellung eines singulären Unikats, sondern vielmehr auf der Evaluation einer Serie. Die Grundlage dazu bilden die mathematische Berechenbarkeit und die mediale Aufbereitung der Gegebenheiten, wodurch messbare Inhalte sichtbare Repräsentationsformen erhalten, anhand welcher Veränderungen unmittelbar nachvollzogen werden können. Entsprechend macht Parametrie nicht nur die Einzelbestandteile des Entwurfs sichtbar, sondern ebenso die Beziehungen und Verhältnisse, die zwischen ihnen bestehen. Dadurch erweitern sich die Möglichkeiten parametrischer Werkzeuge insofern, als dass sie für jeden Anwendungsfall neu konfiguriert werden können und sich das Verhältnis der Anpassbarkeit dadurch umdreht: Der Gestalter ist nicht mehr lediglich Nutzer von Werkzeugen, sondern gleichsam dessen Autor. Er schafft sich seine eigenen Werkzeuge in Form parametrischer Systeme, Algorithmen und Programmen selbst, die nicht zuletzt immer deshalb genau die richtigen sind, weil sie erst im Prozess des Entwerfens selbst aus der konkreten Anwendung hervorgehen. Anhand dieser Überlegungen kann nun eine nächste zeithistorische Entwicklungsstufe an die Diskussion angeschlossen werden, die wiederum differenzierte Anschlusspunkte für Parametrie und ein prozessuales Gestalten anzubieten vermag; wenn nicht mehr von handwerklichen, sondern von industriellen Produktionsweisen zu sprechen ist. Innerhalb dieser erhalten neue Umgangsformen Einzug in die gestalterisch-produktive Praxis: Arbeitsteilung, Dezentralisierung, zeitliche Taktung, Automatisierung,

44

Prozess als Gestalt

Reproduktion, Standardisierung etc.1 Im Fokus der Diskussion steht dabei vor allem der Umgang mit den mechanischen Maschinengestalten, der als solcher weniger im Modus eines handwerklich-körperlichen Machens, als vielmehr in einem des distanziert-mechanischen Bedienens erfolgt.2 Der neue Zugang zu maschineller Technologie verändert das Verhältnis von Gestalter zu Produktentwicklungsprozessen grundlegend, insofern, als dass die Maschine eine autonome Arbeitseinheit darstellt und die körperliche Verbundenheit zum Benutzer sich dadurch sukzessiv auflöst bzw. neu definiert.3 Entsprechend gilt es, ausgehend vom Maschinenbegriff und dessen Abgrenzung zum Werkzeug, aufzuzeigen, wie ein vorwiegend distanzierter Umgang mit Maschinen neue Formen der Interaktion notwendig macht, die nicht mehr auf funktionale, sondern auf symbolische Anzeichen verweisen: Wenn die Maschine, verstanden als Blackbox, keine strukturelle Nachvollziehbarkeit mehr zulässt, da ihre strukturellen Funktionselemente für den Gebrauch verdeckt werden, so bedarf es neuer, gestalteter Sichtbarkeiten, die den Umgang mit ihr anleiten. Gleichzeitig macht dies anschaulich, dass dabei nicht mehr nur die lineare Relation zwischen Handwerker und Werkzeug resp. Benutzer und Maschine besteht, sondern nunmehr eigene Relationen zwischen den einzelnen Funktionselementen, d.h. den Bestandteilen der Maschine selbst, wodurch die Maschine einen Grad an Autonomie gewinnt, der wiederum einer gewissen Qualifikation auf Seiten des Benutzers bedarf, um sie überhaupt beherrschen bzw. bedienen zu können. Entsprechend lässt sich darin eine wechselseitige Dynamik erkennen, die zwischen technischer Restriktion und den Freiheitsgraden der Gestaltbarkeit vermittelt und die von einer bewussten Absicht des Gestalters angeleitet werden muss. Damit sich Letzteres jedoch überhaupt artikulieren lässt, bedarf es Formen der Handhabbarkeit, welche technische Komplexität in menschlich verständliche Einfachheit (zurück)übersetzen. Es gilt entsprechend, komplexe strukturelle Mechanismen in handhabbare Formen einfacher Bedienmöglichkeiten zu überführen. Daran lässt sich weiter aufzeigen, dass jene industriellen Übersetzungsmechanismen Formen der gleichgeschalteten Reproduktion bedingen, anhand welcher die Frage nach dem Verhältnis von Einzigartigkeit, Gleichförmigkeit und serieller Abweichung (Variation) mit Hinsicht auf Parametrie neu diskutiert werden kann, da Variation einen parametrischen Wesensbestandteil darstellt. Eine Abweichung bedarf dabei stets einer Referenzdimension, von welcher abgewichen wird, sodass sich Formen der Standardisierung in Prozessen etablieren, die nicht etwa mehr ein angestrebtes Ziel, sondern vielmehr die grundlegende Basis

1

2

3

Vorläufer dieser Prozesse können dabei bereits in traditionellen, manuell-handwerklichen Produktionsweisen stellenweise nachgewiesen werden, ebendann, wenn die strukturelle Organisation zur Notwendigkeit der bedarfsgerechten Fertigung wurde. Vgl. dazu etwa Neudörfer (2007). Eine anschauliche Zusammenfassung der Entwicklung des Übergangs von handwerklichen Praktiken zu industriellen Fertigungen für das Feld des Designs ab dem ausgehenden 19. Jahrhundert findet sich darüber hinaus bei Braun-Feldweg (1966). Vgl. dazu etwa Otto Kammerer, der bereits in seiner 1917 erschienenen Schrift ›Notwendigkeit der Maschinenarbeit‹ den Menschen als »Handlanger der Maschine« bezeichnete, dessen Ziel es sei, »nur noch ihr Steuermann« zu werden. Vgl. Kammerer (1917: 9). Eine designgeschichtliche Einordnung des Übergangs von handwerklichen zu industriellen Produktionsformen findet sich darüber hinaus sowohl bei Hauffe (2014: 24ff) als auch bei Selle (2007: 101ff).

4. Industrie und Parametrie

für weitere Prozessschritte darstellen. Daran kann anschaulich gemacht werden, dass Produktions- und Entwurfsprozesse nicht etwa buchstäblich bei null anfangen, sondern stets auf einem Gegebenen resp. einem Vor-Gesetzten (Preset) aufbauen, das es entsprechend sorgsam in den jeweiligen Prozess zu integrieren gilt. Die Integration der Bestandteile vollzieht sich dabei nicht zuletzt immer auch innerhalb einer zeitlichen Dimension, die sich im industriellen Produktionskontext zumeist als Effizienzfördernde Taktung offenbart, die im parametrischen Kontext dagegen als gestaltbare Größe gedacht, visualisiert und gestaltet werden kann. Die folgende Auseinandersetzung versteht sich entsprechend darauf, die Kontur dessen, was als parametrisch verstanden werden kann, weiter zu schärfen. Nach der Betrachtung handwerklicher Prozesse ergeben sich im Kontext der industriellen Produktionsweisen neue Anschlusspunkte, an denen sowohl parametrische Mechanismen als auch dessen Wirksamkeit unmittelbar anschaulich gemacht werden können. Dabei kann weniger von Grenzen zwischen den einzelnen Aspekten zu sprechen sein als vielmehr von fließenden Übergängen, was jedoch eben jener assoziativen Verbundenheit entspricht, die für ein parametrisches Verständnis der Prozesse bestärkt werden soll.

4.1

Werkzeug und Maschine

Im Übergang von handwerklichen zu industriellen Produktionsweisen sieht sich der Begriff des Werkzeuges dem der Maschine unmittelbar gegenübergestellt. Diese erscheinen zunächst eng verwandt, differenzieren sich jedoch hinsichtlich ihres Kontextes und Gebrauchs.4 Childe etwa beschreibt die Entwicklung des Menschen in Verbindung mit Werkzeugen aufsteigend vom Werkzeug-Benutzer über den WerkzeugMacher hin zum Maschinen-Macher.5 McKay definiert eine Maschine ferner als finite 4

5

Die Diskussionen um den Begriff des Werkzeuges sind vielfältig und weit verzweigt. Bereits die griechische Antike verstand das Werkzeug übergreifend in engem Verhältnis zu Handwerk, Kunst, Wissenschaft und Technik stehend (gr. ›téchne‹). Vgl. Wörterbuch der philosophischen Begriffe (2013: 656, Technik). Platon nutzt den Werkzeug-Begriff in seinem Dialog ›Kratylos‹ in sprachphilosophischen Zusammenhang, in dem das Wort nach Sokrates ein »mitteilendes und das Wesen zerteilendes Werkzeug [ist], wie die Weberlade für das Gewebe« Platon (2012). Dadurch spannte sich ein erstes Bezugsfeld zwei philosophischer Denkrichtungen auf, eine der Werkzeug-Herstellung und eine der Werkzeug-Benutzung, wie sie später u.a. und bekannterweise in Heideggers existenzialphilosophischer Betrachtung weiter unter den Ausdrücken der Vorhandenheit und Zuhandenheit ausdifferenziert wurden. Vgl. Heidegger (1927/2006). Eine Unterscheidung zwischen Werkzeug und Maschine findet sich bereits bei Vitruv, der die beiden Begriffe hinsichtlich ihrer öffentlich offenbar werdenden Wirkung (Maschinen) und der unterstützenden Hilfe einer einzelnen Arbeitskraft im alleinigen Gebrauch (Werkzeug) unterscheidet: »Der Unterschied aber zwischen Maschinen und Werkzeugen scheint der zu sein, daß die Maschinen durch mehrere Arbeitskräfte, gleichsam durch größeren Einsatz von Kraft, dazu veranlaßt werden, ihre Wirkungen zu zeigen, z.B. die Ballisten und Kelterpressen. Werkzeuge aber erfüllen durch die fachmännische Bedienung durch eine Arbeitskraft den Zweck, dem sie dienen sollen, z.B. die Ankurbelung beim Skorpion und bei Anisokyklen. Also sind sowohl Werkzeuge wie Maschinen für die praktische Betätigung notwendig, weil ohne sie keine Arbeit bequem ausgeführt werden kann.« Vitruv; Fensterbusch (1964/1991: 1.1.3). Vgl. Childe (1951: 45ff). Vgl. darüber hinaus die knappe Zusammenfassung des menschlichen Werkzeuggebrauchs bei Norman (2003: 7-8) als auch die historische Rekapitulation handwerk-

45

46

Prozess als Gestalt

Menge robuster Bestandteile, die in festgelegten Verhältnissen miteinander verbunden sind, sodass die zugeführte Energie erfolgreich umgewandelt und eine bestimmte Arbeit ausgeführt werden kann.6 Die Maschine stellt demnach zunächst ein höherkomplexes, technisches Gerät dar, das sich aus dem Werkzeug heraus entwickelte und dessen Ausmaß an Komplexität ab einem bestimmten Punkt nicht mehr unmittelbar nachzuvollziehen war. Eben jenes Moment der Nachvollziehbarkeit ist es, das für die weitere Differenzierung und die Diskussion um Parametrie insofern von Relevanz ist, als dass dadurch diejenigen Entwicklungsschritte markiert werden können, in denen es notwendig wurde, neue Parameter zu setzen, um eine verloren gegangene Nachvollziehbarkeit neu zu gestalten. Entsprechend ist die Entwicklung der Maschine aus dem Werkzeug im Folgenden gemäß ihrer technischen Nachvollziehbarkeit zu betrachten. Anschaulich wird dies insbesondere anhand eines rückwärtigen Blicks auf die Entstehung frühindustrieller Maschinen, wie sie etwa vom schwedischen Erfinder und Wissenschaftler Christopher Polhem um 1700 entwickelt wurden.7 Polhems Maschinen verstanden sich auf die Offenlegung ihrer Mechanik, d.h., ihre Funktionsweise konnte von außen nachvollzogen werden: Hebel griffen in Zahnräder und Gelenke, Achsen und Scharniere machten geführte Bewegungszyklen möglich. Besonders anschaulich wird dies anhand des von Polhem und Studierenden seines Feldes entwickelten sog. Mechanischen Alphabets, eine Sammlung von rund 100 mechanischen Konstruktionen, welche die Prinzipien mechanischer Bewegung für die damalige Lehre veranschaulichen sollten.8 Im Mechanischen Alphabet konnte der technikgeschichtliche Schritt vom Werkzeug zur Maschine unmittelbar nachvollzogen werden: Die Bestandteile des technischen Geräts waren nun nicht mehr starr miteinander verbunden, wie etwa Kopf und Stiel des Hammers, sondern in dynamischer resp. assoziativer Art und Weise. Zwischen den Komponenten wurde eine dauerhafte Beziehung etabliert, die als gegenseitige Abhängigkeit äußerlich sichtbar wurde: Das Zahnrad drehte sich lediglich dann, wenn der

6

7 8

licher Praktiken bei Elkar; Keller; Schneider (2014) sowie die Abhandlung über die Entwicklung der globalen Mechanisierung bei Giedion (1987). »A machine may be defined as an assemblage of resistant bodies whose relative motions are successfully constrained so that some form of natural energy may be modified or transmitted to do some special kind of work.« McKay (1915: 2). Diese Definition deckt sich mit der noch gegenwärtig verwendeten Definition des Dudens. Vgl. Duden (2011: 1162), Maschine. Die Maschine markiert dabei allgemeinhin einen Prozess der technologischen Standardisierung, dessen (bis in die Gegenwart andauernde) Entwicklung sich mit Gert Selle in drei Phasen beschreiben lässt: eine erste Generation der handwerklich manuell zusammengesetzten Werkzeuge und Maschinen; eine zweite, in der mithilfe von Maschinen wiederum neue Maschinen in Kleinserien produziert werden können und eine dritte, in welcher Maschinen dazu imstande sind, autark neue Maschinen hervorzubringen. Letzteres bezeichnet Selle daher als »Prinzip der industriellen Selbstproduktion« Selle (2007: 32). Thomas Hauffe zeichnet diese Entwicklung anhand technologischer Exempel nach: von noch handbetriebenen Webstühlen über die Dampfmaschine hin zur Fließbandproduktion im Taylorismus. Vgl. dazu Hauffe (2014: 16-31). Eine ähnliche Einteilung wie Selle nehmen Heath; Heath; Jensen (2000) vor, indem sie die Entwicklung der Industrialisierung in vier Phasen gliedern: handwerklich-manuelle Arbeit in Werkstatt und Wohnstätten, maschinen-unterstützte Handarbeit in größeren Fabriken, die Zeit der Hochmechanisierung der 1940er und 1950er-Jahre sowie das Zeitalter der Automation und Computerisierung. Heath; Heath; Jensen (2000: 11). Vgl. Nyström (1985); Johnson (1963). Vgl. dazu Heath; Heath; Jensen (2000)sowie Nyström (1985) und Johnson (1963).

4. Industrie und Parametrie

Arm des Hebels eine gleichförmige Bewegung ausführte und die Zähne beider Komponenten ineinandergriffen. Im traditionellen Handwerk, wie es anhand des Geigenbaus dargestellt wurde, kam diese ausführende Arbeit noch ganz dem Handwerker zu, sofern dieser die Bewegung des einzelnen Werkzeuges manuell und repetitiv hervorrief: Der Hammer wurde in der Hand gehalten, mit einer Ausholbewegung geschwungen und auf einem bestimmten Ziel zum Stillstand gebracht, sodass sich durch die einwirkende Kraft ein Widerstand überwinden und ein Effekt erzielen ließ. Dies wurde so lange wiederholt, bis sich der gewünschte Zustand – etwa der versenkte Nagel im Holz – eingestellt hat. Der Handwerker stand demnach in einer eindimensionalen, d.h. körperlich unmittelbaren notwendigen Beziehung zu seinem Werkzeug: Ohne ihn vollzog das Werkzeug keine Arbeit – es bedurfte der permanenten, menschlichen Kraft, um den Prozess aufrechtzuerhalten und voranzutreiben. Der Handwerker war unabdingbar; das Werkzeug ›funktionierte‹ nicht ohne äußeres Zutun. Mit Prinzipien der Mechanik, wie Polhem sie veranschaulicht hatte, etablierte sich auf dem Weg zur industriellen Produktionsweise nun ein neues Verhältnis zwischen Mensch und Maschine, das nicht mehr starre und manuelle, sondern dynamische und autonome Verfahrensweisen auf sich vereinte. Auch wenn der Mensch die Maschine noch durch Muskelkraft antrieb, im Sinne einer Werkzeugmaschine,9 bestand nun nicht mehr nur ein Verhältnis zwischen Werkzeug und Benutzer, sondern darüber hinaus zwischen den einzelnen Komponenten der Maschine selbst. Es wurde ein Moment der Autonomie eingeführt, d.h. eines der sich selbst stabilisierenden Prozesse innerhalb der Maschinen-Mechanik. In dieser Perspektive eröffnet sich der maschinell-mechanische Aufbau im Kern als parametrisch, eben durch die neu geschaffenen Abhängigkeiten, die zwischen den Bestandteilen angelegt wurden. Die Verhältnisse zwischen den Komponenten bildeten nun den Kern der gestalterischen Arbeit, wodurch der Fokus zu Beginn der industriellen Produktionsweisen weniger auf den zu produzierenden Einzelprodukten lag, sondern vielmehr auf den Produktionswerkzeugen resp. den mechanischen Maschinen, die Ersteres (später) hervorbringen sollten.10 Diese Fokusverschiebung auf die Gestaltung der Gestaltungswerkzeuge kann entsprechend als Form der Metagestaltung bezeichnet werden, wie sie auch für parametrische Herangehensweisen innerhalb der gestalterischen Praxis charakteristisch ist.11 In der Fortentwicklung einer solchen Metagestaltung als Maschinengestaltung verstärkten sich gleichsam die arbeitsteiligen und dezentralen Fertigungsstrukturen: Wurden autonome Maschinen zu Beginn des 18. Jahrhunderts noch weitestgehend in manuell-physischer Handarbeit hergestellt und stellenweise improvisiert,12 änderte der 9

10 11 12

Diese zeichnete sich dadurch aus, dass sie für ihren Betrieb teils autonome, teils manuelle Arbeit voraussetzte. Auf dem Weg zur Vollautomatisierung bildete dieser Maschinentypus ein Übergangsstadium aus, das insofern unvollkommen war, als dass in diesem gewisse Arbeit noch nicht technisch artikuliert werden konnte und ein menschliches Zutun nach wie vor notwendig war. Vgl. dazu Schlesinger (1917: 15ff) sowie Selle (2007: 32). Wie Selle es in diesem Zusammenhang übergreifend zusammenfasst: »Die erste Gestaltungsaufgabe ist das Produktionsinstrument.« Ebd.: 26. Wie Terzidis es zusammenfasst: »CAD software developers are meta-designers, i.e. designers of designsystems.« Terzidis (2006: 54). Vgl. Selle (2007: 28).

47

48

Prozess als Gestalt

ökonomische Einfluss etwa der Niederdruck-Dampfmaschine durch Watt und der des Fließbandes durch Evans und Taylor das Verhältnis von Handarbeit und maschineller Arbeit grundlegend.13 Mit der Abkopplung der Maschine von direkter menschlicher oder tierischer Muskelkraft vergrößerte sich dabei sukzessiv die Distanz zwischen Benutzer und Maschine. Es etablierte sich eine Vermittlungsebene, die nicht mehr eine körperliche Benutzung, sondern eine technische Bedienung erforderte. Das Medium der Gestaltartikulation war nicht mehr – wie noch im traditionellen Handwerk – in unmittelbarer körperlicher Nähe verortet (etwa der Hammer in der Hand), sondern bedingte in der industriellen Maschine nun die Trennung zwischen technischer Funktionsweise und menschlicher Anwendung. In dieser Hinsicht etablierte sich ein Phänomen der Distanz, welche seitdem eine Form der abstrakten und repräsentativen Interaktion notwendig machte.

4.2

Distanz und Interaktion

Der Begriff der Distanz soll im Folgenden das Ergebnis jener Fokusverschiebung veranschaulichen, die weiter oben als Metagestaltung umrissen worden ist. Ein Vergleich macht es deutlich: Im traditionellen Handwerk wird das Werkzeug kontinuierlich über die gesamte Dauer des Prozesses durch die menschliche Hand bedient. Es wird nah am Körper gehalten, d.h. in unmittelbarer, lokaler Distanz. Die Hand resp. der Handwerker ist antreibende und ausführende Kraft gleichermaßen. Hört er auf zu arbeiten, kommt der Prozess zum Stehen. Die körperliche Nähe zwischen Werkzeug und Handwerker ist grundgegebene Voraussetzung eines solchen vernakulären Prozesses.14 Anders verhält es sich bei der Maschine im industriellen Prozess, in welchem die Betrachtung der Maschine zunächst in zwei Formen der Entwicklung unterschieden werden kann: eine erste, in welcher der Mensch selbst als treibende Kraft bestehen und notwendig bleibt, etwa durch die repetitive und gleichförmige Bewegung eines Hebels oder Fußpedals (Werkzeugmaschine), sowie eine zweite, in welcher die Maschine die von ihr benötigte Energie von externer Quelle bezieht, etwa Dampf-, Wasser- oder Windkraft.15 Markiert die Werkzeugmaschine einen Übergang zwischen Handwerk und Industrie, ist für die parametrische Diskussion vor allem die Maschinenform zweiten Typs relevant, insofern, als dass sich durch die neuen Formen des energetischen Antriebs eine Distanz etabliert, die den unmittelbaren, körperlichen Bezug zum Menschen sukzessiv auflöst. Die industrielle Maschine fordert keinen handwerklich virtuosen Umgang, sondern gleichförmige, repetitive Bewegung. Der Mensch steht der Maschine nunmehr distanziert gegenüber, als ihr unmittelbar körperlich nahe zu sein. Sie bildet einen körperlich-distanzierten Gegenpol, indem sie allein ihrer eigenen Regelhaftigkeit folgt und 13 14

15

Vgl. dazu die geschichtliche Betrachtung bei Giedion (1987: 109); Selle (2007: 26ff); Schneider (2005: 15ff); Hauffe (2014: 10ff). Diese Bezeichnung führt Bryan Lawson an und benennt damit einen handwerklichen (Design)Prozess, der sich durch ein zumeist verbal tradiertes Erfahrungswissen generationsübergreifender Akteure auszeichnet und sich verstärkt auf ein manuell-körperliches Machen und weniger auf ein vorausschauendes Planen versteht. Lawson (2006: 17ff). Vgl. Selle (2007: 28); Giedion (1987: 62).

48

Prozess als Gestalt

ökonomische Einfluss etwa der Niederdruck-Dampfmaschine durch Watt und der des Fließbandes durch Evans und Taylor das Verhältnis von Handarbeit und maschineller Arbeit grundlegend.13 Mit der Abkopplung der Maschine von direkter menschlicher oder tierischer Muskelkraft vergrößerte sich dabei sukzessiv die Distanz zwischen Benutzer und Maschine. Es etablierte sich eine Vermittlungsebene, die nicht mehr eine körperliche Benutzung, sondern eine technische Bedienung erforderte. Das Medium der Gestaltartikulation war nicht mehr – wie noch im traditionellen Handwerk – in unmittelbarer körperlicher Nähe verortet (etwa der Hammer in der Hand), sondern bedingte in der industriellen Maschine nun die Trennung zwischen technischer Funktionsweise und menschlicher Anwendung. In dieser Hinsicht etablierte sich ein Phänomen der Distanz, welche seitdem eine Form der abstrakten und repräsentativen Interaktion notwendig machte.

4.2

Distanz und Interaktion

Der Begriff der Distanz soll im Folgenden das Ergebnis jener Fokusverschiebung veranschaulichen, die weiter oben als Metagestaltung umrissen worden ist. Ein Vergleich macht es deutlich: Im traditionellen Handwerk wird das Werkzeug kontinuierlich über die gesamte Dauer des Prozesses durch die menschliche Hand bedient. Es wird nah am Körper gehalten, d.h. in unmittelbarer, lokaler Distanz. Die Hand resp. der Handwerker ist antreibende und ausführende Kraft gleichermaßen. Hört er auf zu arbeiten, kommt der Prozess zum Stehen. Die körperliche Nähe zwischen Werkzeug und Handwerker ist grundgegebene Voraussetzung eines solchen vernakulären Prozesses.14 Anders verhält es sich bei der Maschine im industriellen Prozess, in welchem die Betrachtung der Maschine zunächst in zwei Formen der Entwicklung unterschieden werden kann: eine erste, in welcher der Mensch selbst als treibende Kraft bestehen und notwendig bleibt, etwa durch die repetitive und gleichförmige Bewegung eines Hebels oder Fußpedals (Werkzeugmaschine), sowie eine zweite, in welcher die Maschine die von ihr benötigte Energie von externer Quelle bezieht, etwa Dampf-, Wasser- oder Windkraft.15 Markiert die Werkzeugmaschine einen Übergang zwischen Handwerk und Industrie, ist für die parametrische Diskussion vor allem die Maschinenform zweiten Typs relevant, insofern, als dass sich durch die neuen Formen des energetischen Antriebs eine Distanz etabliert, die den unmittelbaren, körperlichen Bezug zum Menschen sukzessiv auflöst. Die industrielle Maschine fordert keinen handwerklich virtuosen Umgang, sondern gleichförmige, repetitive Bewegung. Der Mensch steht der Maschine nunmehr distanziert gegenüber, als ihr unmittelbar körperlich nahe zu sein. Sie bildet einen körperlich-distanzierten Gegenpol, indem sie allein ihrer eigenen Regelhaftigkeit folgt und 13 14

15

Vgl. dazu die geschichtliche Betrachtung bei Giedion (1987: 109); Selle (2007: 26ff); Schneider (2005: 15ff); Hauffe (2014: 10ff). Diese Bezeichnung führt Bryan Lawson an und benennt damit einen handwerklichen (Design)Prozess, der sich durch ein zumeist verbal tradiertes Erfahrungswissen generationsübergreifender Akteure auszeichnet und sich verstärkt auf ein manuell-körperliches Machen und weniger auf ein vorausschauendes Planen versteht. Lawson (2006: 17ff). Vgl. Selle (2007: 28); Giedion (1987: 62).

4. Industrie und Parametrie

den Menschen dazu anleitet, sich ihr zu unterwerfen.16 Hebel und Tasten der Maschine bilden vordergründig die einzigen Bezugspunkte der Bedienung, wodurch die Interaktionsmöglichkeiten auf ein Minimum beschränkt werden. Es sind derartige Formen der technischen Distanzschaffung, die reziprok neue Formen der Interaktion artikulieren: Der Mensch distanziert sich von den inneren, technischen Abläufen der Maschine und operiert auf einer neuen Ebene des technisch handhabbar Gemachten. Es vollzieht sich ein technisch artikulierter Zweischritt, der in der Diskussion um Parametrie einen wesentlichen Punkt ausmacht: die Unterteilung in eine Ebene des formaltechnischen Funktionierens (Funktionsebene) und eine Ebene der menschlichen Bedienbarkeit (Bedienebene). Diese Unterteilung ist grundlegend für ein parametrisches Verständnis von Gestaltung, da Parametrie sich verstärkt auf die Handhabbarmachung technischer Prozesse versteht, wie es innerhalb der digitalen Gegenwart etwa in Form von Interfaces anschaulich wird.17 Entsprechend werden die Dinge weniger von ihrer inneren technischen Struktur her gedacht, als vielmehr vom anwendungsorientierten Benutzer, der mit ihnen umgeht.18 Dabei verhalten sich parametrische Bedienlogiken nicht starr, sondern dynamisch: Etablierte Bedienebenen können wiederum zu neuen Bedienebenen zusammengefasst werden, sodass sich vorgefertigte Funktionssysteme (›Presets‹) herausbilden und der Gestalter somit zum Gestalter seiner eigenen Werkzeuge avanciert.19 In diesem Zusammenhang versteht sich Parametrie zugleich als kompensatorische und komprimierende Instanz: Sowohl parametrische Programme als auch autonome Maschinen versinnbildlichen eine Distanz, die zwar technisch bedingt ist, gleichzeitig jedoch auch durch die Notwendigkeit einer möglichst einfachen menschlichen Handhabung wiederum technisch überbrückt wird. Dies ist durch die Einführung selbstständig ablaufender technischer Prozesse eine Notwendigkeit geworden, die sich als gestaltete Interaktion verstehen lässt:20 Der Arbeiter bedient nicht das einzelne Zahnrad, sondern das Zusammenspiel des Zahnrades mit seinen verbundenen Komponenten. Der Prozess kann nicht mehr im Einzelnen, sondern muss in seiner Gesamtheit gesteuert werden. Dies macht eine neue Ebene der Bedienbarkeit notwendig – im Kontext der Maschine etwa Hebel, Knöpfe und Tasten, welche die Komplexität der im Hintergrund ablaufenden Prozesse auf sich vereinen und diese zu einfachen Bedienstrukturen im Vordergrund komprimieren. Bedienmechanismen verkörpern entsprechend einfach zu handhabende Parameter; d.h. assoziativ miteinander verbundene Übersetzungen komplexer Prozesse, wodurch sie in ihrer Gesamtheit resp. als Einheit nutzbar und steuerbar werden. An der Maschine markiert der Knopfdruck dabei jeweils den

16

17 18 19 20

Vgl. dazu insb. Siegried Giedions Band ›Die Herrschaft der Mechanisierung‹, der diese Unterwerfung innerhalb verschiedener Lebensbereiche des Menschen differenziert nachvollzieht. Vgl. Giedion (1987). Vgl. als prototypische Vertreter eines Interface-Designs vor allem Negroponte (1995: 111ff); Bonsiepe (1999) als auch für die gegenwärtige Praxis Preim; Dachselt (2015). Vgl. Schrader (2017: 17ff). Vgl. dazu auch weiter unten Kapitel 4.9 ›Standardisierung und Presets‹. Vgl. dazu auch Giannetti (2004: 109ff), die das Phänomen der Interaktivität im künstlerischen Zusammenhang vor ihrem kybernetischen Hinter- und ihrem virtuellen Vordergrund diskutiert.

49

50

Prozess als Gestalt

Beginn und das Ende des Prozesses; bei komplexeren Maschinen sind mehrere Parameter auf der Bedienebene vorhanden, die miteinander in Beziehung stehen (etwa die Laufgeschwindigkeit eines Fließbandes oder der Anpressdruck einer Presse). Parameter fassen dabei zusammen resp. komprimieren, was für den reibungslosen Ablauf der inneren, technischen Funktionsweise relevant ist und befördern jene Aspekte (zurück) auf eine dem Menschen näher liegende Ebene der Bedienbarkeit. Das, was sich als technisch-strukturelle Komplexität vom Menschen entfernt (Funktionsebene), wird durch Parametrie wieder an den Benutzer herangeführt (Bedienebene) – technische Distanz wird wiederum technisch überbrückt, sodass die Prozesse menschlich handhabbar werden.21 Die kategorische Unterscheidung basiert dabei auf einem vorwiegend visuellen Zugang: Während Mechaniken und Schaltkreise im Verborgenen miteinander interagieren, dringen lediglich die nutzungsrelevanten Steuerungselemente in eine Ebene der Sichtbarkeit.

4.3

Sichtbarkeit und Unsichtbarkeit

Die Diskussion um den Begriff der Distanz kann demnach auf die Frage nach der Erscheinungsform der Dinge ausgeweitet werden, d.h. nach dessen Sichtbarkeit und Unsichtbarkeit. Neben der generellen Bedeutsamkeit für das Design, wie sie über mehrere Jahrzehnte immer wieder diskutiert wurde,22 betrifft sie im industriellen Kontext zu Beginn des 20. Jh. vor allem jene technischen Geräte, bei denen die innere technische Funktionsweise durch eine äußere ästhetische Hülle überdeckt werden sollte.23 21

22

23

Die Dinge werden entsprechend weniger in technischen, als vielmehr in menschlichen Auflösungsgraden verhandelt. Vgl. dazu auch weiter unten Kapitel 8.1.6 ›Auflösungsgrade und Prozessgestalt‹. Vgl. dazu die Ausführungen Burckhardts, in welchen er auf die unsichtbaren Wirkdimensionen gestalteter Artefakte hinweist, die zwar nicht sichtbar, aber dennoch organisatorisch relevant sind. Vgl. Burckhardt (1980/2012). Er beschreibt, dass Design die »unsichtbaren Regeln des gesellschaftlichen Prozesses« miteinbeziehen muss (Burckhardt (1970/2012: 12) und dass, wenn es dies nicht tut, gar kontraproduktiv ist. Vgl. Burckhardt (1980/2012: 38). In Bezug auf das gleiche Phänomen plädiert Holger van den Boom für ein »kognitives Design«, das »unsere Selbstverständlichkeiten« mit in die Entwurfs-Überlegungen miteinbeziehen muss. van den Boom (2011: 37ff). Beide Autoren verwenden mitunter das Beispiel des Fahrkartenautomaten, woran sich zeigt, dass die gestalterische Antwort auf das Phänomen auch nach rund dreißig Jahren noch nicht zu voller Zufriedenheit erfolgt ist. Eine Betrachtung von Sichtbarkeit und Unsichtbarkeit in Bezug auf das Handwerk findet sich darüber hinaus bei Arnheim (1961/1980), der die Einflüsse von handwerklich-körperlicher und mechanisch-instrumenteller Arbeit diskutiert und den Beruf des Handwerkers dabei als jene Profession versteht, die auf traditionelle, körperlich-manuelle Art und Weise die »Welt sichtbar macht«. Ebd.: 274. Demnach ist auch die gestalterische Tätigkeit als eine der Visualisierung zu betrachten, wie Bürdek es formuliert hat: »So gesehen kann man sicherlich konstatieren, dass Designer heute nicht mehr Erfinder (im Sinne Leonardo da Vincis) sind, sondern die Visualisierer einer zunehmend unanschaulich gewordenen Welt: Design ist nicht unsichtbar, es macht vielmehr sichtbar.« Bürdek (2015: 242). Ähnlich auch van den Boom: »Was gar nicht darstellbar ist, kann auch nicht designt werden. Design ist die Herstellung des Entwurfs auf der Darstellungsebene.« van den Boom (2011: 60). Zu dieser Zeit versteht sich der ›Designer‹ vorwiegend als ›Hüllengestalter‹, der, im Gegensatz zum Ingenieur, die technischen »interna« nicht anzurühren hatte. Vgl. dazu Selle (2007: 101ff). Selle

50

Prozess als Gestalt

Beginn und das Ende des Prozesses; bei komplexeren Maschinen sind mehrere Parameter auf der Bedienebene vorhanden, die miteinander in Beziehung stehen (etwa die Laufgeschwindigkeit eines Fließbandes oder der Anpressdruck einer Presse). Parameter fassen dabei zusammen resp. komprimieren, was für den reibungslosen Ablauf der inneren, technischen Funktionsweise relevant ist und befördern jene Aspekte (zurück) auf eine dem Menschen näher liegende Ebene der Bedienbarkeit. Das, was sich als technisch-strukturelle Komplexität vom Menschen entfernt (Funktionsebene), wird durch Parametrie wieder an den Benutzer herangeführt (Bedienebene) – technische Distanz wird wiederum technisch überbrückt, sodass die Prozesse menschlich handhabbar werden.21 Die kategorische Unterscheidung basiert dabei auf einem vorwiegend visuellen Zugang: Während Mechaniken und Schaltkreise im Verborgenen miteinander interagieren, dringen lediglich die nutzungsrelevanten Steuerungselemente in eine Ebene der Sichtbarkeit.

4.3

Sichtbarkeit und Unsichtbarkeit

Die Diskussion um den Begriff der Distanz kann demnach auf die Frage nach der Erscheinungsform der Dinge ausgeweitet werden, d.h. nach dessen Sichtbarkeit und Unsichtbarkeit. Neben der generellen Bedeutsamkeit für das Design, wie sie über mehrere Jahrzehnte immer wieder diskutiert wurde,22 betrifft sie im industriellen Kontext zu Beginn des 20. Jh. vor allem jene technischen Geräte, bei denen die innere technische Funktionsweise durch eine äußere ästhetische Hülle überdeckt werden sollte.23 21

22

23

Die Dinge werden entsprechend weniger in technischen, als vielmehr in menschlichen Auflösungsgraden verhandelt. Vgl. dazu auch weiter unten Kapitel 8.1.6 ›Auflösungsgrade und Prozessgestalt‹. Vgl. dazu die Ausführungen Burckhardts, in welchen er auf die unsichtbaren Wirkdimensionen gestalteter Artefakte hinweist, die zwar nicht sichtbar, aber dennoch organisatorisch relevant sind. Vgl. Burckhardt (1980/2012). Er beschreibt, dass Design die »unsichtbaren Regeln des gesellschaftlichen Prozesses« miteinbeziehen muss (Burckhardt (1970/2012: 12) und dass, wenn es dies nicht tut, gar kontraproduktiv ist. Vgl. Burckhardt (1980/2012: 38). In Bezug auf das gleiche Phänomen plädiert Holger van den Boom für ein »kognitives Design«, das »unsere Selbstverständlichkeiten« mit in die Entwurfs-Überlegungen miteinbeziehen muss. van den Boom (2011: 37ff). Beide Autoren verwenden mitunter das Beispiel des Fahrkartenautomaten, woran sich zeigt, dass die gestalterische Antwort auf das Phänomen auch nach rund dreißig Jahren noch nicht zu voller Zufriedenheit erfolgt ist. Eine Betrachtung von Sichtbarkeit und Unsichtbarkeit in Bezug auf das Handwerk findet sich darüber hinaus bei Arnheim (1961/1980), der die Einflüsse von handwerklich-körperlicher und mechanisch-instrumenteller Arbeit diskutiert und den Beruf des Handwerkers dabei als jene Profession versteht, die auf traditionelle, körperlich-manuelle Art und Weise die »Welt sichtbar macht«. Ebd.: 274. Demnach ist auch die gestalterische Tätigkeit als eine der Visualisierung zu betrachten, wie Bürdek es formuliert hat: »So gesehen kann man sicherlich konstatieren, dass Designer heute nicht mehr Erfinder (im Sinne Leonardo da Vincis) sind, sondern die Visualisierer einer zunehmend unanschaulich gewordenen Welt: Design ist nicht unsichtbar, es macht vielmehr sichtbar.« Bürdek (2015: 242). Ähnlich auch van den Boom: »Was gar nicht darstellbar ist, kann auch nicht designt werden. Design ist die Herstellung des Entwurfs auf der Darstellungsebene.« van den Boom (2011: 60). Zu dieser Zeit versteht sich der ›Designer‹ vorwiegend als ›Hüllengestalter‹, der, im Gegensatz zum Ingenieur, die technischen »interna« nicht anzurühren hatte. Vgl. dazu Selle (2007: 101ff). Selle

4. Industrie und Parametrie

Die Gestaltung jener Geräte war in diesem Verständnis nicht etwa auf die Zusammenführung der unsichtbaren und sichtbaren Dimensionen, sondern geradezu auf dessen Trennung ausgelegt. In der Diskussion um Parametrie vermag die einstige, klare Trennung nunmehr wechselseitigen, fließenden Übergängen zu weichen, insofern, als dass Sichtbarkeiten und Unsichtbarkeiten sich nicht etwa ausschließen und ablösen, sondern gleichzeitig nebeneinander bestehen bleiben – etwa als Möglichkeit des Ein- oder Ausblendens, des Überlagerns, Gruppierens etc. Ferner geht es im parametrischen Diskurs weniger darum, Technik ästhetisch zu verstecken, als vielmehr um Möglichkeiten, sie handhabbar und ihre Wirkung nachvollziehbar zu machen: Sofern ein Parameter verändert wird, ermöglicht dies einen unmittelbaren Rückschluss auf die Veränderung der Gesamtgestalt der Dinge. Technisch-maschinelle Umgangsformen, die dies besonders anschaulich machen, finden sich dabei bereits früh in der Entwicklung (vor-)industrieller Produktionsformen. So zeigen etwa die Modellkonstruktionen Christopher Polhems auf, wie mechanische Zusammenhänge diverser Maschinenkomponenten offen nach außen kommuniziert werden können.24 Sowohl die Studien aus seinem ›Mechanischen Alphabet‹ als auch die 1729 erbaute Maschine zur Uhrwerkherstellung zeigen ihre Funktionalität sichtbar nach außen an. In ihnen ist eine Nachvollziehbarkeit angelegt, welche das Verständnis für die ablaufende Mechanik und für die Zusammengehörigkeit der Prozessteilschritte fördert. Der Maschinenbenutzer erhält entsprechend die Möglichkeit, zu verstehen, was innerhalb der Maschine vor sich geht. Die Trennung zwischen technischer Funktions- und handhabbarer Bedienebene ist in Bezug auf dessen Sichtbarkeiten noch nicht bewusst herbeigeführt. Die technische Maschine ist bis Ende des 19. Jahrhunderts weitestgehend auch äußerlich ein technisches Gebilde und zeugt ästhetisch von seiner industriellen Beschaffenheit und den technischen Restriktionen, die diese bedingen.25 Der im Jahr 1839 von James Nasmyth entwickelte Steam Hammer etwa, eine Maschine zur Bearbeitung massiver Metallwerkstücke in großen Formaten, die vor allem in der frühen Schwerindustrie Einsatz fand,26 macht dies anschaulich: Zwei seitliche, massive Stahlträger halten einen Kolben auf einer vertikalen Achse, Dampf wird durch sichtbare Rohre geleitet und überdimensionale Schrauben halten alle Komponenten zusammen. Die Betätigung eines Hebels lässt Dampf mit hohem Druck durch Leitungen strömen, wodurch der zentrierte, massive Kolben aufwärts bewegt und sodann auf das zu schmiedende

24 25

26

spricht a.a.O. von »Formspezialisten«, die damit »beginnen, die technischen Funktionen hinter Hüllen und Dekorationen verschwinden zu lassen«. Selle (2007: 34). Vgl. auch Hauffe (2014: 87). Vgl. Heath; Heath; Jensen (2000: 28ff); Nyström (1985). Wie Selle es beschreibt: »So wirken diese frühen technischen Unikate wie einzeln durchgeformte Kunststücke, die sie im Verständnis ihrer Erfinder und Erbauer auch gewesen sind. Kunst und Technik schließen einander noch nicht aus.« Selle (2007: 28). Weiter spricht Selle vom »Kunststückcharakter« und einer »spürbaren handwerklichen Wärme«. Ebd. Herbert Read spricht indessen polemisch von der ästhetischen Erscheinung frühindustrieller Maschinen, wenn er eine der ersten Dampfmaschinen von 1830 wie folgt beschreibt: »Die Eleganz der klassizistischen Säulen und Piedestale und die absurden kleinen Voluten aus Gußeisen kontrastieren seltsam mit den funktionsbedingten Maschinenteilen.« Read (1958: 17, Bildunterschrift). Vgl. Heath; Heath; Jensen (2000: 40).

51

52

Prozess als Gestalt

Werkstück fallen gelassen wird. Der Aufbau der Maschine sowie die lineare Bewegung lassen dessen mechanische Prinzipien erkennen und somit die technische Funktionsweise erschließen. Funktions- und Bedienelemente waren dabei gleichrangig technisch artikuliert und gleichsam sichtbar.27 Steht das Moment der Sichtbarkeit bei frühindustriellen Maschinen vorrangig im Zusammenhang mit einer gegebenen Nachvollziehbarkeit, kam dem Charakteristikum der Unsichtbarkeit erst dann eine bedeutsamere Rolle zu, sobald die Maschinen komplexer wurden und die angelegten Funktionsabläufe zwangsläufig nicht mehr ohne Weiteres nachvollziehbar waren.28 Technische Geräte des ausgehenden 19. und des beginnenden 20. Jahrhunderts, etwa erste Automobilfahrzeuge, dampfbetriebene Maschinen und erste elektronische Kleingeräte, erreichten nun auf der inneren, technischen Ebene ein Maß an Komplexität, dessen äußere Sichtbarkeit einer Nutzung gar im Weg gestanden hätte, da sie den Blick für die menschlich relevanten durch die technisch notwendigen Komponenten verdeckt hätte. So gilt es etwa im Umgang mit dem Radio als auch dem Fruchtmixer, nicht etwa die innere Struktur der Schaltkreise, die Anordnung der mechanischen Teile oder die punktuellen Verschraubungen zu erfassen, sondern vielmehr, über eine Bedienebene auf möglichst einfache Weise auf das Gerät in seiner Gesamtheit Einfluss nehmen zu können, etwa durch zwei Drehregler auf vorderster, sichtbarer Ebene.29 Die rein technischen Komponenten werden dementsprechend verdeckt und für den Umgang ausgeblendet bzw. an die »Peripherie« der Wahrnehmung gedrängt, wie Mark Weiser es in den 1990er-Jahren mit Hinsicht auf vernetzte, unsichtbare Computersysteme formulierte.30 Was nicht unmittelbar benötigt wird, kann ausgeblendet und im Bedarfsfall wieder eingeblendet werden. Dabei findet eine Fokusverschiebung von der inneren technischen Struktur der Einzelelemente hin zum handhabbaren Umgang mit der Gesamtgestalt statt.31 Es muss dabei nicht zwangsläufig verstanden werden, wie das Gerät resp. die Maschine im Inneren technisch beschaffen ist, sondern vorwiegend, wie damit menschlich umzugehen ist.32 Die

27 28 29 30 31

32

Im Verweis auf Heidegger könnte man sagen, dass am Steam Hammer (als Verweisungsganzheit) seine Zuhandenheit besonders anschaulich wurde. Vgl. Heidegger (1927/2006). Vgl. Schnier (2009: 98). Vgl. beide Beispiele der Firma Braun bei Selle (2007: 226ff). Vgl. Weiser (1991). Selle führt dazu in diesem Zusammenhang die Begrifflichkeiten des Primär- und Sekundär-Designs an, von welchen ersteres den technologischen Unterbau verkörpert und letzteres eine GesamtBenutzeroberfläche, auf der sich der Benutzer bewegt. Selle (2014: 39). Wie van den Boom es auch für die neuzeitliche Digitaltechnik darlegt: »Es ist gar nicht nötig, viel über das Dahinter zu wissen. Es ist schön und bildend, aber nicht zwingend notwendig, denn es funktioniert trotzdem.« van den Boom (2011: 79). Es genüge nach van den Boom entsprechend, lediglich die Benutzerillustion zu verstehen, d.h. die vom (sichtbaren) Design suggestive Vorstellung davon, wie die Dinge funktionieren: »In der Regel funktionieren die Sachen technisch ganz anders, als wir uns das gewöhnlich vorstellen. Aber unsere Illusionen darüber reichen völlig aus, um mit den Sachen unsere Ziele zu erreichen. Wir verstehen uns dann auf Handys, ohne Handys zu verstehen.« Ebd.: 81. Mildenberger spricht indessen von einem fehlenden, hinreichenden Verständnis im Umgang mit Technik, die dem Charakter des nachvollziehbaren, verständlichen Werkzeuges entwachsen ist: »Technik scheint aber in der Moderne den übersichtlichen Status des Werkzeugs verloren zu haben. Wir vertrauen nicht mehr darauf, dass wir die Technik, die wir täglich nutzen, hinreichend verstehen. Und das gilt beileibe nicht nur für

4. Industrie und Parametrie

reibungslose technische Funktion erscheint dadurch verstärkt als selbstverständliche Voraussetzung, auf der gestalterische Prozesse nunmehr aufgebaut und technische Fragen dadurch abgekürzt werden können: Sobald der Drehregler des Radios betätigt wird, rotiert die dahinterliegende Widerstandsspule, der Stromfluss wird langsamer, die Resonanzkörper schwingen weniger stark, der Klang des Radios ertönt leiser. In parametrischer Deutung ist dies jedoch weniger in technischen, sondern vielmehr in menschlichen und anwendungsspezifischen Auflösungsgraden zu betrachten, als Abkürzung: Der Drehregler wird betätigt, der Klang wird leiser. Die Zwischenschritte werden übersprungen bzw. buchstäblich durch die äußere Hülle ausgeblendet – kurz: Sie werden durch neue Sichtbarkeiten unsichtbar gemacht. Eine parametrische Betrachtung offenbart dadurch einen pragmatischen Charakterzug der Einfachheit, welche vor allem im Zusammenhang mit der Bedienung der beteiligten Medien eine grundlegende Bedeutung erfährt: Parametrie blendet aus, was für den Umgang mit dem Medium nicht notwendig und mitunter sogar störend ist. Parametrische Entwurfsprogramme bieten in ihren Funktionen etwa die generelle Möglichkeit, Inhalte ein- und auszublenden, in Entwurfssphären hinein- und wieder aus ihnen herauszuzoomen, nicht zuletzt, um der Gestaltungsarbeit nicht durch technisch notwendige Formalismen im Weg zu stehen. Die parametrische Logik der Entwurfsprogramme versteht sich dabei auf die Arbeit mit Ebenen, Gruppierungen, Überblendungen, Rastern oder Hilfslinien, welche weniger im Dienste technischer Funktionsweisen stehen, als vielmehr einer handhabbaren Bedienung zukommen. Es ist demnach festzuhalten, dass mit zunehmender technischer Komplexität die Ansprüche an eine vor allem einfache Bedienung proportional größer werden, wie es das Smartphone der digitalen Gegenwart mitunter besonders anschaulich macht. Parametrie versteht sich in dieser Hinsicht als Phänomen, das technische Prozesse in ein Hintergründiges verlagert, um sie vordergründig nutzbar zu machen, ohne die Verbundenheit beider Sphären dabei aufzulösen. Entsprechend vermittelt Parametrie zwischen den (Un-)Sichtbarkeiten, indem die Dinge reversibel in multiplen Auflösungsgraden betrachten werden können.33 Die einzelnen Parameter entscheiden dabei über das Maß an Kontrolle und den Einfluss, den der Benutzer auf das technische Medium resp. die Maschine ausüben kann. Spätestens mit dem Einzug der Mikroelektronik in die Industrie- und Konsumlandschaft wurde diese Notwendigkeit unübersehbar,34 sodass der Umgang mit Technik zu einem Umgang mit Phänomenen der Oberfläche und der Anwendung wurde.35 Wo die unsichtbaren, technischen Prozesse sich stetig

33

34 35

die technischen Laien, die mit immer komplexeren Artefakten zu kämpfen haben.« Mildenberger (2006: 10). Das Phänomen der Auflösungsgrade bezeichnet ein maßgebendes Wesensmerkmal parametrischer Mechanismen, das an anderer Stelle ausführlich erarbeitet wird. Vgl. dazu sowohl Kapitel 6.1 ›Problem und Lösung‹, Kapitel 7.3 ›Situation und Improvisation‹ als auch Kapitel 8.1.6 ›Auflösungsgrade und Prozessgestalt‹. Bürdek spricht im Zusammenhang mit der Digitalisierung weltlicher Prozesse von der Notwendigkeit einer »neuen Anschaulichkeit« der Dinge. Bürdek (2015: 242). Wie Norbert Bolz es etwa proklamierte: »Die Welt des Designs war noch in Ordnung, solange sich das Gestalten am selbstverständlichen Gebrauchen und die Form an der erkennbaren Funktion orientieren konnte. Doch im Zeitalter der Mikroelektronik sehen wir uns von Black Boxes umstellt, zu denen es keinen intuiti-

53

54

Prozess als Gestalt

verstärken, wird eine einfache, sichtbare Bedienung umso notwendiger – »Tiefenkomplexität benötigt Oberflächeneinfachheit«, wie Bürdek es einst prägnant formulierte.36 Im parametrischen Entwerfen ist beides fortwährend gegeben: Entwürfe werden sowohl im Mikrokosmos des kleinsten Details als auch im Makrokosmos des gesamten Entwurfskontextes im Modus des Ein- und Ausblendens bzw. als Wechsel zwischen den Auflösungsgraden verhandelt, sodass eine Nachvollziehbarkeit der Prozesse zu jedem Zeitpunkt gewährleistet werden kann. Parametrie versteht sich entsprechend als Phänomen der Vermittlung zwischen den Sichtbarkeiten, wodurch technische Distanzen überbrückt und einfache Umgangsformen an den Benutzer zurückgebunden werden können; nicht, damit dieser die Dinge in seiner technischen Struktur vollends verstehen, sondern damit er sie unmittelbar anwenden kann.

4.4

Autonomie und Qualifikation

In der Diskussion um das Verhältnis von Distanz, Sichtbarkeit und Bedienbarkeit klingt bereits an, dass Maschinen ein Moment der Autonomie auf sich vereinen, sobald sich dessen innere Prozesse verselbstständigen (gr. ›autós‹ = dt. ›selbst‹, gr. ›nómos‹ = dt. ›das Gesetz‹).37 Entsprechend wirkt die Autonomie der Maschine auf die notwendige Qualifikation der sie Bedienenden zurück. Es gilt, zu diskutieren, wie Parametrie sich dazu verhält und ebenso, wie die Rolle des Gestalters darin zu verorten ist. Die industrielle Fertigung bedingt Produktionsformen der Serie. Zielsetzung ist es, nicht Unikate für den Einzelnen, sondern Gleiches für eine Masse von Konsumenten zu produzieren. Dies schlägt sich nicht nur in den Produkten, sondern ebenso in den Herstellungsprozessen nieder, wenn kein virtuos-handwerklicher Umgang mit Werkstücken, sondern ein gleichförmiges Betätigen von Bedienelementen gefordert ist. Der im 18. Jh. zunehmende Einsatz von Maschinen in Produktionsprozessen verändert den Zugang zum Produkt, einerseits aus Sicht der Entwerfenden, andererseits aus Sicht von Arbeitern und Produzenten. Fällt beides im traditionellen Handwerk noch auf ein und dieselbe Person zusammen, so trennt sich diese Verbundenheit in industriellen Produktionsformen sukzessiv auf.38 Die entstehende Distanz schlägt sich unmittelbar auf den Arbeitsprozess nieder, indem nun nicht mehr etwa besondere handwerkliche Fertigkeiten oder erhöhtes Fachwissen benötigt werden, sondern rein mechanische Bedienung: Hebel werden gezogen, Knöpfe gedrückt, Schalter betätigt – im Takt der Maschinen-

36 37 38

ven Zugang mehr gibt […].« Bolz (2000: 13). Entsprechend sei nach Bolz »Design […] gar nichts anderes als wirkende Oberfläche, Interface […]« Ebd.: 14. Vgl. ebenso die designwissenschaftliche Auseinandersetzung Alex Bucks mit der ›Dominanz der Oberfläche‹, die insofern in massenindustriellen Produkten gegeben ist, als dass diese zunehmend durch ihre Oberfläche erfasst und kontextualisiert werden. Vgl. Buck (1998). Bürdek (1999b). Kluge; Seebold (2011: 78), Autonomie. Hauffe und Schneider sprechen von der entstehenden Trennung in Kopfarbeit und Maschinenarbeit. Vgl. Hauffe (2014: 12); Schneider (2005: 16). Beide sehen darin den Beginn des industriellen Designs.

54

Prozess als Gestalt

verstärken, wird eine einfache, sichtbare Bedienung umso notwendiger – »Tiefenkomplexität benötigt Oberflächeneinfachheit«, wie Bürdek es einst prägnant formulierte.36 Im parametrischen Entwerfen ist beides fortwährend gegeben: Entwürfe werden sowohl im Mikrokosmos des kleinsten Details als auch im Makrokosmos des gesamten Entwurfskontextes im Modus des Ein- und Ausblendens bzw. als Wechsel zwischen den Auflösungsgraden verhandelt, sodass eine Nachvollziehbarkeit der Prozesse zu jedem Zeitpunkt gewährleistet werden kann. Parametrie versteht sich entsprechend als Phänomen der Vermittlung zwischen den Sichtbarkeiten, wodurch technische Distanzen überbrückt und einfache Umgangsformen an den Benutzer zurückgebunden werden können; nicht, damit dieser die Dinge in seiner technischen Struktur vollends verstehen, sondern damit er sie unmittelbar anwenden kann.

4.4

Autonomie und Qualifikation

In der Diskussion um das Verhältnis von Distanz, Sichtbarkeit und Bedienbarkeit klingt bereits an, dass Maschinen ein Moment der Autonomie auf sich vereinen, sobald sich dessen innere Prozesse verselbstständigen (gr. ›autós‹ = dt. ›selbst‹, gr. ›nómos‹ = dt. ›das Gesetz‹).37 Entsprechend wirkt die Autonomie der Maschine auf die notwendige Qualifikation der sie Bedienenden zurück. Es gilt, zu diskutieren, wie Parametrie sich dazu verhält und ebenso, wie die Rolle des Gestalters darin zu verorten ist. Die industrielle Fertigung bedingt Produktionsformen der Serie. Zielsetzung ist es, nicht Unikate für den Einzelnen, sondern Gleiches für eine Masse von Konsumenten zu produzieren. Dies schlägt sich nicht nur in den Produkten, sondern ebenso in den Herstellungsprozessen nieder, wenn kein virtuos-handwerklicher Umgang mit Werkstücken, sondern ein gleichförmiges Betätigen von Bedienelementen gefordert ist. Der im 18. Jh. zunehmende Einsatz von Maschinen in Produktionsprozessen verändert den Zugang zum Produkt, einerseits aus Sicht der Entwerfenden, andererseits aus Sicht von Arbeitern und Produzenten. Fällt beides im traditionellen Handwerk noch auf ein und dieselbe Person zusammen, so trennt sich diese Verbundenheit in industriellen Produktionsformen sukzessiv auf.38 Die entstehende Distanz schlägt sich unmittelbar auf den Arbeitsprozess nieder, indem nun nicht mehr etwa besondere handwerkliche Fertigkeiten oder erhöhtes Fachwissen benötigt werden, sondern rein mechanische Bedienung: Hebel werden gezogen, Knöpfe gedrückt, Schalter betätigt – im Takt der Maschinen-

36 37 38

ven Zugang mehr gibt […].« Bolz (2000: 13). Entsprechend sei nach Bolz »Design […] gar nichts anderes als wirkende Oberfläche, Interface […]« Ebd.: 14. Vgl. ebenso die designwissenschaftliche Auseinandersetzung Alex Bucks mit der ›Dominanz der Oberfläche‹, die insofern in massenindustriellen Produkten gegeben ist, als dass diese zunehmend durch ihre Oberfläche erfasst und kontextualisiert werden. Vgl. Buck (1998). Bürdek (1999b). Kluge; Seebold (2011: 78), Autonomie. Hauffe und Schneider sprechen von der entstehenden Trennung in Kopfarbeit und Maschinenarbeit. Vgl. Hauffe (2014: 12); Schneider (2005: 16). Beide sehen darin den Beginn des industriellen Designs.

4. Industrie und Parametrie

und Produktionsvorgaben.39 Es sind Gesten und Bewegungsabläufe, welche Repetition und Gleichförmigkeit zum Ziel haben, darin jedoch den menschlichen Bewegungsabläufen, insbesondere denen der Hand, geradezu zu widersprechen vermögen, wie Giedion es darlegt: »Die Hand kann es durch Training zu einer gewissen automatischen Fertigkeit bringen, aber etwas bleibt ihr versagt: sie kann nicht ununterbrochen und gleichmäßig tätig sein. Sie muß immer greifen, packen und festhalten, aber sie kann ihre Bewegungen nicht in endlosem Kreislauf vollziehen. Das aber ist es gerade, was die Mechanisierung auszeichnet: ein endloser Kreislauf. Der Unterschied zwischen Gehen und Rollen, zwischen Rad und Beinen, ist grundlegend für alle Formen von Mechanisierung.«40 Giedion zieht darin einen eklatanten Vergleich zwischen Formen der menschlich-virtuosen und der maschinell-mechanischen Bewegung. Die Gleichmäßigkeit und Konstanz der mechanischen Bewegung steht der nie exakt reproduzierbaren menschlichen Bewegung gegenüber:41 »Die Hand hört schrittweise auf, Werkzeug zu sein und wird stattdessen Antrieb und Auslöseorgan«, wie Huber es in evolutionshistorischem Zusammenhang beschreibt.42 Die inneren Gesetzmäßigkeiten der Maschine bedingen ein gleichförmiges Arbeiten im endlosen Kreislauf, der vom Menschen allenfalls noch beobachtet und fortwährend überwacht wird.43 Die technischen Komponenten interagieren nun nicht mehr mit dem Benutzer, sondern untereinander, in ihrer technischen Art und Weise. Dabei bleibt die Form der Maschinenbewegung konstant gleich, ebenso wie dessen zeitlich-repetitiver Takt. Die Arbeit an der Maschine, etwa durch angelernte Fabrikarbeiter und Hilfskräfte,44 zeichnet sich entsprechend dadurch aus, dass sie sich der Logik der Maschinen unterordnet.45 Die »unerbittliche Regelmäßigkeit« der Maschine ist dabei etwas »für Menschen Unnatürliches«, wie Giedion bestärkt.46 Während die Maschine die menschlichen Fähigkeiten durch Formen der Regelmäßigkeit und Präzision erweitert, kompensiert der Mensch umgekehrt die Unvollkommenheit der Maschine in Bezug auf

39 40

41

42 43

44 45

46

Der Mensch kompensiert dabei die Unvollkommenheit der Maschine: »Er [der Mensch] hat gewisse Griffe auszuführen. Die ihr [der Maschine] noch nicht möglich sind.« Giedion (1987: 101). Giedion (1987: 70). Dazu führt auch Braun-Feldweg an: »In einer Reihe handgeschaffener Werkstücke kann bei aller Präzision der Ausführung eines dem anderen nie so völlig gleichen, wie dies beim Maschinenprodukt unvermeidlich ist.« Braun-Feldweg (1966: 124). Wie Arnheim es darlegt: »Das mechanische Werkzeug ist einfältig, und deshalb ist sein Produkt vollkommen. Der Mensch dagegen ist das komplizierteste Kräftegefüge, das es überhaupt gibt.« Arnheim (1961/1980: 278). Huber (1996: 15). In dieser Hinsicht formulierte Otto Kammerer bereits 1917 den Anspruch, der Gestalter müsse zum Beobachter werden: »Was ihm [dem Gehirn] nottut, ist vor allem die Ausbildung der Beobachtungsgabe«. Kammerer (1917: 9). Vgl. Hauffe (2014: 24). Vgl. dazu auch die Ausführungen Maldonados zum technokratischen Begriff der Ergonomie der 1960er-Jahre, welcher versucht, das menschliche (nonlineare) Verhalten der Regelhaftigkeit technischer Systeme unterzuordnen. Bonsiepe; Maldonado (1964: 29ff); Maldonado (2018: 150ff). Giedion (1987: 101).

55

56

Prozess als Gestalt

noch unkontrollierbare Prozesse,47 d.h., sofern komplexe, menschliche Aufgaben (noch) nicht in technische Definitionen und Logiken übersetzt werden können. Je besser, d.h. präziser und zuverlässiger, es dementsprechend möglich wird, Prozesse in einer technisch-formalen Logik zu artikulieren, desto weniger wird eine menschliche Beteiligung daran notwendig.48 Die benötigte Qualifikation zur Bedienung einer Maschine reduziert sich demnach, je autonomer sie ihre Aufgaben erfüllt, d.h. je reibungsloser ihre inneren Strukturgesetze miteinander korrelieren.49 Bereits 1917 zeigt der Maschinenbauer Otto Kammerer die Zwangsläufigkeit dieser Entwicklung auf, wenn er darlegt: »Noch wirkt vielfach der Mensch als Handlanger der Maschine; das Ziel muß sein, dass er nur noch ihr Steuermann ist. Nicht als stumpfsinnige Muskelmaschine darf der Mensch verwendet werden; in Zukunft wird nur hochwertige Arbeit verlangt werden.«50 Kammerer nahm damit vorweg, was die Kybernetik (griech. ›kybernetike‹ = dt. ›Steuermannskunst‹)51 einige Jahrzehnte später zum Wesenskern ihrer Forschung machen sollte.52 Im angeführten Zitat verweist Kammerer dabei auf das Moment der technischmaschinellen Unvollkommenheit, welches es notwendig macht, den Menschen nach wie vor (als Handlanger) in den ausführenden Prozess miteinzubeziehen. Jedoch agiert der Mensch lediglich mittels stumpfer Bewegungen als ausführende Instanz – die Arbeit an der Maschine verlangt keine sonderlich differenzierte und kognitiv fordernde, sondern lediglich mechanische Arbeit.53 Weiter spricht Kammerer von hochwertiger Arbeit in

47

48

49

50 51 52

53

Giedion benennt die Phase der aktiven, menschlichen beteiligen daher eine Übergangsphase auf dem Weg zur Vollmechanisierung, die mit der Fließbandproduktion seit Evans und später Taylor eingeleitet und fortan stetig weiterentwickelt wurde. Vgl. dazu Ebd.: 101ff. Grund dafür vermag mitunter die zunehmende Komplexität der technischen Komponenten zu sein, welche sich dem menschlichen Verständnis und der Beteiligung mehr und mehr entzieht. Wie Kelly es etwa allgemeinhin für die technologische Schubkraft, die er technium nennt, darlegt: »As the technium gains in complexity, it will gain in autonomy.« Kelly (2010: 260). Innerhalb der Diskussion um künstliche Intelligenz verschärft sich die Diskussion dabei maßgeblich. Vgl. dazu etwa Ramge (2018: 25ff). Dass dies eine annähernd gewisse Entwicklung ist, veranschaulicht etwa das Format des Navigationssystems: Bedurfte es beim analogen Verkehrskarten-Lesen noch die Qualifikation der Zuordnung von Himmelsrichtungen, Karten-Markierungen, Topologien etc., hat sich die Bearbeitung der notwendigen, komplexen Zusammenhänge mit der Digitalisierung beinahe ausnahmslos auf das technische Medium (Smartphone) verlagert. Es bedarf nun keiner Qualifikation mehr, sich in fremden Geländen zielgerichtet zu bewegen. Es genügt allenfalls ein hinreichendes Verständnis bzw. eine Illusion davon, wie eine Eingabe des Zielortes zu tätigen ist. S. dazu auch Anm. 32 in Kapitel 4.3 ›Sichtbarkeit und Unsichtbarkeit‹. Kammerer (1917: 9). Kluge; Seebold (2011: 552), Kybernetik. Die Kybernetik geht dabei vorrangig auf den Mathematiker Norbert Wiener zurück und verstand es als Aufgabe, Systeme verschiedenster Art hinsichtlich ihrer selbstregulierenden Mechanismen und Rückkopplungsschleifen zu untersuchen und sie sowohl für die technikphilosophische, die biologische als auch für die sozialwissenschaftliche Forschung zugänglich zu machen. Vgl. dazu etwa Ashby (1957/2015); Simon (2007). »Die menschlichen Bewegungen werden zu Hebeln der Maschine.« Selle (2007: 124). Damit vollzieht sich im Prozess eine Abstumpfung der handwerklichen Arbeit an sich, wie es Meurer und Vincon darle-

4. Industrie und Parametrie

Verbindung mit der Rolle des Arbeiters als Steuermann: Sofern die Maschine autonom arbeitet, gilt es umso mehr, den Prozess in seiner Gesamtheit anleitend zu steuern. In diesem Zusammenhang ist der Bezug zum Parametrischen offensichtlich, ebendann, wenn nicht mehr die reine Ausführung, sondern die Setzung der strukturgebenden Parameter zur Hauptaufgabe wird, gemäß welcher der Prozess in Bahnen gelenkt und mit Hinsicht auf seine unmittelbare Nutzbarkeit gesteuert resp. gestaltet wird. In Zusammenhang mit technischen Geräten und Maschinen setzt es demnach stets weniger voraus, zu fragen, welche Prozesse innerhalb der Maschine ablaufen, sondern allenfalls, wie diese zu nutzen resp. zu steuern sind. Der Umgang verschiebt sich von einem Verständnis der technischen Struktur zu einem solchen der nutzungsorientierten Bedienung. Wie verhält sich dies nun für den parametrischen Entwurfsraum? Die Parallelen können anhand der digitalen Durchdringung der Disziplinen anschaulich gemacht werden: So entwirft etwa der Architekt nicht mehr am Reißbrett mit Stift und Lineal, sondern entwirft digital im CAD.54 Gleiches gilt für Gestalter aller anderen Disziplinen, wenn diese sich die maschinellen Werkzeuge und Artikulationsformen aneignen und sie im vorgegebenen Möglichkeitsraum bedienen. Die Kulturtechniken des handschriftlichen Schreibens und Zeichnens sind sukzessiv einer technischen Artikulation von Entwürfen gewichen, welche lediglich noch gleichförmige Klicks und Tastendrücke erfordert. Die Gesten der menschlichen Hand sind abgestumpft; von einem einst körperlich-virtuosen Gebrauch im traditionellen Handwerk zu gleichgeschalteter Uniformität sowohl in Industrie als auch im digitalen Entwurfsraum. Im Sinne der gestalterischen Qualifikation ist demnach stetig weniger auf Seiten der Ausführung zu fragen, weil diese durch technisch-digitale Präzision, Wiederholbarkeit und Automation hinreichend gesichert erscheint. Vielmehr ist es nunmehr die bewusste gestalterische Ausrichtung, die nicht nur danach fragt, was, sondern vor allem, wie gestaltet werden soll. Es lässt sich entsprechend zu Recht fragen, an welchen Stellen des Entwurfsprozesses denn eine gestalterische Qualifikation überhaupt noch notwendig wird und wie eine solche im jeweiligen Fall beschaffen ist. Mit Hinsicht auf die parametrische Diskussion und die Digitalität der Medien formuliert Kostas Terzidis einen Vorschlag, der zwischen den Polen zu vermitteln versucht. Terzidis gliedert das (computationale) Mensch-Maschine-Verhältnis für die gestalterische Praxis in drei Stufen: erstens, die Vervollständigung der menschlichen Fähigkeiten, zweitens, die Erweiterung derselben, drittens, das Ersetzen des Gestalters.55 Letzteres zielt auf

54 55

gen: »Es ist der Produktionsprozeß, der nach und nach die Unterordnung der Entwurfstätigkeit unter ein System der Produktion erzwingt. […] Je mehr sich die Tätigkeit des Entwerfers in Entwurf und Produktionsmittel vergegenständlicht, um so geistloser wird die Tätigkeit des Handarbeiters.« Meurer; Vincon (1983: 22). Ähnlich umschreiben es Trogemann und Viehoff für die Arbeit des Ingenieurs: »Das Handeln des Ingenieurs ist nicht nur fremdbestimmt, sondern auch anonym, reproduzierbar, stringent und formal. […] Er hat sich dem Mechanismus und der Maschine und damit dem toten Material verschrieben, wobei er selbst in diesem Prozess vollkommen anonym und damit beliebig austauschbar bleibt.« Trogemann; Viehoff (2005: 19) . Die CAD-Zeichnung hat die Handzeichnung dabei weitestgehend abgelöst. Vgl. dazu etwa sowohl Hasenhütl (2013), Stöcklmayr (2015) als auch Sennett (2014: 58ff). Vgl. Terzidis (2015: 10).

57

58

Prozess als Gestalt

das Szenario ab, in welchem der Computer resp. das Programm bessere, d.h. vor allem folgerichtigere Entwurfsarbeit leistet als der Designer selbst: wenn das Programm in technischer Hinsicht vor allem sowohl schneller und präziser berechnet und evaluiert als auch ästhetisch nachvollziehbare Entscheidungen anbietet, welche Qualifikation bringt der Designer dann noch in den Entwurfsprozess mit ein?56 Die Antwort darauf findet Terzidis in der Konzeptgestaltung (Metagestaltung) von Entwürfen: Der Gestalter gestaltet nicht mehr den Entwurf, sondern die Bedingungen, unter denen Entwürfe entstehen.57 In Terzidis Erörterung sind dies vorrangig programmierte Algorithmen. Parametrie versteht sich dabei auf breiter angelegte Artikulationsformen, die sich vorrangig auf eine geeignete Handhabbarkeit verstehen.58 Ein Konzept erfährt ebendann eine neue Qualität und Stärke, wenn ihm neue Richtlinien, Bestimmungen und Beziehungen zugrunde gelegt werden. Diese neu zu setzen ist insofern ein kategorischer und wesenseigener Anspruch parametrischer Mechanismen, als dass sie den Fokus nicht mehr auf die isolierten Einzeldinge, sondern auf die Beziehungen richten; die assoziativen Abhängigkeiten, die zwischen den Dingen bestehen und welche durch ihre Sichtbarkeit gleichsam aufzeigen, dass sie auch anders zusammenhängen können. Beziehungen so zu gestalten, dass sie menschlich Sinnvolles hervorbringen bzw. menschliche Anschlussfähigkeit herstellen, erscheint entsprechend als wesentliche Aufgabe eines Designs der digitalen Gegenwart, das damit gleichsam eine gestalterische Qualifikation einfordert, die Bernhard von Mutius als Gestaltkompetenz bezeichnet; eine »Intelligenz, die mit ihren technologischen Möglichkeiten mit wächst und neu lernt, in Beziehungen zu denken.«59 Eine solche wird durch ein parametrisches Verständnis der Prozess insofern maßgeblich gefördert, als dass die abstrakten Beziehungen im parametrischen CAD-Programm eine unmittelbare Anschaulichkeit erhalten, eine neue »Plastizität des Unsichtbaren«, wie von Mutius es nennt.60

56

57

58

59

60

Die darin mitschwingende Angst resümiert etwa van den Boom: »Viele befürchten, der Computer werde alle Sachen und Verhältnisse nun endgültig schematisieren, der Künstler und der ›Gestalter‹ werde überall durch den kalt agierenden, technokratischen ›Informations-Ingenieur‹ ersetzt.« van den Boom (1987: 3). »The new designer will construct the tool that will enable one to design in an indirect meta-design way.« Terzidis (2015: 23). In gleicher Hinsicht formuliert es auch Maar für die architektonische Praxis: »Zwar tritt der Architekt als Formgeber zurück, der nicht mehr die Form selbst gestaltet und im Detail entwirft, sondern Bedingungen und Regeln verfasst, lach denen dann das Programm die Form generiert. […] Er setzt den ,Anfang‹ eines sich dann selbst weiter entwickelnden Systems, initiiert also das Formbildungsverfahren.« Maar (2012: 87). Dies müssen nicht etwa kryptische Programmiercodes sein. Gegenwärtige CAD-Programme arbeiten vorrangig mit visuellen Programmierungen, welche die technische Komplexität in nachvollziehbare Visualität überführen und traditionelle programmiertechnische Qualifikationen weitestgehend überflüssig machen. Vgl. dazu Tedeschi (2014). Ferner konstatiert Woodbury, dass jede parametrische Auseinandersetzung mit Entwurfsmedien immer auch ein Akt des Programmierens ist. Vgl. Woodbury (2010: 36). Mutius (2004b: 273). Unter Gestaltkompetenz versteht von Mutius entsprechend »das Vermögen, die Bewegungsformen von Beziehungen, die Muster von Relationsfeldern überhaupt wahrzunehmen sowie die Fähigkeit zur stimmigen Gestaltung der Beziehungen und Verbindungen, zur bewußten Formbildung der Informations- und Transformationsprozesse unserer Zeit« Ebd. Ebd.: 270.

4. Industrie und Parametrie

Die Gleichschaltung der technischen Prozesse (Vermessung, Berechnung, Visualisierung, Variantenbildung etc.) lässt den Fokus nun verstärkt auf die konzeptionellen Überlegungen des Entwurfsvorhabens richten. Delegieren die frühen industriellen Produktionsweisen noch mechanisch-körperliche Arbeit an die Maschine ab, um den Menschen davon zu entlasten, verschärft sich die Entwicklung durch das Aufkommen von CAD, Algorithmen, Big Data, Cloud Computing und vor allem durch den Einsatz künstlich neuronaler Netzwerke im digitalen Zeitalter. Maschinelle Entwurfswerkzeuge werden jetzt nicht mehr nur auf ausführender, sondern ebenso auf planerischer Ebene in den Prozess miteinbezogen, etwa durch topologische Berechnungen in der Architektur, Datenauswertungen im Marketing oder der Modularisierung von Bauteilen im Kontext massenindustrieller Fertigungen. Diese Entwicklung wirft dabei zwangsläufig die Frage auf, wie die Rolle des Gestalters neu zu verorten ist, eben wenn Design nunmehr verstärkt computational berechnet als weniger handwerklich ausgearbeitet wird. Es ist davon auszugehen – und dies bildet gleichsam ein parametrisches Charakteristikum der digital vernetzten Lebenswelt –, dass auf Seiten der (technischen) Ausführung nunmehr prinzipiell alles in jeder gewünschten Ausfertigung möglich und machbar ist, nicht zuletzt in Form von massenindustrieller Personalisierung: Ob der Sportschuh in der Lieblingsfarbe mit eingesticktem Namen, die Innenausstattung des Neuwagens oder das eigens konfigurierte Werkzeug-Set im CAD – alles ist durch Parameter definiert und dadurch ebenso jederzeit austauschbar. Gestaltung wird entsprechend nicht mehr auf Seiten der Machbarkeit verhandelt, sondern auf Seiten der menschlichen Handhabbarkeit und Anschlussfähigkeit; denn, wenn alles möglich ist, ist umso dringlicher danach zu fragen, nicht was im Allgemeinen herstellbar, sondern was für jeden einzelnen Anwendungsfall im Besonderen sinnvoll ist. Es bedarf Konzepten, welche den kontingenten Möglichkeiten sinnvolle Richtungen, Einschränkungen und Bedingungen zuweisen, d.h. Parameter, die menschliche Verbindungen und Anschlusspunkte herstellen. In dieser Hinsicht kommen technische Automation und gestalterische Qualifikation zusammen, als Konzept von Gestaltung, das in Beziehungen und damit parametrisch denkt und damit gleichsam alle angeht.61

4.5

Restriktion und Möglichkeitsraum

Wie offenbart sich die Maschine nun dem Menschen, der mit ihr umgeht? Es wurde gezeigt, dass gewisse mechanische Apparate und Maschinen, wie etwa jene Christopher Polhems, einen aufklärerischen Charakter bestärken, indem sie ihre Funktionsweise äußerlich anzeigen. Die offene Sicht auf die Komponenten der Maschinen seines 61

Frank Wagner verbindet dies mit der Öffnung der Designdisziplin zu einem Spielfeld der breiten Masse, in dem professionelle Designer als Gestalter von Strukturen auftreten, die von NichtDesignern dazu genutzt werden, selbst gestaltend wirksam zu werden: »Professionelle Designer werden Parameter schaffen, in denen der designaffine Laie selbstständig agieren kann und künftig bessere Designqualität erzeugt als mit den heute üblichen Tools.« Wagner (2015: 41). Entsprechend verfestigen sich durch die zunehmende Technisierung die notwendigen (parametrischen) Strukturen, um darauf aufbauend Sinnhaftigkeit nicht nur für anonyme Massen, sondern für jeden Einzelfall individuell anlegen zu können.

59

4. Industrie und Parametrie

Die Gleichschaltung der technischen Prozesse (Vermessung, Berechnung, Visualisierung, Variantenbildung etc.) lässt den Fokus nun verstärkt auf die konzeptionellen Überlegungen des Entwurfsvorhabens richten. Delegieren die frühen industriellen Produktionsweisen noch mechanisch-körperliche Arbeit an die Maschine ab, um den Menschen davon zu entlasten, verschärft sich die Entwicklung durch das Aufkommen von CAD, Algorithmen, Big Data, Cloud Computing und vor allem durch den Einsatz künstlich neuronaler Netzwerke im digitalen Zeitalter. Maschinelle Entwurfswerkzeuge werden jetzt nicht mehr nur auf ausführender, sondern ebenso auf planerischer Ebene in den Prozess miteinbezogen, etwa durch topologische Berechnungen in der Architektur, Datenauswertungen im Marketing oder der Modularisierung von Bauteilen im Kontext massenindustrieller Fertigungen. Diese Entwicklung wirft dabei zwangsläufig die Frage auf, wie die Rolle des Gestalters neu zu verorten ist, eben wenn Design nunmehr verstärkt computational berechnet als weniger handwerklich ausgearbeitet wird. Es ist davon auszugehen – und dies bildet gleichsam ein parametrisches Charakteristikum der digital vernetzten Lebenswelt –, dass auf Seiten der (technischen) Ausführung nunmehr prinzipiell alles in jeder gewünschten Ausfertigung möglich und machbar ist, nicht zuletzt in Form von massenindustrieller Personalisierung: Ob der Sportschuh in der Lieblingsfarbe mit eingesticktem Namen, die Innenausstattung des Neuwagens oder das eigens konfigurierte Werkzeug-Set im CAD – alles ist durch Parameter definiert und dadurch ebenso jederzeit austauschbar. Gestaltung wird entsprechend nicht mehr auf Seiten der Machbarkeit verhandelt, sondern auf Seiten der menschlichen Handhabbarkeit und Anschlussfähigkeit; denn, wenn alles möglich ist, ist umso dringlicher danach zu fragen, nicht was im Allgemeinen herstellbar, sondern was für jeden einzelnen Anwendungsfall im Besonderen sinnvoll ist. Es bedarf Konzepten, welche den kontingenten Möglichkeiten sinnvolle Richtungen, Einschränkungen und Bedingungen zuweisen, d.h. Parameter, die menschliche Verbindungen und Anschlusspunkte herstellen. In dieser Hinsicht kommen technische Automation und gestalterische Qualifikation zusammen, als Konzept von Gestaltung, das in Beziehungen und damit parametrisch denkt und damit gleichsam alle angeht.61

4.5

Restriktion und Möglichkeitsraum

Wie offenbart sich die Maschine nun dem Menschen, der mit ihr umgeht? Es wurde gezeigt, dass gewisse mechanische Apparate und Maschinen, wie etwa jene Christopher Polhems, einen aufklärerischen Charakter bestärken, indem sie ihre Funktionsweise äußerlich anzeigen. Die offene Sicht auf die Komponenten der Maschinen seines 61

Frank Wagner verbindet dies mit der Öffnung der Designdisziplin zu einem Spielfeld der breiten Masse, in dem professionelle Designer als Gestalter von Strukturen auftreten, die von NichtDesignern dazu genutzt werden, selbst gestaltend wirksam zu werden: »Professionelle Designer werden Parameter schaffen, in denen der designaffine Laie selbstständig agieren kann und künftig bessere Designqualität erzeugt als mit den heute üblichen Tools.« Wagner (2015: 41). Entsprechend verfestigen sich durch die zunehmende Technisierung die notwendigen (parametrischen) Strukturen, um darauf aufbauend Sinnhaftigkeit nicht nur für anonyme Massen, sondern für jeden Einzelfall individuell anlegen zu können.

59

60

Prozess als Gestalt

Mechanischen Alphabetes lässt dem Betrachter visuell ansichtig werden, welche mechanischen Prinzipien in der Konstruktion angelegt sind. Der Betrachter versteht, wie die Maschine funktioniert, indem er die Prinzipien in ihrer mechanischen Funktionsweise nachvollziehen kann. Dabei wird mitunter schnell verkannt, dass die Grundlage des erfolgreichen Funktionierens der Maschine die Geschlossenheit ihrer mechanischen Komponenten und die Aufrechterhaltung der bestehenden Abhängigkeiten zwischen ebendiesen ist, verstanden als die inneren Strukturgesetze, die in ihr bestehen.62 Besonders deutlich wird dies, wenn ein Bruch im maschinellen Prozess entsteht, der etwa durch Materialschwäche, Überbelastung oder einen nonkonformen, äußeren (nicht zuletzt menschlichen) Einfluss hervorgerufen wird.63 Die Maschine funktioniert entsprechend nur dann einwandfrei, wenn sie gemäß ihrer inkorporierten Regeln und Bedingungen abläuft bzw. in Übereinstimmung mit diesen bedient wird. Es etabliert sich somit eine Form der technischen Restriktion, welcher sich die bedienende Person unterzuordnen und anzupassen hat. Die Maschine setzt dabei voraus, nicht nur, dass, sondern vor allem, wie mit ihr umzugehen ist: Der Hebel macht eine Zugbewegung erforderlich, die Tastatur den Tastendruck oder der Smartphone-Bildschirm die Wischgeste – Anzeichen, die auf ihre Bedienung schließen lassen.64 Die Bedienbarkeit von Maschinen und technischen Geräten versteht sich auf die restriktiv-funktionale Grammatik ihrer technischen Systeme, wodurch diese der menschlichen Person lediglich einen Raum der Anpassung bieten (Tasten, Interface etc.), der jedoch wiederum rein technisch artikuliert ist.65 Daraus ergibt sich, dass jeder Umgang mit Werkzeugen, Maschinen und technischen Geräten in ihrer ersten Formulierung restriktiv ist und der Benutzer dadurch grundlegend einer Einschränkung unterliegt.66 Die grundsätzliche Restriktion des technischen Gebrauchs wird nunmehr vom gesteigerten Nutzen überlagert, etwas mit dem Gerät/der Maschine erreichen zu wollen, als teleologisches Artefakt. Wie weiter oben bereits ausgeführt wurde, dienen Werkzeuge und Maschinen der gezielten Zweckausübung sowie der prothesenartigen Steigerung der menschlichen Arbeitskraft.67 Sie erweitern technisch, was menschlich nicht mehr abbildbar ist. Wie dargestellt, artikuliert sich dieses Erweitern in einer technischen Sphäre, die wiederum streng restriktiv ist. Es wird daran offenbar, dass es sich dabei um einen Kompromiss handelt, der das eine in Kauf nimmt, um das andere zu erreichen. Die Maschine stellt durch ihren geschlossenen Aufbau und ihre restriktiven

62 63

64 65 66 67

Vgl. Wertheimer (1925: 42). Einen solchen äußeren Einfluss stellt zumeist und in erster Linie der Mensch dar, der die Maschine bedient bzw. überwacht. Er ist ein äußerer Einflussfaktor, der den Prozess in Bezug auf den automatisierten Ablauf der Maschine vielmehr zu stören scheint, als ihn zu befördern, wie Norman es anschaulich formuliert: »Machines work very well when they work in controlled environments, where no pesky humans get in the way, […] That’s where automation shines.« Norman (2007: 15). S. dazu auch die klassische Theorie des Offenbacher Ansatzes zur Anzeichenfunktion von Produkten bei Steffen (2000: 62ff). Selbst das vermeintlich ›intuitive‹ Wischen auf dem Smartphone ist in erster Linie eine technisch notwendige und als solche allenfalls eine menschlich hinreichend komfortable Geste. Vgl. dazu auch Childe (1951: 14ff). Mit Bezug auf die allgemeine Technikgeschichte vgl. dazu Timm (1972); Forbes (1954). Vgl. dazu auch Weizenbaum (1978/2008: 38ff).

4. Industrie und Parametrie

Prinzipien einen Raum dar, der zwar begrenzt ist, in sich jedoch Möglichkeiten offenbart, die ohne ihn nicht durchführbar bzw. denkbar wären.68 Er bietet jene Möglichkeiten an, indem er demjenigen, der ihn betritt und in ihm handelt, Arbeit abnimmt – zuallererst mitunter jene, den Dingen eine Größe resp. eine Dimension zuzuschreiben. Entsprechend liegt das mitunter grundlegendste Wesensmerkmal eines Raumes, wie er für die parametrische Diskussion Anwendung finden soll, in seiner Messbarkeit.69 Der Möglichkeitsraum ist weiter ein Repräsentationsraum und damit im Hinblick auf die Entwurfstätigkeit vor allem in Bezug zum Medium der Zeichnung zu bringen.70 So bietet das Zeichnen auf Papier etwa einen Möglichkeitsraum, der es erlaubt, Formen auf einer zweidimensionalen Fläche anzulegen, jedoch nicht, sie physisch und dreidimensional entstehen zu lassen, wie etwa durch einen digital angeleiteten 3D-Drucker. Jedes Medium (Werkzeug/Maschine/technisches Gerät) – eröffnet somit einen Möglichkeitsraum, der grundgegebene Grenzen hat, jedoch innerhalb dieser das Potenzial zur Artikulation erst anbietet und somit die Reflexion über das eigene Handeln erst zugänglich macht.71

68

69

70

71

Es vermag sich daran ein soziokulturelles Dilemma im Umgang mit Technik zu offenbaren, das darin besteht, dass der Mensch sich selbst in technische Abhängigkeit begibt, um vermeintliche Freiheit zu finden. Wie Joseph Weizenbaum es formuliert: »Da der Mensch das am extremsten anpassungsfähige Lebewesen ist, konnte er derartige technische Ausgangsbasen für seine Beziehung zu sich selbst, für seine Identität als rein natürliche (d.h. als von der Natur hergestellte) akzeptieren. […] Aus diesem Grund ist es wichtig, die umfassenderen Bereiche zu untersuchen, in denen der Mensch mit der Zeit seine eigene Autonomie an eine Welt verloren hat, die als Maschine betrachtet wird.« Weizenbaum (1978/2008: 22-23). Ebenso Kelly (2010: 37): »Technology has domesticated us. As fast as we remake our tools, we remake ourselves. We are coevolving with our technology, and so we have become deeply dependent on it. […] We are now symbiotic with technology.« Vgl. ebenso den werkzeuggeschichtlichen Zusammenhang bei Childe (1951). Dagegen argumentiert Rittel, dass die letzte Entscheidungsgewalt immer beim Designer liegt: »Es gibt keine Algorithmen, die den Prozess steuern. Es bleibt dem Urteil des Designers überlassen, wie er vorgeht. […] Nichts muss sein oder bleiben, wie es ist oder zu sein scheint, es gibt keine Grenzen des Denkbaren.« Rittel (1987/2012: 33). Wie der Mathematiker Herbert Meschkowski es als Definition eines Raumes anführt, »bei der die Möglichkeit des Messens von ›Entfernungen‹ zur axiomatischen Grundläge gemacht wird« Meschkowski (1997: 233). Dies bildet die Voraussetzung dafür, in einem Raum überhaupt nach etwas suchen zu können, wie Wittgenstein es bereits früh bemerkte: »Suchen kann man nur in einem Raum. Denn nur im Raum hat man eine Beziehung zum Dort, wo man nicht ist.« Wittgenstein (1984/2015: 77). Im gestalterischen Bezugsfeld kann entsprechend auch von Suchräumen gesprochen werden. Vgl. dazu etwa Rittel (1965: 192) sowie weiter unten Kapitel 6.1 ›Problem und Lösung‹. Zu Repräsentationsformen der Zeichnung vgl. vor allem Meder (1919); Koschatzky (1977); Krauthausen (2010a); Hasenhütl (2013); Hillnhütter (2015) sowie in Bezug und Vergleichbarkeit zur CAD-Zeichnung vor allem Pallasmaa (2009: 88ff) sowie Pircher (2009) als auch Schmitz; Groninger (2012). Braun-Feldweg begründet darin eine Widersprüchlichkeit der industriellen Serienfertigung und des klassischen Industriedesigns, wenn er darlegt: »Mit dem Beginn der Serienproduktion geschah Widersprüchliches. Der Raum gestalterischer Freiheit verengte und erweiterte sich gleichzeitig. Der Nutzen, […], brachte eine solche Fülle neuer Erfindungen, daß Fertigungsmethoden, Kombinations- und Montagemöglichkeiten fast keine Grenze mehr gezogen schien. […] Aber sie bedeutete nun Verengung.« BraunFeldweg (1966: 144). Terzidis fasst die Entwicklung für die digitale Neuzeit als medial artikulierten Vorstoß ins Unbekannte zusammen: »Through the use of intricate algorithms, complex computations,

61

62

Prozess als Gestalt

Dies erfolgt darüber hinaus nicht nur im analogen, sondern ebenso und noch weitaus stärker im digitalen Raum, wo die materielle und zeitliche Dimension jeweils aufgehoben und verhandelbar wird. Digitale Entwurfsräume verstehen sich demnach als ubiquitäre Möglichkeitsräume, in denen gemäß ihrer Gesetzmäßigkeiten vermeintlich alles darstellbar resp. gestaltbar ist, die technischen Restriktionen jedoch durch eben jene vordergründige Ubiquität überdeckt und nur noch bedingt hinterfragt werden.72 Wie kommt beides nun im Parametrischen zusammen? Gerade in Bezug zur grundlegenden Gestaltungsauffassung, dass Gestaltung zu neuen Lösungen kommen sollte, ließe sich die Situation nun zunächst kritisch hinterfragen. Wie soll mit restriktiven Mitteln, Werkzeugen und Räumen etwas genuin Neues hervorgebracht werden? Können dadurch nicht bloße Variationen des Gleichen entstehen? Dieses Argument ist in mehrfacher Hinsicht zu entkräften: Einerseits bestand dieser Umstand immer schon. Wie etwa Gert Selle es aus designhistorischer Perspektive im Übergang von handwerklichen zu industriellen Produktionsweisen anschaulich macht, sind beispielsweise die ersten Dampfmaschinen in traditioneller Handarbeit unter den zeitlich gegebenen, konventionellen Bedingungen tradierter Wissenspraktiken entstanden.73 Nicht weniger war es Pionierarbeit, welche die industrielle Revolution eingeleitet hat, gerade weil es zwar die Mittel der Herstellung, aber keine etablierten Formen und Handlungsanweisungen als Vorbilder gab. Andererseits, und dieser Punkt ergibt sich aus dem ersten, eröffnet sich jede Gestaltungsartikulation resp. jeder Möglichkeitsraum innerhalb eines evolutionären Prozesses. Jedes Werkzeug hat seine Vorläufer und sucht seine Nachfolger. Prozesse fangen nicht bei null an, sondern treten vielmehr immer das Erbe eines Vorangegangenen an.74 Die Evolution schreitet dabei jedoch nur insofern voran, als dass – durch Sequenzen des ›trial-and-error‹ – verschiedene Wechsel der Bezugssysteme stattfinden.75 Inhalte werden von einem in ein anderes Bezugssystem transferiert

72

73

74

75

and advanced computer systems designers are able to extend their thoughts into a once unknown and unimaginable world of complexity.« Terzidis (2006: 52). Die Diskussionen und Kritiken dieses Phänomens rufen gleichermaßen Unterstützer wie Gegner des CAD resp. des computerbasierten Entwerfens hervor. Während einige Protagonisten die computergestützten Verfahren als entwurfsrelevante Größe annehmen und die neue Rolle des Gestalters offen diskutieren (Woodbury (2010); Jabi (2013); Tedeschi (2014); Terzidis (2015)), beruft sich die Gegenseite verstärkt auf den Verlust sowohl des händischen Entwerfens als auch des menschlichen Gehaltes im Prozess selbst (Pallasmaa (2009); Sennett (2014)). Vgl. Selle (2007: 28ff) als auch die Ausführungen zur Entwicklung der Dampfmaschine bei Buddensieg; Rogge (1981: 82); Ferguson (1993: 27ff) sowie die entwicklungsgeschichtliche Darstellung einer industriellen Ästhetik bei Meurer; Vincon (1983). »Das erste, was man auf einem neuen Instrument spielt, ist immer das letzte, was man auf dem alten noch erlernt hat«, wie Martin Gessmann es in technikhistorischem Zusammenhang anschaulich formuliert. Gessmann (2010: 134). »Erfindungen sind nichts anderes als die phantasievolle Projektion von Symbolen aus einem bereits bestehenden und im allgemeinen weit entwickelten Bezugssystem in ein anderes.« Weizenbaum (1978/2008: 56). Kelly macht dies etwa am Beispiel der Laser- und Transistoren-Technologien anschaulich: »Lasers were developed to industrial strength to shoot missiles down, but they are made in the billions primarily to read bar codes and movie DVDs. Transistors were created to replace vacuum tubes in room-sized computers, but most transistors manufactured today fill the tiny brains in cameras, phones, and communication equipment.« Kelly (2010: 244). Die Eigenart, bislang Getrenntes in sinnvolle Zusam-

4. Industrie und Parametrie

und auf neue Potenziale geprüft. Der Prozess versteht sich somit als Form eines Brechens mit den vorherrschenden Gegebenheiten und etablierten Bedingungen; als Prozess der Neu-Ordnung der zur Verfügung stehenden Mittel in einem neuen Gefüge aus Verhältnissen; nicht als absolute Disruption (Neu-Anfänge), sondern als kontinuierliche Fortentwicklung (ReDesigns).76 Im digitalen Entwurfsraum sind nun beide Stränge zusammenzuführen. Zunächst steht dem Gestalter ein finites Arsenal an Funktionen zur Verfügung, das er für seine Gestaltungszwecke einsetzt. Er zeichnet, modelliert und iteriert verschiedene Lösungen und ist dabei an die restriktiven Eingabemechanismen des Programms resp. an dessen Funktionswerkzeuge gebunden, was die eigene Kreativität jedoch durchaus zu beleben vermag, wenn sich die Suche nach neuen Lösungen als spielerisches Experimentieren offenbart.77 Mit Hinsicht auf Parametrie erweitern sich die Möglichkeiten nun dahingehend, dass das restriktive Verhältnis zwischen Programm und Gestalter kein lineares und statisches mehr ist, sondern ein zyklisches und dynamisches. Dies wird besonders anschaulich, sobald die Programme nicht mehr nur eine finite Anzahl von Funktionen und Werkzeugen bereitstellen, sondern von vorneherein eine Anschlussfähigkeit und Offenheit ihrer Struktur anbieten: Sie bilden keine geschlossenen Möglichkeitsräume mehr, sondern vor allem anschlussfähige, nicht zuletzt durch Plug-ins, Addons, APIs (›application programming interfaces‹) oder nativ implementierte Programmierumgebungen, die externe Anbindungen ermöglichen.78 Der Gestalter wird zum Gestalter seiner eigenen Möglichkeitsräume. Er entwirft nun nicht mehr ausschließlich innerhalb einer restriktiven Programmumgebung, sondern gleichsam die Umgebung selbst.79 Der Anreiz dazu entsteht nicht zuletzt aus der gegebenen Unzulänglich-

76

77

78

79

menhänge zu bringen, fasst nicht zuletzt jenes Phänomen zusammen, das weithin als Kreativität bezeichnet wird. Vgl. dazu weiter unten Kapitel 7 ›Kreativität und Parametrie‹. Der Begriff der Disruption wurde im gestalterischen und unternehmensökonomischen Zusammenhang dabei zuletzt von Bernhard von Mutius zu einer kognitiven Haltung, einem disruptiven Denken, ausgebaut, das vor allem dadurch gekennzeichnet ist, dass es »Umbrüche, Brüche, nichtlineare Entwicklungen« und »Störungen nicht ausklammert, sondern einbezieht« Mutius (2017: 8, 9). Damit benennt von Mutius Eigenarten eines kreativen Denkens, wie es weiter unten ausführlich für die gestalterische Disziplin erarbeitet werden soll. Vgl. dazu Kapitel 7 ›Kreativität und Parametrie‹ und dort insbesondere Kapitel 7.6 ›Kontinuität und Disruption‹. Wie Georg Franck es in Bezug auf das architektonische Entwerfen formuliert: »Im Spielen mit den Zeichen probieren wir den Gedanken aus. Wir testen, wie weit ein Ansatz trägt, wir loten Möglichkeiten aus oder schauen einfach zu, was da vor uns auf dem Papier oder Bildschirm entsteht.« Franck (2009: 227). Vgl. dazu ebenso für die gestalterische Praxis Bielefeld; Khouli (2011: 46); Voorhoeve (2011: 148). Rheinberger benennt diese spielerische Suche innerhalb der von ihm so benannten Experimentalsysteme darüber hinaus als »Generator von Überraschungen«. Rheinberger (2006: 9). Beispiele dafür sind etwa sowohl das CAD-Programm Rhinoceros, welche das einstige Plugin Grasshopper seit 2018 in den vollen Programmumfang mit aufgenommen hat, als auch Cinema4D, welches vor allem durch sog. Third-Party-Plugins, wie etwa durch Unternehmen wie Greyscalegorilla oder INSYDIUM seine besondere Anschlussfähigkeit zum Argument macht als auch durch eine eigene, interne Programmierumgebung (XPresso) eine durchgehende Offenheit der Anbindung bereitstellt. Vgl. zum Begriff und Phänomen der Umgebung auch Simon (1968/1994: 5ff), der prinzipiell in innere Umgebung (multiple Wege zum Ziel) und äußere Umgebung (Bedingungen, unter denen das Ziel erreicht werden kann) unterscheidet. Innerhalb der Diskussion um Parametrie ist sich nun nicht

63

64

Prozess als Gestalt

keit der restriktiven Werkzeuge, mit denen Entwürfe artikuliert werden: Stoßen die Programm-eigenen Funktionen an ihre Grenzen, obliegt es dem Gestalter, das Bezugssystem neu zu gestalten, gemäß den eigenen Maßstäben und den für jeden Fall neu zu verhandelnden Entwurfsanforderungen. Er setzt neue Parameter und wird somit zwangsläufig zum Gestalter seiner eigenen (digitalen) Werkzeuge und Umgebungen. Dabei versteht sich seine Arbeit nun nicht mehr darauf, Sägen zu schärfen oder Maschinen zu ölen, sondern Funktionen anwendungsspezifisch anzupassen und sie mittels anschlussfähiger Programmierumgebungen und Codes im Entwurf iterativ und reversibel abzustimmen.80 Darüber hinaus bieten parametrische Entwurfsprogramme nicht nur eine grundlegende Anschlussfähigkeit, sondern bedingen durch die immanente Repräsentationslogik ebenso eine Reduktion von Komplexität.81 Digitale Inhalte, Programme und Informationen sind stets mit einer Überdeterminierung belegt, d.h., der Benutzer kann nicht nur zwischen verschiedenen Funktionen und Werkzeugen wählen, er muss es auch.82 Das restriktive Moment versteht sich dabei auf die unabdingbare Nutzung der vorgegebenen Funktionen, die stetig in ihrem Umfang zunehmen und immer komplexere Möglichkeiten anbieten, nicht zuletzt, weil im Digitalen alles von vorneherein einer grundlegenden Messbarkeit unterliegt.83 Parametrie ist in diesem Zusammenhang als Ordnung-schaffendes Phänomen zu betrachten, das entschieden gegen eine reine Messbarkeit arbeitet (gr. ›para‹ = dt. ›gegen/neben‹, gr. ›metron‹ = dt. ›das Maß‹) und für eine anwendungsspezifische Verwertbarkeit der vermessenen Inhalte einzusetzen ist. In dieser Hinsicht stabilisiert Parametrie den unüberschaubar großen Möglichkeitsraum, indem die Werte und Funktionen der Anwendung anschaulich gemacht und in sinnvolle Zusammenhänge gebracht werden können. Letztere sind nicht von vorneherein gegeben, sondern bieten sich erst im Moment der Artikulation selbst an, durch ein »Ausprobieren von Möglichkeiten«, wie Bielefeld es darlegt,84 resp. durch »Externalisierun-

80 81

82

83 84

mehr ausschließlich an der äußeren zu orientieren, sondern sie wird selbst wieder zur gestaltbaren, wieder zur inneren Umgebung. Es wäre die Frage anzuschließen, wie sich die Trennlinie zwischen beiden Sphären verschiebt, sofern sie überhaupt aufrechtzuhalten ist. Latour spricht in diesem Zusammenhang und im Verweis auf Sloterdijk von gestaltbaren Hüllen, mit denen sich der Mensch umgibt, und folglich von der notwendigen Einsicht, dass es kein Außen mehr gibt. Vgl. Latour (2009) als auch die Auseinandersetzung im Kapitel 7.6 ›Kontinuität und Disruption‹. Eine Einführung in das Code-basierte Programmieren findet sich bei Reas; McWilliams; Barendse (2011). So macht etwa Woodbury anschaulich, wie die teils immense Komplexität parametrischer Systeme in entsprechende Sub-Systeme ausgelagert und dadurch besser handhabbar gemacht werden kann. Vgl. Woodbury (2010: 45ff). Dies trifft zwar auch im Analogen zu – etwa wenn der Zuschnitt einer Tischplatte die Nutzung der Säge als Werkzeug voraussetzt – steigert sich im Digitalen jedoch dadurch, dass jede Information determiniert und präzise messbar gemacht worden ist. Wo im Analogen noch ungefähre Genauigkeit resp. das tolerante Augenmaß herrscht, gibt es im Digitalen keinen Verhandlungsspielraum: Inhalte haben Werte, und mit diesen Werten muss zwangsläufig umgegangen werden. Parametrie bildet dabei die Brücke und fasst zusammen, was benötigt wird, und blendet optional aus, was für die Gestaltungsarbeit resp. den Gestalter irrelevant erscheint. Wie Carpo es formuliert: »Jetzt besitzt alles, was digital entworfen wird, per definitionem und von Anfang an Maße. Es ist daher geometrisch definiert und realisierbar.« Carpo (2012: 50). Bielefeld; Khouli (2011: 46).

4. Industrie und Parametrie

gen einer mentalen Repräsentation«, wie Hasenhütl es formuliert.85 In diesem Verständnis trägt Parametrie im digitalen Kontext markante Wesenszüge der Zeichnung und ihrer dialogischen Verfahrensweise in sich, in welcher Gedanken/Ideen/Möglichkeiten zuallererst sichtbar gemacht werden und dadurch erst Anschlusspunkte für die weitere Denk- und Gestaltungsarbeit ausbilden.86 Dabei reflektiert der (parametrische) Designer seine Handlung erst durch die wirkungsvolle Darstellung im Modus annähernder Gleichzeitigkeit:87 Musste die Darstellung innerhalb der manuellen Handzeichnung noch selbst gezeichnet werden, wird sie nun durch Parameter berechnet und unmittelbar visualisiert.88 Diese Unmittelbarkeit bestärkt ebenso den spielerischen Charakter der Entwurfstätigkeit selbst,89 nicht zuletzt dadurch, dass durch die angelegten Parameter eine vereinfachte Veränderbarkeit der Inhalte und Entwürfe gegeben ist, die ein vor allem schnelles Experimentieren ermöglichen. Das spielerische Moment steht dabei zwar in unmittelbarer Abhängigkeit zu den technischen, restriktiven Vorgaben des Programms resp. der Entwurfsumgebung, eröffnet aber gerade dadurch einen befreiten Umgang und Zugang zur visuellen Erörterung von Entwurfsartikulationen90 und

85 86

87

88

89 90

Hasenhütl (2013: 215). Krauthausen spricht von den Bedingungen eines »Möglichkeitsraums, dessen Reglementierung nur gerade so weit gehen darf, dass Anschlüsse wahrscheinlich werden, zum Beispiel Rekursionen und Transformationen« Krauthausen (2010b: 10). Ähnlich hat es bereits Max Bill im Zusammenhang mit der von ihm vorgeschlagenen morphologischen Methode festgehalten, die es als Offenlegung einer Bandbreite von visuellen Alternativen (Entwürfen) ermöglichen soll, »die wahrscheinlichen möglichkeiten zu finden, vorerst unter ausschaltung persönlicher bevorzugungen. dadurch kommen die möglichen lösungen der wahrscheinlichkeit allgemeiner gültigkeit näher als bisher.« Bill (1956/2008b: 104). Bilda, Gero und Purcell ordnen das Phänomen der Externalisierung dagegen als eines der physiologischen Rückkopplung ein: »You have got a memory of some image and what you do is visualize it out there. Then drawing is a practical tool for seeing.« Bilda; Gero; Purcell (2006: 12). Vgl. zum Phänomen der Repräsentation und Externalisierung in der Handzeichnung auch Pallasmaa (2009: 89ff), Berger (2005), Lawson (2006: 26ff). Vgl. dazu auch den Ausdruck des ›reflecting-in-action‹ bei Schön (1983: 49ff), welcher die kognitive (Rück-)Besinnung auf eine praktische Handlung bezeichnet, während diese Handlung ausgeführt wird. Die kritischen Stimmen zu dieser Position ergeben sich aus der Entfremdung des Menschen vom Entwurfsgegenstand, wie etwa Pallasmaa es formuliert: »In my view, however, computer imaging tends to flatten our magnificent multi-sensory and synchronic capacity of imagination by turning the design process into a passive visual manipulation, a retinal survey. The computer creates a distance between the maker and the object, whereas drawing by hand or building a model puts the designer in skin-contact with the object or space.« Pallasmaa (2009: 97). Vgl. Franck (2009: 227). Vgl. auch Sakamoto; Ferré (2008: 7). Vgl. dazu auch Huizinga (1938/2009: 15ff) zu den Kennzeichen des Spiels. Dazu zählt mitunter, dass ein Spiel eine feste Ordnung schafft (S. 19) sowie ein Regelwerk besitzt (S. 20). Für die Diskussion der Entwurfserörterung stellt es sich als besonders heraus, dass Huizinga dem Spiel zuallererst das freie Handeln als Grundlage zuspricht (S. 16). Im Spiel kommen demnach beide Sphären, restriktives und freies Handeln, zusammen, wodurch das Spiel seinen eigentlichen Mehrwert erlangt; indem es einen Spielraum ausbildet, der sich wiederum durch Regeln stabilisiert, während in ihm gespielt wird. Mittels Parametrie lassen sich die Funktionsweisen des Spiels entsprechend auf die Gestaltungspraxis übertragen, wie es weiter unten in der Diskussion um Kreativität noch gezeigt werden soll. S. dazu Kapitel 7.4 ›Spiel und Integration‹.

65

66

Prozess als Gestalt

avanciert damit vom reinen Werkzeug zum unmittelbaren und belebenden Denkzeug.91 Das Ausprobieren, das experimentelle Verändern von Parametern und das zeitlich unbegrenzte Vor- und Zurückgehen trennen sich nicht mehr in einzelne Entwurfsschritte auf, sondern führen alle Prozeduren in einem ganzheitlichen Prozess – als Gestalt – zusammen. Es offenbart sich ein prozessuales Entwerfen, das sich nicht mehr an den Restriktionen der technischen Vorgaben stößt, sondern anbietet, die Parameter seiner Möglichkeitsräume selbst zu setzen. Der Gestalter arbeitet dabei mit den ihm gegebenen (technischen) Voraussetzungen, breitet dabei jedoch durch die bewusste Setzung von Parametern ein schier unendliches Feld an Möglichkeiten aus.92 Dabei kommt dem Designer nicht mehr die Rolle des ausführenden, sondern des anleitenden Partizipanten des Prozesses zu – Parameter werden entsprechend nur dort gesetzt, wo gestaltet werden soll, entsprechend der dahinterstehenden Absicht des Gestalters.

4.6

Absicht und Kontrolle

Die Diskussion über Möglichkeitsräume und Formen der Einflussnahme hat offengelegt, dass sich das parametrische Gestalten auf einem schmalen Grat zwischen restriktiven, technischen Funktionen und Praktiken und einem spielerischen Umgang in der Adaption, Erweiterung und Widerlegung der Inhalte bewegt. Der Gestalter findet sich am Ausgangspunkt jedes einzelnen Prozessschrittes – insbesondere im digitalen Raum

91

92

Wie van den Boom es allgemeinhin für den Computer formuliert: »Nach der Auffassung, die ich hier vertrete, ist der Computer kein Werkzeug, mit dem man etwa mehr oder weniger schöpferisch umgehen könnte; der Computer ist viel mehr; er ist in erster Linie ein Denkzeug, das die kognitiven Fähigkeiten dessen, der es adäquat benutzt, wesentlich erweitert.« van den Boom (1987: 4). Als Denkzeug ermöglicht der Computer – und das parametrische Programm umso mehr – »während der Benutzung eine permanente und ergebnisoffene Interaktion mit dem Benutzer«, wie es Schmitz und Groninger beschreiben. Schmitz; Groninger (2012: 20). Demnach »inspiriert [das Denkzeug] seinen Nutzer und provoziert vorher nicht bedachte Anwendungen – tausend andere Dinge fielen uns ein, die wir damit machen könnten. Es bedarf des Denkens und der Phantasie, aber es öffnet dem Denken auch Perspektiven.« Ebd. Beim Denkzeug handelt es sich entsprechend vor allem um ein Phänomen, das an der Bildung eines kreativen Denkens beteiligt ist, wie es weiter unten zu zeigen sein wird. Vgl. dazu weiter unten Kapitel 7 ›Kreativität und Parametrie‹. Wie etwa Rippmann es formuliert: »Der Entwerfer schafft sich so seinen eigenen Entwurfsraum, der zwar geometrische Einschränkungen vorgibt, jedoch unendlich viele Entwurfsvarianten zulässt […].« Rippmann (2014: 38). Auch Bill betont ein Moment der Einschränkung im Zusammenhang mit seiner morphologischen Methode: »indem die morphologie ein feld aller möglichen komponenten und darin eine grosse zahl verschiedener möglichkeiten hervorbringt, entstehen kontrollmöglichkeiten, die fehlleistungen weitgehend ausschliessen. die morphologie ermöglicht also die herstellung eines einheitlichen feldes, innerhalb dessen die wahl getroffen werden kann. dieses feld ermöglicht es, die wahrscheinlichen möglichkeiten zu finden, vorerst unter ausschaltung persönlicher bevorzugungen.« Bill (1956/2008b: 104). Entsprechend sei die morphologische Methode eine solche, »mit deren hilfe man vorerst die entscheidungsfreiheit einschränkt zugunsten vermehrter sicherheit, um jedoch der letzten entscheidung um so mehr freiheit gewähren zu können.« Ebd.: 105. Parameter schränken entsprechend ein, zugunsten einer umso bewussteren Entscheidung für das Eine gegenüber einem Anderen; als sorgsames Abwägen der Komparative.

66

Prozess als Gestalt

avanciert damit vom reinen Werkzeug zum unmittelbaren und belebenden Denkzeug.91 Das Ausprobieren, das experimentelle Verändern von Parametern und das zeitlich unbegrenzte Vor- und Zurückgehen trennen sich nicht mehr in einzelne Entwurfsschritte auf, sondern führen alle Prozeduren in einem ganzheitlichen Prozess – als Gestalt – zusammen. Es offenbart sich ein prozessuales Entwerfen, das sich nicht mehr an den Restriktionen der technischen Vorgaben stößt, sondern anbietet, die Parameter seiner Möglichkeitsräume selbst zu setzen. Der Gestalter arbeitet dabei mit den ihm gegebenen (technischen) Voraussetzungen, breitet dabei jedoch durch die bewusste Setzung von Parametern ein schier unendliches Feld an Möglichkeiten aus.92 Dabei kommt dem Designer nicht mehr die Rolle des ausführenden, sondern des anleitenden Partizipanten des Prozesses zu – Parameter werden entsprechend nur dort gesetzt, wo gestaltet werden soll, entsprechend der dahinterstehenden Absicht des Gestalters.

4.6

Absicht und Kontrolle

Die Diskussion über Möglichkeitsräume und Formen der Einflussnahme hat offengelegt, dass sich das parametrische Gestalten auf einem schmalen Grat zwischen restriktiven, technischen Funktionen und Praktiken und einem spielerischen Umgang in der Adaption, Erweiterung und Widerlegung der Inhalte bewegt. Der Gestalter findet sich am Ausgangspunkt jedes einzelnen Prozessschrittes – insbesondere im digitalen Raum

91

92

Wie van den Boom es allgemeinhin für den Computer formuliert: »Nach der Auffassung, die ich hier vertrete, ist der Computer kein Werkzeug, mit dem man etwa mehr oder weniger schöpferisch umgehen könnte; der Computer ist viel mehr; er ist in erster Linie ein Denkzeug, das die kognitiven Fähigkeiten dessen, der es adäquat benutzt, wesentlich erweitert.« van den Boom (1987: 4). Als Denkzeug ermöglicht der Computer – und das parametrische Programm umso mehr – »während der Benutzung eine permanente und ergebnisoffene Interaktion mit dem Benutzer«, wie es Schmitz und Groninger beschreiben. Schmitz; Groninger (2012: 20). Demnach »inspiriert [das Denkzeug] seinen Nutzer und provoziert vorher nicht bedachte Anwendungen – tausend andere Dinge fielen uns ein, die wir damit machen könnten. Es bedarf des Denkens und der Phantasie, aber es öffnet dem Denken auch Perspektiven.« Ebd. Beim Denkzeug handelt es sich entsprechend vor allem um ein Phänomen, das an der Bildung eines kreativen Denkens beteiligt ist, wie es weiter unten zu zeigen sein wird. Vgl. dazu weiter unten Kapitel 7 ›Kreativität und Parametrie‹. Wie etwa Rippmann es formuliert: »Der Entwerfer schafft sich so seinen eigenen Entwurfsraum, der zwar geometrische Einschränkungen vorgibt, jedoch unendlich viele Entwurfsvarianten zulässt […].« Rippmann (2014: 38). Auch Bill betont ein Moment der Einschränkung im Zusammenhang mit seiner morphologischen Methode: »indem die morphologie ein feld aller möglichen komponenten und darin eine grosse zahl verschiedener möglichkeiten hervorbringt, entstehen kontrollmöglichkeiten, die fehlleistungen weitgehend ausschliessen. die morphologie ermöglicht also die herstellung eines einheitlichen feldes, innerhalb dessen die wahl getroffen werden kann. dieses feld ermöglicht es, die wahrscheinlichen möglichkeiten zu finden, vorerst unter ausschaltung persönlicher bevorzugungen.« Bill (1956/2008b: 104). Entsprechend sei die morphologische Methode eine solche, »mit deren hilfe man vorerst die entscheidungsfreiheit einschränkt zugunsten vermehrter sicherheit, um jedoch der letzten entscheidung um so mehr freiheit gewähren zu können.« Ebd.: 105. Parameter schränken entsprechend ein, zugunsten einer umso bewussteren Entscheidung für das Eine gegenüber einem Anderen; als sorgsames Abwägen der Komparative.

4. Industrie und Parametrie

– einer Fülle an Möglichkeiten zur gestalterischen Artikulation gegenübergestellt. Dabei erscheint die Nutzung der zur Verfügung stehenden Mittel nicht selten als so dominant und selbstverständlich, dass die Frage nach der vorgeschalteten Motivation kaum noch Berücksichtigung findet: Der Geigenbauer befragt sich nicht mehr selbst, welchen Hobel er für die Bearbeitung des Geigenkörpers aus dem Werkzeugschrank nehmen sollte, ebenso wenig der Fabrikarbeiter, wenn er das Produktionsfließband mit einem Knopfdruck zum Stehen bringen möchte. Die Absicht ist in der Nutzung implizit und wird ab einem gewissen Punkt der Selbstverständlichkeit nicht mehr hinterfragt.93 Im Handwerk baut diese Selbstverständlichkeit auf Tradition, in industriellen Zusammenhängen auf technischer Distanz auf.94 Im Parametrischen wird die Betrachtung der Absicht jedoch gerade dadurch (wieder) bedeutsam, da es im parametrischen, pluralistischen Möglichkeitsraum keine Tradition, keine vordergründige Distanz und entsprechend keine Selbstverständlichkeiten mehr gibt, sondern jede Gestaltungsaufgabe mit neuen Parametern umgeht und dahingehend stets aufs Neue verhandelt werden muss. Die Dynamik der Erwartungen zur Aufgabenbewältigung bemisst sich an den Möglichkeitsräumen der (digitalen) Gestaltung. Hardware, Software und Programme verändern sich zu schnell, als dass das darin für Gestaltungsaufgaben vereinheitlichte Lösungen zu finden sind.95 Entsprechend erscheint es im zeitgenössischen parametrischen Entwerfen umso wichtiger, weniger nach dem Ergebnis, sondern verstärkt wieder nach einer Absicht zu fragen, die durch die Fülle an Möglichkeiten leiten kann, auf der Suche nach neuen Sinnzusammenhängen.96 Eine solche Absicht – in gestalterischer Hinsicht – ist eine mentale Haltung, die das Entwurfsvorhaben kontinuierlich begleitet. Sie ist einerseits allererster Antrieb vor Beginn des Prozesses, andererseits Kontroll- und Prüfinstanz während des Prozesses.97 93

94 95

96 97

Der Begriff der Absicht markiert dabei eine zunächst unscharfe Bestimmung der praktischen Philosophie, einerseits als kausale Determinierung und andererseits als teleologisches Denkmodell. Der amerikanische Pragmatismus des 20. Jahrhunderts formulierte zunächst mit John Dewey in den 1930er-Jahren eine sozial sensible Handlungstheorie der Absicht, bevor mit Harry Frankfurt eine zeitgenössische Ausdifferenzierung erfolgte. Frankfurt differenziert dabei zwei Formen der wunschvollen Absicht (›volition‹): einerseits eine first-order volition – die etwa Wünschen entspricht, Dinge zu besitzen, zu vereinnahmen oder bestimmte Erfahrungen zu machen –, und andererseits von Wünschen zweiter resp. höherer Ordnung (higher-order volition), welche über die Wünsche der ersten Ordnung reflektieren – etwa, einen bestimmten Wunsch nicht zu haben. Vgl. Frankfurt (1999/2003). Für die parametrische Diskussion ist vor allem jene zweite Form relevant, da die gestalterische Absicht mit Prozessen der Reflexion einhergeht, die bestrebt sind, in wunschvoller Absicht zu erörtern, wie die Dinge auch anders zusammenhängen können. Vgl. dazu auch Kapitel 7.2 ›Hin-Sicht und Ab-Sicht‹. S. dazu weiter oben die Kapitel 3.1 ›Langsamkeit und Evolution‹ sowie Kapitel 4.2 ›Distanz und Interaktion‹. Vgl. dazu Kelly (2010: 50, 91); Schnier (2009: 98). Dies schlägt sich auch im klassischen Produktdesign nieder, wie Buck es am Beispiel von Uhren der Marke Swatch nachvollzieht: »Kein Produkt existiert lange genug, um als Flop ein Marken-Risiko zu werden, Erfolgreiches wird durch die Kollektionen hindurch variiert, nichts bleibt lange genug, um sich daran zu gewöhnen, […].« Buck (1998: 24). Vgl. dazu auch Kapitel 7.4 ›Spiel und Integration‹. Der Hammer schwingt sich nicht von selbst, ebenso wenig wie die Maschine sich von selbst betätigt oder die Bühne (Canvas) des CAD-Programms sich selbstständig mit Inhalt füllt. Es bedarf eines bewussten Anstoßes, der eine Absicht voraussetzt.

67

68

Prozess als Gestalt

Eine erste Absicht, etwa einen Stuhl zu bauen, ruft in traditioneller, handwerklicher Haltung diverse weitere Absichten hervor; etwa eine Entwurfszeichnung anzufertigen, Material zu beschaffen, Werkzeuge zu wählen und diese gezielt zu verwenden. Es bilden sich sinnvolle Zusammenschlüsse von Absichten, die nacheinander und geordnet ein Ganzes ergeben. Aus dieser traditionellen Form einer Absicht eröffnet sich Gestaltung vorwiegend als planerische Tätigkeit.98 Als solche folgt sie einer linearen Prozesslogik, in welcher die notwendigen Schritte in einem zeitlichen Nacheinander erfolgen: Zunächst wird festgelegt, was zu tun ist und wie, dann wird es getan. Einer Absicht der Planung folgt eine Absicht der Ausführung.99 Im parametrischen Entwurfsraum ist damit anders umzugehen: Zwar ist weiterhin eine planerische Absicht vorhanden, eben dadurch, dass Parameter zunächst gesetzt werden (müssen), allerdings verschiebt sich die Bedeutung der Absicht durch die parametrische Arbeitsweise: Parameter können zunächst planerisch gesetzt, aber selbst danach innerhalb der ausführenden Tätigkeit weiterhin verändert werden, da Parameter die Veränderung ihrer Werte immer bereits implizieren. Die planerische und ausführende Absicht fallen zusammen auf Basis der Reversibilität der assoziativ miteinander verbundenen Parameter: Das konkrete Maß der Form muss nun nicht mehr im Vorhinein, sondern kann im Nachhinein festgelegt werden. Die Anbringung von Sinn ist auf das Hinterher verlagert: Das Rechteck wird im Programm zuerst gezeichnet und danach mit den gewünschten Maßen versehen; der strukturelle Rahmen ist wichtiger als sein Inhalt. Das konkrete resp. gestaltete Maß ist entsprechend nachrangig, da es zeitlich unabhängig, reversibel und medial (digital) immer schon angelegt ist. Die erste Absicht versteht sich somit nicht mehr auf das konkrete Einzelne, sondern auf das Anlegen einer allgemeinen Struktur, in welcher eine Bandbreite von Möglichkeiten ansichtig werden kann. Erst in zweiter Instanz wird mit den gesetzten Parametern gearbeitet, um sich einem gewünschten/beabsichtigten Ergebnis anzunähern. Der Sinn der sich darbietenden Zusammenhänge ist dabei zu Beginn noch nicht vollends ausgeprägt. Vielmehr verfestigt er sich erst im weiteren Ausprobieren und Abgleichen verschiedenster Optionen. Dies gewährleistet ein fortwährendes Bewusstsein für die Kontingenz der Zusammenhänge, das es wiederum ermöglicht, Veränderungen immer schon zu antizipieren und als parametrische Variablen in die Entwurfsarbeit miteinzubeziehen. Ob das Rechteck im Hoch- oder Querformat angelegt ist oder ob doch ein Hexa-, Septaoder Oktagon eine geeignetere Form darstellt, ist eine im Prozess nachgelagerte, wenn mitunter auch nicht weniger wichtige Frage, die durchgehend verhandelbar bleibt. Die Absicht sowie auch der herzustellende Sinn sind demnach nicht statisch und von vorneherein fest fixiert, sondern verhalten sich approximativ, indem sie sich erst innerhalb des parametrischen Gestaltungsprozesses verfestigen; durch den iterativen,

98 99

S. dazu für das praktische Entwerfen auch Rittel (1987/2012: 16); Schnier (2009: 96); Neudörfer (2007: 33); Meisenheimer (2010: 39ff); Heufler (2016: 71ff). Die Aufspaltung der gestalterischen Tätigkeit in eine planerische und ausführende ist dabei bereits im Disegno-Begriff der Renaissance angelegt (disegno interno und esterno). Vgl. dazu vor allem die Ausführungen bei Vasari; Lorini; Burioni (2006). Eine knapp gehaltene Übersicht der Entwicklung des Begriffs findet sich bei Kemp (1974).

4. Industrie und Parametrie

kontrollierenden Abgleich dessen, was durch die Veränderung der Parameter im digitalen Entwurfsprogramm artikuliert wird. Am Beispiel eines geometrischen Rechtecks wird es anschaulich: Wird etwa die Grundform des Rechtecks im Nachhinein über die Veränderung der Parameter (Punktezahl) neu definiert, etwa zu einem Hexagon, so ändern sich auch alle darauffolgenden Prozessschritte, etwa jene der Extrusion, der Flächenüberblendung oder der Addition/Subtraktion von Volumenkörpern. Da eine hexagonale Grundform über mehr Seitenflächen verfügt als ein Rechteck und zudem eine geometrische Dreiteilung aufweist, könnte diese Veränderung dazu Anstoß geben, über neue Anwendungsbezüge nachzudenken, die womöglich sowohl eine gesteigerte gebrauchsbezogene als auch eine ästhetische Funktion erfüllen könnten. Das Moment der Feststellung solcher Potenziale stellt sich dabei erst mit der Veränderung der Parameter ein: Erst durch die Veränderung wird neuer Sinn womöglich erst wahrnehmbar und damit auch erst gestaltbar.100 Die Absicht und damit einhergehender Sinn konkretisieren sich erst im Moment der Veränderung der Parameter, als ein »Wissen im Tun«, wie Gert Hasenhütl es in Bezug auf die Handzeichnung formuliert.101 Die offene Haltung des Gestalters erhält dabei einen gewissen Spielraum, welcher nicht mehr ausschließlich einer strengen Planung unterliegt, sondern gleichsam den »provozierten Zufall« begünstigt.102 Der Prozess hält durch die offenen Variablen resp. die Parameter stets ein Moment der Loslösung von einer intendierten Planung bereit, welches in mitunter spielerischer Art und Weise Zugang zu neuen Antworten auf womöglich noch nicht bedachte Fragen und Möglichkeiten anbietet, im Sinne einer provozierten Improvisation.103 Es erschließt sich erst im Moment der jeweiligen Artikulation durch den »Vergleich von Intention und Ergebnis«,104 ob Letzteres für den eigenen Prozess relevant oder irrelevant sein könnte. Versteht sich dieses Vergleichen bei Hasenhütl noch auf die Handzeichnung, in welcher der Gestalter selbst die ausführende Kraft darstellt, so ist dies im parametrischen Bezugsfeld unter anderen Vorzeichen zu betrachten. Wie weiter oben bereits dargelegt wurde, werden Entwürfe im parametrischen Entwurfskontext über eine technisch artikulierte Distanz generiert, die es notwendig macht, neue Ebenen der Steuerung resp. der Handhabung zu implementieren und Prozesse über einzelne Parameter zu kontrollieren. Dazu zählen handwerkliche Werkzeuge wie auch industrielle Maschinen. Im digitalen Entwurfsraum können dies dagegen sowohl Programme als auch Algorithmen sein. Entwürfe werden in diesem Verfahren zumeist nicht mehr selbst in ihren Einzelheiten artikuliert, wie es bei der Handzeichnung der Fall ist, sondern dem Gestalter über entsprechende Programme und digitale Medien nahegelegt. Dem Gestalter 100 Die Mechanismen ähneln dabei den experimentellen Prinzipien der Handzeichnung, etwa wenn die Hand als ausführendes Instrument die kognitive Wahrnehmung des Zeichnenden gar überrascht. Die Zeichnung entspricht dabei einem Experimentarium, das nicht nur durch wohl überlegte Handlungen geprägt ist, sondern gleichsam den losgelösten Zufall begünstigt, und diesen bestenfalls sinnvoll verwertet. Vgl. dazu Krauthausen (2010b: 10ff); Voorhoeve (2011: 135); Hasenhütl (2013: 259ff). 101 Hasenhütl (2013: 264). 102 Krauthausen (2010b: 8). 103 Vgl. dazu auch Kapitel 7.3 ›Situation und Improvisation‹. 104 Hasenhütl (2013: 259).

69

70

Prozess als Gestalt

kommt nicht mehr die aktive Kontrolle des Mediums zu (indem er etwa den Stift sicher führt), sondern eine passive, wodurch er nunmehr auf die nahegelegten Inhalte kognitiv reagiert.105 Die menschliche Hand dient nicht mehr als ausführendes Werkzeug, sondern als »Antrieb und Auslöseorgan«,106 als Impuls, der einen Prozess der autonomen Abläufe anstößt und bei Bedarf redigiert. Diese reaktionäre Haltung verstärkt das Moment der Antizipation und Evaluation, indem Inhalte durch das Zusammenkommen von Absicht und Ergebnis nunmehr kontrolliert werden können. Es bedarf dazu dementsprechend nicht mehr verstärkt der Fähigkeit, Kontrolle aktiv auszuüben, sondern den Prozess kontrollierend zu beobachten und daraufhin zu entscheiden, wie weiter zu verfahren ist.107 Während somit im Handwerk die aktive Form von Kontrolle überwiegt, da Entwürfe noch selbst handwerklich ausgeführt werden, und in der Industrie die passive Form, da die starren Produktionsmechanismen dem Einfluss des Menschen gar entgegengerichtet sind, so ist es im Parametrischen ein Zusammenschluss beider Ausprägungen, ebendann, wenn der Gestalter seine Absicht im Umgang mit parametrischen Systemen gleichsam sowohl passiv überprüfen als auch aktiv steuern, d.h. sie neu ausrichten und somit jederzeit in den Prozess eingreifen kann. Der Gestalter wird dadurch im Luhmann’schen Sinn vermehrt zum Beobachter seines eigenen Prozesses,108 der in einer anleitenden Funktion mit den parametrischen Artikulationen interagiert und seine ge-

105 Vgl. zum reaktiven Moment im Entwerfen auch Carpo (2012: 51); Gänshirt (2009: 168); Hasenhütl (2013: 25). 106 Huber (1996: 15). 107 Gerade im Zusammenhang mit autonomen, technischen Prozessen ist diese Beobachtungsfunktion nicht selten die einzige Form der menschlichen Einflussnahme. Anschaulich wird dies etwa an Not-Aus-Schaltern technischer Geräte oder ebenso, wenn etwa algorithmische Funktionen ›blind‹ Daten sammeln und daraus Entscheidungen ableiten, die für das menschliche Leben keinen nachvollziehbaren Sinn darstellen. Vgl. dazu Ramge (2018: 25ff). 108 Als solcher versteht sich der Gestalter als Beobachter der Beobachtung, wie es schon die Kybernetik, vor allem mit Heinz von Förster, proklamiert hat resp. als Beobachter zweiter Ordnung, wie Luhmann es zur Beschreibung systemtheoretischer (institutioneller) Phänomene für die Sozialwissenschaft ausdifferenziert hat. Vgl. Foerster (1989); Luhmann (1997). Der Anspruch, den Beobachter in die Beobachtung miteinzubeziehen, verschiebt dabei den Fokus vom ›Was‹ der Dinge auf das ›Wie‹ der Zusammenhänge; auf die Vermittlungsinstanzen und Transformationsprozesse, welche an der Wirkungsweise der Phänomene beteiligt sind. Eine solche Betrachtungsweise schließt in die Beobachtung mit ein, was der Beobachtung erster Ordnung, d.h. der unmittelbaren, direkten Wahrnehmung der Dinge, als blinder Fleck verwehrt bleibt: »Der Übergang von Was-Fragen zu Wie-Fragen ist immer zugleich ein Übergang von der Beobachtung erster Ordnung zur Beobachtung zweiter Ordnung, und für das Beobachten zweiter Ordnung braucht man nun eigene Programme.« Luhmann (1999: 322). In dieser Hinsicht fordert etwa Bernhard von Mutius für die gestalterische Disziplin ein »wiedereinschließendes Denken«, das Perspektivenwechsel zulässt und dabei Kontroversen, Ambiguitäten und Ambivalenzen im Modus eines »Sowohl-als-Auch« verhandelt. Mutius (2004a: 18). In der praxisnahen medialen Übertragung mag es dabei vor allem darum gehen, Abhängigkeiten und Beziehungen zwischen den Dingen sichtbar zu machen, d.h., sie zu visualisieren und »an einem Ort zusammenzuziehen«, wie Latour es formuliert. Latour (2009: 371). Parametrie erscheint in diesem Verständnis als Phänomen, das einen maßgeblichen Schritt in eine solche Richtung vollziehen kann.

4. Industrie und Parametrie

stalterische Absicht daran sukzessiv und iterativ schärft und auflöst, festhält und loslässt, sich nähert und sich entfernt usw. Der Wandel von der aktiven, ausführenden Kontrolle hin zum passiven, reaktionären Beobachten markiert die Ausrichtung auf ein grundlegendes parametrisches Wesensmerkmal. Nur durch diese Fokusverschiebung ist der Gestalter dazu in der Lage, weitreichend über den Gestaltungsgegenstand zu reflektieren. Und dies nun mit erheblich mehr Kapazität als zuvor in handwerklicher Tradition oder industrieller Routine. Es ist nicht mehr die Auseinandersetzung mit medial-technischen Werkzeugen und dessen formal-logischen Notwendigkeiten, Voraussetzungen und Beschränkungen, sondern der Fokus auf gestalterische Sinnhaftigkeit, der ein parametrisches Entwerfen im breiten Verständnis kennzeichnet. Dabei bietet der Umgang mit Parametern an, nicht nur nach der einen singulären Lösung zu suchen, die funktionieren muss, sondern reziprok Möglichkeiten zu finden, wie die Dinge auch anders zusammenhängen könnten – sowohl im Sinne eines gestalterischen Spiels mitsamt seinen Ambiguitäten, Ungewissheiten und Wagnissen als auch als eines des Abwägens, Verfestigens und Widerrufens. Diese Prinzipien begünstigen ein Ausbrechen aus konventionellen Denkweisen, Routinen und Haltungen und fördern entsprechend ein selbstständiges Denken, wie es Kammerer bereits 1917 proklamiert hat.109 Parametrie begründet damit nicht etwa einen komplett neuen Ansatz, sondern erschließt diesen lediglich für Gestaltung, indem Veränderungen im Entwurf durch Parameter eine fassbare Form erhalten.

4.7

Komplexität und Einfachheit

Das prozessuale Wechselspiel aus Absicht und Kontrolle basiert wesentlich auf der Zugänglichkeit und Darbietung der Inhalte, mit denen umgegangen wird. Parametrie versteht sich in diesem Zusammenhang darauf, komplexe Prozesse in möglichst einfache Formen der Handhabbarkeit zu übersetzen. Weiter oben wurde bereits in Anlehnung an die Begriffe der Distanz und der Sichtbarkeit dargelegt, wie eine solche Handhabbarkeit in der Praxis aussehen kann; wenn komplexe Inhalte neue Artikulationsformen (Parameter) erhalten und die gestalterische Einflussnahme dadurch in engeren Zyklen, d.h. effizienter, einfacher und ökonomischer erfolgen kann. Entsprechend verhandelt Parametrie grundlegend den stetigen Austausch zwischen komplexen Inhalten und ihrer möglichst einfachen Bewältigung.110

109 »Wer gut beobachten kann, wird auch viel eher zu selbstständigem Denken kommen als einer, der von klein auf gewöhnt ist, die Worte des Lehrers als ein unverbrüchliches Evangelium zu betrachten, dem man mechanisch folgen muß.« Kammerer (1917: 10). 110 Die begriffliche Grundlage zum Phänomen der Komplexität kann in allgemeiner Hinsicht wie folgt dargelegt werden: »Im alltäglichen wie wissenschaftlichen Umgang nennen wir komplex etwas, das ungeheuer reichhaltig, kompliziert, verworren, vielzählig und vielgestaltig an Elementen und Beziehungen ist und daher nicht oder nur schwer durchschaubar, unerklärlich und unverständlich.« Gloy (2014: 17). Eine Ausdifferenzierung des Komplexität-Begriffs stellt Jones für das gestalterische Feld an, wenn er zwischen Formen der externen und internen Komplexität unterscheidet. Vgl. Jones (1970/1992: 34ff). Während erstere sich dabei vor allem auf die technologischen, globalen und vernetzten Entwicklungen auf der Makro-Ebene bezieht, versteht sich letztere vorwiegend als Anpassung gestal-

71

4. Industrie und Parametrie

stalterische Absicht daran sukzessiv und iterativ schärft und auflöst, festhält und loslässt, sich nähert und sich entfernt usw. Der Wandel von der aktiven, ausführenden Kontrolle hin zum passiven, reaktionären Beobachten markiert die Ausrichtung auf ein grundlegendes parametrisches Wesensmerkmal. Nur durch diese Fokusverschiebung ist der Gestalter dazu in der Lage, weitreichend über den Gestaltungsgegenstand zu reflektieren. Und dies nun mit erheblich mehr Kapazität als zuvor in handwerklicher Tradition oder industrieller Routine. Es ist nicht mehr die Auseinandersetzung mit medial-technischen Werkzeugen und dessen formal-logischen Notwendigkeiten, Voraussetzungen und Beschränkungen, sondern der Fokus auf gestalterische Sinnhaftigkeit, der ein parametrisches Entwerfen im breiten Verständnis kennzeichnet. Dabei bietet der Umgang mit Parametern an, nicht nur nach der einen singulären Lösung zu suchen, die funktionieren muss, sondern reziprok Möglichkeiten zu finden, wie die Dinge auch anders zusammenhängen könnten – sowohl im Sinne eines gestalterischen Spiels mitsamt seinen Ambiguitäten, Ungewissheiten und Wagnissen als auch als eines des Abwägens, Verfestigens und Widerrufens. Diese Prinzipien begünstigen ein Ausbrechen aus konventionellen Denkweisen, Routinen und Haltungen und fördern entsprechend ein selbstständiges Denken, wie es Kammerer bereits 1917 proklamiert hat.109 Parametrie begründet damit nicht etwa einen komplett neuen Ansatz, sondern erschließt diesen lediglich für Gestaltung, indem Veränderungen im Entwurf durch Parameter eine fassbare Form erhalten.

4.7

Komplexität und Einfachheit

Das prozessuale Wechselspiel aus Absicht und Kontrolle basiert wesentlich auf der Zugänglichkeit und Darbietung der Inhalte, mit denen umgegangen wird. Parametrie versteht sich in diesem Zusammenhang darauf, komplexe Prozesse in möglichst einfache Formen der Handhabbarkeit zu übersetzen. Weiter oben wurde bereits in Anlehnung an die Begriffe der Distanz und der Sichtbarkeit dargelegt, wie eine solche Handhabbarkeit in der Praxis aussehen kann; wenn komplexe Inhalte neue Artikulationsformen (Parameter) erhalten und die gestalterische Einflussnahme dadurch in engeren Zyklen, d.h. effizienter, einfacher und ökonomischer erfolgen kann. Entsprechend verhandelt Parametrie grundlegend den stetigen Austausch zwischen komplexen Inhalten und ihrer möglichst einfachen Bewältigung.110

109 »Wer gut beobachten kann, wird auch viel eher zu selbstständigem Denken kommen als einer, der von klein auf gewöhnt ist, die Worte des Lehrers als ein unverbrüchliches Evangelium zu betrachten, dem man mechanisch folgen muß.« Kammerer (1917: 10). 110 Die begriffliche Grundlage zum Phänomen der Komplexität kann in allgemeiner Hinsicht wie folgt dargelegt werden: »Im alltäglichen wie wissenschaftlichen Umgang nennen wir komplex etwas, das ungeheuer reichhaltig, kompliziert, verworren, vielzählig und vielgestaltig an Elementen und Beziehungen ist und daher nicht oder nur schwer durchschaubar, unerklärlich und unverständlich.« Gloy (2014: 17). Eine Ausdifferenzierung des Komplexität-Begriffs stellt Jones für das gestalterische Feld an, wenn er zwischen Formen der externen und internen Komplexität unterscheidet. Vgl. Jones (1970/1992: 34ff). Während erstere sich dabei vor allem auf die technologischen, globalen und vernetzten Entwicklungen auf der Makro-Ebene bezieht, versteht sich letztere vorwiegend als Anpassung gestal-

71

72

Prozess als Gestalt

In der Praxis vollzieht sich der Weg dabei zumeist vom Einfachen zum Komplizierten: Wie es weiter oben am Beispiel des Geigenbaus dargestellt wurde, offenbart sich der dazugehörige Produktionsprozess über die langsame Veränderung des Gestaltungsgegenstandes im Sinne einer Evolution.111 Diese schreitet langsam voran – durch das Prinzip des ›trial-and-error‹ – und geht dabei stets vom Einfachen aus, mit ihm um, und formt so über die Zeit eine (komplexe) Tradition heraus.112 Dabei erscheinen die Einzelschritte, isoliert betrachtet, zuallererst wenig komplex: Der Baumstamm wird in

111

112

terischer Inhalte im Sinne einer Beförderung der Um- und Durchsetzung neuer Lösungen auf der Mikro-Ebene. In Bezug auf die technische Diskussion um Maschinen und Parametrie sei hier weiter die Definition Herbert A. Simons anzuführen, in welcher er, in Anlehnung an den gestalttheoretischen Ansatz der Übersummativität, der weiter unten noch näher diskutiert wird, Komplexität als System versteht, »das aus einer großen Zahl von Teilen zusammengesetzt ist, wenn die Teile nicht bloß in der einfachsten Weise interagieren. In solchen Systemen ist das Ganze mehr als die Summe der Teile – nicht in einem absoluten, metaphysischen Sinn, sondern in dem wichtigen pragmatischen, dass es keine triviale Angelegenheit ist, aus den gegebenen Eigenschaften der Teile und den Gesetzen ihrer Wechselwirkung die Eigenschaften des Ganzen zu erschließen.« Simon (1968/1994: 145). In ähnlicher Hinsicht bemisst Terzidis das Maß an Komplexität an der Zeit, dies es benötigt, ein System zu beschreiben bzw. es aufzubauen: »Complexity is a term used to denote the length of a description of a system or the amount of time required to create a System.« Terzidis (2006: 52). Komplexität wird entsprechend dann erst anschaulich, wenn die Analyse der Einzelteile und/oder die Zeit nicht (mehr) ausreicht, um die Funktionen eines Systems im Ganzen nachzuvollziehen. Komplexität setzt sich in dieser Lesart einer unmittelbaren Nachvollziehbarkeit entgegen und kann erst durch die proaktive Gestaltung, durch Komplexitäts-Reduktion, wieder mit nachvollziehbarer Bedienbarkeit im Sinne von Einfachheit vereinbart werden. Vgl. Gänshirt (2009: 165). Woodbury weist ferner auf die Komplexität parametrischer Prozeduren hin und proklamiert die Notwendigkeit eines erweiterten Umgangs mit diesen: »The parametric medium is complex, perhaps more so than any other media in the history of design. Using it well necessarily combines conceiving data flow; new divide-and-conquer strategies; naming; abstraction; 3D visualization and mathematics; and thinking algorithmically.« Woodbury (2010: 47). Hans Ulrich Gumbrecht spricht in Bezug auf das gegenwärtige technifizierte Zeitalter der Mikroelektronik und algorithmischer Berechenbarkeit von einer Komplexität, »die wir als ein Universum von Kontinenz erleben, das heißt: als eine Welt, in der alles möglich, aber nichts mehr notwendig wirkt […]« und welche den Menschen »beständig überfordert« Gumbrecht (2015). Im parametrischen Zusammenhang vermag es sich entsprechend nicht als oberstes Ziel zu verstehen, mehr Parameter zu etablieren, sondern zu fragen, welche zusammengefasst werden können, um die Verbundenheit zur menschlichen Lebenswelt aufrechtzuerhalten und die Dinge in sinnvolle Verhältnisse zu bringen. Vgl. dazu auch sowohl Kapitel 7.5 ›Simulation und Computation‹ als auch Kapitel 7.6 ›Kontinuität und Disruption‹. Kelly vergleicht den technologischen Wandel mit der natürlichen Evolution nach Darwin, wenn er darlegt: »The evolution of both systems moves from the simple to the complex, from the general to the specific, from uniformity to diversity, […] The way that a species of technology changes over time fits a pattern similar to a genealogical tree of species evolution.«. Kelly (2010: 44). Nach Gloy bezeichnet dies einen Akt der Komplexitätsbewältigung auf praktisch-pragmatischer Ebene. Vgl. Gloy (2014: 65). Die Wurzeln des ›trial-and-error‹- Prinzips sind dabei im klassischen Darwinismus verortet, finden hier aber im erweiterten Zusammenhang seiner technischen Beschleunigung eine neue Bedeutung, insofern, als dass der daraus resultierende Lernprozess sich gegenwärtig nicht mehr nur auf den Menschen, sondern vor allem auf die Technik bezieht resp. auf jene künstlichen neuronalen Netzwerke, dessen Rückkopplungen auch für das Feld der Gestaltung maßgeblich sind, wie es weiter unten noch ausgeführt werden soll. Vgl. dazu Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹.

4. Industrie und Parametrie

grobe Holzscheite geschnitten, die Kontur des Geigenkörpers mittels einer Schablone übertragen und entsprechend zugesägt, das Holz mit verschiedenen Hobeln und Ziehklingen bearbeitet, abgerichtet, zusammengesetzt, verleimt etc.113 Der Prozess besteht entsprechend aus der linearen Aneinanderreihung von Einzelschritten bis hin zu einem Maß, in dem diese nur noch bedingt nachvollziehbar sind.114 Die Summe der Einzelschritte wird zu einem Komplex, einer Gesamtsumme, einer Gruppe, einer Zusammenfassung,115 die hierarchisch strukturiert ist,116 und die je nach quantitativem Ausmaß nur noch bedingt im Einzelnen nachzuvollziehen ist. Darüber hinaus tragen im Handwerk die Fertigkeiten des Handwerkers dazu bei, dass der Prozess nicht mehr klar und objektiv definierbar ist, sondern dass er seinen besonderen, zumeist romantisch-nostalgischen Gehalt durch den körperlich-virtuosen Umgang mit Werkzeugen und physischen Materialien bezieht.117 Einfache Teilschritte werden im Handwerk demnach durch Aneinanderreihung einerseits und durch nonverbales Erfahrungs- und Körperwissen andererseits zu komplexen Prozessen vereint.118 Als ›Komplex‹ (›komplex‹) sei im Handwerk entsprechend die Summe aller quantitativen und qualitativen Einzelschritte zu benennen, die nicht ohne Weiteres nachgeahmt, rezitiert oder verstanden werden können.119 Als Summe bilden jene Einzelschritte einen Komplex; bezogen auf ihre Nachvollziehbarkeit eröffnen sie sich als komplex. Die industriellen Produktionsweisen erscheinen im Gegensatz zum Handwerk in erster Betrachtung insofern als maßgeblich komplexer, als dass nun technische Maschinen und automatisierte Prozessketten verstärkt im Prozess Etablierung finden. Es

113 114

115 116 117

118

119

Eine detaillierte Übersicht findet sich bei Kolneder (1984: 25ff). Weaver bezeichnet diese Form der Komplexität als organisierte Komplexität im Gegensatz zur Form der unorganisierten Komplexität. Vgl. Weaver (1948: 5ff). Erstere charakterisiert Weaver dadurch, dass sie eine annehmbare Anzahl von Variablen aufweist (»considerable number of variables«), welche zu einem organisierten Ganzen zusammengefügt und verbunden sind (»interrelated into an organic whole«), während sich unorganisierte Komplexität einer Berechenbarkeit und Regelmäßigkeit weitestgehend entzieht. Ebd.: 5. Für die folgende Diskussion ist entsprechend von Formen der organisierten Komplexität auszugehen. Vgl. Duden (2007), Komplex. Vgl. dazu den Begriff der Hierarchie in Zusammenhang mit Komplexität bei Simon (1968/1994: 146). Dieser versteht sich auf ein Moment der Virtuosität, wie es etwa bei Schlesinger beschrieben wird: »Menschenverstand weiß sich auch mit den einfachsten Werkzeugen zu helfen. […] So dürfen wir uns auch nicht wundern, wenn das einfache Werkzeug in der Hand des Künstlers alles hervorbringt, wenn sogar ein stumpfes Messer in der Hand des Bildhauers das schönste Ornament hervorzaubert, während das schärfste Messer in der Hand des Ungeschickten nur zerstörend wirkt.« Schlesinger (1917: 15). Beide Stränge führt Simon zusammen, indem er sie als Quellen der Selektivität anführt: eine erste, welche mittels ›trial-and-error‹ operiert, und eine zweite, welche die vorausgegangene Erfahrung zugrunde legt. Vgl. Simon (1968/1994: 154ff). Vgl. darüber hinaus zum Begriff des Erfahrungswissens im Allgemeinen vor allem Polanyi (1985), bezogen auf das Entwerfen im Besonderen vor allem Schnier (2009: 83). In dieser Hinsicht wäre etwa der Begriff des Mythischen im Handwerk nichts anderes als eine Form von Komplexität, die nicht etwa einer technischen, sondern einer menschlich-virtuosen Unverständlichkeit entspringt. Vgl. zum Begriff des Mythos auch Kurz (2014), zum Begriff der Virtuosität/Originalität auch Sennett (2014: 98).

73

74

Prozess als Gestalt

sind nun nicht mehr handwerklich-körperliche Komplexe, sondern technische.120 Die Einzelschritte verstehen sich nun vorwiegend auf die Verbundenheit der MaschinenKomponenten,121 welche ohne menschliches Zutun funktionieren und eigene Prozessabläufe herausbilden. Durch die dynamische, wechselseitige Verbundenheit der Bestandteile stabilisiert sich die Maschine nunmehr selbst. Bedingt durch diese Distanzierung zum menschlichen Benutzer bildet sich eine Form von Komplexität heraus, die den Prozess in den Hintergrund (Unsichtbarkeit) und das Ergebnis in den Vordergrund (Sichtbarkeit) stellt.122 Es ist für den Benutzer entsprechend weniger wesentlich zu wissen, in welcher Frequenz sich etwa im Motorraum des Automobils die Kolbenzylinder auf und ab bewegen, sondern vielmehr, ob das Auto rollt und wie es zu lenken ist.123 Das Ergebnis offenbart sich dabei als Überschaubarkeit des Einfachen, wogegen sich dessen zumeist unsichtbare, technische Strukturen als Formen von Komplexität offenbaren – als Konglomerate technischer, automatisierter Abläufe, die nicht mehr zwangsläufig nachvollziehbar sein müssen, um mit den hervorgebrachten Ergebnissen arbeiten zu können.124 Die maschinelle Dynamik versteht sich entsprechend als präziser, wiederholbarer und unendlicher Kreislauf, der in sich abgeschlossen ist und dementsprechend menschlicher Zugangspunkte bedarf, die es wiederum sorgsam zu gestalten gilt. Wie lässt sich das Verhältnis von Komplexität und Einfachheit nun auf die parametrische Diskussion übertragen? Parameter reduzieren Komplexität, indem sie komplexe Inhalte medial aufbereiten und in handhabbare resp. menschliche Formen der Einfachheit zurückführen.125 Parametrie verbindet dabei wesentliche Aspekte der handwerklichen und industriellen Herangehensweise (Nähe/Distanz, Sichtbarkeit/Unsichtbarkeit) und vereint sie durch die Umformung von Inhalten in Parameter zu »organisierten Komplexen«, wie Weaver sie nennt,126 die eine jeweils eigene Struktur aufweisen und entsprechend eine im Vergleich zum (komplexen) Ausgangszustand bessere (einfachere) Handhabbarkeit auf sich vereinen. So bildet sich im Umgang mit Parametern einerseits

120 Vgl. dazu auch die Ausführungen Bürdeks in Bezug auf die Einführung der Mikroelektronik in den 1980er-Jahren, in denen er darlegt, dass der Designer in der Gestaltung technischer Produkte der »Komplexitätserhöhung« durch dessen Reduzierung entgegenwirken müsse, um sie wieder benutzbar zu machen. Bürdek (2015: 250). 121 Wie McKay es in seiner Definition anführt: »A machine may be defined as an assemblage of resistant bodies whose relative motions are successfully constrained so that some form of natural energy may be modified or transmitted to do some special kind of work.« McKay (1915: 2). 122 Vgl. dazu weiter oben Kapitel 4.3 ›Sichtbarkeit und Unsichtbarkeit‹. 123 Norbert Bolz spricht in diesem Zusammenhang von »funktionelle[r] Einfachheit bei struktureller Komplexität – also leicht zu bedienen, aber schwer zu verstehen« Bolz (2000: 14). 124 Anders als im Handwerk, innerhalb welchem die körperlichen Fertigkeiten eine Notwendigkeit darstellen, ein qualitativ ähnliches/gleichwertiges Ergebnis herzustellen. 125 Wie Felicidad Romero-Tejedor bemerkt, müssen »Artefakte, die von Menschen benutzt werden, […] in ihrer Handlungskomplexität reduziert werden. […] Sonst begäbe sich die Gesellschaft endgültig in die Sklaverei bloß behavioristischer Kommunikationsstrategien, die das Verhalten jedes einzelnen dressieren.« Romero-Tejedor (2007: 25). Kurz gesagt: Erst wenn die technischen Geräte menschlich (und nicht technisch) gedacht sind, entsteht verantwortungsvolles Design. Komplexität muss sich darin nicht zwangsläufig auflösen, sondern nur eine neue Ebene der einfachen Handhabbarkeit und Sinnhaftigkeit etablieren. 126 Vgl. Weaver (1948: 5ff).

4. Industrie und Parametrie

eine Ebene der technischen Autonomie heraus – wie es auch in industriellen Produktionsweisen der Fall ist und umso deutlicher, etwa wenn Algorithmen in die Prozesse Einzug erhalten –, andererseits und darüber hinaus bleiben diese über den ganzen Prozess hinweg vom Gestalter anpassbar und die unmittelbare Nähe zum Entwurfsgegenstand – wie im handwerklichen Prozess – dadurch erhalten. Der Gestalter arbeitet demnach auf mehreren Ebenen, die insgesamt nicht mehr in ein singuläres Ergebnis, sondern vielmehr in einen Prozess hineinwirken, der reversibel ist und dadurch fortwährend veränderbar bleibt. Anschaulich wird es etwa am Beispiel von digitalem Code, der Komplexität in seiner spezifischen Form erfahrbar, beschreibbar und damit auch manipulierbar macht.127 Dabei geht Code von simplen Regeln und Anweisungen aus, die in Form von Algorithmen notiert werden.128 Solch simple Regeln und Anweisungen können dabei zu komplexen Ergebnissen führen, etwa wenn sie eine zeitliche Dimension miteinbeziehen und mitunter pro Schritt/Frame eine Veränderung der Serie herbeiführen.129 Wird etwa ein beliebiger Querschnitt entlang einer Achse in festgelegten Abständen um einen bestimmten Wert gedreht, bildet sich eine Form der Serie aus, die einen (komplexen) Übergang beschreibt; ein Stadium, in welchem nicht das Einzelne, sondern gerade das Dazwischen von Bedeutung und Interesse ist. Formen können durch derartige Anweisungen interpoliert werden; d.h. für den Gestalter, nicht etwa vom Ergebnis auszugehen, sondern vom Weg und Prozess, der dieses Ergebnis erzeugt. Es wird demnach nicht das Ergebnis modelliert, sondern die Funktion, die den Prozess beschreibbar macht.130 Durch strukturgebende Funktionen, Regeln und Anweisungen sind Gestalter entsprechend in der Lage, Komplexität über Formen der Einfachheit zu beschreiben, und diese ebenso (rückwirkend) zu verändern. Der Vorteil parametrischer Entwurfsverfahren ist dementsprechend in der Beschaffenheit der Parameter und der 127

Vgl. dazu Simon (1968/1994: 167ff). Ähnlich formuliert es auch der frühe Pionier der generativen Computergrafik Georg Nees in Bezug auf den Computer im Zusammenhang mit digitaler Gestaltung: »Man hat den Computer als Komplexitätsfernrohr bezeichnet, weil er vorher unzugängliche Komplexität überhaupt erst auflösen, dann allerdings sogar manipulieren konnte.« Nees (1969: 25). 128 Wie Walliser und Schroth es in diesem Zusammenhang formulieren: »Die Logik des Prozesses dominiert über den Aufbau der Form – Komplexität entsteht durch Anwendung einfacher Regeln.« Walliser; Schroth (2014: 12). Tedeschi vergleicht einen Algorithmus mit einem Rezept, in welchem zunächst die Zutaten aufgerufen werden müssen, bevor sie in einer entsprechenden Handlungsabfolge festgelegt und zubereitet werden. Vgl. Tedeschi (2014: 22), ebenso Lenzen (2018: 42). Nassehi verweist weiter auf den Grundsatz, dass die (komplexe) Wirksamkeit von technischen Prozessketten auf der technischen Einfachheit der kleinsten Bestandteile, der Daten, aufbaut: »Die Einfachheit der Daten ist der Schlüssel für ihre Wirksamkeit. Ihre Einfalt ist der Boden ihrer Vielfalt. […] Sie sind nicht nur in ihrer Struktur sehr simpel gebaut, […] sondern können auch technisch sehr einfach realisiert werden. Genau genommen sind die sehr komplexen Computermaschinen unserer Zeit gerade deswegen so komplex […], weil die technische Realisierung selbst nur wenig voraussetzungsreich ist und auf relativ freier Kombinierbarkeit beruht.« Nassehi (2019: 153). Komplexität ergibt sich (als Resultat) entsprechend aus der reibungslosen Kombination einfachster Bestandteile auf kleinster (atomarer) Ebene. 129 Erste Beispiele derartiger analytischer Aufzeichnungen stellen die Bewegungsstudien E.J. Mareys um 1890 dar, wie etwa die grafische Aufzeichnung eines Möwenfluges, der aus einer Serie aneinandergereihter Querschnitte besteht, die ineinander überzugehen scheinen. Vgl. dazu Giedion (1987: 35ff). Dabei gleichen die Darstellungen stark denjenigen, wie sie in gegenwärtigen CADProgrammen, etwa Adobe Illustrator, angeboten werden. 130 Vgl. Woodbury (2010: 2).

75

76

Prozess als Gestalt

parametrischen Funktionen selbst zu suchen, die bei gleichbleibender Struktur serielle Abweichungen erzeugen. Entsprechend ist nicht von starren Formen der Repetition, sondern von dynamischen Formen der Variation zu sprechen, ebendann, wenn aus der Funktionsgleichung nicht Gleichförmigkeit, sondern Verschiedenartigkeit entsteht. Gerade jene prozessualen, dynamischen und relationalen Eigenarten sind es, die disziplinübergreifend als mitunter charakteristischste Merkmale eines parametrischen Entwerfens gelten.131

4.8

Reproduktion und Variation

Die Begriffe der Reproduktion und Variation stehen im engen Verhältnis zu Prozessen des Entwerfens und Herstellens selbst. Ein Produkt wird erdacht, geplant, artikuliert, variiert und letztendlich produziert – Prozesse der Wiederholung paaren sich mit Sequenzen der Abweichung in zumeist unvorhersehbarer Gewichtung.132 In handwerklicher als auch industrieller Betrachtung der Phänomene unterscheiden sich die Sphären nicht etwa in ihrer grundlegenden dialektischen Struktur, sondern lediglich in ihrer Fokusausrichtung: Das Handwerk versteht sich auf eine manuell-körperliche Planungsund Fertigungsweise, welche durch tradiertes Erfahrungswissen geprägt und aufrechterhalten wird. Sowohl die Erscheinung als auch die Qualität der Produkte bemessen sich an der Virtuosität und Originalität des einzelnen Handwerkers,133 der nicht etwa starre Gleichförmigkeit, sondern ausschließlich Einzigartigkeit (Unikate) hervorbringt: Kein Holz gleicht dem anderen, keine Bewegung der Hand ist exakt reproduzierbar.134 Momente und Handlungspraktiken der Variation sind grundgegebene und unumgängliche Bestandteile des handwerklichen Prozesses. Entsprechend impliziert das Handwerk die fortwährend gegebene Möglichkeit zur individuellen Anpassung des Einzelnen

131 132

133

134

Vgl. Jabi (2013); Davis (2013a); Sakamoto; Ferré (2008); Schumacher (2009); Schumacher (2013); Tedeschi (2014); Woodbury (2010). Vgl. dazu in weitestgehender Übereinstimmung die Prozessdarstellungen bei Archer (1968); Schön (1990); Uhlmann (2005); Aspelund (2006); Lawson (2006); Schaffrinna (2014); Bürdek (2015); Heufler (2016). Vgl. zum Begriff der Virtuosität sowohl Schubert (1986: 18), der daran die Entwicklung des Handwerkerkünstlers nachvollzieht, als auch Rheinberger (2007), der den Begriff innerhalb der experimentellen naturwissenschaftlichen Forschung diskutiert. Bonsiepe; Maldonado (1964) verorten das Virtuose als ritualisierte Bewegung der Geschicklichkeit, die sich in äußerlichen Attributen offenbart und verwirklicht. Den Begriff der Originalität benennt Trebeß als »die individuelle Kreativität des Künstlers bzw. die Neuartigkeit seines Werks. […]«. Trebeß (2006: 286). In ähnlicher Hinsicht umschreiben es auch Sennett (2014: 98) sowie Cross (2007: 65ff). Siegfried Giedion stellt in diesem Zusammenhang vor allem die Flexibilität der Hand als charakteristisches Merkmal heraus. Vgl. Giedion (1987: 69). Weiter führt er aus, »daß die Hand nicht darauf eingestellt ist, Tätigkeiten mathematisch präzis und ohne Unterbrechung auszuführen. Jede Handlung beruht auf einem Befehl, den das Gehirn stets wiederholen muß, und es widerspricht dem Organischen, das Wachstum und Veränderung einschließt, sich der Automatisierung zu unterwerfen.« Ebd.: 70. Vgl. in Bezug auf die Entwurfszeichnung auch Huber (1996: 16).

76

Prozess als Gestalt

parametrischen Funktionen selbst zu suchen, die bei gleichbleibender Struktur serielle Abweichungen erzeugen. Entsprechend ist nicht von starren Formen der Repetition, sondern von dynamischen Formen der Variation zu sprechen, ebendann, wenn aus der Funktionsgleichung nicht Gleichförmigkeit, sondern Verschiedenartigkeit entsteht. Gerade jene prozessualen, dynamischen und relationalen Eigenarten sind es, die disziplinübergreifend als mitunter charakteristischste Merkmale eines parametrischen Entwerfens gelten.131

4.8

Reproduktion und Variation

Die Begriffe der Reproduktion und Variation stehen im engen Verhältnis zu Prozessen des Entwerfens und Herstellens selbst. Ein Produkt wird erdacht, geplant, artikuliert, variiert und letztendlich produziert – Prozesse der Wiederholung paaren sich mit Sequenzen der Abweichung in zumeist unvorhersehbarer Gewichtung.132 In handwerklicher als auch industrieller Betrachtung der Phänomene unterscheiden sich die Sphären nicht etwa in ihrer grundlegenden dialektischen Struktur, sondern lediglich in ihrer Fokusausrichtung: Das Handwerk versteht sich auf eine manuell-körperliche Planungsund Fertigungsweise, welche durch tradiertes Erfahrungswissen geprägt und aufrechterhalten wird. Sowohl die Erscheinung als auch die Qualität der Produkte bemessen sich an der Virtuosität und Originalität des einzelnen Handwerkers,133 der nicht etwa starre Gleichförmigkeit, sondern ausschließlich Einzigartigkeit (Unikate) hervorbringt: Kein Holz gleicht dem anderen, keine Bewegung der Hand ist exakt reproduzierbar.134 Momente und Handlungspraktiken der Variation sind grundgegebene und unumgängliche Bestandteile des handwerklichen Prozesses. Entsprechend impliziert das Handwerk die fortwährend gegebene Möglichkeit zur individuellen Anpassung des Einzelnen

131 132

133

134

Vgl. Jabi (2013); Davis (2013a); Sakamoto; Ferré (2008); Schumacher (2009); Schumacher (2013); Tedeschi (2014); Woodbury (2010). Vgl. dazu in weitestgehender Übereinstimmung die Prozessdarstellungen bei Archer (1968); Schön (1990); Uhlmann (2005); Aspelund (2006); Lawson (2006); Schaffrinna (2014); Bürdek (2015); Heufler (2016). Vgl. zum Begriff der Virtuosität sowohl Schubert (1986: 18), der daran die Entwicklung des Handwerkerkünstlers nachvollzieht, als auch Rheinberger (2007), der den Begriff innerhalb der experimentellen naturwissenschaftlichen Forschung diskutiert. Bonsiepe; Maldonado (1964) verorten das Virtuose als ritualisierte Bewegung der Geschicklichkeit, die sich in äußerlichen Attributen offenbart und verwirklicht. Den Begriff der Originalität benennt Trebeß als »die individuelle Kreativität des Künstlers bzw. die Neuartigkeit seines Werks. […]«. Trebeß (2006: 286). In ähnlicher Hinsicht umschreiben es auch Sennett (2014: 98) sowie Cross (2007: 65ff). Siegfried Giedion stellt in diesem Zusammenhang vor allem die Flexibilität der Hand als charakteristisches Merkmal heraus. Vgl. Giedion (1987: 69). Weiter führt er aus, »daß die Hand nicht darauf eingestellt ist, Tätigkeiten mathematisch präzis und ohne Unterbrechung auszuführen. Jede Handlung beruht auf einem Befehl, den das Gehirn stets wiederholen muß, und es widerspricht dem Organischen, das Wachstum und Veränderung einschließt, sich der Automatisierung zu unterwerfen.« Ebd.: 70. Vgl. in Bezug auf die Entwurfszeichnung auch Huber (1996: 16).

4. Industrie und Parametrie

(Variation), während eine exakte Gleichförmigkeit der Serie (Reproduktion) nur näherungsweise zu erreichen ist.135 Industrielle Produktionsweisen drehen diese Gewichtung nun um: Sie vollziehen sich nunmehr in präzisen, messbaren, jedoch mitunter starren Produktionsformen und unterliegen von vorneherein unumgänglichen mechanischen Restriktionen. Dabei ist – als Konsequenz der Serienproduktion – das Paradigma der Planung vorherrschend,136 durch welches eine Veränderung des Entwurfs im Nachhinein annähernd ausgeschlossen wird,137 nicht zuletzt, weil sowohl der Herstellungsaufwand als auch die Kosten für massenindustrielle Werkzeuge und Maschinen mitunter enorm und Änderungen im Nachhinein damit oftmals unverhältnismäßig sind.138 Der Prozess wird demnach einmal auf Dauer gestellt, sodass nicht mehr in die Tiefe, sondern vorwiegend in die Breite, d.h. für eine Masse, produziert wird. Die Produktionswerkzeuge replizieren demnach exakte Kopien des Gleichen, ohne abweichende Variation zuzulassen.139 Dies birgt einerseits den Vorteil einer massenhaften Verbreitung eines gewissen Qualitätsanspruchs – eben weil industrielle Produktionsvorgänge ein hohes Maß präziser Planung und Messbarkeit voraussetzen,140 andererseits jedoch den Nachteil einer annähernden Unveränderbarkeit der Mittel und Werkzeuge, die am Prozess beteiligt sind. Der mechanische, industrielle Prozess versteht sich entsprechend auf eine strenge Linearität, die kaum Abweichungen der Ergebnisse zulässt und alle Anstrengungen zur Planung und Etablierung von Prozessen in einem ›vollkommenen‹ Resultat zusam-

135

Vgl. dazu Carpo (2012: 18), welcher der Reproduktion im Handwerk allenfalls eine Ähnlichkeit einräumt, während »wahrheitsgetreue Nachbildung und absolute Identikalität« die Ausnahme darstellten. 136 Die Notwendigkeit der Planung in der entwerferischen Tätigkeit benannte bereits Vitruv, der auch eine rationalistische und ökonomische Dimension in die Entwurfsplanung miteinbezog. S. dazu Vitruv; Fensterbusch (1964/1991: 1. Buch, Kap. 2). Vgl. dazu auch Amt (2009: 14) sowie Fischer (2009: 171). 137 »Die Produkte der Industrie unterscheiden sich insofern wesentlich von den Eigenproduktionen des Handwerks, als dass an den Produkten selbst keine Differenzen mehr vorkommen können. Die Form kann im Produktionsvorgang nicht mehr angepasst werden.« Frye (2017: 45). 138 »Industrielle Massenproduktion war früher von mechanisch gefertigten Matrizen, Prototypen oder Abgüssen abhängig, deren Herstellungskosten durch möglichst häufigen Gebrauch amortisiert werden mussten.« Carpo (2012: 59). 139 »Maschinen antworten nicht, sie wiederholen sich nur.« van den Boom (2011: 33). Ausnahmen bestehen in der modularen Aufbereitung der Produktionswerkzeuge, etwa wenn Platzhalter in Spritzgusswerkzeugen verbaut werden, um etwa ein späteres, individuelles Branding für verschiedene Kunden zuzulassen, wie es an sog. OEM- oder Whitelabel-Produkten anschaulich wird. Ebenso bieten etwa Plattform-Bauweisen diverser Autohersteller Hybrid-Lösungen an, die eine modulare Austauschbarkeit der Teile ermöglichen und somit Variation innerhalb der restriktiven Bedingungen ansatzweise möglich machen. Eine Übersicht der Verfahren findet sich bei Schmid (2006). 140 »Was nicht abgebildet werden kann, kann nicht übermittelt werden, und was weder abgebildet noch übermittelt werden kann, kann auch nicht nachgebaut werden.« Carpo (2012: 27).

77

78

Prozess als Gestalt

menlaufen lässt.141 Die Perfektion industrieller Gleichförmigkeit fordert den Preis von handwerklicher Vielfalt und Flexibilität.142 Während Formen manuell-handwerklicher Virtuosität (Variation) und technischindustrieller Exaktheit (Reproduktion) in solcher Betrachtung weitestgehend unvereinbar erscheinen, laufen sie in der parametrischen Herangehensweise zusammen, in Form eines gestalterischen Spielraums: Ein solcher versteht sich dabei als konsistentes Bezugsfeld aus rahmenden Bedingungen einerseits und dem losgelösten Spiel mit den zur Verfügung stehenden Variablen andererseits. Neben digitalen CAD-Programmen, die mittels Bedienelementen wie Slidern und visuellen Näherungseingaben annähernd fließende Veränderungen ermöglichen,143 wird dies weitaus früher bereits an den physischen Formfindungsmodellen Antoni Gaudís und Frei Ottos anschaulich,144 die mitunter als prototypische Exemplare resp. Vertreter eines ›parametrischen Designs‹ gelten.145 Während Gaudís Hängemodelle aus an Schnüren oder Ketten hängenden variablen Gewichten bestanden, wodurch sich mittels der einwirkenden Schwerkraft kurvenstetige, bogenförmige Konturen ergaben,146 experimentierte Otto u.a. mit modularen und veränderlichen Drahtmodellen, die er in Seifenlauge tauchte, wodurch sich dünne Laugenmembranen als dreidimensionale Flächentopologien über die Maßstabskonstruktionen spannten.147 Gemäß der Modellaufbauten konnten Entwürfe innerhalb eines dynamischen Systems unmittelbar visualisiert, evaluiert und verändert werden, da die assoziative Veränderung bereits in der Modellstruktur mit angelegt war: Veränderten sich die Parameter (Gewicht, Position etc.), änderte sich die Flächentopologie gleich mit. Variation wurde in Gaudís und Ottos Modellen als dynamischer Bestandteil des reproduktiven Prozesses gedacht und nicht etwa als starre oder fehlerhafte Abweichung davon. Was in der analogen/materiellen Sphäre bewusst als System aus Relationen entworfen werden muss, offenbart sich im Digitalen als prozessimmanente Selbstverständlichkeit: »Denn alles was digital ist, ist variabel und läuft der Idee der Standardisierung, der Indexikalität und der serialisierten Massenproduktion entgegen«, wie Carpo es darstellt.148 Was digital, d.h. in der binären Logik von 0 und 1, abbildbar ist, ist nicht nur exakt messbar, sondern ebenso fortwährend veränderbar. Dabei werden digitale Medien im Zusammenspiel mit zeitgenössischen Transfertechnologien, etwa jener der additiven Fertigung,149 selbst zur Plattform der Ausführung, wenn Varianten nunmehr einfa-

141 142 143 144 145 146 147 148 149

Wie Huber es formuliert: »Das mechanische Werkzeug ist einfältig und sein Produkt vollkommen.« Huber (1996: 16). »Je größer jedoch die technische Perfektion, desto geringer die Vielfalt«, wie Braun-Feldweg es einst proklamierte. Braun-Feldweg (1966: 124). So etwa bei Softwareprodukten wie der Adobe Suite, Rhinoceros Grasshopper, Cinema4D, 3ds Max, Blender uvm. S. zum Begriff der Formfindung auch Anm. 11 in Kapitel 2 ›Parametrie – Begriff und Entwicklung‹. Vgl. Schumacher (2016: 13); Burry (2016: 34); Davis (2013b); Tedeschi (2014: 18ff). Vgl. Tomlow (1989); Alves; Makert (2016). Vgl. Vrachliotis; Kleinmanns; Kunz; Kurz; Otto (2016); Liptau (2015). Carpo (2012: 11). Vgl. dazu auch die Ausführungen Greg Lynns zu serieller Differenz und Repetition, der diese in Zusammenhang mit digitaler Formgebung anführt. Vgl. Lynn (1999: 33ff). Vgl. Berger; Hartmann; Schmid (2013).

4. Industrie und Parametrie

cher, schneller und kostengünstiger erzeugt und unmittelbar physisch hergestellt werden können, als es sowohl in manuell-handwerklichen als auch in mechanisch-industriellen Prozessen noch der Fall war. In der digitalen gestalterischen Gegenwart rückt das entwerferische Planen nun beinahe untrennbar nahe an das ausführende Produzieren heran; als Form der gestalterischen Variation innerhalb physischer Reproduktionen, weshalb Carpo diesen Umstand auch als die »Schließung der Lücke zwischen Entwurf und Produktion« bezeichnet.150 In dieser Hinsicht ist Variation kein technisch bedingter Kostenfaktor mehr,151 sondern vor allem menschlicher Gestaltungsfaktor, der umso deutlicher in den Vordergrund rückt, je weiter die technisch autonomen, hochauflösenden Prozesse im Hintergrund verschwinden. Parametrie versteht sich entsprechend als das Bindeglied, das zwischen der exakten Messbarkeit industrieller Reproduzierbarkeit und der handwerklichen Virtuosität im Sinne individueller Variation vermittelt, indem die jeweiligen Parameter nie endgültig determiniert sind, sondern über den gesamten Prozess hinweg fortwährend verhandelbar bleiben – als Veränderung, die im Entwurf immer schon mit angelegt ist.

4.9

Standardisierung und Presets

Eine der evidentesten Folgen industrieller Reproduktion ist die Gleichschaltung der Prozesse einerseits und jene der Produkte andererseits. Galten im Handwerk noch weitestgehend lose Bedingungen der freiförmigen Handarbeit, stellten industrielle Prozesse die notwendigen Abfolgen und Handlungen der Teilschritte auf Dauer. Es etablierten sich feste Formen der Produktion mitsamt neuen Maßstäben der Quantität und Qualität, mit dem Ziel, Produkte nicht zuletzt zeiteffizienter und entsprechend ökonomi150 Carpo (2012: 50). In ähnlicher Hinsicht sprechen van den Boom und Romero-Tejedor mit Hinsicht auf die Gestaltung digitaler Produkte und deren Reversibilität auch vom »Test im Entwurf«. van den Boom; Romero-Tejedor (2017: 12). Georg Trogemann kritisiert in diesem Zusammenhang das verstärkte Aufkommen digitaler Industrien, die Formen parametrischer Variation als rein ökonomisches Instrument nutzbar machen: »Heute programmieren wir Maschinen, damit sie massenhaft die wertlos gewordenen Dinge auswerfen. Wir entwerfen neue Dinge am Computer und entwickeln Steuerungssoftware, die es erlaubt, die Produkte in zahllosen Varianten herzustellen. Kaum ein Auto gleicht exakt dem anderen, keine IKEA-Küche der des Nachbarn. Programmierte Schein-Individualität ist eines der Kennzeichen digitaler Industrien.« Trogemann (2010: 15). Trogemann drängt damit auf die Einsicht, dass nicht nur etwa die technisch-parametrische Hervorbringung von Varianten, sondern auch und vor allem der sinnvolle Umgang damit starke Berücksichtigung erfordert, wie es weiter unten noch ausführlicher diskutiert werden soll. Vgl. dazu auch Kapitel 8 ›Prozess, Gestalt und Parametrie‹. 151 Carpo umschreibt diesen Umstand mit dem Ausdruck der nicht-standardisierten Serialität: »In ihrer einfachsten Formulierung besagt die Theorie nicht-standardisierter Serialität, dass in digitalen Produktionsprozessen Kostenersparnisse durch Massenproduktion keine Relevanz haben: Jeder Gegenstand in einer digital produzierten Serie ist ein Einzelstück. Industrielle Massenproduktion war früher von mechanisch gefertigten Matrizen, Prototypen oder Abgüssen abhängig, deren Herstellungskosten durch möglichst häufigen Gebrauch amortisiert werden mussten. Da es keine mechanischen Matrizen mehr gibt, können bei der digitalen Produktion Variationen ohne zusätzliche Kosten produziert werden, was soviel heißt, dass sich die Standardisierung von Produkten heute ökonomisch nicht mehr begründen lässt, […]. Bei der digitalen Produktion ist Standardisierung kein Sparfaktor, entsprechend auch Individualisierung kein Kostenfaktor mehr.« Carpo (2012: 59).

79

4. Industrie und Parametrie

cher, schneller und kostengünstiger erzeugt und unmittelbar physisch hergestellt werden können, als es sowohl in manuell-handwerklichen als auch in mechanisch-industriellen Prozessen noch der Fall war. In der digitalen gestalterischen Gegenwart rückt das entwerferische Planen nun beinahe untrennbar nahe an das ausführende Produzieren heran; als Form der gestalterischen Variation innerhalb physischer Reproduktionen, weshalb Carpo diesen Umstand auch als die »Schließung der Lücke zwischen Entwurf und Produktion« bezeichnet.150 In dieser Hinsicht ist Variation kein technisch bedingter Kostenfaktor mehr,151 sondern vor allem menschlicher Gestaltungsfaktor, der umso deutlicher in den Vordergrund rückt, je weiter die technisch autonomen, hochauflösenden Prozesse im Hintergrund verschwinden. Parametrie versteht sich entsprechend als das Bindeglied, das zwischen der exakten Messbarkeit industrieller Reproduzierbarkeit und der handwerklichen Virtuosität im Sinne individueller Variation vermittelt, indem die jeweiligen Parameter nie endgültig determiniert sind, sondern über den gesamten Prozess hinweg fortwährend verhandelbar bleiben – als Veränderung, die im Entwurf immer schon mit angelegt ist.

4.9

Standardisierung und Presets

Eine der evidentesten Folgen industrieller Reproduktion ist die Gleichschaltung der Prozesse einerseits und jene der Produkte andererseits. Galten im Handwerk noch weitestgehend lose Bedingungen der freiförmigen Handarbeit, stellten industrielle Prozesse die notwendigen Abfolgen und Handlungen der Teilschritte auf Dauer. Es etablierten sich feste Formen der Produktion mitsamt neuen Maßstäben der Quantität und Qualität, mit dem Ziel, Produkte nicht zuletzt zeiteffizienter und entsprechend ökonomi150 Carpo (2012: 50). In ähnlicher Hinsicht sprechen van den Boom und Romero-Tejedor mit Hinsicht auf die Gestaltung digitaler Produkte und deren Reversibilität auch vom »Test im Entwurf«. van den Boom; Romero-Tejedor (2017: 12). Georg Trogemann kritisiert in diesem Zusammenhang das verstärkte Aufkommen digitaler Industrien, die Formen parametrischer Variation als rein ökonomisches Instrument nutzbar machen: »Heute programmieren wir Maschinen, damit sie massenhaft die wertlos gewordenen Dinge auswerfen. Wir entwerfen neue Dinge am Computer und entwickeln Steuerungssoftware, die es erlaubt, die Produkte in zahllosen Varianten herzustellen. Kaum ein Auto gleicht exakt dem anderen, keine IKEA-Küche der des Nachbarn. Programmierte Schein-Individualität ist eines der Kennzeichen digitaler Industrien.« Trogemann (2010: 15). Trogemann drängt damit auf die Einsicht, dass nicht nur etwa die technisch-parametrische Hervorbringung von Varianten, sondern auch und vor allem der sinnvolle Umgang damit starke Berücksichtigung erfordert, wie es weiter unten noch ausführlicher diskutiert werden soll. Vgl. dazu auch Kapitel 8 ›Prozess, Gestalt und Parametrie‹. 151 Carpo umschreibt diesen Umstand mit dem Ausdruck der nicht-standardisierten Serialität: »In ihrer einfachsten Formulierung besagt die Theorie nicht-standardisierter Serialität, dass in digitalen Produktionsprozessen Kostenersparnisse durch Massenproduktion keine Relevanz haben: Jeder Gegenstand in einer digital produzierten Serie ist ein Einzelstück. Industrielle Massenproduktion war früher von mechanisch gefertigten Matrizen, Prototypen oder Abgüssen abhängig, deren Herstellungskosten durch möglichst häufigen Gebrauch amortisiert werden mussten. Da es keine mechanischen Matrizen mehr gibt, können bei der digitalen Produktion Variationen ohne zusätzliche Kosten produziert werden, was soviel heißt, dass sich die Standardisierung von Produkten heute ökonomisch nicht mehr begründen lässt, […]. Bei der digitalen Produktion ist Standardisierung kein Sparfaktor, entsprechend auch Individualisierung kein Kostenfaktor mehr.« Carpo (2012: 59).

79

80

Prozess als Gestalt

scher herstellen zu können.152 Ein industriell formulierter Standard überspringt dabei die mühsame Arbeit, ein technisches Artefakt stets von Grund auf neu erarbeiten zu müssen. So wurden etwa Hämmer, Äxte oder Sägen zur Mitte des 19. Jahrhunderts nur noch bedingt von menschlicher Hand, sondern vor allem durch technische Matrizen hergestellt, d.h. durch mechanisierte Vorgänge des Pressens, Stanzen und Gießens.153 Dadurch verfestigten sich mehr und mehr normierte Größen, Formen und Beschaffenheiten verschiedenster technischer Geräte und Komponenten, die als Standard in ihrem Bezugsfeld ein bestimmtes Qualitäts- und Leistungsniveau verkörperten, an dem es sich fortwährend auszurichten galt.154 Standards erfuhren dabei nicht nur eine physische Fassbarkeit auf Seiten der ökonomisch-rationalen Produktion, sondern ebenso auch eine visuelle Anschaulichkeit auf Seiten der gestalterischen Planung, wodurch sich gleichsam ein ästhetischer Anspruch an technische Artefakte manifestieren ließ. Anschaulich wird dies etwa anhand von zeitgenössischen Musterbüchern, wie sie etwa durch Beuth und Schinkel als ›Vorbilder für Fabrikanten und Handwerker‹ zwischen 1821 und 1837 veröffentlicht wurden.155 Sie stellten – vorrangig für die Felder der Architektur, der Gebrauchsgüter und der Textilfertigung – weniger die produktionsseitigen Bedingungen, als vielmehr eine gestalterisch-ästhetische Orientierung dar, die es für die Fertigung im industriellen Maßstab zu berücksichtigen gälte. Schinkel und Beuth entwickelten in »geschmackserzieherischer Absicht« eine »ästhetische Basis« der Anfänge industrieller Massenproduktionen.156 Mit den neuen Produktionsstandards auf technischer Seite ging ebenso eine Standardisierung ästhetischer Vorbilder einher; ein »Versuch zur Verallgemeinerung ästhetischer Prinzipien«, wie Selle es beschreibt.157 Der Gleichschaltung auf technisch-funktionaler Ebene folgte der Versuch einer Gleichschaltung auf formalästhetischer Ebene, aus der Notwendigkeit, den »Arbeiten, neben der technischen Vollendung, die höchste Vollkommenheit der Form zu geben«, wie Beuth es im Vorwort zu ›Vorbilder für Fabrikanten und Handwerker‹ postulierte.158 Jene Vorbilder sollten entsprechend den Übergang von manuell-handwerklichen zu mechanisch-autonomen Produktionsweisen anleiten, in dem sie bestimmte gestalterische Prinzipien auf Dauer stellten und damit eine Grundlage bildeten, auf denen Handwerker und Fabrikanten aufbauen konnten. In Bezug auf Parametrie greifen die Musterbücher Schinkels und Beuths einer gestalterischen Herangehensweise vor, die sich auf die Nutzung voreingestellter Funktionseinheiten und Schemata versteht – auf die praktische Arbeit mit Presets. Ein Preset ist im Allgemeinen zunächst pragmatisch zu bestimmen; als ein Vor-Gesetztes bzw. ein Vor-Eingestelltes.159 Als solches fasst es Inhalte zu abgeschlossenen Funktionseinheiten 152 153 154 155 156 157 158 159

Vgl. Schmid (2006: 10); Read (1958: 39). Vgl. Giedion (1987: 71ff). Vgl. dazu die Definition des Dudens: »[Standard:] im allgemeinen Qualitäts- u. Leistungsniveau erreichte Höhe.« Duden (2007), Standard. Vgl. Selle (2007: 38); Kiefer (2004: 78ff). Selle (2007: 38, 40). Ebd.: 40. Beuth zitiert nach Kiefer (2004: 80). Vgl. dazu auch Janecke (2011: 20).

4. Industrie und Parametrie

zusammen, die eine unmittelbare Weiterverarbeitung möglich machen. Der Umgang mit Presets versteht sich entsprechend weniger auf die Herstellung der technischen Struktur im Einzelnen, sondern auf die sinnvolle Verwertung derselben im Ganzen.160 Es überspringt somit den Schritt der (wiederholten) Aufbereitung von Inhalten und macht sie direkt für die jeweiligen Zwecke nutzbar. Dabei kompensieren Presets mitunter fehlendes handwerkliches Können oder fachliches Wissen über technische Gegebenheiten, indem sie bereitstellen, was nicht zwangsläufig verstanden, sondern was es lediglich anzuwenden und ggf. leicht abzuwandeln gilt.161 Mit Hinblick auf die parametrische Diskussion lässt sich der Begriff der Presets hinsichtlich zweier Dimensionen näher spezifizieren: einerseits eine der modularen und formalen Struktur auf Seiten der Technik, andererseits eine der gestalterisch-ästhetischen Bedeutung auf Seiten der Darstellung. Die technische-modulare Struktur des Presets versteht sich zunächst auf seine Auswechselbarkeit als Funktionseinheit. Wie Giedion es etwa in seinen Ausführungen zur Geschichte der Mechanisierung beschreibt, hing mit der Standardisierung der Produktion auch die Notwendigkeit einer Austauschbarkeit der Teile zusammen.162 Er stellt heraus, dass der Vorteil der Auswechselbarkeit mitunter darin bestand, Wartungen ohne geschulte Arbeitskräfte vornehmen zu können,163 da die Einzelteile nun nicht mehr ausschließlich ihrer technischen Funktion nach entworfen wurden, sondern gleichsam den Zweck des einfachen Austauschs zum Ziel hatten. Das Beispiel der ›Kreissäge mit auswechselbaren Zähnen‹ macht diese Entwicklung anschaulich, indem nicht mehr das ganze Sägeblatt, sondern lediglich die defekten bzw. abgenutzten Zähne ausgetauscht werden mussten, wodurch vor allem die Wartungskosten klein gehalten werden konnten.164 Das Preset trennt demnach auf technischer Ebene Inhalte und Prozesse in handhabbare Bestandteile auf und ordnet sie für den jeweiligen Prozess neu an. Es operiert in Formen technischer Modularität, die es ermöglicht, flexibel auf neue Anforderungen und Problemstellungen des Prozesses zu reagieren. Einem Vor-gesetzten ist entsprechend ein Ein-zusetzendes zuzuordnen (der Sägeblatt-Fassung der Sägeblatt-Zahn) – beide Komponenten fungieren dabei als Module, die aufeinander abgestimmt sind und sich im Bedarfsfall ergänzen.

160 Presets, d.h. vorkonfigurierte Funktionseinheiten, sind dabei kein Phänomen der digitalen Neuzeit, sondern vielmehr ein solches, das sich innerhalb der menschlichen Entwicklungsgeschichte als Form eines rationalisierten Umgangs mit Technik permanent neu erfand. So lassen sich Presets etwa in der modularisierten Planung und der Rationalisierung der Fertigungsprozesse ab der späthellenistischen Zeit verstärkt feststellen, beispielsweise an Tempelbauten, dessen Säulenkomponenten dezentral gefertigt wurden oder anhand von Plastiken, dessen Proportionen durch das sog. Punktierverfahren übertragen wurden, wodurch sie als typisierte Vorlagen der massenhaften Fertigung – nicht zuletzt von Herrscherbildnissen – dienten. Vgl. dazu Lamprecht (1985: 184); Nolte (2006: 144ff, 292). 161 Wie Janecke es etwa am Beispiel der Musik darstellt: »Durch den Einsatz mehrerer solcher Presets vermag ein Musiker heute im Handumdrehen passable Rhythmen oder klangliche Effekte zu erzielen, ohne dass er über größeres handwerkliches oder musikalisches Können verfügen müsste.« Janecke (2011: 20). 162 Giedion (1987: 72). 163 Vgl. Ebd.: 73. 164 Vgl. Ebd.: 71, Abb. 24.

81

82

Prozess als Gestalt

Im Zusammenhang mit Parametrie versteht sich jene technisch-modulare Dimension des Presets als wesentliches Kennzeichen parametrischer Arbeitsweisen, indem es multiple Merkmale, Inhalte und Konfigurationen in sich vereint, sie auf Dauer stellt und für eine darauf aufbauende Nutzung zugänglich macht. Im Analogen kann es sich dabei etwa um Baugruppen bestimmter Produkte, um Werkzeuge oder physische (Vor-) Modelle etc. handeln; 165 im Digitalen etwa um algorithmische Funktionseinheiten, Softwareeinstellungen oder Modellierumgebungen.166 Sie dienen einerseits dazu, einen schnelleren resp. effizienteren Arbeitsprozess einzurichten, während sie andererseits eine Anschlussfähigkeit für individuelle Veränderungen sicherstellen. Das Presets gewährleistet entsprechend einen technisch-formalen Grundaufbau, der reibungslos funktioniert, sodass damit menschlich-sinnvoll gestaltet werden kann. Robert Woodbury macht diese Vorgehensweise am Beispiel des Programmiercodes anschaulich, wenn er darlegt: »It is typically easier to edit and change code that works than it is to create code from scratch. […] Starting with a working model and moving in steps, always ensuring that the model works, is often more efficient than building a model from scratch.«167 Woodbury konstatiert damit eine pragmatische Vorgehensweise des Designers, indem dieser nicht für jedes Projekt eine neue Grundlage schafft, sondern auf bereits bestehende, d.h. eigene oder extern bezogene Modelle und Strukturen, zurückgreift. Der Designer sucht einen ökonomischen resp. effizienten Weg, um sein Ziel zu erreichen, wodurch sich der Fokus von technisch-strukturellen Fragen der Herstellung hin zu anwendungsorientierten Fragen der Nutzung verschiebt: »In the maelstrom of design work, they give way to such simple devices as copying, pasting and slightly modifying entire blocks of code. Professional programmers would be horrified by such acts. Designers are delighted if the resulting model works, right now.«168 Presets charakterisieren sich demnach im digitalen Entwurfsraum nicht etwa nur über ihre Austauschbarkeit, sondern vor allem durch ihre Anschlussfähigkeit.169 Woodbury

165

S. dazu etwa die Arbeitsprozesse Frei Ottos, dessen physische Modelle parametrisch aufgebaut waren. Vgl. dazu weiter Nerdinger; Barthel (2005); Vrachliotis (2016). 166 Vgl. dazu etwa CAD Programme wie Rhinoceros, Cinema 4D oder Fusion360. 167 Woodbury (2010: 38). Ähnlich beschreibt es auch Schrader für die Entwicklung digitaler Services: »Ein komplexes System, das von Grund auf neu entworfen wird, funktioniert selten und kann kaum repariert werden, man muss mit einem funktionierenden einfachen System beginnen.« Schrader (2017: 102). 168 Woodbury (2010: 36). 169 Vgl. dazu etwa die Entwicklungen in der Softwareprogrammierung, insbesondere in solchen Fällen, in denen Programme durch sog. 3rd-party-Plugins erweitert werden, etwa die Plug-Ins und Erweiterungen des Unternehmens Greyscalegorilla für Cinema 4D, welche den Arbeitsprozess über verschiedene Presets, etwa voreingestellte Lichtsituationen und virtuelle Studios, beschleunigen. Das Programm (Cinema 4D) bietet dazu eine entsprechende Programmierebene, welche die Struktur und Programmlogik für Erweiterungen wie diese zugänglich und anschlussfähig macht. S. htt ps://greyscalegorilla.com/, abgerufen am 13.12.2018.

4. Industrie und Parametrie

umschreibt die Arbeit mit Presets im nahen Zusammenhang mit Prinzipien des »Kopierens und Modifizierens« (›copy-and-modify‹),170 welche die gestalterische Praxis vor allem hinsichtlich ökonomischer Gesichtspunkte kennzeichnen. Der Gestalter sucht sich – nicht selten seiner Unkenntnis bzw. einem fehlenden tieferen Verständnis der Sache geschuldet – die notwendige Basis und artikuliert ausgehend von dieser Basis neue Schritte, die ihn näher an die Artikulation seines Entwurfes heranführen. Er nutzt entsprechend keine Nullpunkte, sondern Endpunkte als gestalterische Anfangspunkte: anschlussfähige Presets, die unmittelbar eingesetzt, angepasst und hinsichtlich eigener Verwendungszwecke ausgestaltet werden können.171 Der Fokus verschiebt sich von der Herstellung der Inhalte im Vorhinein auf die Anwendung der vorgefertigten Inhalte im Nachhinein. Das Pre-set (ein Vorgesetztes) ist entsprechend gleichzeitig ein Post-set (ein Nachgereichtes), das umso anschaulicher wird, je weniger nach den technisch-strukturellen Bedingungen und je stärker nach den ästhetischen Formen der Darstellung gefragt wird.172 Die Musterbücher Schinkels und Beuths markieren dabei ein anschauliches Beispiel für die Etablierung (ästhetischer) Presets als Vorlage für eine erst zu findende Formensprache der industriellen Produktion.173 Sie stellten eine Breite resp. eine Auswahl an Möglichkeiten bereit, aus welcher sich »jedermann […] freizügig bedienen« konnte.174 Die Musterbücher sind dahingehend als ästhetische Presets zu verstehen – nicht aufgrund ihrer formalen Determinierung, sondern bezüglich der Antizipation einer Breite im Modus der Wahl. Sie bedienten sich einer medialen Bildlichkeit (vorwiegend Kupferstiche), um plastische Idealbilder zu kommunizieren. Technische Erfordernisse wurden in ästhetische Formen übersetzt, wodurch Entwürfe vom Rezipienten weniger von Grund auf neu erdacht werden mussten als vielmehr als Vorlage ausgewählt werden konnten. Die Möglichkeit zur Auswahl verschiebt nun die Gewichtung im Umgang mit vorgefertigten Funktionseinheiten vom technisch-strukturellen Preset hin zum ästhetischkontingenten Postset, insofern, als dass im parametrischen Zusammenhang eine grundlegende, multiple Übersetzbarkeit der Inhalte anschaulich wird, die sich im digitalen Medium abermals verstärkt: Was etwa in der Digitalfotografie mitunter durch voreingestellte Konfigurationen der Kamerasoftware oder als auf ein Bild angewandte Filter Anwendung findet, lässt sich im Kontext der gestalterischen Praxis sowohl etwa anhand 170 Woodbury (2010: 38). 171 Gegenwärtig kann dies etwa besonders anschaulich anhand diverser Webdesign-Plattformen (›website builder‹) nachvollzogen werden, indem diese mittels vorgefertigter Vorlagen (›templates‹) und vorkonfigurierten Modulelemente (›widgets‹), die aus einem Elemente-Archiv (›pattern library‹) gewählt werden können, unmittelbar visuell erfahrbar machen, wie mit ihnen umzugehen ist, wodurch sie einen vor allem schnellen Einstieg in ein neues Gestaltungsprojekt ermöglichen. Vgl. dazu etwa die Plattformen WithoutCode oder webflow. https://app.wocode.com/; https:/ /webflow.com/, abgerufen am 01.08.2020. 172 Preset und Postset können entsprechend als verschiedene Gewichtungen des gleichen Phänomens betrachtet werden. 173 Und dies bereits 100 Jahre, bevor das Bauhaus diesen Anspruch formulierte, wie Kiefer es darlegt: »Vielleicht war dies der erste Versuch, daß Entwürfe zu Gebrauchsgegenständen von einem Architekten geliefert wurden, um auch die Qualität der Waren für die Massenanfertigung zu heben, ein Jahrhundert vor der Gründung des Bauhauses, das die gleiche Zielsetzung hatte.« Kiefer (2004: 79). 174 Selle (2015: 40).

83

84

Prozess als Gestalt

der typografischen Gestaltung und Verwendung von Schriftarten anschaulich machen – etwa, wenn die binäre Abfolge ›1000001‹ als ASCII- Code der Texteingabe ›A‹ zugeordnet (Preset) und darüber hinaus in seiner konkreten Erscheinung in verschiedenen Schriftarten kontingent ist (Postset) –, als auch etwa anhand der Übersetzung von 3D-Geometrien in verschiedene Formen ihrer Darstellung. Die Vorgehensweise versteht sich bei Letzterem darauf, eine digitale 3D-Geometrie mittels diverser Werkzeuge und Funktionen zu modellieren und diese im Anschluss für den jeweiligen Verwendungszweck aufzubereiten. Die datenförmige, zu Handhabbarkeit komprimierte Struktur der Geometrie (Preset) bildet dabei die Grundlage für ihre kontingente Form der Darstellung (Postset): ob als technische Zeichnung, als kolorierte Illustration oder als fotorealistisches Rendering – die Darstellung ist von der zugrunde liegenden Geometrie losgelöst und kann unabhängig davon reversibel verhandelt werden, mit wenigen Eingaben resp. durch die Auswahl eines vorkonfigurierten Presets von Parametern auf technischer Ebene, das im Nachhinein, als kontingente Auswahl einer Bandbreite von Möglichkeiten, als Postset auf ästhetischer Ebene eine neue Darstellung erfährt.175 Innerhalb der parametrischen Diskussion können vorkonfigurierte Funktionseinheiten im gestalterischen Zusammenhang entsprechend mit Hinsicht auf ihre technisch-formale Struktur (Preset) als auch hinsichtlich ihrer ästhetisch-kontingenten Darstellung (Postset) betrachtet werden. Eine Steigerung erfährt die Wirkungsweise von Presets, sobald sie nicht mehr nur im Einzelnen, sondern im verschachtelten Gefüge Anwendung finden; als Gestaltung in verschiedenen Auflösungsgraden. So können für ein digitales Rendering im 3D-Programm Materialien als vorkonfiguriertes Preset einer Geometrie schnell und einfach zugewiesen, darüber hinaus jedoch in ihren Eigenschafts-Parametern (Oberflächenfarbe, Reflexionseigenschaften, Strukturrelief etc.) weiterhin angepasst werden. Innerhalb dieser Tiefendimension der Anpassung eröffnen sich wiederum Möglichkeiten, Presets einzusetzen, etwa in Form sog. Shader, Texturen oder Transformationskomponenten. Ein digitales ›Stein‹-Material ist demnach zwar in seiner Gesamtheit als solches durch eine einfache Auswahl und Zuweisung zu verwenden – im Sinne eines darstellungskontingenten Postsets –, gleichsam ist es jedoch wiederum aus mehreren Untereinheiten zusammengesetzt, d.h. aus technisch-strukturellen Presets. Die Dichotomie von Preset und Postset zur Beschreibung vorkonfigurierter Funktionseinheiten wird demnach erst in dessen praktischer Wechselwirkung ersichtlich, dadurch, dass parametrische Übersetzungs- und Komprimierungsvorgänge dem übergeordneten Prinzip folgen, dass einem Vorgesetzten immer auch ein Nachfolgendes zuzuordnen ist und dass ein solches Nachfolgendes im Gestaltungsprozess ebenso wieder zum Vorgesetzten werden kann.

175

Die ästhetische Möglichkeit des Auswählens wird dabei innerhalb der gestalterischen Praxis insbesondere durch das Arbeiten mit digitalen Bibliotheken (Datenbanken) anschaulich, etwa Shutterstock oder Adobe Stock zur Auswahl themenbezogener Fotografien und Illustrationen oder Plattformen wie CGAxis oder Renderhub zur Bereitstellung digitaler 3D-Modelle. Vgl. https://www.shutters tock.com/; https://stock.adobe.com/; https://cgaxis.com/; https://www.renderhub.com/, abgerufen am 01.08.2020.

4. Industrie und Parametrie

4.10

Zeit und Animation

Die Differenzierung parametrischer Mechanismen in ein Vor- und Nacheinander bestärkt die Vermutung, dass die zeitliche Dimension im parametrischen Prozess eine nicht unwesentliche Rolle zu spielen vermag. Weiter oben wurde bereits gezeigt, dass die strikte Linearität der Prozesse in Handwerk und Industrie durch reversible Funktionsschemata von Parametrie ein Stück weit aufgehoben wird. So ist dargestellt worden, dass handwerkliche Prozesse ein Moment der Langsamkeit bestärken; mitunter sowohl durch körperlich angeeignetes Erfahrungswissen als auch durch die evolutionäre Reifung der Fertigungsverfahren durch Prinzipien des ›trial-and-error‹. Dagegen verstanden sich industrielle Produktionsweisen vorrangig auf die Gleichschaltung der beteiligten Mechanismen, wodurch Prozesse nicht nur (ökonomisch) effizienter, sondern gleichsam kontrollierbar(er) wurden. Die Dimension der Zeit erschien dabei weniger als veränderliche Größe, als vielmehr als übergeordnete Orientierung, an der sich die Produktionsformen auszurichten hatten. So löste das Fließband etwa die manufakturelle Fertigung von Hand ab und implementierte seit Evans und Taylor dabei eine autarke zeitliche Taktung, welcher sich alle weiteren Prozessabläufe unterordneten.176 Zeit wurde in kontrollierte und sichtbare Bewegung überführt; etwa als Bewegung der Zeiger auf der Fabrikuhr sowie als Bewegung des Förderbandes. Während mechanischkörperliche Bewegungen im Handwerk, etwa der Schwung eines Hammers oder das Ziehen eines Hobels, ihrer Form nach weitestgehend einzigartig und nicht exakt reproduzierbar waren und sich somit auch einer unmittelbaren zeitlichen Zuordnung weitestgehend entzogen, waren Form und Dauer der Bewegung etwa einer maschinellen Presse notwendigerweise von vorneherein präzise definiert. Durch die mechanische Gleichförmigkeit der Bewegung erhielt die zeitliche Dimension entsprechend eine exakt messbare und wahrnehmbare Anschaulichkeit, wodurch die Prozessabläufe planbar und demnach auch erst gestaltbar wurden.177 Bewegungen verweisen dabei auf ein Medium ihrer Darstellung, in welchem sie als Veränderung pro Zeiteinheit wahrgenommen werden können. Ein solches Medium kann physische, analoge Formen miteinbeziehen, wie etwa sowohl das Produktionsfließband einer Fabrik als auch digitale Artikulationen bzw. Visualisierungen, wie etwa Diagramme oder grafische Abstraktionen zeitlicher Zusammenhänge. All diesen geht gleichsam sowohl die naturwissenschaftliche Definition des Begriffes der Bewegung voraus – als eine in der Zeit verlaufende Orts- bzw. Formveränderung –178 als auch der Grundsatz, dass Bewegung nur durch Bewegung dargestellt werden kann, in Form ei-

176 177

178

Vgl. dazu Elkar; Keller; Schneider (2014: 9). Zur Etablierung der Uhr s. Selle (2007: 57); Kelly (2010: 40); Giedion (1987: 124ff). Formen der Bewegung sind darüber hinaus als fundamentaler Bestandteil der wissenschaftlichen Forschung anzusehen, wenn Giedion betont, wie stark die Erforschung von Bewegung das wissenschaftliche Weltbild seit der Antike geprägt hat: »Das Bedürfnis, die Bewegung, das heißt das sich stets Ändernde, in den verschiedensten Formen zu erforschen, hat unser wissenschaftliches Denken und schließlich unseren Gefühlsausdruck grundlegend bestimmt.« Giedion (1987: 33). Entsprechend basiert die Diskussion auf dem naturwissenschaftlichen Begriff von Bewegung. Vgl. dazu auch die Definitionen bei Gessmann (2009: 95), Bewegung.

85

86

Prozess als Gestalt

nes visuellen Vergleichs.179 Bewegung wird dann erst als Bewegung erkannt, wenn das Bewegte selbst in seiner Grundstruktur gleich bleibt und sich nur bestimmte akzidentielle Attribute wie Position, Größe oder Form verändern. Es bedarf einer Konstanten, an welcher Veränderung abzulesen und nachzuvollziehen ist. Anschaulich wird dies mitunter an frühen Beispielen der Bewegungsaufzeichnung, wie sie etwa zuallererst von Nicolas Oresme entwickelt wurden.180 Oresme ordnete bereits um 1350 der Qualität und Quantität eines Körpers jeweils eine x- bzw. eine y-Achse zu (und nahm dabei die Struktur des kartesischen Modells vorweg), um die Intensität einer sich verändernden Qualität zu visualisieren.181 Das Resultat eröffnete sich als Säulendiagramm, in welchem die einzelnen Säulen Zustände der Qualität zu einem bestimmten Zeitpunkt repräsentierten. Die Visualisierung erfolgte dabei durch die Darstellung des Gleichen zu verschiedenen Zeiten.182

Abb. 02: Möwenflug aus drei Ansichten nach Marey (1890: 173). Zehn Einzelbilder stellen die Bewegung als Sequenz dar.

Marey (1890: 173)

179 Vgl. Giedion (1987: 35). 180 Nicolas Oresme (1330 – 1382) war ein Naturwissenschaftler, Prediger und Philosoph, der sich mitunter mit der grafischen Aufzeichnung von Bewegung beschäftigte. Vgl. Giedion (1987: 36). 181 Ebd.: 35. 182 Gleiches gilt für die Studien Leonardos, der vor allem in der Darstellung von Serien Bewegung erfahrbar machte (Vgl. dazu Siegert (2009: 25)), als auch für die graphischen Ansätze Mareys, der etwa Muskelbewegungen mittels eines Graphen (sog. Myograph) in Liniengrafiken überführte. Vgl. Giedion (1987: 37ff).

4. Industrie und Parametrie

In Zusammenhang mit der Visualisierung von Bewegung erscheint es demnach als grundlegend, eine Nachvollziehbarkeit zu etablieren, die Bewegung als solche überhaupt erst erkennen lässt. Bewegung erfolgt nicht als einmaliger Zustand, sondern benötigt in der grafischen Darstellung ein Moment der gleichgeschalteten Vergleichbarkeit. So sind etwa E.J. Mareys abstrakte Darstellungen des ›Möwenfluges aus drei Ansichten‹ (›Le vol des oiseaux‹, hier Abb. 02) ein frühes Beispiel dafür, verschiedene Zustände eines Objektes innerhalb einer linearen, visuellen Ordnung zu arrangieren und dadurch Vergleichbarkeit anzubieten. Die Darstellung ist als Bildfolge resp. Serie wahrzunehmen und von links nach rechts zu lesen. Durch die visuelle Ähnlichkeit der einzelnen Zustände und die schrittweise Abweichung legt es die Bildfolge nahe, sie in der Rezeption als Zustandsveränderung und damit als kontinuierliche Bewegung wahrzunehmen. Marey zeichnet dabei insgesamt zehn verschiedene Stadien einer Bewegung nach, um die Gesamtheit eines Flügelschlages darzustellen. Er zergliedert die fließende Bewegung in eine finite Zahl an Einzelzuständen, um aus den Übergängen eine Information über die Verlaufskurve der Flügelbewegung gewinnen und daraus eine allgemeine Repräsentation der Bewegung ableiten zu können.183 Die zehn Stadien bilden dabei die sichtbaren Schlüsselpunkte, durch dessen Verbindung sich der Verlauf einer Kurve nachzeichnen lässt. Das Verfahren verhält sich dabei approximativ, d.h. mit zunehmender Zahl der aufgezeichneten Zustände (bspw. einhundert) wäre die Kurve zwar präziser, jedoch würde sich ihre Grundausrichtung nicht wesentlich verändern. Es zeigt sich daran, dass Mareys Darstellung nicht etwa auf die empirische Erhebung möglichst vieler Zustände aus ist, sondern der Gehalt vielmehr in der Interpolation der einzelnen Zustände liegt. Damit lassen Mareys Darstellungen bereits signifikante Parallelen zur parametrischen Arbeitsweise im digitalen Entwurfsraum ansichtig werden, in welchem Schlüsselpunkte (Keyframes) zunächst gesetzt und anschließend interpoliert werden, um Entwurfsentscheidungen nicht mehr als statische Repräsentation, sondern als kontinuierliche Animation erfahrbar zu machen. Dabei geht es weniger um die sichtbare Bewegung im Resultat als vielmehr um die beteiligten Parameter, die sie beeinflussen und (schrittweise) transformieren. Der Vergleich der englischen Begriffe macht den Unterschied deutlich, wenn im parametrischen Zusammenhang weniger von ›motion‹, als vielmehr von ›animation‹ zu sprechen ist, wie Gregg Lynn es darlegt: »While motion implies movement and action, animation implies the evolution of a form and its shaping forces; it suggests animalism, animism, growth, actuation, vitality and virtuality.«184 Das differenzierende Element ist demnach nicht die eigentliche Bewegung an sich, sondern die Evolution einer Form und die diese evozierenden Parameter. Es wird nun klarer, wie die Begriffe der Bewegung, der Zeit, der Animation und der Parameter miteinander ins Verhältnis zu setzen sind: Parametrische Entwurfsräume sind in ihrer Struktur nicht nur auf die reine Form des Entwurfsgegenstandes angelegt, sondern auf

183

Marey war damit einer der ersten Morphologen, die sich mit der Beziehung von Form, Zeit und Rhythmus auseinandersetzten. Vgl. dazu auch Lynn (1999: 26ff). 184 Lynn (1999: 9).

87

88

Prozess als Gestalt

Möglichkeiten zur Bewegung jener Form als Animation in einer eigens angelegten Dimension der Zeit. Während Mareys Möwenflug-Darstellung dies im Analogen anschaulich macht, durch ein serielles Nebeneinander, erweitert sich diese Darstellungsform im Digitalen um den Faktor der parametrisierten Zeit, als sequenzielles Nacheinander.185 Das Moment der Zeit wird demnach künstlich in den Prozess integriert, nicht als absolutes Gegebenes, sondern als konstruierte Simulation,186 die reversibel und eben als solche frei zu gestalten ist.187 Kennzeichnend für die Entwurfsarbeit im digitalen, parametrischen Entwurfsraum sind nach Lynn demnach eine räumliche Struktur, der Faktor Zeit und die Parameter, die auf beides Einfluss nehmen.188 Es sind dabei nicht mehr nur Attribute der Bewegung, sondern ebenso der Transformation und Morphologie, die das parametrische Arbeiten kennzeichnen. So können raumbezogene Parameter etwa ein Objekt von Position A zu Position B über eine beliebige Zeitspanne hinweg animieren. Darüber hinaus bestimmen objektbezogene Parameter über die Form und Beschaffenheit des Objektes (etwa Formeigenschaften, Darstellungsart oder Material), sodass ein Morphing, d.h. eine bewegte Neukonfiguration der Form und dessen Eigenschaften, entsteht. Die Animation offenbart sich entsprechend in Form von Überblendungen zwischen den einzelnen Konfigurationen; als simulierte, fließende Bewegung. Das Mittel zur Steuerung einer solchen Animation sind sog. Keyframes, welche die einzelnen Zustandskonfigurationen beschreiben und an bestimmten Punkt auf der Zeitachse durch den Gestalter festgelegt werden können. An der Möwenflug-Darstellung kann dies anschaulich gemacht werden: Mareys Bildserie wäre in diesem Zusammenhang als Einzelbildanimation zu betrachten, wie sie etwa in der Trickfilmindustrie auch gegenwärtig noch Anwendung findet.189 Zehn sequenziell hintereinander geschaltete Frames190 avancieren in der bildlichen Abfolge, im Nacheinander, zum Eindruck von Bewegung als Animation.

185

186

187 188 189 190

Wie bereits weiter oben angeführt, ist dieses zeitliche Nacheinander reversibel, d.h. der Gestalter kontrolliert den Parameter ›Zeit‹ und nutzt ihn für seine Zwecke mittels entsprechende Parameter, etwa ›Geschwindigkeit‹, ›Bildanzahl‹ etc. Vgl. den Begriff der Simulation auch bei Simon (1968/1994: 12), verstanden als imitierende Umgebung bzw. als »Nachbildung im kleinen«, die zu einem besseren Verständnis des realen Phänomens resp. der Umgebung verwendet wird. Vgl. dazu ebenso Kapitel 7.5 ›Simulation und Computation‹. Vgl. Lynn (1999: 23). »There are three fundamental properties of organization in a computer that are very different from the characteristics of inert mediums such as paper and pencil: topology, time, and parameters.« Ebd.: 20. S. dazu auch Anm. 422 in Kapitel 7.5 ›Simulation und Computation‹. Ausdrücklich keine Key-Frames.

4. Industrie und Parametrie

Abb. 03: Eigene Darstellung einer abstrahierten Bewegungsverlaufskurve, wie sie etwa in Maxon Cinema 4D oder Adobe After Effects zur Steuerung von Animationen dient. Drei Keyframes (0, 5, 10) bilden die Ankerpunkte, zwischen denen die Bewegung interpoliert wird. Die Steigung der Verlaufskurve zeigt die jeweilige Intensität der Veränderung an.

1

0

3

4

5

2

6

7

8

9

01

011 1

011 1

2

01

Als parametrische Animation würde die Darstellung nicht aus zehn einzelnen Frames, sondern lediglich aus der Definition von drei in der Sequenz verteilten Keyframes bestehen (Abb. 03): einem ersten (Keyframe ›0‹, Flügel offen), einem mittleren (Keyframe ›5‹, Flügel geschlossen) und einem letzten (Keyframe ›10‹, Flügel offen). Sobald die einzelnen Stadien festgelegt sind, kann zwischen diesen interpoliert werden, was nichts anderes meint, als die für den Seheindruck von Bewegung notwendigen Zwischenstadien zu berechnen.191 Da diese Berechnung auf Vektoren basiert, können Sequenzlänge und Geschwindigkeit stufenlos variiert werden. Dementsprechend verstehen sich Animationen im parametrischen Zusammenhang weniger auf den Anspruch an eine exakte Messbarkeit der Zustände im Einzelnen (gr. ›metron‹ = dt. ›das Maß‹), als vielmehr auf die Gestaltung der nebenstehenden Bedingungen resp. der Parameter der Bewegung im Ganzen (gr. ›para‹ = dt. ›gegen/neben‹). Die Arbeit mit Keyframes und Animationen hat in der praktischen Anwendung parametrischer Systeme drei evidente Vorteile: Da erstens die Simulation von Zeit in Zyklen abläuft, können Konfigurationen der einzelnen Keyframes jeweils neu gesetzt und für zukünftige Zyklen variiert werden. Der gestalterische Fokus richtet sich dabei weniger auf die Gesamtheit der Einzelbilder der Animation als vielmehr auf die einzelnen (wenigen) Keyframes, wodurch die Variantenbildung und Lösungsfindung schneller und effizienter verlaufen kann und komplexe Prozesse zu handhabbaren Formen von Einfachheit kondensiert werden können, da die Berechnung der Zwischenschritte durch das jeweilige Programm gewährleistet wird. Zweitens bieten sequenzielle Bildfolgen der Animation den Vorteil der approximativen Annäherung an eine Entwurfslösung. Da animierte Sequenzen stets einen direkten

191

Die Berechnung kann dabei linear oder non-linear erfolgen, anhand algorithmischer Schleifen oder grafischer Kurven, welche mit ihrer Steigung die Kontinuität (Geschwindigkeit und Intensität) der Bewegung angeben. Vgl. dazu Lynn (1999: 24ff).

89

90

Prozess als Gestalt

Vergleich von Einzelbildern ermöglichen, können Veränderungen im Detail unmittelbar visuell nachvollzogen, evaluiert und ggf. angepasst werden. Es gilt, Varianten des Gleichen zueinander ins Verhältnis zu setzen, sie zu bewerten und sich, insbesondere durch die Möglichkeit zur Negation, für einen Zustand entscheiden zu können.192 Diese Annäherung ist dabei als Form der Iteration anzusehen, die auf der zeitlichen Wiederholbarkeit der Animation basiert. Dem Gestalter kommt in dieser Hinsicht nicht mehr die Aufgabe des Ausführens, sondern des Beobachtens zu.193 Drittens sind Animationen nicht nur in direkter, sondern auch in indirekter Art und Weise zu verwenden, etwa wenn sie in ihrer Tiefendimension miteinander verschachtelt und überlagert werden. Dadurch werden komplexe Strukturen und Prozesse in eine netzartige Ordnung gebracht, dessen Ergebnisse nicht mehr direkt, sondern indirekt, d.h. über die Parameter der einzeln verschachtelten Instanzen, zu steuern sind. So kann etwa einem Würfel, der sich in einer festgelegten Animation um eine Kugel dreht, wiederum eine Keyframe-Animation zugeordnet werden, die ihn um seine eigene (oder auch jede andere) Achse dreht. Die Möglichkeiten parametrischer Einstellungen sind dabei kontingent, sodass die Komplexität des animierten Resultates schnell ein Maß erreicht, in dem die Animation nicht mehr auf Anhieb über das reine Ergebnis, sondern allenfalls über die Programmlogik nachvollzogen werden kann. Wie weiter oben bereits in Kapitel 4.7 ›Komplexität und Einfachheit‹ dargelegt, eröffnet sich Komplexität als Aneinanderreihung zumeist simpler Befehle und Eingaben, die durch ihre Verschachtelungen eine Tiefendimension der Struktur erzeugen, welche erst dann als komplex in Erscheinung tritt, wenn sie distanziert von außen betrachtet wird.194 Im parametrischen Zusammenhang können solche Komplexitäten jedoch wiederum zu kompakten Einheiten komprimiert und zur weiteren Verwendung handhabbar gemacht werden; als vorkonfigurierte Platzhalter oder Presets.195 Es zeigt sich, dass das Phänomen der Animation diverse Bereiche der gestalterischen (digitalen) Praxis berührt und ein Kernelement der parametrischen Arbeitsweise darstellt. Am deutlichsten tritt dies durch die Verbundenheit zur zeitlichen Relation hervor, eben da der Faktor Zeit nun nicht mehr als festgeschriebenes, sondern als dynamisches Element in den Entwurfsprozess miteinzubeziehen ist. War der Faktor Zeit im vernakulären Handwerksprozess noch eine buchstäblich unfassbare Dimension, etablierten die frühen Industriekulturen des 19. Jahrhunderts durch Automation

192

Vgl. dazu ferner auch die Ausführungen zu Berechnungstechniken und Optimierungsmethoden bei Simon (1968/1994 : 102ff). Darin führt dieser an, dass die entwerferische Tätigkeit sich in der Praxis nicht etwa nur an einem optimalen und besten Resultat orientiert, sondern ebenso an jenen Ungleichheiten, welche, in Abgrenzung zu einer finiten Auswahl an Entwurfsvarianten, allenfalls ein zufriedenstellendes (»satisfizierendes«) Ergebnis markieren. Die Anschaulichkeit der Negation, d.h. all dessen, was für den Entwurf weniger geeignet erscheint, kann dadurch mindestens als ebenso wichtig angenommen werden wie das Finden einer ›positiven‹ Lösung. 193 Vgl. dazu auch weiter oben Kapitel 4.6 ›Absicht und Kontrolle‹, insb. Anm. 108. 194 Anschaulich wird dies etwa anhand von Programmiercodes (bspw. Javascript), visuellen Programmieroberflächen (bspw. Grasshopper) oder CAD-Strukturbäumen (bspw. Solidworks, Maya oder Cinema 4D). 195 Vgl. dazu weiter oben Kapitel 4.9 ›Standardisierung und Presets‹.

4. Industrie und Parametrie

und Gleichförmigkeit der Bewegung einen ersten Zugang zur rationalisierten Einbeziehung von Zeit in den Entwurfs- und Produktionsprozess. Zeit wurde dadurch zu einer festen Größe, an der es sich auszurichten galt. Der linear-zyklische Verlauf des Fließbandes versinnbildlichte dabei die wiederkehrende Bewegung resp. die Monotonie, mit der Zeit im industriellen Kontext in Erscheinung trat. Die Repetition der zyklischen Bewegung zeitlicher Abläufe erhält sich in der Folge auch im Digitalen, nur nun nicht mehr in statischer, sondern in dynamischer Art und Weise; durch das Anlegen von Parametern in Form von zeitlichen Verlaufskurven und Keyframes, die reversibel gesetzt und variiert werden können. Der Gestalter folgt demnach nicht mehr einer vorgegebenen Taktung, sondern reguliert die Dynamik seines Prozesses und die zeitliche Entwurfsveränderung nunmehr selbst und für jeden Anwendungsfall neu. Der Faktor Zeit wird dadurch zum praktisch anwendbaren Gestaltungselement – von einer statischen Größe zur Orientierung zum verhandelbaren Parameter der Prozessgestaltung.

91

5. Gestalt und Parametrie

Die Auseinandersetzung mit Entwurfs- und Produktionsformen aus Handwerk und Industrie zielte darauf ab, eine erste Kontur parametrischer Charakteristika nachzuzeichnen, um die Anbindung an die gestalterische Praxis für die weitere Diskussion zunächst in grober Form sicherzustellen. Wie aufgezeigt werden konnte, erhalten mit dem Aufkommen industrieller Produktionsbedingungen auch neue Parameter Einzug in den Entwurfs- und Produktionsprozess. Diese etablieren sich auf verschiedenen Ebenen: sowohl auf Seiten der vorgelagerten Planung als auch der ausführenden Produktion. Versteht sich der Gestalter im Handwerk noch gleichermaßen als planende und ausführende Kraft, die das Werkzeug selbstständig und virtuos mit der Hand führt, Erfahrung im Umgang damit sammelt und den Prozess fortwährend vorantreibt, ist es im industriellen Kontext die Maschine, welche die ausführenden Aufgaben in präziser und gleichförmiger Art und Weise übernimmt und welche lediglich noch überwachend bedient wird. Durch die wechselseitige Verbundenheit der maschinellen Einzelkomponenten innerhalb der technischen Maschinenstruktur stabilisiert sich die Maschine nunmehr selbst, wodurch sich Formen der Distanz zwischen Benutzer und Maschine etablieren, die eine neue Ebene der Steuerung, d.h. eine Ebene der Interaktion, notwendig machen, welche wiederum zwischen technisch-strukturellen Unsichtbarkeiten und menschlich-handhabbaren Sichtbarkeiten gestalterisch vermittelt. Jene Transformationsprozesse verstehen sich dabei vor allem auf die Komprimierung von Komplexität zugunsten einer besseren, d.h. vor allem einfacheren Handhabbarkeit, wodurch jedoch nicht notwendigerweise repetitive Gleichförmigkeit, sondern im parametrischen Verständnis vor allem prozessimmanente Variation bestärkt wird: Durch Formen der Standardisierung und Presets, welche die Prozesse auf Dauer stellen und somit erst neue Anschlusspunkte für Gestaltung offenbaren. Dabei werden Daten nicht statisch, sondern dynamisch prozessiert, d.h., dass sie sich in rekursiven Feedbackschleifen an die Gegebenheiten anpassen (lassen): Die Änderung eines Parameters bewirkt dabei die assoziative Veränderung anderer Parameter – dazwischen werden die Berechnungen interpoliert und mitunter als bewegte Animation ausgegeben, in welcher der Prozess eine fassbare, stabile und dynamisch veränderbare Gestalt erhält. Der parametrische Gehalt der Auseinandersetzung mit handwerklichen und frühindustriellen Entwurfs- und Produktionsprozessen läuft entsprechend in der übergrei-

94

Prozess als Gestalt

fenden Erkenntnis zusammen, dass Parametrie die wesentlichen Eigenarten beider Herangehensweisen auf sich vereint: Einerseits die Unmittelbarkeit manuell-körperlicher Virtuosität des Handwerks, andererseits die Exaktheit technisch-medialer Reproduzierbarkeit industrieller Prozesse. Beides läuft innerhalb assoziativer Bezugssysteme in zyklischen, reversiblen Prozessen zusammen, welche dem Gestalter durch ihre Unmittelbarkeit der Handhabung vor allem im digitalen Raum nahezu spielerische Umgangsformen anbieten. Parametrie verspricht dementsprechend eine Flexibilisierung der Herangehensweise bei gleichzeitigem Erhalt einer übergeordneten Gesamtstruktur und ermöglicht es dadurch, Gestaltungsprozesse als Gestaltbildungs-Prozesse zu verstehen. Es gilt entsprechend im folgenden Kapitel zu klären, welchen Stellenwert der Begriff der Gestalt in seiner ursprünglichen Bedeutungsdimension hat und wie er an die parametrische Praxis der digitalen Gegenwart angeschlossen werden kann. Die Grundsätze der Gestaltpsychologie bereiten dazu das theoretische Fundament vor, auf dem die späteren Überlegungen aufbauen. Es kann nun mitunter zurecht gefragt werden, warum ein über ein Jahrhundert alter wissenschaftlicher Zweig der empirischen Wahrnehmungsforschung für den Umgang mit Parametrie und einer Betrachtung des Prozesses als Gestalt herangezogen wird. Eine erste hypothetische Antwort erscheint dabei zunächst naheliegend: Entwurfs- und Produktionsprozesse sind in Anbetracht der technologischen Entwicklung des 19. und 20. Jahrhunderts derartig komplex geworden, dass sie weniger in ihren kleinsten Bestandteilen, sondern vielmehr in ihrer Gesamtheit betrachtet werden müssen.1 Diese Perspektive vertraten auch die Gestaltpsychologen des späten 19. und des frühen 20. Jahrhunderts, als sie sowohl dem bis dahin dominierenden wissenschaftlichen Atomismus als auch dem Behaviorismus ein Konzept der ganzheitlichen Gestalt gegenüberstellten, welches auf der physiologischen Wahrnehmung und dem menschlichen Erleben gründete.2 Was die Gestalttheorie dabei zu bestärken vermochte, beschränkte sich 1

2

Wie von Mutius es formuliert: »Unser Denken hält nicht Schritt mit den beschleunigten, immer komplexer werdenden Prozessen, die wir selbst angestoßen haben. Unser intellektuelles Vorstellungsvermögen scheint hinter unserer Fähigkeit, materielle Produkte herzustellen, immer weiter zurückzubleiben. Ist es also nicht vermessen, in dieser Zeit von ›neuen Denkansätzen‹ oder gar von einer ›anderen Intelligenz‹ zu reden?« Mutius (2004a: 12-13). Entsprechend bestärkt von Mutius ein Denkkonzept des InBeziehungen-Denkens, das den Fokus nicht auf die Einzeldinge, sondern auf die Zusammenhänge richtet: »Nachzugehen wäre den dynamischen Relationen der Dinge, aufzuspüren wäre das ›Dazwischen‹, neu zu lernen wäre das In-Beziehungen-Denken.« Ebd.: 17. Es verwundert entsprechend nicht, dass von Mutius die »im öffentlichen Bewußtsein weithin vergessen[en]« Ansätze der Gestaltpsychologie in seiner Argumentation zur Grundlage macht, die im Zuge einer gegenwärtigen, digitalen Auseinandersetzung gleichsam eine »Veranschaulichung des Abstrakten« resp. eine neue »Plastizität des Unsichtbaren« erforderlich machen. Ebd.: 36-37. Eine solche Anschaulichkeit resp. Plastizität vermag ein parametrischer Blick auf die Phänomene anzubieten, wie es in dieser Arbeit erfolgen soll. Vgl. ferner auch das von Bernhard Bürdek geführte Interview mit von Mutius, in dem dieser sich abermals dafür ausspricht, die Begriffe der Gestalt und der Gestaltung einer neuen, designwissenschaftlichen Analyse zu unterziehen. Vgl. Mutius (2004b). Vgl. dazu etwa sowohl die Gegenüberstellung beider Perspektiven bei Köhler (1947/1964: 7-23) als auch die zeithistorische Rekapitulation der Entwicklungen bei Stephan; Walter (2013: 11ff).

5. Gestalt und Parametrie

nicht allein darauf, aufzuzeigen, dass in der unmittelbaren Wahrnehmung übergeordnete Strukturen bestehen, die an der Verfestigung bestimmter Qualitäten beteiligt zu sein scheinen, sondern ebenso, dass im praktischen wissenschaftlichen Forschen nicht lediglich auf die Bestandteile, sondern vor allem auf die Zusammenhänge zwischen denselben geschaut und der Fokus auf die sich neu einstellenden Phänomene im Ganzen verschoben werden müsse, um diesen wirklich näherzukommen.3 Eine mechanische Uhr beispielsweise kann noch so detailliert und dezidiert untersucht werden – ihre Funktion, das Anzeigen der Zeit, wird sich aus der Betrachtung der Einzelteile nicht erschließen.4 Die Uhr muss vielmehr als Gesamtheit sowohl im Kontext ihrer Erscheinung als auch ihres Gebrauchs erkannt und verstanden werden, um ihr eine Qualität abgewinnen zu können.5 Die streng naturwissenschaftliche, zergliedernde und isolierende Vorgehensweise greift nicht mehr, wenn es um Verbindungen, Zusammenhänge und Abhängigkeiten geht, die nur in ihrer Gesamtheit verstanden und eingeordnet werden können.6 In dieser Hinsicht soll im Folgenden anhand der gestalttheoretischen

3

4 5

6

Der Begriff der Gestalt steht dabei in vornehmlich deutscher Diskurstradition, die vor allem die deutschsprachige Literatur vom ausgehenden 18. bis zur Mitte des 20. Jahrhunderts prägte, so etwa in Goethes Morphologiestudien oder in Schillers Artikulation der sinnlichen Triebe mit Hinsicht auf den Gestalt-Begriff als ästhetische Kategorie. Vgl. dazu Simonis (2001). Innerhalb der gestalterischen Auseinandersetzung emanzipierte sich der Gestalt-Begriff zur Mitte des 20. Jahrhunderts vom Begriff der Form, nicht zuletzt durch die Erweiterung der Betrachtung als Ganzheit – als »harmonischer ausdruck der summe aller funktionen«, wie es einst Max Bill als Wegbereiter einer neuen (funktionalen) Designauffassung proklamiert hat. Bill (1958/2008: 135). Vgl. dazu auch die designgeschichtliche Rekapitulation bei Bürdek (2012: 32-34, 57ff). In den 1960er-Jahren wurden gestaltpsychologische Ansätze gleichsam zum Angriffspunkt einer vorwiegend abstrakt-mathematischen Ästhetik, wie sie etwa Max Bense proklamierte und welche etwa mit Jochen Gros in den 19070er-Jahren wiederum in der designmethodologischen Forschung Berücksichtigung fand. Vgl. Bense (1966/2004); Gros (1970). Eine umfassende Betrachtung der psychologischen Dimensionen der praktischen Gestaltung und dessen Wirkung findet sich bei Heimann; Schütz (2018), welche sich ebenso an den Grundsätzen der Gestaltpsychologie orientieren und daran in Kombination mit neuro- und sozialwissenschaftlichen Perspektiven ein holistisches Wirkungsverständnisses von Design herzuleiten versuchen. Vgl. Romero-Tejedor (2007: 157). »Die Uhr ist erst dann […] ein übersummatives Ganzes, wenn sie in Gebrauch genommen wird zur Ablesung der Uhrzeit.« Ebd.: 155. Auch Holger van den Boom teilt diese Sicht und beruft sich auf den praxisbezogenen Vollzug, welcher notwendig ist, um eine Gültigkeit der Dinge überhaupt erst eintreten zu lassen. van den Boom (2011: 31). Ebenso Daniel Martin Feige: »Erst im und durch den Prozess des Handelns selbst klärt sich die Designidee und erhält ihren spezifischen Sinn wie zugleich ihre spezifische Verkörperung, die entsprechend dem Gehalt der Idee nicht äußerlich ist.« Feige (2018: 160). Auch die Neurowissenschaft ist in Hinsicht auf die Konzeption der Wahrnehmung von Ganzheit und Einzelbestandteilen noch im Unklaren darüber, wie vollständige »Einheiten des Erlebens«, wie Romero-Tejedor es benennt, im Gehirn zustande kommen. Romero-Tejedor (2007: 155). Dafür hat die Neurowissenschaft den Begriff des Binding-Problems eingeführt, welcher danach fragt, wie die »geistigen Bänder« im Zentralnervensystem entstehen und als Ganzheit mit Einzelstimulationen zusammenkommen. Ebd. Vgl. dazu auch Roth (2015: 144) sowie Heimann; Schütz (2018: 191ff). Romero-Tejedor überträgt den Ansatz des Binding-Problems auf die Designdisziplin und stellt es als wissenschaftliches Defizit heraus: »Die Tatsache, dass dem Design noch eine kohärente Designwissenschaft fehlt, besagt, dass es ein designspezifisches ›Binding-Problem‹ gibt. Das designspezifische BindingProblem besteht darin, Hintergrundwissen, das meistens in zerstückelter Form vorliegt, in den Designprozess überhaupt einzubringen. Man gewinnt gegenwärtig häufig den Eindruck, dass die Qualität eines Ent-

95

96

Prozess als Gestalt

Perspektive aufgezeigt werden, inwieweit jene Wahrnehmungsprozesse mit und durch Parametrie zu betrachten und zu erweitern sind. Die Gestalttheorie entwickelte ihr Fundament auf dem Feld der Wahrnehmungspsychologie, d.h. der Frage nach dem Erleben und dem Verhalten,7 und ist daher entsprechend auch mit dem Begriff der Gestaltpsychologie synonym zu verwenden.8 Gegen Ende des 19. Jahrhunderts verfestigte sich die Tendenz, innerhalb der kognitiven Wahrnehmungsforschung eine spezifische Komponente der Wahrnehmungsorganisation zu untersuchen, welche ein Verhältnis zwischen einer Ganzheit und den einzelnen Bestandteilen seiner Darstellung ausfindig zu machen versuchte.9 Daraus resultierte das Prinzip der Übersummativität, welches besagt, dass »das Ganze mehr [ist] als die Summe seiner Teile«,10 und welches seitdem auch als »Ehrenfels-Kriterium« Verbreitung fand,11 benannt nach seinem Erfinder, dem Wiener Philosophen und Gestaltpsychologen Christian von Ehrenfels. Ehrenfels galt in der Retrospektive, so formulierte es bereits Max Wertheimer in seiner Abhandlung ›Über Gestalttheorie‹ von 1925, im Kontext der damalig verbreiteten Wissenschaftsauffassung als Umwälzer einer »streng naturwissenschaftlich-mechanistisch gefassten Psychologie«,12 indem er diese durch eine neue, empirische Arbeits- und Herangehensweise an die Phänomene der Wahrnehmung kritisierte.13 Wertheimer bezeichnet es als »glücklichen Griff eines Psychologen«14 und bekräftigt die »Kühnheit dieses Mannes, der zu solcher These gegriffen hat, aus der Strenge der wissenschaftlichen Verantwortung.«15 Er betont, dass es der Ehrenfels’schen Herangehensweise um

7 8

9 10 11 12 13

14 15

wurfs überhaupt nicht von der Menge des Wissens abhängt, über das der Entwerfer verfügt. Das BindingProblem des Designs besteht also exakt darin, dass es Erkenntnisbestände in den Designprozess nicht einbinden kann.« Romero-Tejedor (2007: 158). Ein Verständnis von Prozessen und Entwürfen als Gestalten und von Entwurfsprozessen als Gestaltbildungs-Prozesse, wie es hier vorgeschlagen wird, vermag diesem Defizit entgegenzuarbeiten. Vgl. dazu vor allem Kapitel 7.4 ›Spiel und Integration‹. Vgl. Fitzek (2014: 1). Spätestens, seitdem der Gestaltpsychologe Max Wertheimer in seinem Vortrag von 1925 ›Über Gestalttheorie‹ bekräftigte, welchen Wert das In-Gestalten-Denken nicht nur für die Psychologie, sondern für weite Bereiche wissenschaftlicher Arbeit habe, ist von einer Theorie zu sprechen. Vgl. Wertheimer (1925). Vgl. Funke (2003: 45). Ebd. Vgl. Fitzek (2014: 3). Ebd.: 1. Vgl. weiter auch die historische Betrachtung bei Katz (1943/1969: 9-14). Ehrenfels’ Stellenwert wird dabei auch am Fokus der betrachteten Inhalte anschaulich: Setzte sich die Naturwissenschaft bis dahin dezidiert mit der präzisen Separation der einzelnen Bestandteile auseinander und hoffte auf Erkenntnisse über dessen Wirksamkeit im Ganzen, legte Ehrenfels den Fokus eben nicht auf das Einzelne, sondern auf das Ganze, das bis dahin weitestgehend vernachlässigt wurde, wie Romero-Tejedor es zusammenfasst: »Ein Ganzes in kleinere Stücke zu teilen und diese isoliert zu betrachten, machte zwar die Naturwissenschaft so erfolgreich; doch sie selbst sieht mehr und mehr, dass dabei etwas Fundamentales verloren geht, nämlich das geistige Band der Teile.« RomeroTejedor (2007: 157). Wertheimer (1925: 45). Ebd.: 46. Vgl. weiter auch Gloy (1981: 244), die in diesem Zusammenhang auf den »Mangel« hinweist, dass Ehrenfels in der Theorie, die er zu überwinden anstrebte, weitestgehend verhaftet blieb. Gemeint ist die Assoziations- und Elementpsychologie, welche die etablierten Begrifflichkeiten stellte, auf welche Ehrenfels zurückgriff. Für die Diskussion um den Prozess als Gestalt und Parametrie ist dies jedoch im Folgenden zu vernachlässigen, da die Phänomene unmittelbar mit

5. Gestalt und Parametrie

die Fassbarkeit des »Wesentlichsten«, des »Lebendigen der Sache« ging, welche die fachdisziplinierten Betrachtungen bislang nicht in den wissenschaftlichen Diskurs miteinbezogen hatten.16 Damit spielt er auf die wahrnehmungsspezifische Dynamik an, welche sich nicht aus der Zerstückelung der Bestandteile und dessen isolierter Betrachtung ergibt – gemäß einer atomistischen Psychologie –,17 sondern sich erst in der ganzheitlichen Erfassung derselben als etwas anderes einstellt, als dazugewonnene Qualität in der menschlichen Wahrnehmung, eben als Gestalt, und nicht als bloße Summe der Einzelelemente.18 Wie lässt sich die Diskussion um Parametrie und digitale Entwurfsmedien nun an die gestalttheoretischen Überlegungen anschließen? Die Vorgehensweise versteht sich als Annäherung durch einen methodischen Vergleich: Dabei stehen sich im Wesentlichen zweierlei Formen der Wahrnehmungsprozessierung gegenüber, die der menschlichen im Sinne einer psychologisch-biologischen Auffassung und Verarbeitung von Wahrnehmungsinhalten, und die einer technischen, in Form einer abstrakt-schematischen Berechnung von Kontrasten, Formen, Farben und ihren begrifflichen Zuordnungen. Es gilt dabei in einem ersten Schritt der Annäherung zunächst aufzuzeigen, wie die menschliche Wahrnehmung hinsichtlich ihres Vermögens der Gestalt-Auffassung beschaffen ist. Dazu bilden die Darlegungen Ehrenfels’ zunächst die (psychologische) Grundlage, aus welcher erste Anhaltspunkte für parametrische Wirkungsweisen abgeleitet werden können. Im Fokus steht dabei das Verhältnis, das zwischen einem ganzheitlichen Phänomen, der Gestalt, und den diese konstituierenden Elementen, den Bestandteilen, besteht, und wie der Mensch dadurch die Welt ›als‹ Gestalt empirisch erlebt.19 Die Bestandteile nehmen dabei in der Diskussion verschiedene Formen der Beschaffenheit und der prozessualen Veränderung an: eine solche der Austauschbarkeit der Bestandteile, der Übergänge dazwischen, der zeitlichen Veränderung als auch der Re-Kombination, welche anhand von Ehrenfels’ Manifest ›Über Gestaltqualitäten‹ von 1890 knapp dargelegt werden sollen. Bezogen auf die Qualität der ganzheitlichen Gestalt gilt es, das Moment der unendlichen Menge bei Ehrenfels nachzuvollziehen und daran anschließend zu fragen, wie dieses mit Hinsicht auf Parametrie weiter auszudifferenzieren ist. Ehrenfels führt dazu eine Klassifizierung an, die eine Höhe von Gestaltung in den Dingen beansprucht, ein Wechselspiel von Reinheit und Mannigfaltigkeit resp. Ordnung und Komplexität, das in der parametrischen Diskussion den Anschluss an die visuelle Praxis und an dessen Gesetzmäßigkeiten vorbereitet. Die Bearbeitung der visuellen Praxis bildet daraufhin die zweite Stufe der Auseinandersetzung, welche untersucht, nach welchen regulativen Gesetzmäßigkeiten der Mensch die Welt samt ihren Gestalten psychologisch und physiologisch (visuell) wahrnimmt. Den Grundstein dazu legte Max Wertheimer in seiner Arbeit von 1923, den ›Untersuchungen zur Lehre von der Gestalt‹, in welcher er anhand abstrakt-geometrischer

16 17 18 19

ihren Wirksamkeiten und nicht mit dessen wissenschaftsgeschichtlicher Herkunft ins Verhältnis zu setzen sind. Vgl. Wertheimer (1925: 39). Vgl. dazu Katz (1943/1969: 9ff). Vgl. dazu Heimann; Schütz (2018: 205ff) als auch Schlüter (2013: 34). Das empirische Erleben bildet die wissenschaftliche Grundmotivation der frühen Gestaltpsychologie. Vgl. dazu auch den Abriss der Entwicklungsgeschichte bei Fitzek; Salber (2012); Fitzek (2014).

97

98

Prozess als Gestalt

Versuchsreihen Tendenzen der visuellen Wahrnehmung veranschaulichte, aus denen er generelle Prinzipien (er nennt sie zunächst Faktoren) ableitete.20 Wertheimer erarbeitete mehrere solcher Faktoren, die weitestgehend im wechselseitigen Verhältnis zueinander standen, daher stellenweise nicht klar voneinander zu trennen waren und dessen Gewichtung jeweils eine unterschiedliche war. Erst später bildeten sich aus den von Wertheimer erarbeiteten Faktoren in der Gestaltpsychologie so benannte Gesetze heraus, die dem menschlichen Sehen als unhintergehbare Tendenzen der Wahrnehmung von Gestalten zugesprochen wurden.21 Dabei handelte es sich zunächst um Gesetze der Nähe, der Ähnlichkeit, der Prägnanz/Einfachheit, der Geschlossenheit, der guten Fortsetzung und des gemeinsamen Schicksals.22 Es sind empirische Beobachtungen der Mustererkennung, die Wertheimer in einer ersten Manifestation in den frühen 1920er-Jahren darlegte und die auch in gegenwärtigen Diskussionen nicht unberücksichtigt gelassen werden können.23 Die menschliche Auffassungsgabe basiert demnach nicht einzig auf autarken Sinneseindrücken, welche die wahrgenommenen Inhalte jedes Mal neu definieren, sondern vollzieht sich unter verschiedenen biologisch-evolutionären Vorbedingungen, was nichts anderes heißt, als dass die menschliche Wahrnehmung durch bestimmte Muster evolutionär vorgeprägt ist.24 In dieser Hinsicht bildet die menschliche Wahrnehmung 20

21 22

23

24

Wertheimers Ausführungen geht die Auseinandersetzung mit der Gestalt-Erfassung voraus, welche er in visuellen Beispielen zu ergründen sucht. Seine Bestrebungen werden von der Frage geleitet: »Gibt es Prinzipien für die Art so resultierender ›Zusammengefaßtheit‹ und ›Geteiltheit‹? Welche?« Wertheimer (1923: 302). Vgl. zur späteren Manifestation der Gestaltgesetze vor allem Metzger (1936/1953); Katz (1943/1969: 33ff); Arnheim (2000: 45ff); Arnheim (1996: 24-60). Wertheimers Annäherung legte dabei lediglich den Grundstein einer gestaltpsychologischen Entwicklung, welche in der ersten Hälfte des 20. Jahrhunderts noch weiter ausdifferenziert wurde. Zu den wichtigsten Vertretern gehören dabei nach Wertheimer Wolfang Köhler und Kurt Koffka, welche ihre Arbeit vorrangig auf die menschlichen Verhaltensweisen und die sozial-gesellschaftlichen Bedingungen der Gestaltpsychologie ausrichteten. Als Standardwerk der Gestaltpsychologie gilt bis heute Wolfgang Metzgers Zusammenstellung der ›Gesetze des Sehens‹ von 1936, in welcher er, basierend auf Wertheimers Ansätzen, die Wirkungsweisen verschiedenster Muster und Formkonstellationen anschaulich macht. Vgl. Metzger (1936/1953). Die Gestaltgesetze wurden in den 1990erJahren von Stephen Palmer noch um drei weitere ergänzt: um das Gesetz der gemeinsamen Region, der Gleichzeitigkeit und der verbundenen Elemente. Vgl. Palmer (1999). Für die weitere Diskussion um Parametrie ist vor allem relevant, inwieweit die passive Wahrnehmung auf menschlich-biologischer Seite in eine aktive Form der technischen Generierung resp. der Rekonstruktion übertragen werden kann und unter welchen Gesetzmäßigkeiten dies erfolgt. Dies sei im Folgenden in Kapitel 5.2 ›Gesetz und Gestalt‹ näher zu erläutern. Vor allem mit Hinsicht auf formalästhetische Funktionen und Anzeichenfunktionen der Theorie der Produktsprache bilden Gestaltgesetze bis heute relevante Maßstände des praktisch-visuellen Entwerfens. Vgl. dazu Bürdek (2015: 158); Steffen (2000: 36ff). Rudolf Arnheim spricht in diesem Zusammenhang von einer Abstraktionsleistung, die allen Lebewesen zu eigen ist und ein Moment der Ordnung schafft, welches auf selektiver Wahrnehmung basiert und sich evolutionär, d.h. in allen Lebewesen durch ihre Lebensräume, herausgebildet hat. Vgl. Arnheim (1996: 29ff), ebenso Sachsse (1984: 70ff). Dies deckt sich auf neurobiologischer Ebene mit dem sog. Anlage-Umwelt-Problem, welches nach neuerer Sicht zu der Feststellung kommt, dass Verhaltens- und Persönlichkeitseigenschaften in genetischer Hinsicht durch komplexe Hirnentwicklungsprozesse geprägt sind, welche sich je nach bestimmten Umwelteinflüssen auf verschiedenartige Weise im Verhalten ausdrücken. Vgl. Roth (2015: 8ff).

5. Gestalt und Parametrie

ein bereits komplettiertes Filtersystem, das im Laufe seiner evolutionären Entwicklung diverse Mechanismen der Reiz-Prozessierung stabilisiert hat, sodass menschliches Leben buchstäblich den weltlichen Umständen entsprechend möglich ist.25 Die biologischen Prozesse im menschlichen Gehirn, verstanden als Milliarden von Verbindungen und Wichtungen zwischen Neuronen und Synapsen resp. als Vorstellung neuronaler Netzwerke, dient dabei seit Mitte des 20. Jahrhunderts als Vorbild zur Rekonstruktion derartiger Netzwerke zur digitalen (binären) Informationsverarbeitung,26 die entsprechend nach bestimmten Regeln, Gesetzen und Mustern erfolgt. Die Gesetzmäßigkeiten, die sich demgemäß sowohl in der menschlichen Wahrnehmung als auch innerhalb dessen technischer Rekonstruktion offenbaren, sind für die folgenden Ausführungen in zweierlei Hinsicht von Interesse: Erstens soll durch die Darlegung der Zusammenhänge in der menschlichen Wahrnehmung aufgezeigt werden, wie die biologisch-physiologische Auffassungsgabe beschaffen ist, um dann in einem zweiten Schritt nach den Mitteln und Wegen ihrer technisch-parametrischen Rekonstruktion zu fragen und wie eine solche für das Feld der gestalterischen Entwurfspraxis anwendbar gemacht werden kann. Dazu werden Erkenntnisse der Feldforschung des Machine Learning und Deep Learning herangezogen und insbesondere mit Hinsicht auf Prozesse der Mustererkennung in die Diskussion um Parametrie miteinbezogen. Es gilt, die Vorbedingungen des menschlichen Wahrnehmens denen eines technischen Erkennens gegenüberzustellen und danach zu fragen, was gewonnen, und was verloren geht, und wo die Ansatzpunkte praktischer Gestaltung in dieser Entwicklung zu verorten sind. Wie sich zeigen wird, ergeben sich dabei Konvergenzen und Dispositionen, die darauf hinweisen, dass sich ein anthropologisch-technischer Kreis zu schließen scheint, sobald sich die technischen Abläufe einem Verständnis auf Seiten des Menschen und Nutzers ebenso entziehen wie die strukturellen Grundlagen der psychologischen und physiologischen Zusammenhänge neuronaler Prozessabläufe im menschlichen Gehirn, zumindest insofern, als dass sie für seine Verwendung keine unmittelbare Relevanz haben.27 Vielmehr zielen menschliche Bestrebungen auf die Anschlussverwendung derjenigen Wahrnehmungsinhalte, die ihn umgeben, und entsprechend werden diese auch im menschlichen Gehirn prozessiert. Ähnlich verhält es sich mit der Entwicklung technischer Systeme, die den Menschen in Form von unsichtbaren Algorithmen, künstlichen neuronalen Netzen und selbstlernenden Programmfunktionen

25

26 27

Wie Maturana und Varela es für die menschliche Wahrnehmung und dessen Struktur formulieren: »Die Erfahrung von jedem Ding ›da draußen‹ wird auf eine spezifische Weise durch die menschliche Struktur konfiguriert, welche ›das Ding‹, das in der Beschreibung entsteht, erst möglich macht.« Maturana; Varela (2009: 31). Vgl. McCulloch; Pitts (1943); Rosenblatt (1961). Die menschliche Wahrnehmung stellt zwar ein hochkomplexes Produkt fortwährender selektiver Evolution dar, der Mensch bemerkt dies jedoch nicht, weil ein solches ›Bemerken‹ für sein Überleben keine unmittelbare Notwendigkeit darstellt. Diese Behauptung stützt sich auf den Grundsatz der evolutionären Erkenntnistheorie. Vgl. dazu die Ausführungen Gerhard Roths, der anschaulich macht, dass jeder biologische, wahrnehmende Organismus eben nur das wahrnimmt, was für sein Überleben wichtig ist. Vgl. Roth (2015: 74ff) als auch Sachsse (1984: 70ff) und Arnheim (1996: 30ff). Der innere Aufbau des Gehirns gehört nicht dazu.

99

100

Prozess als Gestalt

gleichsam umgeben.28 Dabei bedürfen diese Systeme nicht etwa einem menschlichen Verständnis der Welt, sondern allein große digitale Datenmengen, aus denen Regelmäßigkeiten und Muster generiert und Vorgehensweisen abgeleitet werden können.29 Im gestalttheoretischen Verständnis weisen sie auf die Möglichkeit hin, anhand der quantitativen Berechnung von Einzelbestandteilen eine übersummative Qualität der Verhältnisse herausbilden und sichtbar machen zu können; als Verdichtungen, Verläufe, Intensitäten, Animationen etc.30 Ebene jene wechselseitigen Transformationen sind es, welche die parametrische Brücke zwischen Formen der Berechnung (Daten), der Visualisierung (Bild) und der Anwendung (Sinn) schlagen. Das Erkennen von Mustern wird im Folgenden demnach innerhalb eines methodischen Vergleichs einmal in der menschlichen, einmal in der technischen Sphäre untersucht und währenddessen stets in den parametrischen Zusammenhang gestellt.

5.1

Das Ganze und seine Teile

Die Grundlage der folgenden Ausführungen und Bestimmungen basiert auf dem mitunter bekanntesten Werk des Wiener Gestalttheoretikers Christian von Ehrenfels, das 1890 unter dem Titel ›Über Gestaltqualitäten‹ in der ›Vierteljahresschrift für wissenschaftliche Philosophie‹ erstmals veröffentlicht wurde. Ehrenfels entwickelt darin, in Anlehnung an den Physiker und Philosophen Ernst Mach, Prinzipien und Charakteristika eines Gestaltbegriffs, der über eine bestimmte Qualität verfügt, die zwar im Verhältnis zu den die Gestalt konstituierenden Einzelbestandteilen steht, sich jedoch nicht als Summe derselben erfassen lässt, sondern erst in der unmittelbaren Sinneswahrnehmung der ganzheitlichen Gestalt.31 Sie, die Qualität, ergibt sich entsprechend nicht aus

28 29

30

31

Vgl. zur Einbeziehung algorithmischer Funktionen und Praktiken in den menschlichen Lebensraum auch Christian; Griffiths (2017). Prozesse des sog. deep learning, wie etwa durch sog. Convolutional Neural Networks (CNN), basieren dabei nicht mehr auf der von einem Programmierer angeleiteten Programmanweisung, sondern auf sehr großen Datenmengen (mehrere tausend Bilddaten), die als Input verwendet werden. Durch selektive Verfahren der massenhaften Analyse von Datenfragmenten (etwa Bildausschnitten), die in einer zeitlichen Linearität, in einer Tiefen-Dimension (›deep‹), verglichen und entweder weiter kombiniert oder verworfen werden, bilden sich eigenständige und jeweils einzigartige Wege heraus, die eine Zuordnung der Daten mit einer bestimmten Wahrscheinlichkeit ermöglichen. Vgl. dazu auch Alpaydin (2016: 100ff). Eine umfassende praktische Arbeitsanleitung zum Umgang mit künstlich neuronalen Netzwerken findet sich bei Kruse; Borgelt; Braune; Klawonn; Moewes; Steinbrecher (2015). Dieser Prozess entspricht in seinen Grundzügen den Vorgängen des menschlichen Gehirns. Wie Peter Drucker es einst für ein neues Weltverständnis von Zusammenhängen anschaulich formuliert hat: »Quantitative Veränderungen sind nur dann von Bedeutung, wenn sie zu qualitativer Umwandlung werden, […].« Drucker (1958: 18-19). Parametrische Entwurfsmedien vermögen entsprechend die Voraussetzungen zu gewährleisten, diesen Sprung zu vollziehen. Zunächst geht Ehrenfels von tonalen und visuellen Sinneseindrücken aus, schließt dann jedoch auch »Tast-, Temperatur- und mitunter auch Geschmacksund Geruchsempfindungen« in seine Überlegungen mit ein. Ehrenfels (1890/1960: 24ff). Für die weitere Diskussion um Parametrie sind es vor allem die visuellen und sensomotorischen Abläufe, die geeignete Anschlusspunkte darstellen.

100

Prozess als Gestalt

gleichsam umgeben.28 Dabei bedürfen diese Systeme nicht etwa einem menschlichen Verständnis der Welt, sondern allein große digitale Datenmengen, aus denen Regelmäßigkeiten und Muster generiert und Vorgehensweisen abgeleitet werden können.29 Im gestalttheoretischen Verständnis weisen sie auf die Möglichkeit hin, anhand der quantitativen Berechnung von Einzelbestandteilen eine übersummative Qualität der Verhältnisse herausbilden und sichtbar machen zu können; als Verdichtungen, Verläufe, Intensitäten, Animationen etc.30 Ebene jene wechselseitigen Transformationen sind es, welche die parametrische Brücke zwischen Formen der Berechnung (Daten), der Visualisierung (Bild) und der Anwendung (Sinn) schlagen. Das Erkennen von Mustern wird im Folgenden demnach innerhalb eines methodischen Vergleichs einmal in der menschlichen, einmal in der technischen Sphäre untersucht und währenddessen stets in den parametrischen Zusammenhang gestellt.

5.1

Das Ganze und seine Teile

Die Grundlage der folgenden Ausführungen und Bestimmungen basiert auf dem mitunter bekanntesten Werk des Wiener Gestalttheoretikers Christian von Ehrenfels, das 1890 unter dem Titel ›Über Gestaltqualitäten‹ in der ›Vierteljahresschrift für wissenschaftliche Philosophie‹ erstmals veröffentlicht wurde. Ehrenfels entwickelt darin, in Anlehnung an den Physiker und Philosophen Ernst Mach, Prinzipien und Charakteristika eines Gestaltbegriffs, der über eine bestimmte Qualität verfügt, die zwar im Verhältnis zu den die Gestalt konstituierenden Einzelbestandteilen steht, sich jedoch nicht als Summe derselben erfassen lässt, sondern erst in der unmittelbaren Sinneswahrnehmung der ganzheitlichen Gestalt.31 Sie, die Qualität, ergibt sich entsprechend nicht aus

28 29

30

31

Vgl. zur Einbeziehung algorithmischer Funktionen und Praktiken in den menschlichen Lebensraum auch Christian; Griffiths (2017). Prozesse des sog. deep learning, wie etwa durch sog. Convolutional Neural Networks (CNN), basieren dabei nicht mehr auf der von einem Programmierer angeleiteten Programmanweisung, sondern auf sehr großen Datenmengen (mehrere tausend Bilddaten), die als Input verwendet werden. Durch selektive Verfahren der massenhaften Analyse von Datenfragmenten (etwa Bildausschnitten), die in einer zeitlichen Linearität, in einer Tiefen-Dimension (›deep‹), verglichen und entweder weiter kombiniert oder verworfen werden, bilden sich eigenständige und jeweils einzigartige Wege heraus, die eine Zuordnung der Daten mit einer bestimmten Wahrscheinlichkeit ermöglichen. Vgl. dazu auch Alpaydin (2016: 100ff). Eine umfassende praktische Arbeitsanleitung zum Umgang mit künstlich neuronalen Netzwerken findet sich bei Kruse; Borgelt; Braune; Klawonn; Moewes; Steinbrecher (2015). Dieser Prozess entspricht in seinen Grundzügen den Vorgängen des menschlichen Gehirns. Wie Peter Drucker es einst für ein neues Weltverständnis von Zusammenhängen anschaulich formuliert hat: »Quantitative Veränderungen sind nur dann von Bedeutung, wenn sie zu qualitativer Umwandlung werden, […].« Drucker (1958: 18-19). Parametrische Entwurfsmedien vermögen entsprechend die Voraussetzungen zu gewährleisten, diesen Sprung zu vollziehen. Zunächst geht Ehrenfels von tonalen und visuellen Sinneseindrücken aus, schließt dann jedoch auch »Tast-, Temperatur- und mitunter auch Geschmacksund Geruchsempfindungen« in seine Überlegungen mit ein. Ehrenfels (1890/1960: 24ff). Für die weitere Diskussion um Parametrie sind es vor allem die visuellen und sensomotorischen Abläufe, die geeignete Anschlusspunkte darstellen.

5. Gestalt und Parametrie

den Einzelbestandteilen in ihrer jeweils eigenen Form, sondern gerade aus ihrem ganzheitlichen Zusammenwirken. Ehrenfels’ Ansatz erwächst entsprechend aus der empirischen Wahrnehmungsforschung und dort insbesondere aus der Auseinandersetzung mit musikalischen Intervallen resp. Melodien, die eine bestimmte Qualität hervorbringen, in Form von Tongestalten.32 Ehrenfels tastet sich empirisch und erfahrungsbasiert an die Zusammenhänge der Gestaltwahrnehmung heran. Der Ausgangspunkt seiner Beobachtung besteht darin, eine »Ähnlichkeit von Melodien und Figuren bei durchgängiger Verschiedenheit ihrer tonalen oder örtlichen Grundlage«33 erkannt zu haben und darauf nun weitere Erkenntnisschritte aufzubauen.34 Unter einer Grundlage versteht Ehrenfels dabei die einzelnen Bestandteile der jeweiligen Gestalt, welche er später in seiner formellen Definition der Gestaltqualitäten auch als die »notwendigen Vorstellungskomplexe« bezeichnet,35 also jene Phänomene, auf dessen Vorhandensein die Wahrnehmung einer Gestalt erst aufbauen kann. Es sind die kleinsten, zerlegbaren Bestandteile, die Ehrenfels in den Phänomenen sucht, um darin einen übergeordneten Mehrwert zu finden; eine Qualität, welche die Bestandteile zusammenhält, ohne sich von ihnen abhängig zu machen. Die Bestandteile sollen daher im Folgenden zunächst den Ausgangspunkt der Betrachtung darstellen, um ferner aufzuzeigen, inwieweit die gestalttheoretischen Phänomene parametrisch gedeutet und mit Hinsicht auf die gestalterische Praxis angewendet werden können.

32

33 34

35

»Man betrachte etwa die Melodie der ersten Zeile des bekannten Volksliedes: »Muß i denn, muß i denn zum Städtle hinaus…«. Dieselbe enthält, in C-dur gespielt, die Töne c bis a, und zwar das e und g je dreimal, das f zweimal, das c, d und a je einmal. Nun spiele man sie in Fis-dur. Hier enthält sie keinen einzigen der Töne, auf welchen sie in C-dur sich aufbaut. Dennoch ist die Ähnlichkeit jedem halbwegs musikalisch Veranlagten sofort und ohne Reflexion (nach Mach durch ›Empfindung‹) erkennbar. Nun spiele man diese Melodie wieder in C-dur, und hierauf, in gleichem Ryhthmus, die Tonfolge e-g-f-a-g-g-f-e-c-e-d, welche, ebenso wie unsere Melodie, drei e, drei g, zwei f, ein c, ein d und ein a enthält. Eine Ähnlichkeit (mit Ausnahme des beibehaltenen Rhythmus) wird jedoch hier niemanden mehr auffallen, welcher nicht auf dem Wege der Reflexion etwa dahin geführt wird, die einzelnen Töne hüben und drüben zu vergleichen und zu zählen. Wir haben also einerseits zwei Komplexe von Tonvorstellungen, welche aus durchgängig verschiedenen Bestandteilen gebildet werden, und doch ähnliche (oder nach der gewöhnlichen Sprechweise sogar dieselbe) Melodie ergeben, auf der anderen Seite zwei Komplexe, welche aus tonal vollkommen gleichen Elementen gebildet werden und durchaus verschiedene Melodien ergeben. Hieraus geht unwiderleglich hervor, daß die Melodie oder Tongestalt etwas anderes ist als die Summe der einzelnen Töne, auf welchen sie sich aufbaut.« Ebd.: 18-19. Vgl. dazu auch Max Wertheimers Exemplifikation zum spezifischen Ausdruck der Summe in Anlehnung an die Rezeption einer Melodie: »Wenn eine Melodie aus sechs Tönen besteht, und ich reproduziere sie, indem ich sechs ganz andere Töne spiele, und sie wird wiedererkannt – was bleibt übrig? Diese sechs Elemente sind zunächst sicher als Summe da; aber neben diesen sechs Elementen sei ein Siebentes anzunehmen, das ist die Gestaltqualität. Das siebente, das ist das, was es mir möglich macht, die Melodie wiederzuerkennen.« Wertheimer (1925: 46). Ehrenfels (1890/1960: 18). Ausgangspunkt von Ehrenfels’ Beobachtungen waren die ihm vorausgehenden Experimente Ernst Machs, welcher nach Ehrenfels jedoch »lediglich die Unmittelbarkeit des Eindrucks im Auge hatte« und dessen Bezeichnungen der Phänomene er als »nicht ganz treffende« bezeichnet. Ebd.: 11. Doch spricht er Mach zu, die Selbstständigkeit von Gestalten erkannt und den »Weg zu einer Lösung des aufgeworfenen Problems« eröffnet zu haben. Ebd.: 12. Ebd.: 21.

101

102

Prozess als Gestalt

5.1.1

Austauschbarkeit der Bestandteile

Im gestalttheoretischen Verständnis ergibt sich eine generelle Austauschbarkeit der Bestandteile insofern, als dass diese nicht etwa frei und willkürlich zueinander in Beziehung stehen, sondern innerhalb einer rahmenden Ordnung resp. einer Struktur. Im Zusammenhang mit dem Begriff der Melodie ist unter Struktur ein Phänomen zu verstehen, das als ausdifferenziertes Ordnungsgefüge eine Rahmung vorgibt, an und in welcher sich einzelne Inhaltsbestandteile aus- und einzurichten vermögen.36 Dabei eröffnet sich die Struktur sowohl als Resultat der wechselseitigen Beziehungen zwischen den inhaltlichen Bestandteilen untereinander als auch in der Beziehung der einzelnen Teile zum Ganzen. Wie auch Wertheimer es später formuliert, ist diese wechselseitige Beziehung an den inneren Strukturgesetzen des Ganzen ausgerichtet, und dabei nicht nur in eine Richtung – vom Einzelnen zum Ganzen –, sondern ebenso umgekehrt: »Es gibt Zusammenhänge, bei denen nicht, was im Ganzen geschieht, sich daraus herleitet, wie die einzelnen Stücke sind und sich zusammensetzen, sondern umgekehrt, wo – im prägnanten Fall – sich das, was an einem Teil dieses Ganzen geschieht, bestimmt [ist] von inneren Strukturgesetzen dieses seines Ganzen.«37 Diese inneren Strukturgesetze erst ermöglichen das, was Ehrenfels mit dem der Musikwissenschaft entlehnten Begriff der Transponierbarkeit beschreibt,38 ebendann, wenn die Qualität der ganzheitlichen Gestalt erhalten bleibt, auch wenn die Einzelbestandteile ausgetauscht werden.39 Eben jene Transponierbarkeit markiert ein wesentliches Charakteristikum der klassischen Gestaltauffassung, das auch als die Invarianz resp. Indifferenz der spezifischen Gestaltqualität verstanden werden kann: Eine Melodie bleibt die gleiche Melodie, auch wenn sich die Tonart ändert, in der sie erklingt; ebenso

36 37

38 39

Vgl. Gessmann (2009: 692), Struktur. Wertheimer (1925: 42). Vgl. dazu auch Heimann; Schütz (2018: 198), die diese inneren Strukturgesetze als das Wesentliche der menschlichen Wahrnehmung bezeichnen, das vor allem unkompliziert und schnell erfassbar wird: »Was wir als das Wesentliche so schnell erfassen, ist eine ganzheitliche Eigenschaft, die sich aus der inneren Struktur der Dinge ergibt. Sie ›sagt‹ uns sofort, um was es sich handelt.« Ebd. Gleichsam benennt Fischer jene innere Struktur als den Kern der gestalterischen Disziplin schlechthin: »Design ist kein Selbstzweck. Stets geht es darum, etwas seiner inneren Struktur und Entwicklung entsprechend zu gestalten.« Fischer zitiert nach Berthold; Burkhardt (1997: 36). Ehrenfels (1932/1960: 61). Auch Wertheimer nimmt den Begriff der Transponierbarkeit auf und macht ihn zu einem wesentlichen Charakteristikum der Gestalt. Vgl. Wertheimer (1925: 46ff). Diese gestalttheoretische Betrachtungsweise kann dabei mit den neurobiologischen Grundannahmen über das menschliche Handeln vereinbart werden, wie sie der Neurobiologe Gerald Hüther im Verweis auf die von ihm sog. inneren Bilder darlegt: »Lebende Systeme müssen vielmehr als Gebilde betrachtet werden, die in der Lage sind, ganz bestimmte physikalische und chemische Eigenschaften ihrer materiellen Bausteine zu nutzen, um anhand eines einmal entwickelten […] inneren Musters ein bestimmtes inneres Beziehungsgefüge aufrechtzuerhalten. Was also jedes Lebewesen besitzen muss, und was es erst lebendig macht, ist ein in seinem Inneren angelegter Plan, eine seine innere Organisation lenkende und seine Strukturierung leitende Matrix, also ein inneres Bild von dem, wie es sein müsste oder werden könnte.« Hüther (2011: 33). Die Grundlage dafür bilden »in Form hochkomplexer Nervenzellverschaltungen herausgeformte, ihr Denken, Fühlen und Handeln bestimmende Muster, also im Lauf des Lebens erworbene und im Gehirn verankerte Verschaltungsmuster zwischen den Nervenzellen« Ebd.: 16

5. Gestalt und Parametrie

bleibt ein »menschlicher Kopf […] ein Kopf – ob in Ton oder in Stein, ob auf Vasen oder auf Wände gezeichnet«, wie Luhmann es etwa in kunsttheoretischer Auseinandersetzung anschaulich gemacht hat.40 Die transponierbaren, inneren Strukturgesetze von Gestalten, wie Wertheimer sie nannte, lassen sich entsprechend, etwa mit Karen Gloy, als die »invarianten Funktions- und Relationszusammenhänge« verstehen,41 die nicht von den konkreten Einzeldingen abhängen, sondern in den zwischen ihnen angelegten Verhältnissen bestehen und dadurch eine fortwährende, kontingente Austauschbarkeit der Bestandteile ermöglichen. Welche parametrischen Bezugspunkte werden daran nun ansichtig? In der Übertragung auf den parametrischen Entwurfsraum im digitalen Entwurfsprogramm ergeben sich evidente Schnittmengen mit den angeführten Punkten: Die parametrische Vorgehens- und Arbeitsweise versteht sich auf die Etablierung von Strukturen, d.h. von sog. »parametric design systems«,42 innerhalb welcher der Gestalter Inhalte erzeugen, variieren und austauschen und sie dadurch in Anwendung bringen kann. Die Interaktion mit derartigen Systemen knüpft dabei an das an, was mit Wertheimer weiter oben als gegenseitige Wechselbeziehung in Bezug auf die inneren Strukturgesetze angeführt wurde, wenn Jabi für die architektonische Praxis konstatiert: »The user interacts with a parametric system in a manner that reflects its internal algorithmic structure, by creating and modifying objects such as circles, spheres, doors and walls.«43 Es tritt demnach ein Akt der Reflexion ein, welcher die Bestandteile nicht in dessen Einzelhaftigkeit, sondern in der jeweiligen Wirkung im gesamten Gefüge verortet und diese unmittelbar anschaulich macht. Algorithmen und programmierte Funktionsbausteine dienen dabei als Platzhalter für konkrete Inhalte. Ein Beispiel dafür bieten etwa Funktionsbausteine im CADProgramm Cinema 4D:44 Kloner-, Zufalls- oder Deformations-Objekte wirken auf die ihnen untergeordneten Geometrien ein, ohne sich oder die Geometrien in ihrer Struktur zu verändern, d.h. sie bleiben ihnen gegenüber stets indifferent. Die Bestandteile bleiben austauschbar, gerade weil die Deformatoren keine konkreten Einzeldinge, sondern Funktions- und Relationszusammenhänge verkörpern, welche die Geometrie in ihrer Gesamtheit modifizieren. Sie versinnbildlichen eine Invarianz, da sie selbst keine Inhalte hervorbringen, sondern die Dinge lediglich in neue Zusammenhänge stellen. Bildet das Moment der Austauschbarkeit bei derartigen Deformatoren in Cinema 4D eher einen Randaspekt, wird es beim sog. Null-Objekt zum Hauptaspekt, indem die-

40 41

42 43 44

Luhmann (1999: 318). Luhmann führt die »Indifferenz gegen Situationen, Kontexte Materialien« dabei auf ein Moment des Wiedererinnerns der Gestalt in ihrer praktischen Formung zurück. Vgl. Ebd. Gloy (2014: 100). Gloy differenziert dabei die Begriffe der Gestalt und des Gesetztes weiter aus: Während es sich bei einer Gestalt allgemeinhin, wie sie darlegt, »um eine optische und im übertragenen Sinne intellektuell konstatierbare Ganzheit handelt, meist von statischer Natur, bezeichnet das Gesetz einen gedanklich fassbaren und konstruierbaren invarianten Funktions- und Relationszusammenhang zwischen Variablen innerhalb eines Zeitintervalls. Die Gestalt beruht auf dem holistischen Eindruck einer gleichbleibenden, konstanten Vielheit von Teilen, das Gesetz auf der Konstruktion eines konstanten Relationszusammenhangs zwischen austauschbaren Gliedern.« Ebd. Jabi (2013: 10). Ebd. Vgl. dazu die Übersicht der Funktionen und Anwendungen bei https://www.maxon.net/de/produk te/cinema-4d/cinema-4d/, abgerufen am 03.08.2020.

103

104

Prozess als Gestalt

ses über keine entwurfspraktische Funktion im Sinne eines direkten Einwirkens auf die Entwurfsgeometrie innehat, sondern lediglich eine strukturierende. Null-Objekte verkörpern eine Instanz der reinen Austauschbarkeit der ihnen untergeordneten Geometrien zur Sichtbarmachung einer strukturellen Ordnung. Geometrien, Objekte und weitere Funktions-Bausteine können ihnen zugeordnet werden, sodass sie als zusammengefasste Gruppierung eine einheitliche Gesamtheit darstellen, die wiederum über erweiterte parametrische Beziehungen verfügt. So können etwa komplexe Gruppen von Funktionen und Elementen in einem Null-Objekt verschachtelt werden, ohne dass sie ihre jeweils eigenen parametrischen Bestimmungen aufgeben müssen (Nullpunkt, Größe, Deformation, zeitliche Veränderung etc.). Dennoch ist es weiterhin möglich, alle untergeordneten Elemente als Einheit (im Null-Objekt) zu transformieren, etwa durch Rotation, Verschiebung, Skalierung etc., wodurch sie eine neue Artikulation im euklidischen Entwurfsraum erhalten.45 Inhalte werden eingebettet, jedoch in ihrer Wesensart nicht transformiert, sondern lediglich über ihre neuen Bezugspunkte auf einer übergeordneten Ebene gesteuert und in neue Zusammenhänge gestellt. Ebendies leisten parametrische Funktions-Bausteine, da sie nicht selbst zum gestalterischen Inhalt werden, sondern als relationale Strukturkomponenten eine Austauschbarkeit der Bestandteile durchgehend gewährleisten und in Anwendung bringen.

5.1.2

Beziehungen der Bestandteile

Ist die Gestalt ein sich einstellendes Moment, das nicht etwa in einer konkreten Dimension, sondern vielmehr als unmittelbare Vorstellung rezipiert wird,46 so lassen auch die einzelnen Bestandteile die Frage zu, wie sie beschaffen sind und vor allem, in welchen Verhältnissen sie einerseits zur Gestalt und andererseits zueinander stehen.47 Ehrenfels entwickelt diesen Gedanken am Beispiel der Musikmelodie nun nicht ausgehend von den Tönen, sondern von den Tonschritten, die er zunächst als die Tongestalt evozierenden Übergänge bezeichnet48 und durch welche eine gewisse Höhe der Gestaltung

45

46

47 48

Die parametrische Vorgehensweise offenbart daran ein Moment, das als nicht-destruktive Vorgehensweise (›non-destructive workflow‹) bestimmt werden kann und welches vorwiegend in CADund Grafikprogrammen Einsatz findet. Dieses meint, in knapper Zusammenfassung, dass das Entwurfsgefüge samt seinen Inhalten programmspezifisch jeweils so konzipiert und strukturell arrangiert wird, dass Veränderungen einerseits zurückzuverfolgen und ebenso rückgängig zu machen sind – d.h., sie sind reversibel. Der Weg zu einer früheren Konfiguration des Entwurfs bleibt durchgehend offen und wird nicht ›zerstört‹. Vgl. dazu die Arbeitsweise des nicht-destruktiven Editierens im Bildbearbeitungsprogramm Adobe Photoshop. https://helpx.adobe.com/de/photoshop/usin g/nondestructive-editing.html, abgerufen am 10.03.2019. Ehrenfels spricht in dieser Hinsicht, auch unter Berücksichtigung eines Erinnerns wahrgenommener Inhalte, von »Vorstellungskomplexen«, welche er als die »Grundlage der Gestaltqualitäten« bezeichnet. Ehrenfels (1890/1960: 21). Vgl. dazu auch die Ausführungen Wertheimers, der dafür in diesem Zusammenhang den Begriff der Relation verwendet. Vgl. Wertheimer (1925: 46-47). "Man erwidere nicht etwa, daß die wesentlichen Bestandteile der Melodie nicht die einzelnen Töne, sondern die Tonschritte, die Übergänge von einem Ton zum anderen seien. Denn auch aus einer Summe solcher Tonschritte lassen sich durch Verstellung die verschiedensten Melodien beiden. Suche man aber auch diese Möglichkeit auszuschließen durch die Bestimmung, daß eben der Übergang von einem Ton zum anderen in

5. Gestalt und Parametrie

ansichtig wird.49 Er spricht in diesem Zusammenhang von Beziehungen, die zwischen den einzelnen Bestandteilen bestehen und dem Rezipienten, der diese »reproduziert«,50 sie also innerhalb der Wahrnehmung wiedererinnert.51 Der Prozess der Reproduktion versteht sich in dieser Hinsicht auf die Extraktion des Wesentlichen, d.h. der invarianten Struktur, die fortwährend gleichbleibende Verhältnisse gewährleistet.52 Die Beziehung bildet demnach das überdauernde Moment, das eine Austauschbarkeit im weiter oben angeführten Sinne erst ermöglicht und somit gleichsam die Grundlage des menschlichen visuellen Erkennens darstellt.53 In Bezug auf Parametrie offenbaren sich nun zwei Ansatzpunkte: einer, der auf Formen der Mustererkennung resp. der Parametrisierung abzielt, und ein weiterer, der die Visualisierung der etablierten Beziehungen zwischen Bestandteilen in den Blick nimmt. Beides sei an dieser Stelle knapp erläutert. Ersteres, die computerisierte Mustererkennung, vollzieht sich ausgehend von Ehrenfels’ Begriffen der Reproduktion und der Extraktion des Wesentlichen als automatisierter Prozess. In technischer Hinsicht wird ein Muster ebendann als ein solches

49

50

51

52

53

der festgesetzten Reihenfolge die Melodie ausmache, so hat man in jenem Übergange, welcher etwas anderes ist als die Summe der Töne, dasjenige, was wir Tongestalt nennen, zugegeben und nur mit einem anderen Namen belegt.« Ehrenfels (1890/1960: 19). Basierend auf dieser Feststellung führt Ehrenfels später in den ›Weiterführenden Bemerkungen‹ die von ihm sog. Höhen der Gestaltung an, welche er durch das Verhältnis von Einheitlichkeit zu Mannigfaltigkeit der Teile definiert. Vgl. Ehrenfels (1922/1960: 47). Beispiele dafür bezieht er zunächst aus der Natur: »Wenn auch jeder Körper irgendeine Gestalt hat, so hat doch zum Beispiel ein Sandhaufen, eine Erdscholle weniger Gestalt als eine Tulpe, eine Schwalbe, eine Eiche, ein Luchs. Was hier herausgehoben ist, kann man Höhe der Gestalt nennen. Die Höhe der Gestalt wächst mit dem Produkt ihrer Konstituanten, ihrer Einheitlichkeit und der Mannigfaltigkeit ihrer Teile.« Ebd.: 50. »Denn wenn jemand wie dies zumeist der Fall sein wird — eine Melodie in einer anderen als in der ursprünglichen Tonhöhe reproduziert, so reproduziert er gar nicht die Summe der früheren Einzelvorstellungen, sondern einen ganz anderen Komplex, welcher nur die Eigenschaft besitzt, daß seine Glieder in analoger Beziehung stehen, wie diejenigen des früher vorgestellten Komplexes. Diese Beziehung ist nach unserer Auffassung in einem positiven Vorstellungselement, der Tongestalt, begründet, derart, daß ein und dieselbe Tongestalt immer gleiche Beziehungen zwischen den Elementen ihres Tonsubstrates (den einzelnen Tonvorstellungen) bedingt.« Ehrenfels (1890/1960: 20). In dieser Hinsicht umschreibt auch Luhmann die Gestalt-Wahrnehmung für die Kunst als Form des Wiedererinnerns: »Allen Programmen der Kunst liegt voraus das Wunder der Wiedererkennbarkeit. Es wird durch erlesene Formen bewirkt. Eine Gestalt ist wiedererkennbar, wenn sie zunächst in der Natur und dann als künstlich geschaffene vorkommt. Ein Bison bleibt ein Bison, wenn er an die Höhlenwand projiziert wird.« Luhmann (1999: 318). Die Gestalt ist entsprechend ein Wiedererkennbares, das, nach Koschatzky, immer bereits im Rezipienten vorhanden sein muss: »Nichts kann man erkennen, was nicht im Wesen des Erkennenden vorhanden ist.« Koschatzky (1977: 14). Ehrenfels umschreibt damit psychologisch, was die Neurobiologie später physiologisch bestätigen sollte: dass die neuronale Aktivität des Gehirns sich eben darauf versteht, durch ein sprunghaftes Abtasten der wahrnehmbaren Umwelt ein Wesentliches kognitiv (immer wieder) zu (re-)konstruieren. Einen Wahrnehmungsgehalt, der nie vollständig, aber dafür strukturell konstant ist. Vgl. dazu auch Roth (2015: 86ff). Wie Arnheim es darlegt: »Allgemeiner kann man sagen, daß alles Sehen darauf herauskommt, Beziehungen zu sehen; und die Beziehungen in der Wahrnehmung sind keineswegs einfach.« Arnheim (1996: 61). Ebenso Köhler: »Wir müssen erkennen, daß wahrscheinlich alle Probleme, vor die wir gestellt werden können, und auch die Lösung dieser Probleme, eine Frage der Beziehungen sind.« Köhler (1971: 108).

105

106

Prozess als Gestalt

erkannt, wenn es durch die rhythmische Wiederholung einzelner Merkmale eine Regelmäßigkeit aufweist.54 Die dahinterliegende Bestrebung besteht darin, die Komplexität der empirisch erfassten Daten und Inhalte zu reduzieren, um sowohl die Verarbeitungskapazitäten klein zu halten als auch – und gerade dadurch – eine Weiterverarbeitung zu ermöglichen.55 Anschaulich wird es etwa am Beispiel der Musikrezeption durch technische Geräte resp. des Smartphones: Der Prozess der Musikaufnahme erfolgt darin, die Schwingungen von Schallwellen in einen Datensatz zu übertragen, d.h. sie zu messen.56 Hier entsteht im Ehrenfels’schen Sinn eine erste Reproduktion, da anschaulich wird, dass die Schwingungen das Smartphone zwar erreichen, jedoch in diesem nicht etwa fortbestehen, sondern in eine andere Form übersetzt bzw. reproduziert werden, als binäre Codierungen, die nicht etwa das Gleiche, sondern lediglich gleiche Verhältnisse abbilden.57 Dies bildet sowohl die Grundlage der technischen Mustererkennung als auch der menschlichen Wahrnehmung.58 Es bleibt demnach etwas erhalten, was das Wesen eines aufgenommenen Inhaltes erhält, auch wenn dessen konkrete Artikulationsform ausgetauscht wird. Diesen Prozess umschreibt Ehrenfels im Zusammenhang mit Ähnlichkeiten von Gestaltqualitäten als »Abstraktion der herauszuhebenden Merkmale«.59 Das technische Gerät misst demnach nicht die Eigenarten der einzelnen Töne, die es aufnimmt, sondern vergleicht sie ausschließlich partiell untereinander, anhand ihrer relativen Unterschiede, sodass sich daraus Verhältnisse und Muster ableiten lassen.60 Der zweite Anknüpfungspunkt zur parametrischen, digitalen Gegenwart besteht in der Visualisierung struktureller Beziehungen. Während Tonsprünge resp. Beziehungen zwischen wie auch immer gearteten Gestalt-Bestandteilen bei Ehrenfels lediglich eine gedachte Form angenommen haben und dadurch nur bedingt erfassbar waren, werden sie im parametrischen Entwurfsraum zu sichtbaren Elementen und somit für gestalterisches Handeln zugänglich.61 Anschaulich wird dies etwa anhand des ›visual canvas‹ in

54 55 56 57 58

59

60

61

Vgl. Alpaydin (2016: 57). Vgl. Ebd.: 84. Vgl. dazu auch weiter oben das Kapitel 3.2 ›Messbarkeit und Evaluation‹, welches die Übertragung von Schallschwingungen in messbare Daten betrachtet. Vgl. dazu auch Schleske (2003). In soziologischem Zusammenhang spricht Nassehi entsprechend auch von der »Verdopplung der Welt in Datenform« Nassehi (2019: 33). Wie Gerhard Roth es darlegt, versteht sich die Informationsverarbeitung im Gehirn auch auf neurobiologischer Basis auf die binäre Codierung von 0 und 1, d.h. aktive und inaktive Zustände der Neuronenanregung. Vgl. Roth (2015: 16ff, 84). Ehrenfels (1890/1960: 33). In dieser Hinsicht ließe sich auch die Brücke zu Wittgensteins Begriff der Familienähnlichkeit schlagen, welcher eine gemeinsame Zugehörigkeit bei weitestgehender struktureller Ungleichheit der Inhalte bezeichnet, wie er weiter unten im Zusammenhang mit spielerischen Handlungsformen noch näher bestimmt werden soll. Vgl. auch Kapitel 7.4 ›Spiel und Integration‹. Ein anschauliches Beispiel dazu bietet die digitale App-Schnittstelle Shazam, mit welcher unbekannte Songtitel – im Bruchteil einer Sekunde – erfasst werden können. https://www.shazam.com /de, abgerufen am 11.03.2019. Den Grundstein dazu legte Ivan Sutherland mit dem von ihm am MIT entwickelten Programm ›Sketchpad‹ von 1963, das Beziehungen in Form von sog. constraints anschaulich visualisierte. Vgl. Sutherland (1963).

5. Gestalt und Parametrie

Rhinoceros Grasshopper,62 eine digitale, zweidimensionale Oberfläche, auf welcher sich Funktionsbausteine als flächige, rechteckige Entwurfselemente anordnen und miteinander in Verbindung setzen lassen. Die Verbindungen werden über eine Draht-förmige, geschwungene Linie dargestellt, welche jeweils einen Output (Ausgang) mit einem Input (Eingang) verbindet. Während die Hauptaufgabe des Gestalters entsprechend darin besteht, die Verhältnisse zwischen den einzelnen Funktions-Elementen herzustellen und die Bausteine miteinander zu verknüpfen, gerät die Festlegung auf konkrete (numerische) Werte in den Hintergrund. Letztere werden zumeist über Slider-Bausteine in den ›visual canvas‹ integriert, welche, sobald sie einmal platziert sind, jeden numerischen Wert annehmen können. Praktische, digitale Gestaltungsarbeit versteht sich in dieser Hinsicht weniger auf die Setzung konkreter Werte im Einzelnen, als vielmehr auf die Etablierung struktureller Verhältnisse im Ganzen. In dieser Hinsicht kehrt sich die gestalterische Arbeit geradezu um, indem sie, wie Ehrenfels es zugrunde gelegt hat, weniger auf die austauschbaren Einzelbestandteile schaut, sondern vor allem auf die invarianten Beziehungen dazwischen, die nun nicht mehr als unsichtbare und unfassbare Phänomene über bzw. zwischen den Dingen schweben, sondern im parametrischen Entwurfsraum eine visuell wahrnehmbare Artikulation, eine Gestalt, erhalten.

5.1.3

Veränderung der Bestandteile

Neben der Austauschbarkeit und dem Vorhandensein struktureller Beziehungen zwischen den Bestandteilen der Wahrnehmung bringt Ehrenfels eine zeitlich-räumliche Dimension in die Diskussion mit ein, die weitere Anschlusspunkte für die parametrische Auseinandersetzung offenlegt. Ausgehend von der Beobachtung, dass Gestaltqualitäten nicht nur als momenthafte Erscheinungen an einer Gestalt ansichtig werden, sondern ebenso als Form der Veränderung – als Bewegung, als Transformation, als Intensivierung –, konstatiert Ehrenfels, dass »wir sämtliche möglichen Gestaltqualitäten durch eine vollständige Disjunktion in zeitliche und in unzeitliche einteilen« können.63 Was versteht Ehrenfels unter zeitlichen und unzeitlichen (auch zeitlosen) Gestaltqualitäten?64 Während die unzeitlichen Qualitäten in seinen Ausführungen verhältnismäßig schnell abgehandelt werden, zusammengefasst als die momenthaften und zum wahrgenommenen Zeitpunkt vollständigen Gestalten, dessen »Grundlage vollständig in der Wahrnehmungsvorstellung gegeben sein kann«,65 sind es vor allem die zeitlichen Gestaltqualitäten, denen Ehrenfels sich ausgiebiger widmet. Verstehen sich erstere auf singuläre, statische Momente, so sind es bei letzteren serielle, prozessuale Vorgänge, innerhalb derer sich Gestaltqualitäten offenbaren.66

62 63 64

65 66

Vgl. dazu zur Einführung auch Tedeschi (2014: 33ff). Ehrenfels (1890/1960: 21). In der späteren Rekapitulation seiner Abhandlung der Gestaltqualitäten (42 Jahre nach dem erstmaligem Erscheinen) benennt Ehrenfels die Kategorien auch als zeitliche und zeitlose Elemente. Vgl. Ehrenfels (1932/1960: 62). Ehrenfels (1890/1960: 22). Angestoßen durch Ehrenfels’ Untersuchungen erarbeitet Max Wertheimer 1912 sein Konzept zum Bewegungssehen, das später Grundlage für die experimentelle Ausarbeitung der visuellen Ge-

107

108

Prozess als Gestalt

Für die parametrische Diskussion sind vor allem letztere interessant, die zeitlichen Gestaltqualitäten, da sie eine aktive Form der Veränderung in sich tragen, d.h. eine Gestalt, die sich aus sich selbst heraus verändert und transformiert und dennoch strukturell unverändert bleibt. Entsprechend ist es gerade die Prozessualität der Veränderung, durch die eine Gestaltqualität ansichtig wird. Dazu benennt von Ehrenfels etwa ein »Steigen, Erröten, ein Abkühlen«,67 als auch ein »Fallen, Steigen, Rotieren«.68 Es sind Formen einer dynamischen Gestalt, die sich nicht aus einem starren, momenthaften Zustand ergeben, sondern gerade durch ihre prozessuale Unvollständigkeit eine besondere Qualität offenbaren, und welche dabei als gedachter, zeitlicher Rück- und Vorgriff prozessiert wird, in Form von »Erinnerungs- und Erwartungsbilder[n]«.69 Die Veränderungszustände, die Ehrenfels beschreibt, lassen den Begriff der Gestalt demnach nicht mehr als statisches, singuläres Phänomen, sondern als Prozess denken. Eben in dieser Hinsicht sind die Parallelen zum parametrischen Feld evident, ebendann, wenn es um die Gestaltung serieller Inhalte geht, die Veränderungsprozesse auf sich vereinen, in Form von Animationen, Entwurfsserien und Iterationen. Verhandelt Ehrenfels in seinen Überlegungen die zeitlich-räumliche Dimension als kognitive Konstruktion, so erfährt diese im parametrischen Entwurfsraum eine visuelle Repräsentanz; durch veranschaulichte, zeitliche Vorgänge, in denen der Gestalter weniger konkrete Einzeldinge, als vielmehr prozessuale Sequenzen gestaltet.70 Dies erfolgt in Form von Interpolationen, die zwischen einzelnen vom Gestalter gesetzten Keyframes durch das Programm berechnet werden und welche weitestgehend linear, d.h. richtungsgewiesen, verlaufen. In der Diskussion um zeitliche Zusammenhänge geht auch Ehrenfels auf die Formen einer linearen und einer non-linearen Zeitlichkeit ein, welche im parametrischen Sinne als Interpolation und Extrapolation betrachtet werden können.71 Ehrenfels benennt Ersteres als »Zwischenglied zwischen zwei bekannten Richtun-

67 68 69

70

71

staltgesetze war, die im zweiten Teil der Erörterung Ausgangspunkt der Diskussion sind. Vgl. Wertheimer (1912); Fitzek; Salber (2012: 40ff). Ehrenfels (1890/1960: 25). Ehrenfels (1890/1960: 21). »Bei zeitlichen Gestaltqualitäten kann folgerichtig höchstens ein Element in der Wahrnehmungsvorstellung gegeben sein, während die übrigen als Erinnerungs- (oder als auf die Zukunft gerichtete Erwartungs)Bilder vorliegen.« Ebd.: 22. Dies betrifft jedes CAD-Programm, das mit Animationen und Keyframes operiert. Hier seien etwa exemplarisch Maxon Cinema 4D, Adobe After Effects und Adobe Premiere benannt, die sowohl im Produkt-, dem Grafikdesign als auch der Filmproduktion etabliert sind. Ehrenfels beschreibt es wie folgt: »Hierbei sei vor allem hervorgehoben, daß jede Veränderung irgendeines Vorstellungsinhaltes nach irgendeiner bestimmten Richtung eine zeitliche Gestaltqualität zur Folge hat, […] Dies kann man daraus erkennen, daß […] jede Veränderung nach einer bestimmten Richtung als etwas Einheitliches gefaßt werden kann […].« Ehrenfels (1890/1960: 25-26). Ehrenfels will weiter jedoch nicht ganz ausschließen, dass sich auch eine sprunghafte, inkohärente Veränderung von Gestaltqualitäten offenbaren könnte: »Nur bei Veränderungen, welche selbst wieder so wechselvoll sind, daß sie nirgends als Fortschreiten in einer bestimmten Richtung aufgefaßt werden können, mag es an sich zweifelhaft bleiben, ob in ihnen Gestaltqualitäten gegeben seien. Doch forderhier schon die Analogie und ihr möglicher Übergang in stetige Veränderungen, ihnen Gestaltqualitäten nicht abzusprechen, sondern vielmehr einen beständigen Wechsel derselben zuzuschreiben.« Ebd.

5. Gestalt und Parametrie

gen«, Letzteres als »Fortsetzung des Kontinuums in eine gegebene Richtung«.72 Als Interpolation gilt dabei in allgemeiner Hinsicht eine (mathematische) Berechnung, die zwischen mindestens zwei gesetzten Zuständen durch das Entwurfsprogramm bzw. im weitesten Sinn durch einen Computer durchgeführt wird.73 Der Gestalter übernimmt dabei die Aufgabe, die Werte ausgewählter Parameter selbst zu setzen und die Übergänge zwischen ihnen berechnen zu lassen. Darin offenbart sich eine Entwurfsbandbreite in serieller Form, welche nicht mehr im Modus eines proaktiven Erschaffens, sondern im Modus der Wahl erfolgt. Anschaulich wird die Interpolation im praktischen Entwerfen etwa an der Konstruktion von Übergängen zwischen zwei oder mehreren bekannten Elementen im Sinne eines Morphings,74 der Erstellung neuer Flächen durch zwei oder mehr bekannte Kurven oder anhand der Setzung von Keyframes in Animationen. Jeweils sind es durch den Gestalter gesetzte Parameter, zwischen welchen neue Formen des Übergangs interpoliert werden. Dies lässt sich im Ehrenfels’schen Sinne als lineare Veränderung verstehen, da der Anfang wie auch dessen Ende eine eindeutige Richtung definieren. Mit Extrapolation ist im Gegensatz dazu allgemein hin eine Form der Veränderung gemeint, die Inhalte außerhalb eines festgelegten Bereiches generiert, sich jedoch aus der inneren Beschaffenheit der Elemente ableitet.75 Der Gestalter setzt die entsprechenden Parameter so, dass ihnen eine gewisse Unschärfe und Ergebnisoffenheit zugesprochen werden kann. Anschaulich wird dies etwa an programmspezifischen Funktions-Komponenten, wie etwa dem weiter oben erwähnten Kloner-Objekt, welches eine zugeordnete Geometrie in verschiedenartiger Weise multipliziert, und in der Art und Weise seiner Beschaffenheit sowie der Anzahl der Multiplikationen nach vorne hin offen ist. Ebenso verhält es sich mit Deformer- und Effektor-Objekten,76 welche diverse Veränderungen der Geometrieeigenschaften bewirken und sich dabei nicht auf einen festgelegten Endwert, sondern einen reinen Manipulationswert verstehen, der für jeden Anwendungsfall neu verhandelt werden kann. Im Ehrenfels’schen Sinne zeigt sich daran insofern ein Moment der non-linearen Veränderung, als dass die Unmittelbarkeit 72

73 74

75 76

Ebd.: 37. Vgl. dazu auch Funke (2003: 20), der die Formen der Interpolation und Extrapolation in Anlehnung an Frederic Charles Bartlett auf das problemlösende Denken als »Füllen von Lücken« anwendet: »Je nach der Art der Lücke unterscheidet er [Bartlett] zwischen zwei Arten der erforderlichen Aktivität zu ihrer Beseitigung: Interpolation, die die Lücke zwischen zwei bekannten Enden schließt, und Extrapolation, die von einem gegebenen Ende aus weiter ins Ungewisse gerichtet ist.« Ebd. Vgl. dazu auch Duden (2007: 927), interpolieren: »1. (Math.) Werte zwischen bekannten Werten einer Funktion errechnen.« Ein Morphing lässt sich dabei als die sequenzielle Veränderung von Form verstehen, wie Goethe sie einst –rund 100 Jahre vor Ehrenfels – in seinen Morphologie-Studien für die Botanik, verhandelt hat. Vgl. Goethe (1790). Innerhalb der digitalen Gegenwart erhält die Veränderung resp. das Wachstum von Formen (und Farben) als Morphing eine proaktiv kontrollierbare Dimension, wenn Zustände über multiple Stufen ineinander übergehen bzw. miteinander verwachsen. Anschaulich werden solche Funktionen etwa in Adobe Illustrator anhand des ›Angleichen‹-Werkzeuges oder dem ›Metaball‹-Effektor in Maxon Cinema 4D. Duden (2007: 562), extrapolieren: »1. (Math.) Funktionswerte außerhalb eines Intervalls aufgrund der innerhalb dieses Intervalls bekannten Funktionswerte näherungsweise bestimmen.« Etwa ein Biege-, Stauchen- oder Abwicklungs-Deformer. Vgl. dazu auch eine Einführung in die Grundlagen von Maxon Cinema 4D bei Sondermann (2010).

109

110

Prozess als Gestalt

der Veränderung und die Unvorhersehbarkeit des ausgegebenen Resultates eine Form des disruptiven gestalterischen Denkens annimmt, wie es für das parametrische Entwerfen in Form eines spielerischen Experimentierens als charakteristisch anzunehmen ist und welches weiter unten im Zusammenhang mit dem Begriff der Kreativität noch zentraler Gegenstand der Betrachtung sein soll.77

5.1.4

Unendlichkeit der Gestalt

Mit der Einbeziehung des Faktors der Zeit geht eine weitere Überlegung einher, welche sich auf die Fülle des zeitlichen Raumes versteht. Es wurde dargelegt, dass zeitliche Gestaltqualitäten solche sind, die eine Form der Bewegung resp. der zeitlichen Veränderung verkörpern. Eine Bewegung kann dabei als Interpolation bzw. als Extrapolation verstanden werden, in deren sequenzieller Abfolge eine Vielzahl von Zwischenzuständen entsteht. Jeder dieser Zwischenzustände verkörpert nach Ehrenfels eine jeweils neue Gestalt, als Variablen z1 , z2 , z3 , … zn .78 Die Variable zn definiert dabei nicht nur etwa eine Anzahl finiter, sondern infiniter Zustände und damit gleichsam eine Zahl unendlich vieler darin angelegter Gestalten. Ehrenfels umschreibt damit abstrakt, dass Gestaltqualitäten im Modus der Bewegung eine unendliche Menge annehmen, die in dieser zwar nicht zu jedem Zeitpunkt gleichzeitig sichtbar resp. wahrnehmbar wird, jedoch nichtsdestoweniger fortwährend vorhanden ist. Damit konstatiert er, dass bereits alle Formen der Veränderung in einer Ausgangsgestalt angelegt sind und dass die einzelnen Zwischenstadien lediglich Stillstände bzw. Konfigurationen der gleichen Gesamt-Gestalt darstellen. Er führt dies am grafischen Beispiel eines weißen Vierecks auf schwarzem Grund aus, das durch dessen Zerteilung neue Gestaltqualitäten offenbart, die im Umkehrschluss bereits alle in der Ausgangsgestalt vorhanden sein müssen.79 Ehrenfels veranschaulicht damit eine Annahme, die in bedeutsamen Maß auch für das parametrische Entwerfen zutrifft, nämlich dass ›alles‹ bereits im und als Prozess vorhanden ist. Er beschreibt in seinem Beispiel die Veränderung einer Gestalt zu mehreren Gestaltqualitäten, ebendann, wenn ein Grundkörper (schwarzes Viereck) in mehrere Dreiecke geteilt wird. Die Teilung markiert nicht etwa einen Teilschritt der Neuschöpfung, sondern einen der Transformation. Die Kohärenz zum Ausgangsgegen-

77 78 79

Vgl. dazu weiter unten Kapitel 7 ›Kreativität und Parametrie‹ und dort insbesondere Kapitel 7.4 ›Spiel und Integration‹. Vgl. Ehrenfels (1890/1960: 25-26). »Gesetzt, wir hätten im Gesichtsfelde nichts anderes als ein weißes Viereck auf schwarzem Grunde, so folgt aus dem Vorhergehenden, daß die Vorstellung der betreffenden Gestalten (des Vierecks einerseits und des nach dem Sehfelde geformten schwarzen Ovales mit der viereckigen inneren Begrenzung andererseits) eo ipso im Bewußtsein enthalten sind. Nun kann man sich aber das Viereck durch eine Diagonale in zwei Dreiecke, durch zwei Diagonalen in vier Dreiecke zerlegt denken, man kann in jedes dieser Dreiecke jede beliebige Figur eingezeichnet denken, ebenso in die schwarze umliegende Fläche an jeder beliebigen Stehe. Alle diese Gestalten besitzen zur Grundlage nichts, was nicht schon in der ursprünglichen schwarzen Fläche mit dem weißen Viereck enthalten gewesen wäre. Gilt also der Satz, daß mit jeder Grundlage auch die ihr zugehörige Gestaltqualität psychisch gegeben sei, so müßte anscheinend mit dem kleinsten Flächenkontinuum die unendliche Menge aller denkbarer Flächengestalten vorliegen.« Ebd.: 40.

5. Gestalt und Parametrie

stand bleibt demnach erhalten, auch wenn sie nach multiplen Transformationsschritten nicht mehr unmittelbar visuell zu erkennen ist. Was Ehrenfels an einer annähernd banal erscheinenden Grundform anschaulich zu machen sucht, erfährt im parametrischen Entwurfskontext eine gesteigerte Komplexität, da die Möglichkeiten der Transformation sich eben nicht nur auf Grundfunktionen des ›Trennens‹ oder ›Zusammenfügens‹ verstehen, sondern ebenso algorithmische und non-lineare Verformungen sowie parametrische und non-parametrische Berechnungen miteinbeziehen,80 welche nur über Zwischenebenen der Interaktion (Presets, Interfaces) resp. über Wichtungen gesteuert werden können. Dennoch sind die Grundfunktionen auch im parametrischen Entwerfen zu Beginn des Entwurfsprozesses zumeist solche, die sich auf einfache Handlungsanweisungen bzw. simple Funktionsschritte wie ein Subtrahieren, Addieren oder Verschieben verstehen. So erfolgt die 3D-Modellierung im CAD-Programm Solid Works vorrangig dadurch, dass zu Beginn ein simpler Volumengrundkörper erstellt wird und dieser durch historisch reversible Transformationsschritte (Addieren, Subtrahieren, Trimmen etc.) zu einem immer komplexeren Gebilde bearbeitet wird, dass den Entwurfsansprüchen gerecht wird.81 Es zeigt sich daran anschaulich, dass in der eigentlichen Basis, dem Grundkörper, im Ehrenfels’schen Sinne bereits alle Möglichkeiten der Bearbeitung vorhanden, bzw. anschlussfähig sind. Es sind simple Grundkonfigurationen, aus denen etwas Komplexes entsteht, wenn Transformationsprozesse auf den Entwurfsgegenstand angewendet werden. Nicht nur in der Herstellung von Entwürfen, sondern auch in der späteren Wahrnehmung der Resultate lässt sich Ehrenfels’ Prinzip ausmachen, etwa, wenn der Prozess eine (Unendlichkeits-)Gestalt annimmt, in welcher die letzte gefertigte und auf Dauer gestellte Form allenfalls eine Möglichkeit von vielen darstellt. Anschaulich wird dies etwa an diversen Beispielen aus der Architektur; so etwa anhand der Entwürfe des Londoner Architektur-Büros Zaha Hadid, welche durch ihre oftmals geschwungene, polymorphe und integrative Formgebung der sie umgebenden (Natur-)Landschaft ein geradezu künstlich-technifiziertes Pendant gegenüberstellen, das sowohl mit dessen Umgebung zu verschmelzen scheint als sich auch gleichzeitig als autarke und selbstreferenzielle Einheit ihr gegenüber zu behaupten sucht. Die Entwürfe sind von fließenden

80

81

Non-parametrische Berechnungen verstehen sich, im Gegensatz zu parametrischen, nicht auf die apriorische Definition einer Modellstruktur. Diese wird vielmehr erst in der Auswertung der Daten ermittelt und fortwährend flexibel und dynamisch verfestigt. Entsprechend sind an der Artikulation non-parametrischer Modelle selbstlernende Systeme beteiligt, wie sie weiter unten in Form von künstlich neuronalen Netzwerken noch näher ausgeführt werden sollen. Vgl. Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹. Vgl. zu den Begriffen der parametrischen und non-parametrischen Berechnung auch Alpaydin (2016: 58ff). In dieser Hinsicht wäre eine solche Herangehensweise der Praxis als Wiederbelebung des aristotelischen Hylemorphismus zu verstehen resp. als Auffassung dessen Substanzontologie, die besagt, dass Materie (gr. ›hyle, potentia‹) und Form (gr. ›morphe, eidos, logos‹) als komplementäre Grundprinzipien nebeneinander bestehen und durch Transformationsprozesse miteinander korrelieren. Vgl. Aristoteles (1991: VIII 1, 1042a 25-31, VII 3, 1028b 33 – 1029a 34, XII 1-3, 1069a 18 – 1070a 30); ebenso Aristoteles’ Schrift ›Über Werden und Vergehen‹ bei Aristoteles (2011). Vgl. dazu ferner auch Rubini (2015: 68ff).

111

112

Prozess als Gestalt

Formübergängen und repetitiven Strukturen geprägt, die in ihrer Eigenart einer übergeordneten Grammatik zu folgen scheinen, dessen konkrete Ausformung suggeriert, dass sie jeweils nur eine von unendlich vielen Formartikulationen darstellt. Die Gebäudeentwürfe wirken wie interpolierte Stillstände eines fließenden Prozesses, die so, oder auch ganz anders aussehen könnten, würden die konkreten Werte der formgebenden Parameter nur vereinzelt etwas abgewandelt werden. An ihnen offenbaren sich jene invarianten, inneren Strukturgesetze, durch welche der Betrachter das Gleiche im Verschiedenen erkennt und sie als Antizipation von Veränderung, als prozessuale Gestalt, wahrnimmt. Es sind keine Einzelteile mehr ersichtlich, sondern parametrisch erzeugte Ganzheiten, fließende Übergänge und Interpolationen, die sich in Hinblick auf die unzähligen Variationen und Transformationen als Unendlichkeiten offenbaren, aus denen sich die Gestalt mitsamt ihrer Qualitäten ergibt.

5.1.5

Höhe und Reinheit der Gestalt

Ausgehend von den Überlegungen zur Unendlichkeit und dem Umstand, dass in der Gestalt bereits alle Formen des Veränderbaren und damit alle davon abzuleitenden Gestalten vorhanden sind, ist nun umso dringender nach einer Möglichkeit der Klassifizierung zu fragen, welche mit Hinblick auf Gestaltung eine ordnende Dimension in die Überlegungen mit einbringt. Ehrenfels beschreibt dazu in seiner ›Kosmogonie‹ von 1916 eine Methode, um jeder Gestalt eine gewisse Höhe von Gestaltung zuzuweisen.82 Er benennt darin zwei Kategorien der Klassifizierung, jene der Reinheit und jene der Mannigfaltigkeit (resp. Höhe), die er an einfachen Beispielen, etwa im Vergleich einer Rose mit einem Sandhaufen, veranschaulicht.83 Für Ehrenfels liegt es auf der Hand, dass die Rose eine unmittelbare höhere Gestalt aufweist als der Sandhaufen, eben weil erstere in ihrer Ausprägung eine augenscheinlich komplexere Form aufweist und darüber hinaus über eine (biologisch-natürliche) Regelmäßigkeit verfügt, die sich als bestimmte höherwertige Ordnung und damit nicht zuletzt als schön offenbart.84 Eine Klassifizierung der Gestalt ergibt sich entsprechend dann, sofern die Merkmale der Höhe (Komplexität) und der Reinheit (Ordnung) gegeneinander abgewägt, proportional ins Verhältnis gesetzt und somit als vermeintlich objektiver Wertmaßstab in Anwendung

82 83 84

Vgl. Ehrenfels (1916/1960: 44). Vgl. Ebd. »Die Höhe der Gestalt wächst mit dem Produkt ihrer Konstituanten, ihrer Einheitlichkeit und der Mannigfaltigkeit ihrer Teile.« Ehrenfels (1922/1960: 50). Daraus leitet Ehrenfels einen vermeintlich ›objektiven‹ Schönheitsbegriff ab: »Was wir ›Schönheit‹ nennen, ist nichts anderes als ›Höhe der Gestalt‹«. Ebd. Ähnlich versuchte sich Max Bill an der Formulierung eines Regulativs zur Bestimmung des Schönen auf Basis des Gestalt-Begriffs, als »harmonischer ausdruck der summe aller funktionen«. Bill (1956/2008a: 101). Den Begriff der Schönheit schaltet Bill dabei mit den Begriffen der Form und der Kunst gleich: »da form die: [summe aller funktionen in harmonischer einheit] bedeutet, und: [form = kunst = schönheit] ist, liegt der Schluss nahe, dass auch kunst, als die: [summe aller funktionen in harmonischer einheit] definiert werden kann, und desgleichen schönheit.« Ebd.: 102. Er schließt jedoch den Vermerk an, dass die Qualität der Form – wie auch die der Schönheit – nicht etwa objektiv, sondern relativ ist. Vgl. Ebd.

5. Gestalt und Parametrie

gebracht werden.85 Ehrenfels Ansatz, die Höhe einer Gestalt zu ermitteln, besteht nun darin, die äußerlich wahrnehmbare Komplexität einer Gestalt sukzessiv zu reduzieren und die Teilschritte dabei zu quantifizieren: »Man denke sich die betreffenden Gestalten (eine Rose — einen Sandhaufen) durch zufällige, regellose Eingriffe schrittweise abgetragen. Welche der beiden Gestalten hierbei die weitere Skala von Veränderungen durchläuft, dies ist die höhere.«86 Ehrenfels konstatiert damit einen empirisch-reduktionistischen Ansatz, im »Übergang von Gestaltetem in Ungestaltetes« resp. von »höher zu niedriger Gestaltetem«,87 der zwar darum bemüht ist, eine strukturelle Ordnung in den Dingen anzulegen, jedoch nur vage umreißt, durch welche Mittel und Wege eine solche Klassifizierung erzielt werden kann. Ehrenfels beschreibt es noch weitestgehend undefiniert als zufällige, regellose Eingriffe, jedoch muss es sich dabei zwangsläufig um Formeigenschaften der Regelmäßigkeit handeln – Symmetrie, Farbe, Kontrast, Gleichförmigkeit etc. –, gemäß welcher die Gestalt reduziert resp. zerlegt wird und welche dem menschlichen Sehen als erkennendes Sehen von Mustern unabdingbar vorausgehen.88 Eben darin besteht der Anknüpfungspunkt zur parametrischen Diskussion, wenn die Reduktion von Komplexität (Mannigfaltigkeit), die Herstellung von Ordnung (Reinheit) und die daran beteiligten Gesetzmäßigkeiten in den Fokus rücken, nach denen die wesentlichen Strukturen aus den Gestalten extrahiert werden können.89 Entsprechend stehen im Folgenden nicht al-

85

86 87 88

89

In psychologischer Hinsicht und im Zusammenhang mit der Wahrnehmung von Ganzheiten als Gestalten erscheint Ehrenfels’ Ansatz der Einteilung in Reinheit und Mannigfaltigkeit als ein zaghafter Versuch, die Phänomene unter ästhetischen Gesichtspunkten zu sortieren. In einer weiteren Entwicklung erfährt dieser Ansatz vor allem in den 1960er-Jahren eine Erweiterung, nicht zuletzt durch Max Benses Konzept einer »abstrakt-mathematischen Ästhetik«, welche die Erzeugung von Ordnung zum funktionalen und ästhetischen Ziel hatte. Bense (1966/2004: 209). Jochen Gros überführt die Auseinandersetzung in einen designmethodologischen Ansatz der mathemischen Berechenbarkeit, innerhalb welchem er die Gestalthöhe und die Gestaltreinheit mit den Koeffizienten der Ordnung (O) und Komplexität (C) zu fassen versucht. Die Formel für Gestalthöhe lautet bei Gros entsprechend Gh = O * C, für Gestaltreinheit Gr = O/C. Beide sind Ausgangspunkt für die von ihm dargebotene ›Dialektik der Gestaltung‹. Vgl. Gros (1970: 14ff). Vgl. ferner auch die Übersicht der historischen und methodologischen Entwicklungen bei Bürdek (2015: 156). Ehrenfels (1916/1960: 44). Ebd. Vgl. Arnheim (1947/1980 : 31, 40). Vgl. dazu ebenso die Ausführungen Wolfgang Welschs, welcher das musterhafte Erkennen von Verhältnissen als höherstufige und distanzierte, als ästhetische Wahrnehmung beschreibt, die sich von einer simplen Wahrnehmung abgrenzt: Während sich letztere auf die unreflektierten Gegebenheiten richtet, etwa darauf, dass etwas rot ist, setzen in Welschs Modell einer ästhetischen Wahrnehmung umfangreichere Prozesse der Verhältnisbildung ein, welche das Rot etwa in einen Komplementärkontrast zu Grün stellen oder seine Bedeutsamkeit im Kompositionsgefüge des Wahrnehmungsbildes ergründen wollen. Vgl. Welsch (1996: 28). Dieser Prozess ist einerseits der menschlichen Wahrnehmung zu eigen, in Form von Gestaltgesetzen (vgl. Wertheimer (1923); Metzger (1936/1953); Katz (1943/1969); Köhler (1971); Seyler (2013/2014); Heimann; Schütz (2018)), andererseits als technisch-mediale Rekonstruktion, durch künstliche neuronale Netzwerke (vgl. Kruse; Borgelt; Klawonn; Moewes; Steinbrecher; Held (2013); Alpaydin (2016); Goodfellow; Bengio; Courville (2016)). Beides sei im folgenden Kapitel noch ausführlicher behandelt.

113

114

Prozess als Gestalt

lein die transformativen Prozesse des menschlichen Sehens im Fokus der Diskussion, sondern gleichsam die computationalen Bedingungen eines technischen Erkennens, das Ersteres reproduziert.

5.2

Gesetz und Gestalt

Die menschliche Wahrnehmung ist, auf Grundlage der Ehrenfels’schen Erörterung, eine Wahrnehmung von Gestalten.90 Was den Gestalten zu eigen ist und ihre Höhe resp. ihre spezifische Qualität ausmacht, ist ein grundlegendes Maß an Gestaltung. In seiner ›Kosmogonie‹ (1916) und dem ›Primzahlengesetz‹ (1922) führt Ehrenfels mitunter aus, wie es sich mit der Konstitution von Gestalten verhält und nach welchen Prinzipien diese aufgebaut resp. gestaltet sind.91 Bei diesen Prinzipien handelt es sich einerseits um die Tendenz zur Einheitsbildung – durch Ordnung, Gesetzmäßigkeit und Gestalt –, andererseits um die Ausdifferenzierung von Mannigfaltigkeit, d.h. durch ein bewusst eingebrachtes Anderes, das in der Synthese der Phänomene die Bildung höherer Gestalten erst ermöglicht.92 Für die praktische Gestaltung sei dies an dieser Stelle so zu verstehen, dass ersteres, das Streben nach Einheit, Ordnung und Einfachheit, eine der menschlichen Wahrnehmung immanente und unhintergehbare Tendenz beschreibt,93 und Letzteres, die Artikulation und Einbringung von Mannigfaltigkeit, das proaktive, gestalterische Handeln benennt, d.h. die äußere Fremdeinwirkung auf eine Wahrnehmungsgestalt und die Synthese neuer und bestehender Inhalte.94 Es ist offensichtlich, dass beide Sphären nicht ohneeinander wirksam werden können und sich im wechselseitigen Verhältnis zueinander befinden. Es gilt daher, im Folgenden zunächst zu klären, auf welche Prinzipien die menschliche Wahrnehmung zurückgeführt werden kann, bevor die Frage nach der technischen Reproduktion der Phänomene die Anbindung an 90

91 92

93 94

Dies bildet auch die zentrale Aussage der ›Kosmogonie‹, welche sich im Kern darauf versteht, dass »Gestalten wirklich die letzten Fundamente und Elemente der Wirklichkeit, das tragende ›Geschehen‹ und die tragenden ›Strukturen‹ der Wirklichkeit« sind. Weinhandl (1960: 5). In dieser Hinsicht versteht Ehrenfels die »Welt als Gestalt«. Ebd.: 7. Gestalten leiten damit dazu an, durch ihre äußere Erscheinung über ihre wesentliche Konstitution und Eigenarten zu informieren; nicht nur über ihre eigenen, sondern auch über die der Kategorie von Dingen, denen sie angehören. Arnheim spricht der Gestalt in dieser Hinsicht eine doppelte Bedeutung zu; eine, die sich auf den eigenen Gestalttyp, und eine weitere, die sich auf die Form ganzer Objekttypen versteht. Vgl. dazu weiter Arnheim (2000: 93ff). Vgl. Ehrenfels (1916/2006/1916); Ehrenfels (1922). »Was besagt die Rede von ›Gestaltung‹ im Sinne von Ehrenfels? Sie besagt, daß hier einerseits eine Tendenz zur Einheitsbildung, zur Ordnung, Gesetzmäßigkeit und Gestalt, das ›henogene‹ Prinzip, das ›Gestaltungsprinzip‹ wirksam ist. Andererseits geht es dabei zugleich aber immer auch um ein in diese jeweilige Einheit noch nicht eingefügtes Mannigfaltiges, Äußeres, Fremdes, Anderes, das der Einheit zum ›Vorwurf‹ und ›Anreiz‹ wird und damit in irgendeiner Weise zur ›Synthese‹ gebracht wird, so daß es zu Einfügungen und Anpassungen, ja zu immer neuen und ›höheren‹ Gestalten kommt. Ehrenfels nennt dieses Faktum, dieses Urphänomen der ›Mannigfaltigkeit‹ das ›chaotogene‹ Prinzip.« Weinhandl (1960: 6). Vgl. Arnheim (2000: 57ff); Seyler (2013/2014: 19ff). Heimann und Schütz führen dazu an, dass der Designer es demnach verstehen müsse, im Sinne der menschlichen Wahrnehmung unter Berücksichtigung der dieser vorausgehenden Gesetzmäßigkeiten zu gestalten. Vgl. Heimann; Schütz (2018: 192, 197).

114

Prozess als Gestalt

lein die transformativen Prozesse des menschlichen Sehens im Fokus der Diskussion, sondern gleichsam die computationalen Bedingungen eines technischen Erkennens, das Ersteres reproduziert.

5.2

Gesetz und Gestalt

Die menschliche Wahrnehmung ist, auf Grundlage der Ehrenfels’schen Erörterung, eine Wahrnehmung von Gestalten.90 Was den Gestalten zu eigen ist und ihre Höhe resp. ihre spezifische Qualität ausmacht, ist ein grundlegendes Maß an Gestaltung. In seiner ›Kosmogonie‹ (1916) und dem ›Primzahlengesetz‹ (1922) führt Ehrenfels mitunter aus, wie es sich mit der Konstitution von Gestalten verhält und nach welchen Prinzipien diese aufgebaut resp. gestaltet sind.91 Bei diesen Prinzipien handelt es sich einerseits um die Tendenz zur Einheitsbildung – durch Ordnung, Gesetzmäßigkeit und Gestalt –, andererseits um die Ausdifferenzierung von Mannigfaltigkeit, d.h. durch ein bewusst eingebrachtes Anderes, das in der Synthese der Phänomene die Bildung höherer Gestalten erst ermöglicht.92 Für die praktische Gestaltung sei dies an dieser Stelle so zu verstehen, dass ersteres, das Streben nach Einheit, Ordnung und Einfachheit, eine der menschlichen Wahrnehmung immanente und unhintergehbare Tendenz beschreibt,93 und Letzteres, die Artikulation und Einbringung von Mannigfaltigkeit, das proaktive, gestalterische Handeln benennt, d.h. die äußere Fremdeinwirkung auf eine Wahrnehmungsgestalt und die Synthese neuer und bestehender Inhalte.94 Es ist offensichtlich, dass beide Sphären nicht ohneeinander wirksam werden können und sich im wechselseitigen Verhältnis zueinander befinden. Es gilt daher, im Folgenden zunächst zu klären, auf welche Prinzipien die menschliche Wahrnehmung zurückgeführt werden kann, bevor die Frage nach der technischen Reproduktion der Phänomene die Anbindung an 90

91 92

93 94

Dies bildet auch die zentrale Aussage der ›Kosmogonie‹, welche sich im Kern darauf versteht, dass »Gestalten wirklich die letzten Fundamente und Elemente der Wirklichkeit, das tragende ›Geschehen‹ und die tragenden ›Strukturen‹ der Wirklichkeit« sind. Weinhandl (1960: 5). In dieser Hinsicht versteht Ehrenfels die »Welt als Gestalt«. Ebd.: 7. Gestalten leiten damit dazu an, durch ihre äußere Erscheinung über ihre wesentliche Konstitution und Eigenarten zu informieren; nicht nur über ihre eigenen, sondern auch über die der Kategorie von Dingen, denen sie angehören. Arnheim spricht der Gestalt in dieser Hinsicht eine doppelte Bedeutung zu; eine, die sich auf den eigenen Gestalttyp, und eine weitere, die sich auf die Form ganzer Objekttypen versteht. Vgl. dazu weiter Arnheim (2000: 93ff). Vgl. Ehrenfels (1916/2006/1916); Ehrenfels (1922). »Was besagt die Rede von ›Gestaltung‹ im Sinne von Ehrenfels? Sie besagt, daß hier einerseits eine Tendenz zur Einheitsbildung, zur Ordnung, Gesetzmäßigkeit und Gestalt, das ›henogene‹ Prinzip, das ›Gestaltungsprinzip‹ wirksam ist. Andererseits geht es dabei zugleich aber immer auch um ein in diese jeweilige Einheit noch nicht eingefügtes Mannigfaltiges, Äußeres, Fremdes, Anderes, das der Einheit zum ›Vorwurf‹ und ›Anreiz‹ wird und damit in irgendeiner Weise zur ›Synthese‹ gebracht wird, so daß es zu Einfügungen und Anpassungen, ja zu immer neuen und ›höheren‹ Gestalten kommt. Ehrenfels nennt dieses Faktum, dieses Urphänomen der ›Mannigfaltigkeit‹ das ›chaotogene‹ Prinzip.« Weinhandl (1960: 6). Vgl. Arnheim (2000: 57ff); Seyler (2013/2014: 19ff). Heimann und Schütz führen dazu an, dass der Designer es demnach verstehen müsse, im Sinne der menschlichen Wahrnehmung unter Berücksichtigung der dieser vorausgehenden Gesetzmäßigkeiten zu gestalten. Vgl. Heimann; Schütz (2018: 192, 197).

5. Gestalt und Parametrie

die gestalterische Praxis vorbereiten soll. Dafür sollen in einem ersten Schritt zunächst die von Max Wertheimer im Jahr 1923 angeführten Gestaltgesetze knapp ausgeführt, in den Zusammenhang der Diskussion gestellt und ferner die übergreifenden Phänomene der Gestaltwahrnehmung angeführt werden, bevor in einem zweiten Schritt nach den technisch-computationalen Prozessen gefragt werden soll, mit denen sich Phänomene der Gestalt- und Mustererkennung veranschaulichen lassen. Dazu sollen vor allem Methoden und Erkenntnisse aus dem Feld der künstlichen Intelligenzforschung, und dort insbesondere Prinzipien des maschinellen Lernens mittels künstlich neuronaler Netzwerke (KNN) in die Diskussion miteingebracht werden, durch welche sich das Feld der menschlichen Wahrnehmung um bedeutsame Dimensionen erweitern und dadurch neu fragen lässt, wie mit dieser Entwicklung gestalterisch umzugehen ist.

5.2.1

Gesetze des menschlichen Sehens

Nachdem Christian von Ehrenfels 1890 die Grundüberlegungen zur Gestaltwahrnehmung von Ganzheiten anschaulich gemacht und eine neue Ausrichtung der psychologischen Forschung angestoßen hat, konnten die Erkenntnisse auf konkrete Phänomene übertragen und in empirischen Forschungsreihen weiter ausdifferenziert werden. Einen großen Beitrag dazu leistete Max Wertheimers Schrift ›Untersuchungen zur Lehre von Gestalt‹ von 1923, in welcher er auf Basis der Ehrenfels’schen Ganzheitskonzeption einleitend nach etwaigen Prinzipien fragt, nach welchen entweder eine »Geteiltheit« oder »Zusammengefaßtheit« in der menschlichen Wahrnehmung entsteht.95 Wertheimer fokussiert sich in seinen frühen Untersuchungen entsprechend auf die visuelle Praxis des Wahrnehmungsvorganges und bezieht dabei die menschlich-physiologischen Bedingungen mit ein, wenn er von hergestellten Reizkonstellationen, Aufmerksamkeitsverteilung, Spontanität, labilen und stabilen Seheindrücken bei dieser oder jener Gestaltrezeption spricht.96 Dem voranzustellen sind jedoch zwei grundsätzliche Bedingungen, die der Wahrnehmung vorausgehen; eine auf physiologischer und eine auf psychologischer Ebene. Gemäß Ersterem ist anzumerken, dass der menschliche Sehsinn maßgeblich durch das Wahrnehmen von Kontrasten bestimmt ist und dies eine bedeutsame Grundlage für die Objekterkennung bildet.97 Farb- und Helligkeitswerte werden dabei durch einzelne Rezeptorzellen aufgenommen und in neuronalen

95

96 97

Wertheimer (1923: 302). Den Hintergrund dazu bilden Wertheimers Experimente mit der Wahrnehmung von Bewegung. Wertheimer beobachtete in der Betrachtung von nacheinander abgespielten Bildsequenzen (durch die sog. Apparatur des Tachistokops), dass auch dort Phänomene von Bewegung wahrgenommen werden, wo die entsprechende Reizgrundlage fehlte. Vgl. Wertheimer (1912). Er konnte damit anschaulich belegen, dass die Wahrnehmung von Gestalten nicht a priori in den Phänomenen angelegt ist, sondern dass diese gedankliche Produktionen sein müssten (er subsumiert dies unter der Begrifflichkeit des Phi-Phänomens). Sofern dies der Fall sei, müsse es demnach Grundlagen, Prinzipien und Gesetzmäßigkeiten geben, die an der Produktion ebenjener Gestalten beteiligt sind. Diese in seinen Grundzügen zu benennen versteht sich in diesem Zusammenhang als die besondere Leistung Wertheimers für das Feld der Wahrnehmungspsychologie. Vgl. dazu auch Fitzek; Salber (2012: 27ff). Vgl. Wertheimer (1923: 302, 304, 306, 307, 312, 313, 314, 339). Vgl. Roth (2015: 80).

115

116

Prozess als Gestalt

Verschachtelungen miteinander ins Verhältnis gesetzt. Dieser Prozess erfolgt zunächst auf rein physiologischer Ebene: Ein Kontrast bildet nicht zwangsläufig unmittelbar ein Objekt, eine Grenze oder eine Gestalt. Erst durch bestimmte Anordnungen resp. Konfigurationen der Kontraste und deren kognitive Transformation werden sie nicht mehr im Einzelnen, sondern als Gesamtheit, als Objekte und Gestalten, wahrnehmbar.98 Die Wahrnehmung von Kontrasten bildet demnach die notwendige physiologische Grundlage, um Gestalten als Ganzheit einer Reizkonfiguration wahrnehmen zu können. Die zweite Bedingung ist in psychologischer Hinsicht damit verbunden und besagt, dass die Wahrnehmung in bestimmten Konfigurationen die Folge einer langjährigen evolutionären Entwicklung ist, die sich sukzessiv an die menschlichen Lebensumstände und Bedingungen angepasst hat.99 Der Wahrnehmung sind die Gesetzmäßigkeiten ihrer evolutionären Konditionierung entsprechend vorgeschaltet, sodass diese in festgelegten Formen und gemäß automatisierter, kognitiver Mechanismen verläuft, die nicht abzulegen sind und entsprechend die grundlegenden Bedingungen der menschlichen Wahrnehmung ausmachen. Diese zu ergründen und anschaulich zu machen, verstand Wertheimer als Ziel seiner Arbeit. Aufbauend auf diesen Prämissen versteht sich die Auseinandersetzung mit den Prozessen der visuellen Wahrnehmung im Folgenden auf einen strukturellen Dreiklang, der sich aus den formalen (Gestalt-)Gesetzen, diesen übergeordneten Prinzipien und wiederum diesen untergeordneten Leistungen zusammensetzt. Die Betrachtung der Gestaltgesetze Wertheimers macht dabei zunächst in knapper Form anschaulich, wie die Wahrnehmung von Kontrastkonfigurationen und Relationszusammenhängen in formalen Gesetzen erfasst werden kann. Ferner lassen sich die ›Gesetze des Sehens‹, wie sie Wolfgang Metzger genannt und 1936 noch maßgeblich erweitert hat,100 nach Seyler zwei grundlegenden Prinzipien unterstellen, die als übergeordnete Tendenzen

Wie Roth es darlegt: »Kontraste allein ergeben aber noch keine Gestalten bzw. Objekte, sondern erst dann, wenn sie sich in einer ganz bestimmten Weise zusammenfügen, zum Beispiel wenn Linien oder Farben eine Fläche begrenzen. Dies geschieht in unserem Sehsystem meist völlig automatisiert, ja, geradezu zwanghaft.« Roth (2015: 80). Norman differenziert diese automatisierten Prozesse weiter aus, wenn er von den Transformationen spricht, die physikalische Einzelreize in psychologische Gestalten umwandeln: »Diese Transformationen extrahieren Information über Farbe, erhöhen die Konturschärfe, bestimmen die Größe und Richtung der Bewegung visueller Bilder, extrahieren Tonhöhe und Lautstärke von Schallbildern und bestimmen die räumlichen und zeitlichen Beziehungen visueller und akustischer Signale. Diese Transformationen sind von großem Nutzen für das Nervensystem, da sie gewaltig die Information vereinfachen, die an Analysiersysteme höherer Ordnung weitergeleitet werden muß.« Norman (1973: 57). Die Auswahl der zu verarbeitenden Reize erfolgt durch den menschlichen Aufmerksamkeitsmechanismus, der evolutionär vorgeprägt ist; durch Selektionsprozesse, die letztlich für jedes Lebewesen in verschiedener Art und Weise erfolgt sind und welche nur jene Inhalte in der Wahrnehmung berücksichtigen, die für das Überleben am notwendigsten erscheinen. Vgl. Sachsse (1984: 70). Eine eingehende Darstellung der Informationsverarbeitungsprozesse des menschlichen Sehsystems findet sich bei Lindsay; Norman (1973: 151ff). 99 Vgl. dazu die Erläuterungen Arnheims zum Phänomen der Selektiven Wahrnehmung, welche sich im Rahmen der evolutionären Entwicklung von Lebewesen an der jeweiligen Umwelt derselben ausrichtet. Vgl. Arnheim (1996: 29ff). 100 Vgl. Metzger (1936/1953). 98

5. Gestalt und Parametrie

der menschlichen Wahrnehmung unhintergehbare Prozesse anleiten: die Prinzipien der Übersummativität und der Einfachheit.101 Während diese zwei Prinzipien eine Klassifizierung auf oberster Ebene darstellen, sind es nach Sachsse vorrangig drei kognitive Leistungen auf unterster Ebene, welche die eigentlichen Transformationen der Wahrnehmungsinhalte bewerkstelligen: die Prägnanz-, Konstanz- und Differentialleistung.102 Dementsprechend sollen die Punkte in knapper Form dargelegt und somit die Struktur für die Besprechung der technischen Rekonstruktion der Prozesse gleich mit angelegt werden.

Abb. 04: Darstellung nach Wertheimer (1923: 304). Die Darstellung veranschaulicht Wertheimers Gesetz der Nähe, das besagt, dass zusammenliegende Elemente zumeist als Ganzheit wahrgenommen werden. Dementsprechend sind die Paare a-b, c-d, e-f usw. in der menschlichen Wahrnehmung einfacher zu bilden als Paarungen aus b-c, d-e, oder f-g.

1 0

3 2

5 4

7 6

9 8







Wertheimer (1923: 304).

Kognitive Gestaltgesetze Die Beobachtungen, mit denen sich Wertheimer einer Artikulation etwaiger Gesetzmäßigkeiten annähert, entstehen durch ein systematisches Abtasten zumeist formaler, mathematisch-geometrischer Abstraktionen (Punktlinien, Reihungen, Linienfiguren, Musteranordnungen etc.), an denen er aufzuzeigen vermochte, dass die menschliche Wahrnehmung dazu geneigt ist, bestimmte Kontrastkonfigurationen anderen vorzuziehen. Ein Beispiel sei hier exemplarisch angeführt, um die Vorgehensweise und Relevanz für die spätere Diskussion anschaulich zu machen. Dabei handelt es sich um eine abstrakte Darstellung zum Gesetz der Nähe, an welchem die grundlegendsten Phänomene des gestalthaften Sehens abgelesen werden können (Abb. 04): Gegeben sind zwei horizontale Punktreihen – zur besseren Zuordnung seien diese darunter durch Buchstaben gekennzeichnet –, die leicht versetzt übereinander verlaufen. Zwischen den Punkten herrschen jeweils gleiche Abstände. Wertheimer benennt nun zwei Möglichkeiten, die Punktanordnung zu betrachten und beschreibt dies mit der jeweiligen Zuordnung der Buchstaben a, b, c, d etc. Die erste ›Fassung‹ versteht sich auf die rhythmische Zuordnung der Paare a-b | c-d | e-f | usw. und ist diejenige, die das Auge unmittelbar erfasst

101 Vgl. Seyler (2013/2014: 16ff). 102 Vgl. Sachsse (1984: 72ff).

117

118

Prozess als Gestalt

und sicherstellt.103 Dies erfolgt ohne große Anstrengung. Anders verhält sich dies bei der zweiten Fassung, die Wertheimer in diesem Zusammenhang anführt. Dabei ist von der Konstellation a | b-c | d-e | f-g |usw. auszugehen, welche sich nicht ohne Weiteres als gleichbleibende, rhythmische Konstellation wahrnehmen lässt. Diese Fassung erfordert vielmehr eine bewusste Anstrengung, ein gegenläufiges Sehen, das die weiter voneinander entfernten Punkte zu ›verbinden‹ und damit der angeregten, physiologischen Gesetzmäßigkeit (der Nähe) zu widersprechen versucht.104 Wertheimer stellt in diesem Beispiel damit exemplarisch heraus, dass es zu einer bevorzugten Form auch immer eine Gegenform gibt, die jedoch nur mit größerer Anstrengung herzustellen und aufrechtzuerhalten ist (Wahrnehmungs-Antagonismus).105 Die menschlich-psychologische Auffassung von Mustern, wie sie für die weitere Diskussion relevant sein soll, gründet sich demnach auf der Erfassung evidenter und prägnanter Reizkonstellationen, die nach gewissen Gesetzmäßigkeiten als solche erkannt werden und dabei negieren resp. diskriminieren, was sich nicht ohne Weiteres unter diesen vereinigen lässt. Die Gestaltgesetze, wie Wertheimer es später resümierend anführt, »haben ihren Schwerpunkt in Gesetzen der Organisation und der sinnvollen Struktur; sie sind eher eine Folge der strukturellen Art und Weise, in der unser Geist und Gehirn arbeitet, als die Folge blinder Assoziationen.«106 Das Gesetz der Nähe repräsentiert diese Vorbedingungen exemplarisch. Im weiteren Verlauf von Wertheimers Ausführungen wird dieses noch um fünf weitere Gesetze ergänzt, sodass sich ein Kanon aus insgesamt sechs Gesetzen ergibt, welche im Folgenden knapp zusammengefasst werden sollen, um den Anschlusspunkt an die technischen Gesetze der Mustererkennung herzuleiten:107 •

Gesetz der Nähe – Die Zusammenfassung der Teile eines Reizganzen erfolgt unter sonst gleichen Umständen im Sinne des kleinsten Abstandes.

103 Dabei gilt, wie Koschatzky es als Grundsatz formuliert hat: »Das menschliche Auge ergänzt das Vereinzelte zum Ganzen.« Koschatzky (1977: 202). 104 »[…] die Fassung a/b c/d e . ., die Reihe der Langschrägen ist viel schwerer herstellbar, den meisten bei solcher Konstellation simultan klar im ganzen unmöglich, und wenn sie, mühsam, gelingt, so ist sie sehr viel weniger sicher, ist — z.B. gegenüber Augenbewegungen und Aufmerksamkeitsveränderungen — viel labiler als die erste.« Wertheimer (1923: 304). 105 Dieser Antagonismus findet sich auch auf neurobiologischer Ebene in Form antagonistischer Wahrnehmungsmechanismen wieder, etwa in der Farb- oder Bewegungswahrnehmung, wenn eine Farbe ein Nachbild in dessen Komplementärfarbe oder ein Standbild den Eindruck von Bewegung erzeugt. Vgl. Roth (2015: 72ff). Auch Sachsse stellt dies heraus. Vgl. Sachsse (1984: 78ff). Mit Hinsicht auf die Erörterung des technischen Erkennens spiegelt sich ein solcher Antagonismus in einem sog. GAN (›Generative Adversarial Network‹) wider, in Form einer generativen und einer diskriminierenden Instanz (›generator/discriminator‹), durch dessen Wechselspiel ein Lerneffekt im technischen System erzielt werden kann. Vgl. Goodfellow; Pouget-Abadie; Mirza; Xu; Warde-Farley; Ozair; Courville; Bengio (2014). 106 Wertheimer (1945/1957: 74). 107 Vgl. die Entwicklung der Gesetze bei Wertheimer (1923). Eine übersichtliche Zusammenfassung findet sich ebenso bei Katz (1943/1969: 33ff), welche hier die Definitionsgrundlage darstellt.

5. Gestalt und Parametrie





• •



Gesetz der Gleichheit (Ähnlichkeit) – Sind mehrere verschiedenartige Elemente wirksam, so besteht unter sonst gleichen Umständen eine Tendenz zur Zusammenfassung der gleichartigen Elemente zu Gruppen. Gesetz der Geschlossenheit – Die Linien, die eine Fläche umschließen, werden unter sonst gleichen Umständen leichter als eine Einheit aufgefasst als diejenigen, die sich nicht zusammenschließen. Dreiecke, Vierecke, Kreise wirken geschlossen. Gesetz der durchgehenden Kurve – Diejenigen Teile einer Figur, die eine durchgehende Kurve ergeben, bilden leichter Einheiten. Gesetz des gemeinsamen Schicksals – Solche Elemente schließen sich zusammen, die sich gemeinsam und auf ähnliche Weise bewegen oder die sich überhaupt im Gegensatz zu anderen ruhenden bewegen, mit anderen Worten, die ein gemeinsames Schicksal haben. Gesetz der Erfahrung – Gewohnte/gelernte Konstellationen werden ungewohnten/ungelernten gegenüber bevorzugt.108

Die sechs von Wertheimer erarbeiteten Gestaltgesetze bestehen seitdem als Grundlage für die weitere Auseinandersetzung mit Prinzipien der visuellen Wahrnehmung,109 wie sie Rudolf Arnheim etwa für die angewandte Kunst,110 Axel Seyler für die anwendungsbezogene Praxis der Architektur111 und Monika Heimann und Michael Schütz für das Feld des Grafik- und Produktdesigns geleistet haben.112 Es scheint, als sei die Bestrebung, dem menschlichen Sehen allgemeingültige Grundlagen zu unterstellen, ein Versuch, die kognitiven Prozesse und mentalen Konstruktionen in eine verständliche Formalität zu überführen, um sie so als weitestgehend verbindliche Orientierung für Gestaltungsfragen heranziehen zu können. Um in einen solchen Stand der Anwendung zu gelangen, bedarf es jedoch einer weiteren Ausdifferenzierung, was meint, nicht nur danach zu fragen, was die Gesetze voneinander unterscheidet, sondern ebenso, was ihnen gemein ist und welche übergeordneten Tendenzen und Prinzipien der menschlichen Wahrnehmung sie bestärken.

Kognitive Prinzipien Mit Ehrenfels konnte bereits ein zentrales Prinzip der Gestaltwahrnehmung aufgezeigt werden; das Phänomen der Ganzheitswahrnehmung von Gestalten resp. das der Übersummativität. Das menschliche Sehen versteht sich demnach darauf, Sinneseindrücke

108 Mag das Gesetz der Erfahrung bei Wertheimer noch sehr subjektiv und der Assoziationspsychologie verbunden zu sein, d.h. in Abhängigkeit zu einer symbolisch-semantischen Bedeutung der Inhalte in einem bestimmten Kontext, führt Katz dieses Gesetz in ein Gesetz der Prägnanz über, dem er größere Allgemeingültigkeit zuschreibt. Vgl. Katz (1943/1969: 51ff). 109 So ist etwa Wolfgang Metzgers umfassende Sammlung empirischer Untersuchungen von Reizkonstellationen, die ›Gesetze des Sehens‹ von 1936, zu einem Standardwerk der Gestalttheorie geworden; mit mehr als 100 Gesetzen, die auf das Sehen im Allgemeinen und die formalen Reizkonfigurationen im Besonderen zurückwirken. Vgl. Metzger (1936/1953). 110 Vgl. Arnheim (2000). 111 Vgl. Seyler (2013/2014). 112 Vgl. Heimann; Schütz (2018).

119

120

Prozess als Gestalt

nicht isoliert, sondern in strukturierter Art und Weise, d.h. als Ganzheit wahrzunehmen. Dabei ist vorauszusetzen, dass die menschliche Wahrnehmung beim Sehen eben das erkennt, was dem Wahrnehmungsgegenstand als Wesentliches anhaftet bzw. aus ihm heraustritt; ein Erkennen, das sich nicht an den Feinheiten und Details der Beobachtung festhält, sondern die inneren Strukturgesetze als ganzheitliche Gestalt erfasst.113 Mit diesem Prinzip geht ein zweites einher, das auf dem ersten aufbaut und sich als grundlegende Tendenz der Wahrnehmung versteht, Dinge nicht nur als Gestalt (Ganzheit), sondern sie gleichsam gemäß einer größtmöglichen Einfachheit zu erkennen.114 Darunter versteht sich die menschlich-physiologische Tendenz, Wahrnehmungsinhalte nicht gemäß ihrer eigentlichen, objektiv-realen Erscheinung, des reinen Reizmaterials zu begreifen,115 sondern gemäß der daraus extrahierten Strukturzusammenhänge.116 Die Tendenz zur einfachsten Gestalt bestimmt dabei nicht nur einzelne Phänomene, sondern sie betrifft die gesamte Wahrnehmung. Und dies mit dem Ziel, Ordnung in der Wahrnehmung der Welt anzulegen.117 Dabei beschreibt der Begriff der Ordnung das Streben, »eine notwendige Struktur auf möglichst einfache Weise zu organisieren, […].«118 Es geht dabei nicht etwa um ein erhöhtes Maß an in den Dingen angelegter Prägnanz, wie David Katz es als Gesetzmäßigkeit formuliert,119 sondern um die menschliche, kognitive Leistung, Einfachheit aus dem gegebenen Reizmaterial zu extrahieren resp. zu erzeugen, d.h., es in geordneter Weise verständlich zu machen und stabil zu halten.120 Wie ist eine solche Stabilität der Einfachheit nun zu erreichen? Die weiter oben angeführten Gestaltgesetze Wertheimers geben zwar Aufschluss darüber, dass sich unter gewissen Reizkonfigurationen Stabilität einstellt, etwa im Gesetz der Nähe, welches Heimann/Schütz halten es wie folgt fest: »Woran aber erkennen wir so schnell das Wesentliche? Dies liegt daran, dass wir uns nicht an Details orientieren – auch wenn wir gleichwohl wichtige Details sehr schnell erfassen können –, ebenso wenig an den Konturen oder äußeren Umrissen der Dinge. Was wir als das Wesentliche so schnell erfassen, ist eine ganzheitliche Eigenschaft, die sich aus der inneren Struktur der Dinge ergibt. Sie ›sagt‹ uns sofort, um was es sich handelt.« Ebd.: 198. Vgl. dazu auch Arnheim (1947/1980: 31). 114 Vgl. Seyler (2013/2014: 16ff). 115 Nach Arnheim ist das Reizmaterial derjenige Gehalt, der die jeweils menschliche Wahrnehmung (physiologisch) anregt. Vgl. Arnheim (1947/1980: 30). 116 Wie Arnheim es darlegt: »Jedes Reizmuster strebt danach, so gesehen zu werden, daß die sich ergebende Struktur so einfach ist, wie es die gegebenen Umstände zulassen.« Arnheim (2000: 57). 117 So etwa Gerhard Roth aus neurobiologischer Sicht: »[…] wir leben in einer konstruierten Welt, aber es ist für uns die einzige erlebbare Welt.« Roth (2015: 50). Ebenso Arnheim (1996: 25): »Die mir gegebene Welt ist nur der Schauplatz, auf der die bezeichnendste Tätigkeit der Wahrnehmung vor sich geht. Durch diese Welt wandert mein Blick, gesteuert von meiner Aufmerksamkeit.« 118 Arnheim (2000: 62). Entsprechend ist, nach Koschatzky, »Ordnung […] kein Zustand, sondern überwundene Unordnung […].« Koschatzky (1977: 188). Ähnlich beschreibt es Seyler: »Das Sehen ist bestrebt, Klarheit zu schaffen. Es schließt bei zu großer Unklarheit die Eindrücke zu möglichst ›einfachen Gestalten‹ zusammen.« Seyler (2013/2014: 21) 119 Vgl. Katz (1943/1969: 51ff). 120 Vgl. dazu auch das Kapitel ›Einfachheit‹ bei Arnheim (2000: 57ff), in welchem er das Phänomen hinsichtlich der kognitiven Leistung einerseits als auch der künstlerischen Darstellung andererseits beschreibt und die Mechanismen an ausgewählten Beispielen der Kunstproduktion anschaulich macht. 113

5. Gestalt und Parametrie

Punkte relativ kurzer Entfernungen zu Gruppen und Einheiten zusammenschließen lässt, jedoch nicht, welche physiologischen und psychologischen Leistungen daran beteiligt sind. In seinem Aufsatz ›Anthropologische Grundlagen‹ schlägt Hans Sachsse in diesem Zusammenhang drei Klassifizierungen vor, nach denen Wahrnehmung in dieser Hinsicht einzuteilen sei.121 Sie beziehen sich allesamt auf aktive Leistungen, die sich als prozessuale Transformationsschemata offenbaren und proaktiv an der Konstruktion der Lebenswelt beteiligt sind.122 Sachsse unterscheidet diese Prozesse in eine kognitive Prägnanzleistung, Konstanzleistung und Differentialleistung,123 die im Folgenden knapp dargelegt werden sollen.

Kognitive Leistungen Die Prägnanzleistung spezifiziert Sachsse hinsichtlich zweier Bedeutungen: Erstens versteht sie sich zunächst als solche, die auch bei unstimmigen, unvollständigen und vagen Wahrnehmungen eine Entscheidung im Sinne eines Entweder-oder anstrebt, als binäre Einteilung, wie sie auch später im technischen Bezugsfeld vorzufinden ist. Dabei wirkt die Prägnanz in dieser Hinsicht als Verschärfung der Seheindrücke; gemäß dem oben angeführten Ansatz, das Wesentliche in den Dingen nicht nur zu erkennen, sondern vor allem festzuhalten.124 Zweitens, und unmittelbar damit zusammenhängend, versteht sich die Prägnanzleistung auf die proaktive Konstitution von Eindeutigkeit mittels der Unterdrückung des Zweifelhaften und der Verstärkung des Evidenten. Dabei handelt es sich insbesondere um eine Steigerung der Prägnanz hinsichtlich der formellen Merkmale der Gestalt, entweder durch einen kognitiven Akt der verflachenden Gleichmachung oder der betonenden Ausprägung.125 Der Prozess der Gleichmachung differenziert sich wiederum in Formen der Vereinheitlichung, auf die Betonung von Symmetrie, auf die Verringerung von Strukturmerkmalen, auf Wiederholung, auf das Weglassen nicht passender Einzelteile, auf die Beseitigung von Schrägheit etc., während Prozesse der Ausprägung Gegenteiliges bewirken, durch die bewusste Betonung charakteristischer Merkmale wie Schrägheit, Spitzheit, Rundheit, Farb-, Helligkeitsund Größenkontraste etc.126 Die Prägnanzleistung versteht sich demnach auf einen 121 122

Vgl. Sachsse (1984: 72ff). Wie Roth auch aus neurobiologischer Sicht konstatiert, ist Wahrnehmung ein aktiver Prozess, der eine kognitive Konstruktionsleistung beschreibt. Vgl. Roth (2015: 50, 73). 123 Vgl. Sachsse (1984: 72). 124 Sachsse macht dies weiter an den Prozessen der physiologischen Reizaufnahme anschaulich, etwa wenn ein äußerer Reiz in der Rezeptorzelle, etwa in der Netzhaut des Auges, eine Reizstärke proportionaler Erregung erzeugt und diese nur dann weitergeleitet wird, wenn sie einen gewissen Schwellenwert übersteigt. Erst, wenn sich ein solch prägnanter Impuls einstellt, wird die Information weiterverarbeitet, wenn nicht, dann nicht. Dies bildet die Grundlage der Informationsverarbeitung sowohl in physiologischer als auch, wie weitreichend bekannt, in technischer Hinsicht. Vgl. Sachsse (1984: 72). Vgl. weiter auch Roth (2015: 16ff); Roth; Strüber (2018: 62ff). 125 Vgl. Arnheim (2000: 69). 126 Vgl. Ebd. Es wird offensichtlich, dass diese scheinbar gegenläufigen Tendenzen insofern für das gestalterische Wirken relevant sind, als dass sie maßgeblich an der Konstitution formal-ästhetischer Spannungen beteiligt sind. Vgl. dazu mit Hinsicht auf Kompositionsregeln in der klassischen Kunst auch Berger (1958/1960: 225ff), in Bezug auf grafische Gestaltung auch Heimann; Schütz (2018: 203ff).

121

122

Prozess als Gestalt

Akt der Balance; sowohl des Ausgleichs einerseits als auch einer (ästhetischen) Spannungserzeugung andererseits, zugunsten einer gesteigerten Eindeutigkeit.127 Als zweites Bewertungsprinzip der Wahrnehmung führt Sachsse die Konstanzleistung an, die sich auch als prozessuales »Suchen nach dem Gleichbleibenden« verstehen lässt.128 Er beschreibt damit den Umstand, dass bei Formen von Veränderung auch immer allgemeine Merkmale mehr oder weniger konstant bleiben, da sie ein übergeordnetes Moment der Wiedererkennbarkeit ausbilden.129 Wiederkehrende Merkmale werden dabei aus Einzelerfahrungen abgeleitet und den Merkmalen von Gattungen zugeschrieben, wodurch die Konstanzerfahrung auf Dauer gestellt wird.130 Sachsse beschreibt diesen Prozess als Abstraktion, die zustande kommt, wenn die sinnliche Wahrnehmung vom Konkreten absieht und sich auf das Allgemeine ausrichtet.131 Abstraktion eröffnet sich demnach als ein Prozess des Vernachlässigens und Weglassens im Zuge einer Idealisierung, die rein kognitiv konstruiert ist. Arnheim spricht in diesem Zusammenhang von einer Wahrnehmungsstruktur, die »von vielen erschwerenden Zufälligkeiten befreit ist«132 und definiert daran die Erfordernisse »echter Abstraktion«.133 Der Ertrag der Konstanzleistung besteht in dieser Hinsicht eben darin, durch die Applikation (geeigneter) kognitiver Strukturen134 stabile Verhältnisse im Sinne einer verlässlichen Aussage über wahrgenommene Inhalte treffen zu können. Dies ist nicht nur Ziel der menschlichen visuellen Wahrnehmung, sondern ebenso des technischen Erkennens. Wie dies im Zusammenhang steht, soll weiter unten noch ausführlicher diskutiert werden. Das dritte Bewertungsprinzip der Wahrnehmung, das Sachsse anführt, erscheint zunächst als gegensätzlich zum vorherigen, indem es nicht das Gleichbleibende, sondern das sich Verändernde beschreibt und entsprechend als Differentialleistung zu bezeichnen ist.135 Es gründet sich zusammenfassend darauf, dass ein Bewegtes stets bevorzugt wahrgenommen wird und dadurch biologisch vor allem als Alarmsignal fungiert.136 Die Differentialleistung beschreibt dabei jedoch nicht allein die Bevorzugung

127

Es ist an dieser Stelle vorwegzunehmen, dass Prinzipien der technischen Mustererkennung sich die Prinzipien der Gleichmachung (Verflachung) und Ausprägung (Differenzierung) ebenfalls zunutze machen, wie es im folgenden Kapitel in Bezug auf die technische Bilderkennung noch ausführlicher dargelegt werden soll. 128 Sachsse (1984: 74). 129 Vgl. Ebd.: 73 130 Dies deckt sich mit der Definition des Gestalt-Begriffs bei Arnheim, der diesem eine Bedeutung als Gestalttyp (Einzelheit) und als Objekttyp (Gattung) zuordnet. Vgl. Arnheim (2000: 93). 131 Vgl. Sachsse (1984: 74). 132 Arnheim (1947/1980: 26). 133 »Eine solche gereinigte und trotzdem konkrete Darbietung von Struktureigenschaften scheint die Erfordernisse echter Abstraktion zu erfüllen.« Ebd. 134 Wie Arnheim es im Gesetz der Einfachheit darlegt, eben »daß die Wahrnehmungskräfte, die ein solches Feld bilden, danach streben, sich in der einfachsten, regelmäßigsten, symmetrischsten Struktur zu gruppieren, die unter den gegebenen Umständen möglich ist« Arnheim (2000: 70). 135 Vgl. Sachsse (1984: 75). 136 Vgl. Ebd. Den differentialen Effekt von Bewegungsveränderungen beschreibt auch Roth aus neurobiologischer Sicht: »Am deutlichsten sehen wir Objekte, wenn sich ihre Konturen bewegen. […] Bewegung vor einem Hintergrund lässt eine Gestalt geradezu hervorspringen.« Roth (2015: 80).

5. Gestalt und Parametrie

von Bewegung, sondern auch dessen Konstanzwahrnehmung. Sie schließt das vorangegangene Prinzip damit nicht aus, sondern vielmehr mit ein. Was Ehrenfels bereits im Zusammenhang mit zeitlichen Gestalten festgehalten hat – Prozesse der Veränderung in Form eines Errötens des Gesichts, des Steigens, des Abkühlens usw. –,137 lässt sich in diesem Zusammenhang eben deshalb als Gestalt erfassen, weil darin eine Konstanz angelegt ist; ein Gleichbleibendes (Ehrenfels spricht dabei von einer Linearität der Richtung, die gegeben sein muss138 ), welches durch die Stabilität seiner Struktur erst Veränderung an anderer Stelle zulässt. Roth spricht in diesem Sinne auch von der sog. Gestaltkonstanz, die auch bei veränderten Umständen die Gestalt als solche erkennen lässt.139 Das Differential bezieht dabei die Dimension der Zeit mit ein, ebendann, wenn Reizmaterial zwischen zwei zeitlichen Zuständen aufgefasst wird und durch eine kognitive Leistung – im Sinne der Übersummativität – zu einer von den Einzelreizen autarken Zeitgestalt avanciert.140 Anschaulich wird dies etwa anhand der Felder der Musikwahrnehmung oder des rhythmischen Tanzes, innerhalb welcher Phänomene des zeitlichen Vorher und Nachher zu einer Gesamtgestalt verbunden werden.141 Dementsprechend verhalten sich Konstanz- und Differentialleistung nicht oppositär, sondern gehen eine wechselseitige Verbindung ein, die nicht nur ein Gegenwärtiges, sondern auch ein Zukünftiges erlebbar macht. In dieser Hinsicht sind beide Leistungen nicht nur für die menschliche Wahrnehmung konstitutiv, sondern auch als planerisches Werkzeug in technischer Hinsicht, wenn es darum geht, Aussagen über ein Zukünftiges zu treffen. Die Gesetze des menschlichen Sehens lassen sich zusammenfassend auf drei Ebenen der Betrachtung ausdifferenzieren. Auf einer ersten bilden die Gestaltgesetze Wertheimers einen formalen Rahmen, der die Vorgänge empirisch klassifiziert. Die Gesetze der Nähe, der Gleichheit, der Geschlossenheit etc. bilden dabei die Grundlage,

137 138 139

Vgl. Ehrenfels (1890/1960: 25). Vgl. Ebd.: 25ff. Roth (2015: 80ff). Als Beispiel nennt er etwa eine Person, die auch im Dickicht oder einer Menschenmenge wiedererkannt werden kann, auch dann, wenn durch die gegebenen Umstände nicht alle die Person kennzeichnenden äußeren Merkmale einsehbar sind. Entsprechend bildet die Gestaltkonstanz eine hochstufige Leistung, da in ihr Vorerfahrungen abgerufen und Gedächtnisleistungen erbracht werden. Die Leistung besteht, wie Arnheim es weiter beschreibt, darin, Unvollständiges zu vervollständigen und »unsichtbare Fortsetzungen als Teile des Sichtbaren« zu behandeln. Arnheim (1996: 43). Für das Feld der Gestaltung im Zusammenhang mit der symbolischen Repräsentation von Inhalten stellt Jochen Gros die Wahrnehmung von Gestalten als Invarianten voran, die auch aufgrund etwaiger Transformationen eben als Gestalt erkannt werden, da ihre Struktur weiterhin erfassbar bleibt. Vgl. Gros (1970: 7). Ebenso stellt Luhmann die Invarianz als charakteristisches Merkmal von Gestalten heraus, an die sich in dessen Wahrnehmung wiedererinnert wird. Vgl. Luhmann (1999: 318ff). S. auch Anm. 51 in Kapitel 5.1.2 ›Beziehungen der Bestandteile‹. 140 Vgl. Sachsse (1984: 76). 141 Auch Wertheimers Bestrebungen, Gesetzmäßigkeiten des Sehens zu erfassen, basieren auf dem Studium von Bewegungsabläufen. Vgl. Wertheimer (1912). Zur Herausstellung der neuartigen Position vermeidet er jedoch den Begriff der Gestalt, sondern führt den des Phi-Phänomens ein, der ihm nach das »Spezifische, Charakteristische, Ursprüngliche der Phänomene – ihren gestalthaften Zusammenhang« benennt. Fitzek; Salber (2012: 36). Vgl. zum Phänomen der Bewegungsgestalten sowohl Katz (1943/1969: 42) als auch das Kapitel ›Bewegung‹ bei Arnheim (2000: 371ff).

123

124

Prozess als Gestalt

um Kontraste nicht als einzelne Entitäten, sondern als ganzheitliche Konfigurationen wahrzunehmen, indem sie eine bestimmte Wahrnehmungsform bestärken, während sie eine andere abschwächen. Die Gestaltgesetze sind dabei zwei übergeordneten Prinzipien zuzuordnen; jenes der Übersummativität, d.h. der Wahrnehmung von Gestalten als Ganzheiten, und jenes der Einfachheit, im Sinne der Wahrnehmung von Gestalten in ihrer einfachsten Reizstruktur, durch Prozesse der Abstraktion. Letztere lassen sich wiederum als Leistungen verstehen, die das gegebene Reizmaterial durch multiple Transformationsprozesse umformen; hinsichtlich ihrer Prägnanz, ihrer Konstanz und ihres Differentials. Es zeigt sich daran, dass das menschliche Sehen nicht allein durch bestimmte Gesetze und Prinzipien zu bestimmen ist, sondern dass es vor allem multiple Umformungsprozesse auf unterschiedlichen Ebenen sind, die an der Konstruktion von Wahrnehmung beteiligt sind. Dementsprechend ist im Folgenden gegenseitig nach den Bedingungen der technischen (Re-)Konstruktion zu fragen und zu ergründen, was dabei verloren geht, und was gewonnen wird.

5.2.2

Gesetze des technischen Erkennens

Bislang wurde dargestellt, wie die menschliche Wahrnehmung sich im gestalttheoretischen Verständnis als Wahrnehmung von Ganzheiten (Gestalten) offenbart und welche wahrnehmungsspezifischen Gesetzmäßigkeiten damit einhergehen. Angefangen bei Ehrenfels und den Prinzipien der Übersummativität von Gestalten und der Transponierbarkeit von Bestandteilen ergibt sich eine übergeordnete Qualität, welche sich aus bis dahin weitestgehend ungeklärten Gründen in der Wahrnehmung des Wahrnehmenden einstellt. Erst Wertheimer schafft in dieser Hinsicht ein hinreichendes Maß an Klarheit, indem er den Ansatz in die konkrete visuelle Praxis überführt; durch seine Fragestellungen zum Phänomen der Bewegungswahrnehmung und den daraus hervorgehenden visuell-abstrakten Experimenten, welche evolutionäre Gesetzmäßigkeiten der Wahrnehmung erstmalig annehmen lassen. Die sogenannten Gestaltgesetze verbinden dabei sinnbildlich die Begrifflichkeiten der Gestalt und des Gesetzes, welche in der Kombination die wissenschaftliche Bestrebung vermitteln, das Phänomen auf eine Basis der Objektivierung und Operationalisierung zu stellen.142 Im Bereich der menschlichen Wahrnehmung ist dies mit Erkenntnissen der Kognitionspsychologie einerseits143 und mit solchen aus der Neurobiologie andererseits zu verfestigen.144 Wie stellt sich die Entwicklung nun auf technischer Seite dar? Der Anspruch an ein technisches Gerät, etwas in menschlicher Bedeutung ›als‹ etwas zu erkennen, ist hoch: Die Gesetze, Prinzipien und Leistungen des menschlichen Sehens sind das Resultat einer langzeitlichen, evolutionären Konditionierung, die der Technik fehlt. Versuche, menschliche Prozesse auf neuronaler Ebene nachzubilden und in Anwendung zu bringen, sind noch verhältnismäßig jung und an den Anbeginn des digitalen Zeitalters zu knüpfen. Ab den 1950er-Jahren verfestigten sich mit Protagonisten wie Turing, McCulloch, Pitts und Rosenblatt erste Ansätze einer Forschungsrichtung, die es sich zum 142 Vgl. dazu auch Gloy (2014: 100). 143 Vgl. dazu etwa Arnheim (1980); Arnheim (1996); Arnheim (2000). 144 Vgl. dazu etwa Roth (2015); Roth; Strüber (2018); Sachsse (1984).

5. Gestalt und Parametrie

Ziel machte, menschliche Intelligenz künstlich nachzubilden.145 Bis eine solche künstliche Intelligenz (KI) markttauglich wurde, vergingen mehrere Jahrzehnte sowohl des Stillstandes (Ende der 1970er und 1980er-Jahre) wie auch des Aufschwungs.146 In den letzten Jahren erfuhren die Entwicklungen im Rahmen der zunehmenden digitalen Vernetzung insofern eine maßgebliche Beschleunigung, als dass selbstlernende technische (›deep learning‹-)Systeme in Anwendung gebracht werden konnten. Mittlerweile werden sie etwa in der Bilderkennung dazu eingesetzt, um zuverlässig Formen, Personen und Inhalte zu identifizieren.147 Dabei versteht sich die Programmierung derartiger Systeme nur noch bedingt darauf, in zeitaufwendiger Kleinarbeit einen Plan technisch auszuformulieren und durchrechnen zu lassen,148 sondern vielmehr auf die Zielsetzung, die Systeme mit einer Anpassungsfähigkeit und Lernfähigkeit auszustatten, sodass sie nicht mehr fremdgesteuert Befehle befolgen, sondern die Dinge selbstständig ›als‹ etwas erkennen.149 Ein gegenwärtiges, exemplarisches und praxisnahes Beispiel für ein solches technisches System der Bild- und Mustererkennung ist das sog. Convolutional Neural Network (CNN), anhand welchem die Prozessierung von Bilddaten im Folgenden zunächst anschaulich gemacht werden soll.150 In Analogie zu den oben angeführten Gestaltgesetzen Max Wertheimers kann dabei aufgezeigt werden, dass es nun nicht mehr um 145

146 147 148

149

150

Vgl. dazu auch eine historische Übersicht der Entwicklungsgeschichte der künstlichen Intelligenz bei Görz; Nebel (2003: 20ff), in welcher Turing als »erster Gründervater« der künstlichen Intelligenz eine maßgebliche Stellung zukommt. Ebd.: 5. McCulloch und Pitts leisteten dazu 1943 einen grundlegenden Beitrag durch die Formulierung kybernetischer Modelle in computerisierter Sprache, während Rosenblatt im Jahr 1958 durch das Modell des Perceptrons den Grundstein zur Prozessautomatik neuronaler Netzwerke darlegte. Vgl. Alpaydin (2016: 86ff); Goodfellow; Bengio; Courville (2016: 13ff); Schmidhuber (2014: 9ff). Vgl. Lenzen (2018: 21ff). Vgl.; Alpaydin (2016: 104ff); Lenzen (2018: 51ff). Wie McAfee und Brynjolfsson es formulieren: »Der deutsche Begriff ›Programmieren‹ oder das englische ›Coding‹ beschreiben den mühsamen Prozess, das Wissen in den Köpfen der Softwareentwickler in eine Form zu bringen, die Maschinen verstehen und ausführen können. Diese Herangehensweise hat einen entscheidenden Nachteil: Der Großteil unseres Wissens ist nur implizit vorhanden. Wir können keine genaue Anleitung aufschreiben, mit deren Hilfe ein anderer Mensch das Fahrradfahren lernt oder das Gesicht eines Freundes erkennt.« McAfee; Brynjolfsson (2019: 18). Damit reichen die technischen Systeme, d.h. vor allem künstlich neuronale Netzwerke, an den Anspruch einer ›Intelligenz‹ heran, wie ihn William Stern 1912 einst festgehalten hat: »Intelligenz ist die allgemeine Fähigkeit eines Individuums, sein Denken bewusst auf neue Forderungen einzustellen; sie ist allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens.« Stern zitiert nach Görz; Nebel (2003: 9). Ein CNN baut dabei auf der Modellstruktur eines konventionellen Multi Layer Perceptron (MLP) auf, wie es bereits 1961 von Frank Rosenblatt entwickelt wurde. In seiner groben Struktur verfügt ein MLP über einen input layer, einen oder mehrere hidden layer sowie einen output layer. Ein CNN bildet seine Besonderheit dadurch aus, dass die hidden layer durch sog. convolutional layers ergänzt werden, welche die eingehenden Daten in komprimierender Art und Weise mittels diverser Filter in immer kleinere Dateneinheiten prozessieren und dadurch vor allem für die Mustererkennung geeignet sind. Eine schematische Erklärung eines CNN findet sich weiter unten. Die erste Entwicklung eines CNN geht auf LeCun (1998) zurück. Eine umfassende Einführung der gegenwärtigen Funktionsweise eines CNN findet sich bei Goodfellow; Bengio; Courville (2016: 326ff); Alpaydin (2016: 106ff); Bradley (2018: 19ff) Saha (2018).

125

126

Prozess als Gestalt

die Anwendung einer finiten Zahl von Gesetzen (der Nähe, Geschlossenheit, Gleichheit etc.), sondern um die auf Transformationsprozessen basierende Erfassung individueller Merkmale geht, aus denen jeweils ganz eigene Gesetze hervorgehen und welche für den Menschen nicht mehr zwangsläufig sichtbar und nachvollziehbar sein müssen.151 In zweiter Instanz untersucht die Betrachtung die übergeordneten technischen Prinzipien, die den formalen Funktionsweisen vorausgehen, und welche anhand der weiter oben besprochenen gestalttheoretischen Prinzipien – der Übersummativität und Einfachheit – diskutiert, teilweise revidiert und erweitert werden. In einem abschließenden, dritten Schritt ist auf die weiter oben benannten Leistungen einzugehen – jene der Prägnanz-, der Konstanz- und der Differentialleistung –, welche innerhalb der technischen ›Wahrnehmung‹ als transformative Berechnungen zu denken sind, welche die computationalen Prozesse auf unterster Ebene anleiten. Wie erkennt ein technisches System demnach einen Gegenstand, eine Person, eine Gestalt in einem Bild? Bevor von intelligentem Verhalten und einem Lernprozess gesprochen werden kann, müssen einige Grundbedingungen des technischen Erkennens auf Seiten der qualitativen Umformung von Bilddaten geklärt werden, um die spätere quantitative Prozessierung durch ein CNN daran anschaulich machen zu können. Dies sei im Folgenden sowohl zunächst durch eine knappe Einleitung in die Grundsätze der technischen Datenprozessierung als auch durch eine darauffolgende Darlegung der Bestandteile und Funktionsabläufe eines CNN sichergestellt.

Technische Grundlagen Das technische Erkennen von Mustern in Bildern basiert dabei auf den gleichen Grundsätzen, die auch dem menschlichen Sehen vorangehen: auf der Zerteilung der Wahrnehmungsinhalte durch Rezeptor- bzw. Fotozellen gemäß ihrer Farbe und Helligkeit und weiter auf der Erfassung von Kontrasten durch benachbarte Bildpunkte.152 Um Kontraste in einem Bild zu erkennen, muss das Bild in die Sprache des Computers resp. des technischen Systems überführt werden, d.h. in Pixel. Ein Pixel repräsentiert dabei verschiedene Datenwerte, die vom Computer als solche ausgelesen werden können: seine Position innerhalb des Bildes sowie seinen Helligkeits- und Farbwert –153 mehr Informationen lassen sich aus einem einzelnen Pixel nicht gewinnen.154 Erst in

151

152

153 154

Dies wird vor allem innerhalb künstlicher neuronaler Netzwerke (KNN) am Beispiel der hidden layers anschaulich, welche transformatorische Ebenen zwischen Input und Output darstellen, die untereinander in komplexer Art und Weise kommunizieren und sich allenfalls noch schematisch nachvollziehen lassen. Vgl. dazu Goodfellow; Bengio; Courville (2016: 326ff). Wie Arnheim es in grober Kontur umreißt: »Die Maschine fängt das zunächst ebenso an wie das Auge: sie zerteilt die kontinuierliche Figur in ein Mosaik von Einzelstückchen und registriert jedes mit einer besonderen Photozelle. Diese Digitalrechenoperation verwandelt die Figur in ein aus getrennten Elementen zusammengesetztes Muster, wobei jedes Element nur als das Dasein oder Nichtdasein einer einzigen optischen Qualität registriert wird.« Arnheim (1996: 40-41). Gerhard Roth verweist ferner auf die neurobiologischen Grundsätze der Kontrastwahrnehmung: »Kontraste zwischen unterschiedlichen Helligkeiten und Farben sind eine wichtige Grundlage der Objektwahrnehmung: Wo es keine Kontraste gibt, nehmen wir auch keine Gegenstände und Gestalten wahr.« Roth (2015: 80). Davies (2012: 18). »[…] an individual pixel by itself does not carry discriminative information.« Alpaydin (2016: 76).

5. Gestalt und Parametrie

Verbindung und im Vergleich mit benachbarten Pixeln (›Arrays‹) ergeben sich im technischen Bild Kontraste, die aufgrund der eindeutigen Pixel-Werte leicht berechnet werden können. Den stärksten Kontrast bilden dabei die Helligkeitswerte in Form von 0 (= weiß) und 1 (= schwarz), wobei auch verschiedene Schwellenwerte für Kontraste gesetzt werden können. Die grundlegende Fähigkeit, Kontraste technisch zu berechnen, führt zu der Möglichkeit, weiterführend Linien, Kanten, Ecken, Konturen oder Flächen darin auszumachen und letztendlich Merkmale (›features‹) in Bilddaten zu erkennen bzw. sie aus diesen zu extrahieren (›feature extraction‹). Solche Merkmale verstehen sich dabei als charakteristische Konfigurationen von Pixelanordnungen, etwa bestimmte proportionale Abstände oder Regelmäßigkeiten der Farb- und Helligkeitswerte. Somit steht innerhalb der technischen Bilderkennung die Bestrebung im Vordergrund, zunächst Kontraste und Konturen zu erkennen, bevor eine Interpretation resp. eine Klassifizierung der Bilddaten erfolgen kann. Ein solches Erkennen von Kontrasten, Linien und Flächen bedarf einer Analyse der einzelnen Pixelwerte im Verhältnis zu allen weiteren Pixeln des Bildes.155 Dabei besteht ein technisches Charakteristikum darin, dass der bildlich-visuellen Repräsentanz eines Pixels, d.h. dem, was als helles oder dunkles Bildelement sichtbar ist, reine Zahlenwerte zugrunde liegen. Die Prozessierung der binären Logik versteht sich entsprechend darauf, mit numerischen Werten, und nicht mit visuellen Entitäten umzugehen. Dies bildet einen ersten markanten Unterschied zum menschlichen Sehen, dem unmittelbar ein zweiter anzuschließen ist: Da die bildlichen Repräsentationen eines Pixels durch numerische Werte im technischen System festgehalten sind, ist nicht nur die Möglichkeit eines passiven Erkennens, sondern auch die der aktiven Manipulation gegeben. Was in die Sphäre des Computers überführt und für ihn ›lesbar‹ gemacht wird, erhält eine numerische Zuordnung und ist dabei nicht nur technisch repräsentiert, sondern ebenso technisch verhandelbar.156 Der reinen Abbildbarkeit und Repräsentation von numerischen Werten können sich demnach entsprechende kontingente Umformungsprozesse anschließen, welche verändernd auf die Bildinhalte einwirken; mittels Positions- und Rotationsveränderungen, Tonwertkorrekturen, Schwellenwertberechnungen und der Applikation diverser Filter auf mehreren Ebenen.157 Es geht dabei um die qualitative Beschaffenheit der Bilddaten, etwa wenn Objekte gedreht oder verschoben, Kontraste erhöht, Kanten geschärft, Flächen geglättet oder ein Rauschen reduziert wird. Diese Transformationsprozesse werden dabei von den damit einhergehenden Prinzipien der Standardisierung und Diskriminierung angeleitet, entsprechend einer Informationsstabilisierung resp. einer Informationsre-

155

156

157

Die gängigste Vorgehensweise einer solchen Prozessierung versteht sich dabei auf die ›nearestneighbor‹-Methode, die für jeden Pixel dessen umliegende Nachbarn nach dessen Helligkeits- und Farbwerten ›befragt‹ und ähnliche Werte als kohärentes Bildelement erkennt. Vgl. Davies (2012: 674ff). Mit der Übertragung aus der analogen in die digitale Sphäre werden die Inhalte nicht etwa eingeschränkt, sondern erhalten eine neue ›Offenheit‹ für Variation, wie Mario Carpo es veranschaulicht: »Digital notierte Texte, Musik und Bilder sind wieder offen für Veränderung. […] Wenn man sie lesen kann, dann kann man auch in sie verändernd eingreifen.« Carpo (2012: 134-135). Anwendungsbeispiele für derartige Transformationen finden sich etwa bei Davies (2012: 8ff). Eine Übersicht gegenwärtiger Filteranwendungen findet sich bei Singh (2019: 151ff).

127

128

Prozess als Gestalt

duktion.158 Während das menschliche Sehen in seiner spezifischen Form durch eine langjährige selektive, evolutionäre Entwicklung konditioniert und daher in den Möglichkeiten der Wahrnehmung eingeschränkt ist,159 bieten sich in der technischen Sphäre kontingente Möglichkeiten der medialen Filterung und damit ebenso der gezielten Anpassung von Wahrnehmungsinhalten.160 Ein Datensatz bildet somit lediglich die allgemeine Grundlage zur Weiterverarbeitung mittels bestimmter Filter und Umformungsprozesse. Die Bildinterpretation kann in technischer Hinsicht entsprechend auf mehreren Abstraktionsebenen erfolgen, wie etwa Görz und Nebel es dargelegt haben.161 Innerhalb eines Convolutional Neural Networks sind diese Prozesse stark verdichtet: Auf einer ersten Ebene werden zunächst einfache geometrische Formen als solche erkannt – etwa bloße Kanten, Ecken, Kreise, Rechtecke usw. –, bevor auf tieferen Ebenen differenziertere Merkmale als kombinatorische Elemente ebendieser aufgefasst werden können – etwa Augen, Ohren, bestimmte Texturen oder signifikante Objekte (vgl. Abb. 07).

158 Vgl. Davies (2012: 4). 159 Vgl. Arnheim (1996: 29ff); Sachsse (1984: 70ff). 160 Darauf gründet etwa der medientheoretische Ansatz Kittlers, der besagt, dass der Computer in seiner Verwertung einen medialen Null-Punkt setzt, wenn durch die binäre Logik von 0 und 1 eine multiple Übersetzbarkeit der Phänomene in alle Richtungen zugänglich wird. Alles kann nun alles sein, und das Medium bestimmt, wie mit ihm umzugehen und auch, wie damit zu gestalten ist. Vgl. Kittler (1986). Anschaulich wird dies etwa am Beispiel digitaler Buchstaben, etwa eines ›A‹: Die visuelle Gestalt des ›A‹ in verschiedenen Schriftarten, Farben etc. stellt dabei nur eine sichtbare Repräsentation eines tieferliegenden Datensatzes dar, welcher sich im ASCII-Code als binäre Abfolge 1000001 darbietet. Der Computer prozessiert entsprechend nicht die visuelle Repräsentation, sondern dessen numerische, formale Beschreibung. Diese schaltet jedes eingehende analoge Signal – Text, Bild, Musik etc. – gleich und legt damit nicht nur das Fundament für dessen exakte Wiederholbarkeit, sondern ebenso für dessen Manipulation. Vgl. Giannetti (2004: 98). Davies weist in diesem Zusammenhang darauf hin, dass das technische Erkennen von Grund her ein Prozess der Abstraktion ist, der die sichtbare Referenz und Nachvollziehbarkeit während der Prozessierung mitunter ganz auflösen kann. Vgl. Davies (2012: 6). Alpaydin bemerkt weiterführend, dass die menschliche Wahrnehmung über keinerlei formale Beschreibung von Sprache verfüge, wie es das technische System als Notwendigkeit voraussetzt. Dies macht es notwendig, die kollektiven Merkmale, etwa eines ›A‹, auf technischer Seite empirisch zu erfassen und eine ›A‹Haftigkeit daraus abzuleiten, die nicht etwa für den Menschen, sondern allein für das technische System verständlich sein muss. Vgl. Alpaydin (2016: 57). 161 Die technische Bildinterpretation umfasst dabei vier Abstraktionsebenen: die Vorverarbeitung und Segmentierung, in welcher die Rohdaten von überflüssigen Informationen bereinigt und erste Merkmale wie Kanten, Konturen und homogene Bereiche erkannt werden können; die Rekonstruktion von Szenenelementen, in welcher etwa perspektivische Verzerrungen und Farbvariationen erfasst und ausgeglichen werden; die Objekterkennung, welche den erkannten Formen antrainierte (gelernte) Modelle zuordnet und die Höhere Bilddeutung, in welcher objekt- und zeitübergreifende Zusammenhänge erkannt werden, etwa ganze Szenen oder Bewegungen. Vgl. Görz; Nebel (2003: 66ff).

5. Gestalt und Parametrie

129

Abb. 05: Eigene Darstellung einer schematischen Architektur eines CNN in Anlehnung an LeCun (1998: 7). Darin sind zwei Phasen zu unterscheiden: eine erste der Transformation und eine zweite der Klassifikation. Während erstere den Bilddatensatz mittels verschiedener Umformungen hinsichtlich signifikanter Merkmale analysiert, setzt die letztere die daraus entstandenen Werte innerhalb eines künstlichen neuronalen Netzwerks miteinander ins Verhältnis, sodass letztendlich ein gewichteter Output in Form einer Wahrscheinlichkeit generiert werden kann.

1341

18

1341

18

7449118

3ÿ11941 31ÿ 749ÿ

01234ÿ06789

71  6741

7  741

Diese können letztendlich durch gewichtete Verbindungen eines künstlichen neuronalen Netzwerkes bestimmten Klassen zugeordnet werden, etwa ›Mensch‹, ›Auto‹, ›Baum‹, oder, auf noch differenzierterer Ebene, ›Feuerwehrmann‹, ›Porsche‹ oder ›Eiche‹.162 Die in Abb. 05 zu sehende schematische Darstellung eines CNN macht es anschaulich und gliedert den Prozess in die strukturellen Etappen, die ein Input-Datensatz durchläuft, und welche im Folgenden für die Zusammenführung der gestalttheoretischen Ansätze knapp anschaulich gemacht werden sollen.163 Die wichtigsten Funktionseinheiten stellen dabei die ›Convolution‹, das ›Pooling‹, das ›Flattening‹ und die ›Full Connection‹ dar. Convolution – Die convolution (dt. ›Faltung‹) bildet den ausschlaggebenden Prozessschritt eines CNN. Hier werden die Input-Daten (Pixelmatrix) eines Eingangsbildes mittels diverser Filtermatrizen (auch ›kernel‹) hinsichtlich bestimmter Merkmale – etwa vertikale Kanten, Ecken oder Kurven – analysiert und in einen neuen Output umge-

162

163

Es ist dabei vor allem eine Frage der Auflösungsgrade technischer Systeme, welche durch wiederholtes Training und die iterative Veränderung der auf die Bilddaten einwirkenden Filter fortwährend gesteigert werden kann. Goodfellow fasst den Prozess wie folgt zusammen: »Given the pixels, the first layer can easily identify edges, by comparing the brightness of neighboring pixels. Given the first hidden layer’s description of the edges, the second hidden layer can easily search for corners and extended contours, which are recognizable as collections of edges. Given the second hidden layer’s description of the image in terms of corners and contours, the third hidden layer can detect entire parts of specific objects, by finding specific collections of contours and corners. Finally, this description of the image in terms of the object parts it contains can be used to recognize the objects present in the image.« Goodfellow; Bengio; Courville (2016: 6). Die Prozessschritte der Merkmal-Extraktion (›feature extraction‹) können dabei beliebig oft wiederholt werden, je nach zur Verfügung stehenden Rechen-Ressourcen und Zeitaufwand. Es sei hier angemerkt, dass es keine vereinheitlichende Struktur eines CNN gibt, sondern vielmehr differenzierte Architekturen, die in ihren Eigenarten leicht voneinander abweichen. Eine Übersicht einiger zum gegenwärtigen Zeitpunkt weitverbreiteten Architekturen findet sich etwa bei Shahbaz (2018); Sharma (2018) als auch bei Deshpande (2019). Für die folgenden Ausführungen dient der Aufbau nach eigener Darstellung aus Abb. 05 als Referenz.

130

Prozess als Gestalt

rechnet (Abb. 06). Dieser Berechnung liegt aus technischer Sicht nicht etwa ein visueller Inhalt, sondern ein rein numerischer zu Grunde, d.h. die einzelnen Farb- und Helligkeitsstufen werden in ihren Intensitäten als Pixel angegeben und somit erst berechenbar und transformierbar.164 Jedes Input-Bild wird entsprechend zunächst von einem oder mehreren Filtern abgetastet, wodurch verschiedene Merkmale des Input-Bildes hervorgehoben werden (Abb. 07). Anschaulich gesprochen werden dadurch visuelle Ableitungen des Input-Bildes erstellt (›feature maps‹), welche in ihrer Visualität nur noch in bestimmten Merkmalen an das Input-Bild referieren (Abb. 07 (d)). Die Hervorhebung der einzelnen ›features‹ steht in unmittelbarem Zusammenhang mit der Konfiguration der Filter: So erkennen manche horizontale Kanten, manch andere Kreise, Ecken, Flächen, Verläufe usw. Es verhält sich demnach nicht so, dass Bilddaten mit sich selbst abgeglichen werden, sondern mit einer äußeren, dritten Instanz, d.h. einem oder mehreren mathematischen Filtern, wodurch eine neue ›Ableitung‹ eines Bildes generiert wird, die lediglich ein bestimmtes ›feature‹ hervorhebt.165 Ein solcher Filter lässt sich, wie die Dateninformationen der Input-Bilder auch, mathematisch als Matrix beschreiben, zumeist bestehend aus einem 3x3 oder 5x5 Pixel Array. Die Vorgehensweise besteht nun darin, dass der Filter schrittweise auf das Input-Bild angewendet wird, was nichts anderes heißt, als dass die einzelnen Werte miteinander multipliziert werden und die Summe dieser Multiplikation im Output festgehalten wird (Abb. 06).166 In Letzterem werden entsprechend die numerischen Werte derjenigen Merkmale aggregiert, nach denen der Input durch den Filter untersucht wurde. Es wird daran offenbar, dass hinter der Komplexität des Gesamtprozesses im Grundprinzip simple, mathematische Berechnungen stehen, welche mit Funktionen der Addition und Multiplikation lediglich 164 Jede visuelle Anschaulichkeit ist dabei nicht etwa ein technisch notwendiger, sondern lediglich ein menschlich erwünschter Effekt. 165 Dies ist zudem ein enormer Vorteil in der Schnelligkeit und Effizienz der Prozessierung der Daten. Es müssen weniger Parameter gespeichert und Merkmale können zielgerichteter aufgedeckt werden, wie Goodfellow es zusammenfasst: »For example, when processing an image, the input image might have thousands or millions of pixels, but we can detect small, meaningful features such as edges with kernels that occupy only tens or hundreds of pixels. This means that we need to store fewer parameters, which both reduces the memory requirements of the model and improves its statistical efficiency.« Goodfellow; Bengio; Courville (2016: 330). Die strukturelle Effizienz der Prozessierung kann jedoch nicht darüber hinwegtäuschen, dass bei der Ausführung eines CNN eine vielfach höhere computationale Leistungsfähigkeit als bei einem konventionellen neuronalen Netzwerk notwendig wird. Für die Bildprozessierung meint dies vor allem leistungsfähige Grafikkarten, welche eine parallele Prozessierung Tausender Datensätze ermöglichen. 166 Dieser Prozess ist dabei keinesfalls neu, sondern versteht sich auf mathematische Grundprinzipien im Umgang mit Matrizen. Die sog. Faltungsmatrix beschreibt dabei einen mathematischen Operator, der aus zwei Funktionen f und g eine dritte Funktion generiert, die als Überblendung der beiden ersten zu verstehen ist. Vgl. Königsberger (2002 : 317ff). Auch in der digitalen Bildbearbeitung ist diese Methode, die dort in linearen Filtersystemen implementiert ist, seit den 1990er-Jahren ein Grundbaustein der Bildmanipulation, etwa in Adobe Photoshop. Vgl. Schewe (2000). Die Besonderheit dieser Filter innerhalb von CNNs besteht nun jedoch darin, dass diese Filter nicht mehr im Einzelnen, sondern parallel prozessiert werden können, nicht zuletzt aufgrund der leistungsstärkeren Hardware, die gegenwärtig zur Verfügung steht. Durch simple, mathematische Grundoperationen entsteht dadurch ein komplexes Ausmaß an Daten, wie es bislang nur das menschliche Gehirn zu verarbeiten vermochte.

5. Gestalt und Parametrie

Eingangs-Werte in Ausgangs-Werte überführen. In Bezug auf die Bildinterpretation und ein technisches Erkennen handelt es sich bei diesen Werten um Pixelwerte, die in einer Skala von 0 bis 255 in drei Kanälen (Rot, Grün, Blau) oder auch in Helligkeitsstufen binär angegeben werden können. Die sichtbaren Helligkeiten und Farbspektren sind dabei lediglich visuelle Repräsentationen der dahinterliegenden Werte, wie es in Abb. 07 (a), (b), (c) anschaulich wird.167 In Verbindung mit den Gestaltgesetzen Wertheimers sind es vor allem die in der convolution angewandten Filter, die für die Diskussion interessant sind. Formal betrachtet funktionieren die Filtereinheiten dabei nach entsprechenden mathematischen Gesetzmäßigkeiten, hier der Multiplikation und Addition, die von jeder apriorischen Prägung befreit sind. Sind es bei Wertheimer physiologische Tendenzen der Gestaltwahrnehmung, etwa wenn eine Punktekonstellation eine bestimmte Form der Wahrnehmung begünstigt – wie etwa das Gesetz der Nähe im oben gezeigten Beispiel (Abb. 04) –, so sind es im technischen Verständnis zunächst numerische Matrizen, die darüber entscheiden, wie ein Bilddatensatz prozessiert wird und welche visuelle Gestalt ein Output annimmt. Doch nach welchen Vorbedingungen werden diese Filter ausgewählt und angelegt? Beim Menschen ist es klar zu benennen: Durch evolutionäre Konditionierung, d.h. dadurch, wie der Mensch (und jedes andere Lebewesen auch) sich seiner natürlichen Umwelt wahrnehmungsspezifisch und selektiv angepasst hat. Die menschliche Wahrnehmung stellt bereits ein komplettiertes Filtersystem dar, das sowohl seine spezifischen Möglichkeiten als auch Grenzen hat.168 Eine derartige evolutionäre Prägung fehlt dem technischen System jedoch, ausgenommen dem Umstand, dass es in der binären Logik von 0 und 1 operiert, von dort an jedoch in seiner Artikulation kontingent ist. Es bestehen daher zwei Möglichkeiten, Filtermatrizen zu konfigurieren: zum einen manuell, durch einen Programmierer, zum anderen durch einen Zufallsgenerator. Ersteres ist ein sehr zeitaufwendiger und mühsamer Prozess, Letzteres dafür ein automatisierter, dazu relativ ungerichteter Prozess. Ein CNN versteht sich auf Letzteres, den Zufall, der jedoch nun dazu genutzt werden kann, technisch zu evaluieren, welche Inhalte relevanter, und welche weniger relevant sind, in Koppelung mit einem Training durch ein neuronales Netzwerk. Die Besonderheit eines CNN – und Prozessen des ›deep learning‹ im Allgemeinen – besteht im Vergleich zu konventionellen neuronalen Netzwerken nun darin, dass die Merkmale, nach denen die Mustererkennung

167

Festzuhalten ist an dieser Stelle auch, dass die Ergebnisse dieser Prozedur im Konkreten, etwa wie hier dargestellt, nicht zwangsläufig im CNN zu sehen sind. Innerhalb des CNN finden diese Prozesse auf parallelen hidden layers statt und müssen für eine visuelle Repräsentation erst als solche ausgelesen und aufbereitet werden. Eine Veranschaulichung diverser Prinzipien der Darstellung der Prozesse findet sich bei Zeiler; Fergus (2013). 168 Als ein solches Filtersystem prozessiert die menschliche Wahrnehmung eingehende physikalische Reize mittels diverser Transformationen, sodass Informationen vereinfacht und effizienter verarbeitet werden können, jedoch nicht ohne gleichzeitigen Verlust, wie Norman es beschreibt: »Diese Transformationen sind von großem Nutzen für das Nervensystem, da sie gewaltig die Information vereinfachen, die an Analysiersysteme höherer Ordnung weitergeleitet werden muß. […] Allerdings geht durch Transformationen auch Information verloren, denn Signalteile, die auf einer Verarbeitungsebene miteinander verbunden sind, können auf höheren Ebenen nicht getrennt werden.« Norman (1973: 57).

131

132

Prozess als Gestalt

Abb. 06: Eigene, schematische Darstellung der ersten zwei Schritte (a, b) einer Convolution in der Bildprozessierung. Die Matrix des Inputs wird durch die Matrix des Filters in eine Matrix des Outputs überführt. Die Werte des Outputs (feature map) geben entsprechend einen Durchschnitt an, der als Prozessschritt der Standardisierung zu verstehen ist. Der Filter ist durch seine numerische Konfiguration darauf abgestimmt, ein bestimmtes Merkmal zu erkennen – hier: rechte, vertikale Kanten. Die Größe der Output-Matrix verringert sich hier dadurch, dass der Filter pro Zeile nur vier Berechnungen durchführt, bis er an den Rand der Matrix stößt, und keine sechs. Letzteres ist jedoch durch das sog. padding zu erreichen, welches die Filter-Matrix auch außerhalb der Input-Matrix liegende Bereiche miteinbeziehen lässt, die dann mit 0 gewertet werden. Ebenso ist die Schrittezahl der Filter-Abtastungen (stride) zu konfigurieren, etwa wenn die Filter-Matrix nicht jede nächste Zelle (stride = 1), sondern nur jede zweite miteinbeziehen soll (stride = 2). Input (6x6px)

(a)

(b)

Filter (3x3px)

3

4

2

1

0

4

1

7

2

3

1

8

2

0

1

6

2

0

1

2

8

0

5

3

5

0

0

4

1

0

1

3

0

0

7

1

3

4

2

1

0

4

1

7

2

3

1

8

2

0

1

6

2

0

1

2

8

0

5

3

5

0

0

4

1

0

1

3

0

0

7

1

Output / Convolution (4x4px)

0

1

-1

0

1

-1

0

1

-1

6

6 = 3*0 + 4*1 + 2*(-1) + 1*0 + 7*1 + 2*(-1) + 2*0 + 0*1 + 1*(-1)

0

1

-1

0

1

-1

0

1

-1

6

-5

-5 = 4*0 + 2*1 + 1*(-1) + 7*0 + 2*1 + 3*(-1) + 0*0 + 1*1 + 6*(-1)

trainiert wird, nicht mehr durch einen Programmierer festgelegt werden (reduktionistischer Ansatz), sondern durch das CNN selbst (konnektionistischer Ansatz).169 Die

169 »[…]; it is not the programmers anymore but the data itself that defines what to do next.« Alpaydin (2016: 11). Es wird entsprechend überflüssig, die Parameter der Prozessierung selbst zu setzen, sobald das Netzwerk lernfähig wird: »we do not need to program such machines and determine the parameter values ourselves if such machines can learn from examples.« Ebd.: 98. Gleichsam nimmt die Rolle des Programmierers resp. Gestalters eine passive Stellung ein: »[…] we just wait and let the learning algorithm discover all that is necessary by itself.« Ebd.: 108. Vgl. dazu die Übersicht der Forschungsansätze bei Görz; Nebel (2003: 38ff).

5. Gestalt und Parametrie

feature extraction erfolgt entsprechend ohne aktives menschliches Zutun und wird entsprechend automatisiert und dadurch intransparent. Es ist im späteren Prozessverlauf nicht mehr menschlich nachvollziehbar, wie das CNN zu seinen Aussagen kommt, sondern lediglich, dass es zu Aussagen kommt und dass diese Aussagen in Form von Wahrscheinlichkeiten formuliert werden.170 Eine hohe Wahrscheinlichkeit ergibt sich entsprechend aus der (trainierten) Fähigkeit des CNN, Daten zunächst zuverlässig zu transformieren und sie in einem darauffolgenden Schritt durch ein neuronales Netzwerk zu klassifizieren. Die Faltung (convolution) unternimmt dabei den ersten Prozessschritt, die Input-Daten hinsichtlich einzelner Merkmale zu transformieren, d.h. Informationen sowohl zu komprimieren resp. zu standardisieren als auch zu reduzieren resp. zu diskriminieren.171 Ein Prozessschritt, der diese Funktion weiter verstärkt und sich dem der convolution unmittelbar anschließt, ist der des poolings. Pooling – Das pooling (dt. ›Vereinigung, Zusammenlegung‹) beschreibt einen Prozess, der eine Verdichtung der zu verarbeitenden Informationen erzielt.172 Ein solcher pooling layer schließt sich den convolutional layern zumeist an und reduziert das Ausmaß der Pixel-Matrix zumeist um ein Vielfaches – im Regelfall um die Hälfte –, indem er jeweils nur die stärksten Signale resp. die signifikantesten Werte aggregiert. Der pooling layer geht dabei in ähnlicher Weise vor wie ein Filter eines convolutional layers; mittels des Abtastens der Input-Matrix. Anders als der Filter verfüg der pooling layer jedoch über keine numerischen Werte, die mit den Input-Werten multipliziert oder addiert werden, sondern lediglich über eine überschaubare Zahl von Anweisungen: etwa, den höchsten Wert eines betrachteten Bereichs (i.d.R. 2x2 Pixel oder 3x3 Pixel) zu entnehmen (max pooling), den Durchschnittswert (average pooling) oder die gewichteten Durchschnittsabstände zu benachbarten Werten.173 Das pooling bringt dabei zwei wesentliche Vorteile mit sich: einerseits eine Reduktion der Datenmengen – was der computationalen Verarbeitungsgeschwindigkeit zugutekommt –, andererseits wirkt sich das pooling auf die Stabilität der Treffsicherheit resp. Wahrscheinlichkeit aus (confidence)174 ), da durch die Bestimmung von nur einem Wert aus mehreren eine gewisse Invarianz gegenüber 170 Dabei handelt es sich um das klassische, technische Phänomen der BlackBox, wie es seit der Kybernetik und der Frage nach künstlicher Intelligenz fortwährend in der Diskussion präsent ist. Vgl. dazu auch Simon (2007: 35ff); Frick (1977: 17). 171 Wie Alpaydin es zusammenfasst: »This ability of generalization is the basic power of machine learning.« Alpaydin (2016: 42). Mit dem Prozess der generalization geht ein zweiter einher, der gemeinhin als dimensionality reduction zu bezeichnen ist und entsprechend eine Diskriminierung der Informationen benennt. Ebd.: 73ff. Davies benennt in diesem Zusammenhang beide Prinzipien – das der generalization und der discrimination – als grundlegende Fundamente der Bildprozessierung. Vgl. Davies (2012: 4ff). Einen erweiterten Ansatz finden die Prinzipien etwa in sog. Generative Adversarial Networks (GAN). Dort werden einerseits durch einen Generator Inhalte produziert, die darauffolgend von einem Discriminator klassifiziert werden. Aus diesem Wechselspiel ergibt sich folglich ein markanter Lerneffekt, der nicht nur in der Lage ist, Inhalte umzuformen, sondern, im Sinne eines gestalterischen Handelns, diese auch neu zu erzeugen. Vgl. Goodfellow; Pouget-Abadie; Mirza; Xu; Warde-Farley; Ozair; Courville; Bengio (2014). 172 Vgl. Goodfellow; Bengio; Courville (2016: 335ff). 173 Vgl. Ebd.: 335. 174 Confidence benennt dabei eine Wahrscheinlichkeit der korrekten Zuordnung eines Bildinhaltes zu einer angelegten Klasse.

133

134

Prozess als Gestalt

Abb. 07: (a) und (b) zeigen die verschiedenen Repräsentationen diverser Filter in numerischer und visueller Form, während (c) die Anwendung auf ein Beispielbild auf einer ersten Transformations-Ebene anschaulich macht (eigene Darstellung). (d) zeigt mehrere Variationen von feature maps auf einer tieferen Ebene nach Zeiler; Fergus (2013).

 

 

456 20 20 20 20 0 1

 

 

 



1 0 20 1 0 20 1 0 20

20 20 20 20 3 0 20 20 20

1 1 1 1 20 1 1 1 1

5 ÿ8 

 

 

0 0 0 1 1 1

20 0 1 20 0 1

1 1 1 0 0 0 20 20 20

5 ÿ7

5 ÿ 

5 ÿ 

476 486

496

Veränderungen des Ausgangsbildes gewährleistet wird.175 Die Darstellung in Abb. 08 (a) macht es anschaulich: Da aus insgesamt vier Werten, die durch den (max.) pooling layer betrachtet werden, allein der höchste in den Output Layer übernommen wird, werden die übrigen drei vernachlässigt resp. diskriminiert. Dies reduziert den Anteil relevanter Informationen auf ein Minimum und bedeutet zugleich, dass die Toleranz 175

»In all cases, pooling helps to make the representation approximately to small translations of the input. Invariance to translation means that if we translate the input by a small amount, the values of most of the pooled outputs do not change.« Ebd.: 336. Der pooling layer führt entsprechend eine gewisse Invarianz in den Prozess ein, vor allem gegenüber den Rotations- und Positionsdaten der Merkmale in den einzelnen Input-Daten, wie es Abb. 08 veranschaulicht.

5. Gestalt und Parametrie

bei eingehenden Veränderungen des Ausgangsmaterials größer wird, sodass etwa Objekte, Szenen oder Personen auch trotz auftauchender Unregelmäßigkeiten – etwa verschiedene Perspektivansichten des gleichen Objektes, Ausschnittansichten desselben, verschiedenartige Farbintensitäten und Helligkeiten der Szenerie usw. –, mit hoher confidence klassifiziert werden können.176 Das pooling bestärkt entsprechend die signifikanten Merkmale und vernachlässigt die weniger signifikanten. Dies erfolgt dabei nicht nur auf einem einzigen layer, sondern stets in der seriellen Verknüpfung mehrerer pooling layer, welche die Bilddaten parallel prozessieren. Das pooling ermöglicht in diesem Zusammenhang eine Form der Konstanz, indem es die Interpretationen und Klassifizierungen gegenüber Variationen der Input-Daten unempfindlicher macht, und darüber hinaus die markanten Merkmale des Abgebildeten verstärkt.177 Ist es einerseits eine Form der Konstanz, die ein technisches Erkennen stabilisiert, so ist es andererseits eine Form der Prägnanz, welche die signifikanten Merkmale des Betrachteten verstärkt. Beides soll in der abschließenden Zusammenführung der Erkenntnisse noch weiter ausgeführt werden. Flattening – Die Prozesse der convolution und des poolings verstehen sich wie gezeigt wurde darauf, das Input-Bild resp. die Pixelmatrix hinsichtlich verschiedener Bedingungen zu transformieren. Dies erfolgt einerseits hinsichtlich einer Reduzierung der zu prozessierenden Datengröße, andererseits hinsichtlich der Verstärkung von Eindeutigkeiten. Die dabei entstehenden Elemente, (pooled) feature maps, sind bis dahin als sequenzielle Aufreihung der neu entstandenen Matrizen zu betrachten – als dreidimensionale Anordnung, wie in Abb. 05 schematisch dargestellt. Sie liegen als autarke Einheiten parallel in einer Tiefendimension hintereinander, sind jedoch noch nicht miteinander verbunden. Um diese Einheiten nun miteinander ins Verhältnis setzen zu können, bedarf es eines weiteren, im Funktionsverlauf des CNNs letzten Prozessschrittes, der eine neuronale Verschaltung der feature maps ermöglicht. Diesen Prozessschritt verkörpert das flattening (dt. Verflachung, Ebnung), indem es alle feature maps in einem eindimensionalen, linearen Vektor zusammenführt. Das Resultat dieser Prozedur ist ein entsprechend langer Strang an Werten, von welchem jeder Einzelwert nun als Neuron innerhalb eines fully-connected layer, dem eigentlichen künstlichen neuronalen Netzwerk, verbunden werden kann. Full connection – Der letzte Schritt des Prozessablaufs eines CNN besteht in der Klassifizierung der aggregierten Merkmale in einem klassischen künstlichen neuronalen Netz-

176

177

Beispielsweise soll ein Mensch entsprechend auch dann als Mensch erkannt werden, wenn er steht, liegt, kniet oder hinter einem Baum nur teilweise zu sehen ist, ebenso bei Gegenlicht, im Profil, aus der Draufsicht usw. Die Zahl der kontingenten Möglichkeiten ist dabei schier unendlich, da sich nicht nur allein durch das dargestellte Objekt, sondern auch durch die Eigenarten des Mediums zur Bildproduktion immer stets neue Konfigurationen von Bildlichkeit ergeben, die ohne die Prozesse von Generalisierung und Diskriminierung von Informationen technisch nicht zu klassifizieren wären. Vgl. Davies (2012: 5). Das pooling findet sein neurobiologisches Adäquat im Phänomen der sog. lateralen Hemmung, innerhalb welcher eine aktive Nervenzelle die Aktivität einer benachbarten Nervenzelle hemmt resp. diskriminiert, und dadurch eine Verstärkung der Sinneserregung, im Auge etwa zugunsten der Kontrastwahrnehmung, erzielt. Vgl. dazu Roth (2015: 18ff, 72ff); Brandes; Lang; Schmidt (2019: 734ff) als auch Sachsse (1984: 73).

135

136

Prozess als Gestalt

Abb. 08: Eigene Darstellung. (a) zeigt die schematische Funktionsweise zweier Arten des poolings. Aus den betrachteten Zonen wird jeweils der höchste Werte entnommen (max pooling) oder der Durchschnittswert gebildet (average pooling). (b) zeigt eine vereinfachte, sequenzielle Veranschaulichung der Prozesse der convolution und des poolings am Beispiel eines handschriftlichen Buchstabens. Während die convolution das Eingangsbild hinsichtlich diverser Merkmale mittels einer Filtermatrix untersucht (hier vertikale, rechte Kanten), stabilisiert das max. pooling die gefundenen Merkmale und komprimiert den Datensatz auf die Hälfte der Größe. (a)

max pooling

average pooling

2

0

3

0

2

0

3

0

1

4

2

5

4

5

1

4

2

5

1.8 2.5

0

2

4

3

7

6

0

2

4

3

3.5 3.5

5

7

1

6

5

7

1

6

(b)

Convolution 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0

0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0

0 0 0 0 0 1 1 1 1 0 0 0 1 1 1 1 0 1 1 1 1 1 1 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 1 1 0 0 0 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 1 1 1 0 0 0 0 0 1 1 1 1 1 1 0 0 0 0 0 0 0 0

0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0

0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0

0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 0 0 0 0

0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0

0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Pooling (max.)

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 1 1 1 1 1 2 2 2 2 1 0 0 1 2 2 1 1 1 0 0 0 0 0 0

0 0 0 1 2 2 2 2 1 0 0 0 0 1 2 2 2 2 2 2 3 2 1 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 2 2 2 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 1 1 1 1 2 2 1 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 1 1 1 0 0 0 1 2 2 2 1 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 2 1 0 0 0 0 0 0 0 0

0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 1 2 1 0 0 0 0 0 0

0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 1 2 1 1 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0

0 0 1 2 2 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

0 1 1 2 2 2 0 2 2 1 0 0 0

0 1 2 2 1 0 1 2 2 2 3 1 0

0 0 0 0 0 1 1 0 0 0 0 0 0

0 0 0 0 2 2 0 0 0 0 0 0 0

0 0 0 1 1 2 2 2 1 0 0 0 0

0 0 0 1 0 0 0 1 2 2 0 0 0

0 0 1 1 0 0 0 0 0 2 1 1 0

0 2 2 0 0 0 0 0 0 0 1 1 1

0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

werk (KNN) resp. einem Multi-Layer-Perceptron (MLP).178 Ein solches besteht im Groben aus einem input layer, einem oder mehreren hidden layer und einem output layer. Als Input dient der zuvor im flattening generierte eindimensionale Vektor, dessen Werte nun mit dem hidden layer über verschiedene Wichtungen verbunden werden. Diese Wichtungen werden zu Beginn des Prozesses als numerische Werte zufällig festgelegt und bilden die Multiplikanden für die Eingangswerte, als Dezimalwerte zwischen 0 und 1. Entsprechend werden die im hidden layer eingehenden Werte multipliziert und resultieren dadurch als höhere oder niedrigere Werte im output layer, welcher die anteilige Bedeutsamkeit für die Klassifizierung angibt. Ein rückwärtiges Variieren der Wichtungen führt entsprechend dazu, dass bestimmte Neuronen einen anderen Stellenwert im gesamten Netzwerk erhalten und dadurch die Aussagekraft dessen, was klassifiziert werden soll, optimiert resp. stabilisiert wird. Das Netzwerk muss dazu mit einer Vielzahl von Daten trainiert werden, d.h. mit Beispielen dafür, was es erkennen soll, und 178

Das MLP stellt den klassischen Fall eines neuronalen Netzwerks dar, das bereits in den 1960erJahren im Forschungsfeld der künstlichen Intelligenz Verbreitung fand und in seiner Funktionsweise dem menschlichen Gehirn nachempfunden ist. Dabei werden Eingangswerte (Input), verstanden als Neuronen, über diverse Ebenen (hidden layer) in einen Output überführt. Über verschiedene Wichtungen zwischen den Neuronen kann die Bedeutung der jeweiligen einzelnen Neuronen für den Gesamtzusammenhang variiert und hinsichtlich eines eindeutigeren Ergebnisses trainiert werden, durch die sog. back propagation, sodass ein Lerneffekt erzielt wird. Vgl. für den klassischen Aufbau eines MLP Rosenblatt (1961), zur back propagation vgl. Werbos (1974); Sathyanarayana (2014).

5. Gestalt und Parametrie

was nicht.179 Es durchläuft dabei einen Prozess der Evaluierung dieser Bilder gemäß den oben dargelegten Schritten und legt einen Wert für die Treffsicherheit des Dargestellten fest; als Wahrscheinlichkeit, mit der ein Gegenstand etwa als Hund, als Katze oder als Mensch erkannt wird.180 Wie weiter oben dargelegt prozessiert ein CNN die Eingangsdaten nach den hier dargebotenen Feststellungen in zwei Prozessstadien: ein erstes Stadium der Transformation und ein zweites der Klassifikation (Abb. 05). Der Prozessverlauf eines CNN beruht demnach zunächst auf der sukzessiven Transformation der Bildeingaben: zunächst in die binäre Rasterlogik der Bilddarstellung (Pixelmatrizen), dann über mehrere Stufen der Merkmal-Hervorhebung (convolution, pooling) sowie durch die Verflachung zu rein numerischen Werteketten (flattening). Die Bildhaftigkeit dessen, was zu Anfang des Prozesses eingespielt wird (für den Menschen ein gestalthaftes, erkennbares Bild), löst sich durch die technische Prozessierung in rein formale Beschreibungen des Bildes auf, als technisch-formalistische Abstraktion.181 Das technische System prozessiert die Daten in rein technischer und für den Menschen weitestgehend entfremdeter Art und Weise, wodurch sich eine Distanz zum eigentlichen Untersuchungsgegenstand etabliert,182 die erst am Ende des Prozesses, durch die Klassifikation, wieder in die menschlich nachvollziehbare Sphäre der Handhabbarkeit überführt wird, durch eine begriffliche und numerische Wertezuordnung. Wie sind die dargelegten technischen Prozesse nun im Rahmen der gestalttheoretischen Diskussion zu betrachten? Dazu sollen in Analogie zur obigen Struktur zunächst die Gesetze, folgend die Prinzipien und letztlich die Leistungen analysiert werden, mittels welcher technische Systeme Strukturen, Muster und Bedeutungsinhalte in Daten erkennen.

Technische Gesetze In der Diskussion um die Gestaltgesetze Wertheimers ist nach der Darlegung der Funktionsweise eines Convolutional Neural Network vor allem die Funktionseinheit der Filter Dieses Vorgehen ist auch als supervised learning zu bezeichnen, eine Kategorie des maschinellen Lernens, in welcher durch zahlreiche Beispiele manuell angeleitet wird, welche Bezeichnungen einem Bildgegenstand zugeordnet werden sollen. Günther Görz fasst die Prozedur etwa am Beispiel eines Buchstabens zusammen: »[Wir] stellen die Aufgabe, […] den (durch Bildpunkte dargestellten) Buchstaben »A« zu erkennen. Zu diesem Zweck legen wir ihm zahlreiche Beispiele und Gegenbeispiele für »A"s vor. Das Ziel besteht darin, dass es die Gewichtungen in der zweiten Schicht so verändert, dass sich die Ausgabe 1 ergibt, wenn und nur wenn ihm ein »A« vorgelegt wird. Dies kann dadurch erreicht werden, dass es die Gewichtungen jedesmal neu anpasst, wenn es einen Fehler macht. Wird fälschlicherweise ein »A« identifiziert, wird die Gewichtung aller Eingaben in die zweite Schicht, die diese Fehlklassifikation begünstigt haben, vermindert. Wird ein »A« nicht erkannt, werden diejenigen Eingaben, die für »A« sprechen, verstärkt. Dieses Lernverfahren ist ein Beispiel für Rückkopplung: Ziel ist, erfolgreiche Gewichtungen vorzunehmen.« Görz; Nebel (2003: 119). 180 Seit dem Jahr 2015 übersteigt die technische Fähigkeit des Erkennens dabei die menschliche. Vgl. dazu McAfee; Brynjolfsson (2019: 21); Tanz (2017); Dodge; Karam (2017). 181 Wie Davies es formuliert: »In fact, recognition is a process of data abstraction, the final data being abstract and totally unlike the original data.« Davies (2012: 6). 182 S. dazu auch weiter oben Kapitel 4.2 ›Distanz und Interaktion‹, welches die technische Distanz in Form der maschinell-industriellen Werkzeuge anschaulich macht. 179

137

138

Prozess als Gestalt

anzuführen, wie sie im Zusammenhang mit dem Prozess der convolution anschaulich gemacht wurde (Abb. 06, Abb. 07). Ein Filter versteht sich dabei als numerische FilterMatrix, die aus frei zu setzenden numerischen Werten besteht, welche mit dem Eingangsdatensatz multipliziert und in der Folge addiert werden. Die Werte werden dabei nur noch bedingt von einem Programmierer gesetzt – vielmehr übernimmt das CNN die Setzung und Konfiguration der Filter eigenständig und autark – durch mitunter zufällige Konfigurationen der Matrizen –, und prüft, welche davon zu einer hohen und welche zu einer weniger hohen Aussagekraft über den Bildgegenstand beitragen, durch die Variation der Wichtungen im künstlich neuronalen Netzwerk. Lassen sich Wertheimers Ansätze für die menschliche Wahrnehmung noch auf eine finite Zahl von Gesetzmäßigkeiten festlegen, werden die technischen Filter-Matrizen für jeden Anwendungsfall immer wieder neu gesetzt – gemäß einem beschleunigten evolutionären Prinzip des ›trial-and-error‹ –, sodass das System durch den Abgleich mit Trainingsdaten lernt, welche Filter zur Bestimmung des vorliegenden Bildgegenstandes am besten funktionieren. Dies bedeutet, dass sich das technische System permanent neu entwickelt und erst im Prozess der Bildverarbeitung selbst jene Gesetze ausbildet, die ein zuverlässiges Erkennen ermöglichen. Entsprechend kann im technischen Zusammenhang weniger von absoluten, allgemeingültigen Gestaltgesetzen gesprochen werden, wie Wertheimer sie noch formulierte, sondern vielmehr von relativen und dynamischen Gesetzen, die sich erst im Prozess der Verarbeitung der Bilddaten verfestigen.183 Die maßgebende Eigenschaft der Gestaltgesetze eines technischen Erkennens ist entsprechend nicht die Erfassung durch immer gleiche, sondern durch fortwährend variierende Maßgaben; durch die Iteration, die Veränderung, die Neu-Konfiguration von Filter-Matrizen und Wichtungen, d.h. jener Parameter, die den Prozess in seiner Gesamtheit bzw. in seiner Gestalt beeinflussen. Es sind nun nicht mehr die Gesetze, die über die Inhalte gelegt werden (top-down), sondern umgekehrt die Inhalte, aus denen die Gesetze resultieren (bottom-up).184 Dennoch gründen beide Herangehensweisen, die menschliche wie auch die technische, zunächst auf der Suche nach Regelmäßigkeiten. Ist der Mensch in seiner wahrnehmungsspezifischen Eigenart an seine evolutionär konditionierten, wahrnehmungsspezifischen Vorbedingungen gebunden, bieten sich dem

183

Dabei artikulieren jene technischen Gesetze, was nicht mehr zwangsläufig menschlich, sondern nur noch rein technisch – als numerische Matrizen, Ableitungen, Verflachungen etc. – verständlich sein muss. Jede Anschaulichkeit ist nicht technisch notwendig, sondern menschlich erwünscht. Den prozessierten Bilddatensätzen sind keine apriorischen Bedeutungszuweisungen zu eigen. Vielmehr müssen diese von unten (bottom-up) aus dem Datensatz extrahiert und mittels neuronaler Netzwerke in gänzlich neue Bedeutungsverhältnisse überführt werden, die so, wie der Mensch sie kennt, oder auch ganz anders aussehen können. 184 Es ist dabei anzuführen, dass in technischer Hinsicht beide Prinzipien, sowohl das des bottom-up als auch das des top-down, gängige Vorgehensweisen der Bilderkennung sind. Während das bottom-up-Prinzip dabei durch mehrere Transformationsebenen vom Einzelnen zum Ganzen prozessiert und daraus ein Modell ableitet, ist ein solches Modell im gegenläufigen Verfahren, dem topdown-Prinzip, bereits vorhanden (etwa durch manuell festgelegte Parameter) und kann wiederum auf einen Bilddatensatz angewandt werden, wie es etwa beim tracking einzelner szenischer Bildelemente der Fall ist. Vgl. Behnke (2003: 8).

5. Gestalt und Parametrie

technischen Medium kontingente Möglichkeiten der ›Wahrnehmung‹, gerade weil sich in der allem zugrunde liegenden binären Logik des technischen Systems letztendlich alles erfassen und manipulieren lässt, wenn die Auflösung nur hoch genug ist.185

Technische Prinzipien In der Betrachtung der Prinzipien des menschlichen Sehens wurden weiter oben jenes der Übersummativität und das der Einfachheit angeführt, welche das grundlegende Fundament der Wahrnehmung bilden. Es ist entsprechend zu fragen, inwiefern diese Prinzipien auf die technische Sphäre übertragbar sind und wo sie Ergänzungen und Revisionen erfahren. Das Prinzip der Übersummativität besagt im klassischen Grundsatz der Gestalttheorie, dass das Ganze mehr ist als die Summe seiner Teile. Im Vordergrund steht nicht die einzelne Komponente eines Wahrnehmungsinhaltes, sondern seine Gesamtheit, seine Gestalt, mitsamt dessen inneren Strukturgesetzen.186 Letztere erhalten auch dann die Qualität einer Gestalt, wenn einzelne Bestandteile des Ganzen ausgetauscht resp. transponiert werden.187 Der Weg führt vom Ganzen zu den Bestandteilen und nicht andersherum. Entsprechend ist in diesem Verständnis von einem topdown-Schema zu sprechen, das ›von oben nach unten‹ verläuft.188 Anders verhält es sich zunächst in der Sphäre des digitalen technischen Systems: Wie weiter oben am Funktionsablauf eines CNN anschaulich gemacht werden konnte, wird ein eingespieltes Bild innerhalb mehrerer Stufen standardisiert, transformiert, reduziert und in eine rein technisch-deskriptive Formalität überführt, die keine Ähnlichkeit mehr mit dem Ausgangsbild resp. der eigentlichen Gestalt hat.189 Aus gestalttheoretischer Perspektive geht die Gestalt bereits zu Beginn des Prozesses verloren.190 Sie wird buchstäblich zerstört, um sie aus den Einzelteilen neu zusammenzusetzen.191 Die Notwendigkeit dieser Zerstörung ist unausweichlich, sobald ein weltliches Phänomen in das technische Medium und dessen binäre Logik überführt wird. Dabei zerlegen die transformativen Prozesse das Input-Bild nicht willkürlich, sondern hinsichtlich verschiedener Merkmale, die in den Filtern der convolution numerisch angelegt sind. Jene Filter-Prozesse arbeiten dabei parallel und trennen das Input-Bild buchstäblich in sei-

185 186 187 188 189 190

191

Vgl. dazu Kapitel 7.5 ›Simulation und Computation‹, in der das Phänomen der Auflösungsgrade im technischen Zusammenhang ausführlich diskutiert wird. Vgl. Wertheimer (1925: 42). Vgl. Ehrenfels (1932/1960: 61). »Die Gestaltpsychologie nennt dies das Verfahren ›von oben‹, das heißt, vom Ganzen her zu den Teilen.« Arnheim (1996: 78). Vgl. Davies (2012: 6). Arnheim vergleicht die Prozessierung durch die Maschine dabei als »Mosaik aus Einzelstücken« und konstatiert, dass dabei »keinerlei Struktur […] von dem Mosaik bewahrt oder aufgezeigt [wird].« Arnheim (1996: 41). Vgl. dazu auch die Ausführungen bei Kaufmann; Fustier; Drevet (1972: 49ff), welche das ›Zerstören‹ von gefestigten Vorstellungen als Notwendigkeit eines kreativen Denkens anführen, wie es weiter unten noch zu erörtern ist. Vgl. Kapitel 7 ›Kreativität und Parametrie‹.

139

140

Prozess als Gestalt

ne verschiedenen Bestandsebenen auf (Abb. 07 (d)), sodass nicht von einem top-down, sondern vielmehr von einem bottom-up-Schema zu sprechen ist.192 Es wäre nun jedoch zu kurz gegriffen, anzunehmen, dass das menschliche Sehen allein einem top-down- und das technische Erkennen einem bottom-up-Schema folge. Vielmehr sind beide Prinzipien in beiden Sphären an der jeweiligen Bildkonstitution und Wahrnehmung beteiligt, doch zu jeweils verschiedenen Anteilen. Anschaulich wird es, sobald vom Ganzen und seinen Bestandteilen ausgegangen wird und die Reihenfolge in den Fokus rückt, in der die Komponenten verarbeitet werden. Dabei folgen sowohl die menschliche Wahrnehmung als auch die technische Berechnung einem bottom-up-Schema, das von den kleinsten Phänomenen ausgeht (elektrische Reizsignale, Pixel) und sich langsam auf höhere Abstraktionsebenen vorarbeitet (Kontraste, Farben, Konturen, Formen, Gegenstände etc.). Während diese Prozesse für die menschliche Wahrnehmung unbewusst verlaufen und gleichsam nicht weiter verhandelbar sind, müssen sie zur technischen Prozessierung in eine formale Sprache und Logik übersetzt werden, wodurch die Mechanismen kontingent werden. Was die Gestaltpsychologie entsprechend betrachtet, ist eben nicht der wahrnehmungskonstituierende Unterbau – die stetige Prozessierung und Transformation des Inputs auf multiplen Abstraktionsebenen –, sondern allein dessen Resultat, der Output. Die Gestaltpsychologie liest den Bildverarbeitungsprozess entsprechend vom Ende her und betrachtet folglich nicht die Bestandteile auf Ebenen der Prozessierung und der Transformation, sondern das Ganze auf Ebenen der Klassifikation. Dieses Verhältnis der Betrachtung verändert sich in der Sphäre des technischen Systems, da Inhalte dort nicht nur klassifiziert, sondern notwendigerweise vorher auch aktiv transformiert werden müssen – als Bilder, die in Daten, Wichtungen, Wahrscheinlichkeiten, Begriffe etc. übersetzt werden. Bevor in technischer Hinsicht entsprechend etwas als Ganzes wahrgenommen werden kann, müssen die Bestandteile in eine einheitliche Form gebracht werden. Erst sobald dies erfolgt ist, kann die Gestaltwahrnehmung im Rahmen der Klassifikation erfolgen, d.h. durch die Zuordnung von Begriffen, die als Begriffs-Gestalten die ihnen vorangehenden Prozesse subsumieren. Aus technischer Sicht wird es entsprechend möglich, den Prozess nicht nur vorwärts, sondern ebenso wieder rückwärts anzuleiten, nicht mehr als bottom-up-Prozess der Transformation, sondern ebenso als top-down-Prozess der Klassifikation.193 Hat das technische System einmal gelernt, welche transformatori-

192

193

Es schließt sich entsprechend die Frage an, inwiefern technische Systeme überhaupt zu einer Wahrnehmung von Ganzheiten gelangen können, wenn sie zwangsläufig nur von Einzelbestandteilen ausgehen müssen. Künstliche neuronale Netzwerke bieten dazu die Form einer empirischen Analyse einer Vielzahl von Daten an, um daraus Gemeinsamkeiten und Zusammenhänge numerisch errechnen zu können. Doch, wie etwa Arnheim dem entgegenhält, beschreibt das »Abzählen von Linien und das Messen von Winkeln […] nicht das Wesen der visuellen Struktur, die aus diesen Bestandteilen zusammengesetzt ist.« Arnheim (1996: 83). In welchem Zusammenhang dieser Umstand zu einer menschlich sinnvollen Verwertung der Inhalte steht, soll weiter unten noch näher betrachtet werden. Vgl. dazu Kapitel 7 ›Kreativität und Parametrie‹. Dies lässt sich als technische Selbstregulation verstehen, dessen Prozesse nicht nur in Vorwärtsrichtung, sondern ebenso rückwärtig verlaufen. Dies wird im Zusammenhang mit künstlichen neuronalen Netzwerken als back propagation bzw. als reinforcement learning bezeichnet. Vgl. zur back propagation Werbos (1974); zum reinforcement learning Sutton; Barto (2017).

5. Gestalt und Parametrie

schen Prozesse zu welcher Klassifikation der dazugehörigen Gestalt führen, so kann diese Gestalt wiederum als neues Wahrnehmungsmodell auf noch unbekannte Inhalte angewandt werden. Und dies nicht etwa in strikt abgeschlossener, sondern in weiterhin verhandelbarer Art und Weise.194 Entsprechend sei das Prinzip der Übersummativität in technischer Hinsicht in sein Gegenteil gewendet, indem es das Ganze nicht voranstellt, sondern es zuletzt generiert; nicht in Unabhängigkeit der Bestandteile, sondern vielmehr aufbauend auf dessen vielfacher, empirischer Abstraktion und Transformation. Das zweite weiter oben genannte Prinzip, das der Einfachheit, hängt sowohl unmittelbar mit dem der Übersummativität als auch den transformativen Prozessen zusammen, wie sie im technischen Erkennen ansichtig werden. Es versteht sich in beiden Fällen, der menschlichen Wahrnehmung wie auch dem technischen Erkennen, auf die Standardisierung und Diskriminierung der gegebenen Wahrnehmungsinhalte resp. Datensätze, mit dem Zweck, eine schnelle und effiziente Beurteilung eines Wahrnehmungsinhaltes vornehmen zu können. Im gestalttheoretischen Sinn versteht sich Einfachheit als menschliche Tendenz, Wahrnehmungsinhalte einer Regelmäßigkeit zu unterwerfen, die nicht zuletzt dann eintritt, Wahrnehmungsinhalte in ihrer Struktur und Beschaffenheit ein gewisses Maß an Komplexität erreichen, das nicht ohne weitere Anstrengung kognitiv zu verarbeiten ist.195 Entsprechend werden Inhalte standardisiert. D.h. etwa, dass ein ungleichmäßiger oder gebrochener Kreis eben deshalb immer noch als ›Kreis‹ erkannt wird, weil Wahrnehmungsinhalte auf eine niederkomplexere, dafür gleichförmigere und regelmäßigere Struktur reduziert werden.196 Die wesentlichen Inhalte sind demnach nicht die konkreten Einzelformen samt ihrer Unregelmäßigkeiten, sondern die auf ihre größtmögliche Einfachheit hin reduzierten Strukturformen, d.h. die gemäß den Gestaltgesetzen applizierten Regelmäßigkeiten, die das menschliche Sehen erst effizient machen. Im technischen Diskurs von zu erkennenden Regelmäßigkeiten zu sprechen, erscheint an dieser Stelle naheliegend. Wie anschaulich gemacht wurde, erfolgt die Er194 Diese Methode des top-down-Erkennens technischer Systeme findet oft Einsatz beim sog. ›tracking‹, d.h. in Form von Musterkonfigurationen, die in einem Gesamtbild wiedergefunden werden sollen, wie es etwa in der Videotechnik Anwendung findet. Vgl. dazu Behnke (2003: 7ff). 195 »[…] wenn bei physikalischen Systemen oder der menschlichen Wahrnehmung die geeigneten Bedingungen gegeben sind und genügend Zeit gelassen wird, so verändern sie sich in Richtung auf größere Einfachheit oder Regelmäßigkeit hin.« Köhler (1971: 72). Ebenso beschreibt es Arnheim als Gesetz der Einfachheit, »das besagt, daß die Wahrnehmungskräfte, die ein solches Feld bilden, danach streben, sich in der einfachsten, regelmäßigsten, symmetrischsten Struktur zu gruppieren, die unter den gegebenen Umständen möglich ist« Arnheim (2000: 70). Auch Seyler: »Das Sehen ist bestrebt, Klarheit zu schaffen. Es schließt bei zu großer Unklarheit die Eindrücke zu möglichst ›einfachen Gestalten‹ zusammen.« Seyler (2013/2014: 21). 196 Daran zeigt sich eine grundlegende Tendenz der Wahrnehmung zur Übersteigerung von unregelmäßigen Wahrnehmungsinhalten zugunsten einer Regelmäßigkeit, wie Sachsse es ausführt: »Die Tatsache, daß die Wahrnehmung das Regelmäßige und Allgemeine stärker hervorhebt, als es in Wirklichkeit vorhanden ist, erklärt auch den Täuschungscharakter des sogenannten induktiven Schlusses, die Tatsache, daß wir instinktiv dazu neigen, die Einzelbeobachtung ungemäß zu verallgemeinern.« Sachsse (1984: 75).

141

142

Prozess als Gestalt

fassung von Regelmäßigkeiten auf Basis der empirischen Analyse einer hohen Zahl von Unregelmäßigkeiten, in Form von mehreren Tausenden unterschiedlichen Bilddatensätzen. Die ›blinde‹ Maschine muss sich empirisch absichern, da sie strukturelle Zusammenhänge nicht aus einer einzigen Beobachtung (heuristisch) ableiten kann. Aus einer Vielzahl von Bilddaten muss sie dessen Variabilität zusammenfassen, generalisieren, diskriminieren, und evaluieren, um die übergeordneten Strukturzusammenhänge als »visuelle Gesamtstruktur eines Gegenstandes« erfassen zu können.197 Dabei handelt es sich zwar nicht um ein genuines menschliches Verständnis der Zusammenhänge, jedoch um ein sich fortwährend verfestigendes Schema der zuverlässigen Zuordnung von Klassen.198 Die so gewonnenen Regelmäßigkeiten sind entsprechend das Ergebnis von Transformationsprozessen, die durch Datenreduktion und parallele Prozessierung zwar ein Streben nach energieeffizienter Einfachheit versinnbildlichen – darin gleichen sie auch den menschlichen, neurobiologischen Grundanlagen –,199 in Bezug auf ein topologisches Verständnis der Strukturzusammenhänge jedoch nicht über den Stand der deskriptiven Formulierung hinauskommen.200 Technische Systeme können diese Strukturzusammenhänge zwar errechnen und entsprechend offenlegen, jedoch nicht in solch einer Art und Weise damit umgehen, dass es durch Umstrukturierungen der Zusammenhänge zu neuen, einfacheren Lösungen kommt. Entsprechend verweilt das Prinzip der Einfachheit auf technischer Ebene in der Anstrengung, Daten möglichst schnell und effizient zu verarbeiten, um mittels empirischer Analysen einer Vielzahl von Einzelbildern aus Unregelmäßigkeiten Regelmäßigkeiten abzuleiten und dadurch konkludierende Aussagen zu stabilisieren. Bezieht sich das Prinzip der Einfachheit in der menschlichen Wahrnehmung demnach auf die topologischen Strukturzusammenhänge gemäß den Gestaltgesetzen, so eröffnet es sich im technischen Kontext als empirisches Analyse- und Transformationsverfahren mit der Zielsetzung einer größtmöglichen Datenreduktion, der variablen Filteroperationen und der effizienten Kapazitätsauslastung.

Technische Leistungen Nachdem nun sowohl die Gesetze als auch die Prinzipien des technischen Erkennens besprochen wurden, soll es im Folgenden abschließend um die prozessualen Leistungen auf tiefster Ebene gehen, die analog zur menschlichen Wahrnehmung auch im Kontext des technischen Erkennens in eine Prägnanz-, Konstanz- und Differentialleistung zu unterscheiden sind. Die Prägnanzleistung beschreibt als kognitive Leistung der menschlichen Wahrnehmung einen Akt der Entscheidung im Sinne eines eindeutigen ›Entweder-oder‹. Dazu verstärkt sie das Eindeutige und unterdrückt im Gegenzug das Uneindeutige.201 Dies

197 Arnheim (1996: 42). 198 Vgl. Stalder (2016/2017: 180). 199 Wie Roth und Strüber es für die menschliche Wahrnehmung beschreiben, sind die mit »bewusstem Erleben verknüpften neuronalen Prozesse vom Stoffwechsel her sehr ›teuer‹ […]« Roth; Strüber (2018: 24). Daher prozessiert auch das menschliche Gehirn Daten möglichst effizient. 200 Vgl. Arnheim (1996: 81ff). 201 Vgl. Sachsse (1984: 72ff).

5. Gestalt und Parametrie

bezieht sich sowohl einmal auf die Wahrnehmung der topologischen Strukturzusammenhänge gemäß den Gestaltgesetzen – etwa wenn bestimmte Figuren und Konstellationen in einer standardisierenden und diskriminierenden Form aufgefasst werden –, als auch in neurobiologischer Hinsicht etwa auf die Reizverarbeitung durch Rezeptorzellen der Netzhaut, sofern bestimmte Reize nur dann weitergeleitet werden, wenn ihre Reizstärke einen gewissen Schwellenwert der Erregung überschreitet.202 Erreicht die Reizstärke diesen Schwellenwert nicht, werden auch keine Signale weitergeleitet, sondern umliegende Reize vielmehr gehemmt.203 Analog ist dies nun in technischer Hinsicht zu betrachten, am angeführten Beispiel eines CNN. Eine Prägnanzleistung lässt sich dabei einmal auf Seiten der Transformation und ebenso auf Seiten der Klassifikation ausmachen. In den Prozessen der Transformation versteht sich die Prägnanzleistung als das übergeordnete Bestreben, Merkmale zu extrahieren, d.h., dessen Signifikanz zu verstärken und im Gegenzug Bild-störende Faktoren – (Lichteinfall, Rauschen, ausschnitthafte Darstellungen etc.) zu vernachlässigen resp. zu unterdrücken. Dieser Prozess wurde weiter oben vor allem in der convolution anschaulich, innerhalb welcher Bilddaten mittels diverser Filter hinsichtlich verschiedener Merkmale mathematisch prozessiert werden. Auf der Ebene der Klassifikation versteht sich die Prägnanzleistung auf diejenigen Prozesse, die an der Wichtung der Zusammenhänge im künstlich neuronalen Netzwerk beteiligt sind: Daten werden so lange hin und her prozessiert (›back propagation‹), bis eine eindeutige Zuordnung der Daten zu einer Klasse möglich ist. Die Wichtungen zwischen den einzelnen layern werden innerhalb des Trainings fortwährend neu festgelegt, sodass die technische Prägnanzleistung im Gegensatz zur menschlichen nicht etwa eine absolute, sondern eine relative Eindeutigkeit zum Ziel hat. Die Konstanzleistung schließt unmittelbar an diese Überlegungen an. In physiologischer Hinsicht zielt sie auf diejenigen Phänomene ab, die sich wiederholen, andauern und dadurch konstant sind.204 Sie eröffnet sich als Suche nach dem Gleichbleibenden und hat entsprechend eine prognostizierende Funktion, indem sie Merkmale aus Einzelbeobachtungen zu Allgemeinheiten verbindet resp. abstrahiert und daraus eine Haltung gegenüber zukünftigen Wahrnehmungsinhalten entstehen lässt, wie es kennzeichnend für erfahrungsbasierte Denk- und Lernprozesse ist.205 In technischer Hinsicht markiert die Konstanzleistung entsprechend solche Prozesse, die maßgeblich an der Stabilisierung von Inhalten und prägnanten Merkmalen beteiligt sind, wie es im

202 Vgl. dazu auch die physiologischen (neuronalen) Vorbedingungen der Prozesse bei Roth (2015: 13ff); Kruse; Borgelt; Braune; Klawonn; Moewes; Steinbrecher (2015: 9ff). 203 S. zur sog. lateralen Hemmung Anm. 177 in diesem Kapitel. 204 Vgl. Sachsse (1984: 73). 205 Neben dieser Ausprägung der Konstanz wirken sich weitere etwa auf kognitive Phänomene der Helligkeits-, Farb- und Form- resp. Gestaltwahrnehmung aus. Vgl. Roth (2015: 71, 82); Katz (1943/1969: 17-18). Diese Formen sind für die technische Diskussion jedoch von nachrangiger Bedeutsamkeit, da für die vorliegenden Zwecke nicht weiter ausgeführt werden muss, dass im technischen Medium eine technische Konstanz im Sinne der o.g. Phänomene grundgegeben ist; Bilder werden zu Pixeln, Pixel sind numerische Werte, numerische Werte werden berechnet, in der binären Eindeutigkeit digitaler Medien.

143

144

Prozess als Gestalt

Fall des betrachteten CNN etwa die des poolings sind. Die in der convolution prozessierten Daten werden in einer zweiten Stufe der Bearbeitung mathematischen Operationen unterzogen, welche die Werte gemäß bestimmter Anweisungen untersuchen und aus den fragilen Werteansammlungen stabile Ableitungen erstellen, etwa durch das maximum oder average pooling.206 Diese Prozesse machen Inhalte weitestgehend invariant gegenüber Veränderungen und stabilisieren dadurch ihre Aussage. Gleichzeitig reduzieren sie die Datengröße und komprimieren so die Information auf das notwendige Minimum, das gerade dadurch den Status einer allgemeinen Information erhält und nicht zuletzt dadurch zu einer Konstanten wird.207 Neben der Prägnanz- und Konstanzleistung vermag die Differentialleistung in technischer Hinsicht eine neue Bedeutung zu erfahren. In der menschlichen Wahrnehmung versteht sich die Differentialleistung darauf, die Wahrnehmung für auftretende Veränderungen der Wahrnehmungsinhalte zu sensibilisieren; etwa Kontraste, Bewegungen oder Verformungen.208 Sie beobachtet entsprechend zeitliche Zustandsabfolgen und bewertet, in welchem Maß die Veränderung dazwischen für den Wahrnehmenden relevant sein könnte. Die Differentialleistung beschreibt entsprechend ein UrsacheWirkung-Prinzip, wie es auch im technischen Kontext – im Fall des CNN vor allem in der full connection mittels eines künstlichen neuronalen Netzwerks – zum Tragen kommt. Dabei ist insbesondere die ›back propagation‹ von Bedeutung, welche einen rückwärtigen Lernprozess beschreibt.209 Dabei wird nicht etwa das Ergebnis durch bestimmte Anpassungen des Prozesses variiert, sondern umgekehrt: Der Wert des Outputs wird fixiert, etwa durch die Klasse ›Hund‹, und das neuronale Netzwerk passt die Prozesse der Merkmalextraktion entsprechend so an, dass die Wahrscheinlichkeit, dass auf dem Input-Bild wirklich ein Hund abgebildet ist, sich erhöht. Es wird entsprechend ein Differential gebildet, das entweder Anlass zur Veränderung gibt oder eben nicht. Gemäß Letzterem werden die Prozesse des gesamten CNN rückwirkend angepasst, sodass eine iterative Annäherung an die richtige Zuordnung stattfinden kann. So kann zusammenfassend festgehalten werden, dass Prinzipien der menschlichen Wahrnehmung im Zuge der technischen Rekonstruktion der Prozesse neue Anwendungen und Bedeutungen erfahren. Während die menschlich-physiologischen Prozesse dabei vorrangig anhand der Resultate (Output) erfahrbar werden, können innerhalb technischer Systeme alle transformativen Prozeduren von Grund auf angelegt und nachverfolgt werden. Die Gesetzmäßigkeiten, denen die menschliche Wahrnehmung unabdingbar folgt, offenbaren sich dabei in technischer Artikulation als dynamische Richt206 Vgl. Goodfellow; Bengio; Courville (2016: 336). 207 Bereits Wertheimer betont dabei die Konstanz der Mathematik, die er als Ganzqualität bezeichnet: »Die Mathematik hat exakte Mittel, um mit solchen Fällen umzugehen, bei denen Ganzqualitäten in Formeln ausgedrückt werden, die gültig sind trotz der Abweichungen in den Teilen.« Wertheimer (1945/1957: 140-141). Dies trifft sowohl auf die menschliche Wahrnehmung im Sinne der Gestaltgesetze als auch, wie dargestellt wurde, in neuerer Übertragung auf die technische Prozessierung von Wahrnehmungsinhalten zu. Anschaulich wird die Ganzqualität mathematischer Formeln etwa auch an der Relativitätsformel Einsteins, die Wertheimer in seinem Hauptwerk untersucht. Vgl. Ebd.: 194218. 208 Vgl. Sachsse (1984: 75). 209 Vgl. dazu Sathyanarayana (2014).

5. Gestalt und Parametrie

linien, die sich erst im Prozess der Verarbeitung selbst generieren und fortwährend verfestigen. Wie das technische System resp. das CNN die Dinge erkennt, entzieht sich durch multiple Übersetzungen, Abstraktionen und Transformationen dabei weitestgehend einem menschlichen Verständnis – doch ist ein solches auch gar nicht notwendig, um mit den Ergebnissen umgehen zu können. Was zählt, ist die Konsistenz des Prozesses und die darauf aufbauende Aussagekraft der Resultate. Wie damit sinnvoll umzugehen ist, vermag wiederum eine Frage menschlicher Gestaltung zu sein.210

210 Dies soll weiter unten innerhalb einer technikphilosophischen Auseinandersetzung ausführlich diskutiert werden. Vgl. dazu Kapitel 7.5 ›Simulation und Computation‹, Kapitel 7.6 ›Kontinuität und Disruption‹ und das abschließende Kapitel 8 ›Prozess, Gestalt und Parametrie‹.

145

6. Problemlösen und Parametrie

Bislang konnte anhand der gestalttheoretischen Überlegungen aufgezeigt werden, unter welchen Bedingungen die menschliche Wahrnehmung in technischer Hinsicht gedacht und rekonstruiert werden kann, welche Parallelen vorherrschen und an welchen Stellen von Unterschieden abgesehen werden muss. Im Fokus der Diskussion stand die Frage nach der Wahrnehmung auf menschlich-physiologischer und dem Erkennen auf technisch-computationaler Ebene. Die Ausführungen machten anschaulich, dass die menschliche Wahrnehmung nach bestimmten Grundsätzen resp. Gestaltgesetzen verläuft, denen in ihrer Eigenart nur bedingt entgegenzuarbeiten ist, wogegen die technische Sphäre durch ihre binäre formale Logik eine grundlegende multiple Übersetzbarkeit der Dinge ermöglicht und entsprechend für jeden Anwendungsfall ihre ganz eigenen ›Gestaltgesetze‹ auszubilden vermag. Während die technisch-mediale Auseinandersetzung damit die Grundlage für die Diskussion um Kreativität und die gestalterische Praxis der digitalen Gegenwart angereichert hat, soll im Folgenden zunächst ein Schritt unternommen werden, die gestalttheoretischen Überlegungen in eine Anwendung der Praxis zu überführen, wie sie dem gestalterischen Feld zu eigen ist: von der Diskussion um Gesetze, Prinzipien und Leistungen einer passiven Wahrnehmung hin zur aktiven Einwirkung auf die Phänomene mit Hinblick auf ein Ziel, das es zu erreichen resp. auf ein Problem, das es zu lösen gilt. Die Gestalttheorie bereitet eine solche Fokusverschiebung vor, indem sie die Anforderungen der Wahrnehmung auf eine nächste Stufe stellt, auf der sie sich nicht mehr mit dessen Grundsätzen, sondern mit dessen Veränderbarkeit beschäftigt, in Form des produktiven Problemlösens.1 »Ein

1

Problemlösen beschreibt, nach Schmid und Funke, allgemeinhin »den Prozess der Ausführung einer, häufig komplexen, Folge von Handlungen zur Erreichung bestimmter Ziele, die nicht durch den Einsatz von Routineverfahren erreicht werden können.« Schmid; Funke (2013: 335). Das Feld des Problemlösens im wissenschaftlichen Zusammenhang ist dabei weitestgehend eines des 20. Jahrhunderts, das mit dem Aufkommen der Psychologie als eigenständige Disziplin und dem Blick auf die kognitiven Denkprozesse gegen Ende des 19. Jahrhunderts seinen Anfang nahm. Die Gestalttheorie lieferte dazu einen maßgeblichen Beitrag, indem durch Prozesse der Umstrukturierung von Problemen und der Einsicht in neue Lösungsmöglichkeiten ein Fundament für die weitere Forschung gelegt wurde. Später, zu Beginn der Künstlichen Intelligenzforschung in den 1950er- und 1960er-Jahren, waren es vor allem die Arbeiten Allen Newells und Herbert A. Simons, welche versuchten, das

148

Prozess als Gestalt

Problem«, wie der Gestaltpsychologe Karl Duncker in seiner Abhandlung ›Zur Psychologie des Produktiven Denkens‹ von 1935 einleitet, »entsteht z.B. dann, wenn ein Lebewesen ein Ziel hat und nicht ›weiß‹, wie es dieses Ziel erreichen soll.«2 Die Wahrnehmung eines Problems zeigt auf, dass ebendiese an eine Grenze stößt, welche unter gegebenen, situativen Bedingungen nicht ohne eine aktive Veränderung zu überwinden ist. Es bedarf einer neuen Form der Wahrnehmung des Problems, einer neuen Sichtweise auf die Dinge, einer neuen Annäherung, um zu einer Lösung zu gelangen. In dieser Lesart ist der Ausdruck des ›produktiven Denkens‹ zu verstehen,3 welcher vor allem durch Karl Duncker und Max Wertheimer in der ersten Hälfte des 20. Jahrhunderts als Erweiterung der gestalttheoretischen Überlegungen entwickelt wurde.4 Die lateinische Herkunft des Wortes produzieren (lat. ›producere‹ = dt. ›vorwärtsführen‹)5 macht dabei bereits anschaulich, dass es einer Form der gedanklichen Anstrengung bedarf, um der Lösung eines Problems buchstäblich näherzukommen. Das kognitive Vorangehen versteht sich dabei als Prozess eines logischen Abtastens der Situation, ihrer Bedingungen und der zur Verfügung stehenden Mittel, um ein Ziel zu erreichen. Im Gegensatz zum reproduktiven Denken, der routinemäßigen Lösung von Aufgaben, bezeichnet das produktive Denken Prozesse der Umstrukturierung eines Gegebenen. Probleme können entsprechend dadurch gelöst werden, dass sie so lange in Unterprobleme zergliedert, aus neuen Perspektiven betrachtet und mit neuen Bedingungen verknüpft werden, bis eine Einsicht in die Problemstruktur entsteht und damit auch der Weg für eine Lösung des Problems frei wird. Wie die Prozesse dabei im Einzelnen verlaufen und wo Anknüpfungspunkte für die gestalterische Praxis und Parametrie bestehen, soll im Folgenden aufgezeigt werden. Die Auseinandersetzung gliedert sich dabei in drei Stufen: In einem ersten Schritt soll in allgemeiner Betrachtung dargelegt werden, wie sich die Begrifflichkeiten des Problems und der Lösung allgemeinhin zueinander verhalten und welche Formen des (gestalterischen) Umgangs damit einhergehen. Aufbauend auf dieser Grundlage soll im zweiten Unterkapitel erörtert werden, wie der gestalttheoretische Ansatz des produktiven Denkens im Problemlösen Anwendung findet, während der dritte Teil der Erörterung anhand dreier Problemszenarien anschaulich zu machen sucht, wie Situationen durch ein produktives Denken so umstrukturiert werden können, dass Einsicht in

2 3

4 5

menschliche Problemlösen in Computermodellen zu simulieren. Vgl. Newell; Simon (1972). Vgl. dazu auch die Retrospektive der computationalen Entwicklung bei Anderson (1993). Eine knapp gehaltene Übersicht der historischen Zusammenhänge findet sich bei Dunbar (1998). Duncker (1935/1963: 1). Der Ausdruck des produktiven Denkens benennt dabei diejenigen Prozesse des Denkens, die nicht auf die routinierte Anwendung von Erfahrungswissen zurückgreifen, sondern durch die Umstrukturierung von Problemen neue Wege zu dessen Lösung hervorbringen. Eingeführt wurde der Begriff im Jahr 1922 vom Psychologen Otto Selz, bevor er in der gestaltpsychologischen Auseinandersetzung vor allem von Karl Duncker, Max Wertheimer und Wolfgang Köhler mittels Studien und Fallbeispielen kognitiver Problemlöseprozesse weiter ausdifferenziert wurde. Vgl. Selz (1922); Duncker (1935/1963); Koffka; Köhler; Wertheimer; Goldstein; Gruhle (1923); Wertheimer (1945/1957). Vgl. Dunckers Schrift ›Zur Psychologie des produktiven Denkens‹ von 1935 und Max Wertheimers Abhandlung ›Produktives Denken‹ von 1957. Kluge; Seebold (2011: 724): produzieren.

6. Problemlösen und Parametrie

die Lösung eines Problems entstehen kann. Die Auseinandersetzung mit Ansätzen des klassischen Problemlösens soll dabei die Grundlage bilden, auf der, in Erweiterung des produktiven Denkens, ein kreatives Denken aufbauen und für die gestalterische Praxis neu gedacht werden kann, wie es das darauffolgende Hauptkapitel zum Ziel hat.

6.1

Problem und Lösung

Ein Problem ist zumeist schneller ausgemacht als seine Lösung: Während ersteres ins Bewusstsein tritt, »wenn ein Lebewesen ein Ziel hat und nicht ›weiß‹, wie es dieses Ziel erreichen soll«, wie Karl Duncker es bereits 1935 grundlegend festgehalten hat,6 vollzieht sich das Finden des Letzteren, der Lösung, als mitunter langwieriger Prozess, in welchem die jeweiligen Gegebenheiten und Möglichkeiten miteinander ins Verhältnis gesetzt, analysiert und abgewogen werden, um Grundlagen für mögliche Entscheidungen zu erarbeiten. Dies gilt sowohl im Allgemeinen für das menschliche Handeln7 als auch im Besonderen für den Designprozess, wenn dieser als Problemlösungsprozess begriffen wird.8 Dabei ist davon auszugehen, dass ein Problem nicht etwa als Ganzheit aus dem Nichts entsteht, sondern vielmehr ein menschliches, gedankliches Konstrukt darstellt,9 welches, wie Dörner es in seiner Definition darlegt, erst dann besteht, »wenn ein unerwünschter Ausgangszustand in einen erwünschten Endzustand transformiert werden soll, diese Transformation jedoch durch eine ›Barriere‹ behindert wird. Von Problemen ist also die Rede, wenn die Mittel zum Erreichen eines Zieles unbekannt sind, oder die bekannten Mittel auf neue Weise zu kombinieren sind, aber auch dann, wenn über das angestrebte Ziel keine klaren Vorstellungen existieren.«10 Ein Problem besteht entsprechend aus drei Komponenten: Erstens einem unerwünschten Ausgangszustand, zweitens einem erwünschten Endzustand und drittens einem Hindernis resp. einer Barriere, welche die Transformation vom Ausgangs- in den Endzustand verhindert.11 Auf einer solch abstrakten Ebene erscheint es zunächst einfach, ein 6 7 8 9

10

11

Duncker (1935/1963: 1). Vgl. dazu etwa Karl Poppers Schrift ›Alles Leben ist Problemlösen‹ bei Popper (1997). Vgl. dazu etwa Erlhoff; Marshall (2008: 319);Asimov (1962: 42ff); Bürdek (1975: 14ff);Heufler (2016: 17); Cross (2007: 99ff); Maser (1970); Maser (1972). Der konstruktive Charakter eines Problems gründet dabei auf dem Umstand, dass Probleme stets gemacht und nicht gegeben sind: »Probleme entstehen, weil Menschen Ziele verfolgen.« Funke (2003: 39). Sie gründen in der Absicht, ein Ziel erreichen zu wollen und lassen dabei ebenso stets die Möglichkeit offen, die Zielsetzung zu ändern und das jeweilige Problem dadurch aufzulösen. Dörner; Kreuzig; Reither; Stäudel (1983: 302ff). Vgl. auch die Definition Mayers: »Jede Definition des Begriffes ›Problem‹ sollte also dreierlei beinhalten, nämlich daß a) ein bestimmter Zustand herrscht, doch b) ein anderer Zustand erwünscht ist und c) kein direkter Weg erkennbar ist, um die gewünschte Veränderung herbeizufuhren.« Mayer (1979: 5). Vgl. ebenso die Definition bei Kirsch (1971a: 145): »Jede Definition eines Problems kann aus mehreren Komponenten zusammengesetzt gedacht werden: der Beschreibung eines Anfangszustandes, der Beschreibung eines Endzustandes, der Beschreibung von Prozessen, die den Anfangszustand in den Endzustand transformieren können, sowie der Beschreibung von Zwischenzuständen, zu denen die Prozesse führen müssen.« Vgl. Dörner (1976: 10); Mayer (1979: 4-5); Hussy (1984: 114); Funke (2003: 14ff).

149

150

Prozess als Gestalt

Problem zu definieren und entsprechend auch zu lösen. Jedoch offenbart sich die eigentliche Schwierigkeit des Problems erst dann, wenn Anfangs- und Zielzustand sowie die Barrieren und Mittel (Operatoren) zu dessen Überwindung präziser definiert werden müssen, um einer Lösung näherzukommen. Es ließe sich fragen: Wo stehe ich, wo will ich hin, was steht mir zur Verfügung. Duncker präzisiert eine solche Herangehensweise durch die Einteilung in eine Situations- und eine Zielanalyse.12 Ersteres befragt die Situation sowohl nach dem bestehenden Konflikt als auch nach dem zur Verfügung stehenden Material: »Während die Konfliktmomente auf die Frage antworten: ›woran scheitert es, was muß ich verändern?‹, antwortet das Material auf die Frage: ›was kann ich brauchen?‹.«13 Letzteres, die Zielanalyse, versteht sich als Analyse des Resultates, welche danach fragt: »was will ich eigentlich? […] was kann ich entbehren?«.14 Unter diesen Leitfragen entstehen Definitionen der jeweiligen Anfangs- und Zielzustände, die seit John McCarthy im Jahr 1956 in der amerikanischen Literatur gemeinhin als geschlossene (›gut definierte‹) und offene (›schlecht definierte‹) Probleme bezeichnet werden (›well-defined‹/’ill-defined problems‹).15 Ein geschlossenes Problem ist entsprechend dann ein gut definiertes, wenn ein Zielzustand und die Mittel, diesen zu erreichen, gegeben sind, etwa in der Aufforderung, das »Wohnzimmer lila zu streichen«. Ein schlecht definiertes Problem dagegen wäre die Aufforderung, die »Wohnung schöner zu machen«.16 Während innerhalb des ersten Falles die Bedingungen klar definiert sind – zumindest durch den Raum und die Farbe – verbleibt die letztere Aufforderung in weitestgehender Offenheit. Es wird entsprechend notwendig, die erforderlichen Maßnahmen weiter zu konkretisieren und den Problemraum, wie Newell und Simon es nannten,17 stärker einzugrenzen.18 Eine gängige Vorgehensweise eröffnet sich dann nicht selten darin, die schlecht strukturierten Probleme in Teilprobleme zu unterteilen, wie es grundlegend mit Christopher Alexander ein erstes Fundament für die designtheoretische Auseinandersetzung fand.19 Eine Übertragung der Dichotomie gut und schlecht definierter Probleme auf das Feld der Gestaltung stellt Bürdek mit Verweis auf Bonsiepe an, wenn er von einer »Pro-

12 13 14 15

16 17

18

19

Vgl. Duncker (1935/1963: 24ff). Ebd.: 25. Ebd.: 27. Vgl. sowohl McCarthy (1956); Simon (1973) als auch Funke (2003: 29). Die Überlegungen entstanden vor allem mit Hinsicht auf die computationale Formalisierung von Problemen, wie sie durch die Entwicklung künstlich intelligenter Systeme seit Mitte des 20. Jahrhunderts gefordert war. Kirsch unterscheidet innerhalb schlecht-strukturierter Probleme weiter die komplexen Probleme, welche sich dadurch kennzeichnen, dass ihre Komplexität innerhalb kollektiver Entscheidungsprozesse vor allem durch die Zusammenführung unterschiedlichster Kontexte (etwa jeweils unterschiedliche Perspektiven der beteiligten Entscheidungsparteien) zustande kommt. Entsprechend ist nach Kirsch auch von Multi-Kontext-Problemen zu sprechen. Vgl. Kirsch (1998: 207ff). Beispiel zitiert nach Funke (2003: 29). Vgl. Newell; Simon (1972). Vgl. weiter auch die Analyse des Problemraums bei Hasenhütl (2013: 93ff), der den Begriff mit Hinsicht auf entwurfsimmanente Externalisierungen, d.h. auf die symbolischen Werkzeuge, mit denen der Gestalter Probleme löst, diskutiert. Rittel spricht in diesem Zusammenhang auch von einem »Suchraum, der durch das Problem vorgegeben ist.« (»This sequence takes place in a ›search space‹ determined by the problem.«). Rittel (1965: 192). Vgl. dazu ebenso sowohl Michael (1973: 43ff) als auch Dörner (2002: 239ff). Vgl. dazu Alexander (1964) als auch Bürdek (1975: 51ff).

6. Problemlösen und Parametrie

blemtaxonomie« zur Bewältigung von Entwurfsproblemen spricht.20 Dabei ist von vier Kombinationsmöglichkeiten zwischen Ausgangs- und Zielzustand zu unterscheiden, die bereits von Reitman im Jahr 1965 zur allgemeinen Definition von Problemlöseszenarien entwickelt wurden21 und welche Bonsiepe wie folgt in das Feld der (Produkt)gestaltung zu übertragen suchte:22 •



• •

»Anfangszustand wohldefiniert, Endzustand schlecht definiert. Beispiel: Gegeben sei ein neues Material für Oberflächenbehandlung; es sollen Anwendungsmöglichkeiten für dieses neue Material gesucht werden. Anfangszustand wohldefiniert, Endzustand wohldefiniert. Beispiel: Es soll ein Kinderstuhl möglichst mit verschiedenen Sitzhöhen gestaltet werden; als Material ist Hochdruckpolyäthylen vorgegeben, das im Blasverfahren umgeformt wird. Anfangszustand schlecht definiert, Endzustand schlecht definiert. Beispiel: Es soll ein Schreibmittel nicht-konventioneller Art entwickelt werden. Anfangszustand schlecht definiert, Endzustand wohldefiniert. Beispiel: Es soll ein Installationssystem (Installationswand) entwickelt werden, für ländliche Gegenden, das ohne gelernte Fachkräfte eingebaut werden kann; es muß den Vorschriften für sanitäre Installationen genügen; vorwiegend sind Kunststoffe zu verwenden.«23

Nach Bürdek lassen sich die verschiedenen Konfigurationen mit Hinsicht auf die Problemschwierigkeit sortieren, wonach bei Problemen, die beiderseits wohl definiert sind, eine niedrigere Schwierigkeit vorliegt als bei solchen, in denen beiden Zustände schlecht definiert sind.24 In dieser Hinsicht können Gestaltungsaufgaben insofern in ihrer Schwierigkeit variieren, als dass sie mehr oder weniger gut/schlecht definiert sind, weshalb die allgemeine Annäherung an eine neue Entwurfsaufgabe zumeist über ein Briefing erfolgt, dass die wesentlichen Punkte der Ausgangs- und Zielzustände festhält, wie es in Bonsiepes Beispielen weiter oben anschaulich wird.25 Ähnlich erfasst es Dörner, wenn er von drei Barrieretypen spricht, die ein Erreichen des Zieles verhindern und die sich aus der Kombination zweier wesentlicher Faktoren ergeben, dem Bekanntheitsgrad der Mittel und der Klarheit der Zielkriterien: »Wenn man in einer Problemsituation weiß, was man will und auch die Mittel kennt, mit denen der angestrebte Zielzustand erreichbar ist, dann liegt das Problem in der

20 21 22 23 24 25

Vgl. Bürdek (1975: 24ff). Reitman (1965). Die vier Zustände können gleichermaßen für alle anderen Gestaltungsfelder gleichermaßen herangezogen werden, da sie alle innerhalb designspezifischer Briefings abgebildet werden können. Bonsiepe zitiert nach Bürdek (1975: 24-25). Vgl. Ebd.: 25. Vgl. zur Problemschwierigkeit innerhalb des allgemeinen Problemlösens auch Funke (2003: 32ff) sowie Hussy (1984: 122ff). Das Briefing ist, nach Bielefeld und Khouli, jedoch kein Garant für eine zielgerichtete Gestaltung: »Das Ziel des Prozesses ist – ganz im Gegensatz zur Aufgabenstellung – zunächst unbekannt.« Bielefeld; Khouli (2011: 10).

151

152

Prozess als Gestalt

richtigen Kombination der Mittel. Man hat eine Interpolationsbarriere vor sich. Weiß man was man will, kennt aber die Mittel nicht, so hat man eine Synthesebarriere, und weiß man gar nicht, was man eigentlich genau will, so hat man eine dialektische Barriere.«26 Die Unterteilung in Interpolations-, Synthese- und dialektische Barriere erweitert damit den Betrachtungsrahmen wohl und schlecht definierter Probleme um eine bedeutsame Dimension, die sich vor allem in der dialektischen Barriere offenbart: Dabei ist der Zielzustand nur vage umrissen resp. schlecht definiert, wird jedoch im Zuge der Bearbeitung des Problems stetig weiter präzisiert.27 Alle schlecht definierten Probleme verlangen nach Dörner entsprechend nach einer dialektischen Prozedur, in welcher der Zielzustand auf innere und äußere Widerstände abgeprüft und entsprechend verändert wird.28 Ein innerer Widerstand ergibt sich dabei aus der Beschaffenheit des situativ gegebenen Materials, das womöglich umgeformt werden muss, um dem äußeren Widerstand, d.h. den Anforderungen des Kontextes, wie Bürdek es in Bezug auf das Feld der Gestaltung anführt,29 gerecht zu werden. Auch wenn Dörner, wie Kirsch feststellt, in seiner dialektischen Modellbildung den Anfangszustand zumeist als bekannt und ausreichend beschrieben voraussetzt und den Kern des Phänomens allein an der Transformation des Zielzustandes festmacht,30 greift der Ansatz jene grundlegende Dialektik auf, die sich im Allgemeinen als ›trial-and-error‹-Methode zur menschlichen Lebensbewältigung offenbart31 und im Besonderen mit Hinsicht auf das Feld der Gestaltung als die Schließung der Lücke zwischen Test und Entwurf zu verstehen ist.32 Schlecht strukturierte Entwurfsprobleme lassen sich dementsprechend nur über eine schrittweise Präzisierung des Zielzustandes lösen, welche sich aus der oszillierenden

26 27 28 29 30 31

32

Dörner (1976: 14). Vgl. Brander; Kompa; Peltzer (1985/1989: 117). Vgl. Dörner (1976: 13). Vgl. Bürdek (1975: 54ff). Vgl. Kirsch (1998: 59). Wie Karl Popper es in Anlehnung an die darwinistische Theorie formuliert: »Wir sind aktiv, wir probieren dauernd aus, wir arbeiten dauernd mit der Methode von Versuch und Irrtum. Und das ist die einzige Methode, die wir haben. Die einzige Methode auch, von der wir annehmen können, daß die Urtiere oder Urpflanzen sie gehabt haben. […] Sie machen Probierbewegungen, […] und versuchen, irgend etwas irgendwie zu optimieren.« Popper (1997: 139-140). Ebenso versteht Simon das Problemlösen als natürliche Selektion gemäß Zyklen des »Versuchens und Verwerfens« Simon (1968/1994: 153). Vgl. ebenso Holm-Hadulla (2008: 130ff), der jene grundlegende Dialektik auf das urmenschliche Bedürfnis nach Kreativität bezieht, als »Dialektik von Gestalten und Geschehen-Lassen, Aktivität und Passivität, Struktur und Chaos.« Vgl. dazu auch weiter unten Kapitel 7 ›Kreativität und Parametrie‹. Vgl. van den Boom; Romero-Tejedor (2017). Die Autoren verstehen darunter eine vor allem auf eine Bildlichkeit abzielende Unmittelbarkeit, welche die Grenze zwischen dem Entwurf und der Überprüfung des Entwurfs (Test) auflöst: »Kurz, die Regel ›Erst Entwurf, dann Test‹ wird ersetzt durch ›Test im Entwurf‹.« Ebd.: 12. Als Beispiel benennen sie etwa die Prototypenentwicklung in der Softwareentwicklung, welche es ermöglicht, »usability parallel zum Entwurf am Designprozess bestimmend partizipieren zu lassen.« Ebd. Die Annäherung der beiden bislang getrennten Sphären einer Planung und Umsetzung spielt ebenso im parametrischen Zusammenhang eine maßgebende Rolle, insofern, als dass die Wirksamkeit veränderbarer Parameter unmittelbar am Entwurfsgegenstand anschaulich wird.

6. Problemlösen und Parametrie

Wechselbeziehung zwischen dem Gegebenen und dem Geforderten ergibt – eine Feststellung, die Karl Duncker bereits 1935 vertrat, als er konstatierte, dass eine Lösung »aus der Beanspruchung des jeweils Gegebenen durch das jeweils Geforderte« entsteht.33 Damit ist zwischen dem Gegebenen und dem Geforderten eine stetige Beziehung auszumachen, wie sie für die gestalttheoretische Betrachtung charakteristisch und für die nachfolgende Diskussion um Parametrie wesentlich ist. Der schrittweise Übergang vom Gegebenen zum Geforderten vollzieht sich dabei, wie auch in den anfänglichen Definitionen des Problembegriffs angeklungen, als Prozess der Transformation, als Denkprozess.34 Dabei gilt es, schlecht strukturierte Zielzustände in gut strukturierte umzuwandeln, durch Prozesse der Teilung, Ordnung, Gliederung und Umstrukturierung.35 Auf Seiten des Gegebenen bewirkt eine Umstrukturierung eine Umdeutung des Materials, etwa, wenn einem vorliegenden Produkt ein neuer Zweck angelegt wird (Beispiel: Verwendung einer Euro-Palette als Lattenrost).36 Auf Seiten des Geforderten bewirkt sie dagegen eine Veränderung der Zielsetzung, durch die Neu-Formulierung von Unter-Problemen. Ist ein Ziel beispielsweise zu Fuß nicht erreichbar, sondern nur mit einem Auto, weicht das Problem »Ziel erreichen« temporär dem Unterproblem »Auto finden«. Dieses Vorgehen vollzieht sich dabei als wechselseitige, prozessuale Dynamik, die schlecht strukturierte Probleme in wohl strukturierte Unterprobleme zerlegt, welche, im Sinne der Gestalttheorie und der Betrachtung der Phänomene als Ganzheiten wiederum auf die Gesamtstruktur des übergeordneten Problems zurückwirken: Mit einem Auto ergeben sich beispielsweise wiederum sowohl neue Möglichkeiten der Zielartikulation, etwa weitere Zwischenstopps, als ggf. auch neue Unterprobleme, etwa eine Panne.37 Dies legt die Anforderung nahe, dass ein Problem nicht in Abgrenzung zu seiner Lösung betrachtet werden muss, sondern in wechselseitiger Verbundenheit.38 In einer derartigen Form wechselseitiger Verbundenheit kann entsprechend nicht mehr von einem eindimensionalen, linearen Prozess des (Problem- und Lösungs-)Weges gesprochen werden, sondern vielmehr von einem multidimensionalen Phänomen eines (Problem- und Lösungs-)Raumes. Der Begriff des Problemraumes (›problem space‹) stammt dabei aus der Kognitionsforschung und beschreibt multiple mentale 33 34

35 36

37

38

Duncker (1935/1963: 13). Vgl. dazu die Beschreibung bei Mayer (1979: 4): »Denken ist erforderlich zur schrittweisen Transformation des Problems vom Ausgangs- in den Zielzustand.« Entsprechend spricht Kirsch im Verweis auf Newell und Simon auch von einem »Transformationsziel«. Kirsch (1998: 51). Vgl. dazu die Auflistung Problem-ordnender (Denk-)Operatoren bei Wertheimer (1945/1957: 221). Vgl. dazu auch den von Brandes und Erlhoff herausgegebenen Sammelband ›Non-intentional Design‹, der diese Umdeutung anhand diverser Produktbeispiele und Alltagssituationen anschaulich macht. Vgl. Brandes; Erlhoff (2006). Wie Hasenhütl es im Verweis auf Simon anführt: »Der Entwerfer behandelt in diesen kleinen Stufen das Problem als ein wohlstrukturiertes, obwohl es im Gesamten zunächst schlecht strukturiert bleibt. Die Lösung der Unterprobleme verändert das Gesamtproblem in ein ebenfalls wohlstrukturiertes. Entwerfer verwandeln auf der Mikroebene des Entwurfes schlecht strukturierte Einzelprobleme in wohlstrukturierte Probleme, die auf die Makroebene zurückwirken können.« Hasenhütl (2013: 98). Anschaulich wird dies etwa beim Entwerfen von Skizzen und anderen visuellen Externalisierungen, welche wiederum assoziativ auf den Gestalter zurückwirken und dessen mentale Haltung, den Ausgangszustand, verändern können. Vgl. dazu Hasenhütl (2013: 99ff) als auch Krauthausen (2010b).

153

154

Prozess als Gestalt

Repräsentationen (›states‹) von (Problem-)Zuständen, die mittels gegebener Operatoren (›operators‹) in neue Zustände überführt werden, um einen finalen Zielzustand zu erreichen.39 Die Vorstellung des Problemraumes entwickelt sich dabei aus der Bestrebung, jede Form schlecht strukturierter Probleme in wohl strukturierte umzuwandeln, sodass sie (auch) von einem Computer gelöst werden können.40 Ein Problemraum beschreibt entsprechend das Repertoire an Konfigurationen, das sich aus der Anwendung von Operatoren auf bestimmte Zustände ergibt und sich ebenso entsprechend individuell und erfahrungsbasiert aufbaut, da die problemlösende Person aus den einzelnen erfolglosen und erfolgreichen Zustandsumwandlungen einen Lerneffekt erzielt.41 Es zeigt sich daran, dass ein Problemraum weniger als ein abgeschlossenes, sondern vielmehr als ein offenes Ganzes betrachtet werden kann, das die Erfahrungsinhalte des problemlösenden Individuums und dessen Interpretation des Gegebenen in den Prozess miteinbezieht, wie Dorst es in Anlehnung an Simons Grundgerüst des Problemraumes anführt.42 Diese Unabgeschlossenheit bezieht sich dabei nicht nur auf die inneren Wirkzusammenhänge der problemkonstituierenden Faktoren sowie die sich weiterentwickelnden Kenntnisse der problemlösenden Person, sondern ebenso auf die Zielsetzung: Eine Lösung kann in seiner erscheinenden Klarheit auch wiederum auf die Beschaffenheit des Problems zurückwirken, wie Dorst und Cross es mittels

39

40

41 42

Vgl. Newell; Simon (1972: 87ff). Später resümiert Newell den Problemraum (›problem space‹) wie folgt: »A problem space consists of a set of symbolic structures (the states of the space) and a set of operators over the space. Each operator takes a state as input and produces a state as output, although there may be other inputs and outputs as well. The operators may be partial, ie, not defined for all states. Sequences of operators define paths that thread their way through sequences of states.« Newell (1980: 698). Vgl. Darüber hinaus auch Schmid; Funke (2013), welche den Problemraum mit Hinsicht auf das Phänomen der Kreativität diskutieren. Als klassisches Beispiel der Veranschaulichung des Problemraums wird dabei zumeist das ›Turm von Hanoi‹-Spiel angeführt, in welchem ein Stapel von nach oben hin kleiner werdenden Scheiben, der auf dem linken von drei in Reihe stehenden Pflöcken aufliegt, in gleicher Abfolge auf den rechten Pflock umpositioniert werden soll. Die einzigen Reglementierungen bestehen darin, nur eine Scheibe pro Zug umzusetzen (›operator‹), und weiter, dass eine größere Scheibe niemals auf einer kleineren Scheibe abgelegt werden darf (›constraint‹). Der Verlauf der Prozedur kann in einem Graphen resp. einem Entscheidungsbaum festgehalten werden. Vgl. Newell (1980: 699ff). Ein ähnliches Beispiel bietet darüber hinaus das Szenario des ›Kannibalen-und-Missionare‹-Problems, wie es etwa bei Hussy (1993: 100ff) besprochen wird. Dieser Bestrebung gingen Newell und Simon mit der Entwicklung des sog. ›general problem solver‹ nach, einem Computerprogramm, das vorgegebenen Regeln folgt, um zu einer Lösung eines Problems zu gelangen. Vgl. Newell; Simon (1958); Newell; Simon (1961). Vgl. dazu Hasenhütl (2013: 93), der dies im Verweis auf Newell und Simon am Beispiel des Schachspiels anschaulich macht. »This means that, for the problem-solving theory to hold up as a good basis for the description of design, we now also need a detailed description of the problem solver, including an account of the earlier knowledge that the problem solver potentially brings to bear on this situation. One could even conclude that an illstructured problem can’t be modeled without taking these properties of the problem solver into account. The interpretation of the problem is important, even in the simple example that Simon describes. Interpretation becomes even more important when we see that design is a process of multiple steps, not a one-off decision making situation. New interpretations will be based upon the interpretation that has been taking place in the earlier steps of the problem-solving process […].« Dorst (2006: 7).

6. Problemlösen und Parametrie

empirischer Studien anschaulich gemacht haben.43 Zum Problemraum kommt ein Lösungsraum hinzu, weshalb der Prozess als ›Ko-Evolution‹ von Problem und Lösung gleichermaßen verstanden werden kann.44 Das produktive Wechselspiel ergibt sich aus dem Umstand, dass der Entwerfer keine komplette mentale Repräsentation des Problemraumes bearbeiten kann, da dessen Komplexität die menschlichen Kapazitäten der Bewältigung mitunter schnell übersteigt,45 sodass der Entwerfer den Blick auf Teilprobleme verschiebt, dessen Teillösungen wiederum auf die Ausgangsstruktur des Gesamtproblems zurückwirken.46 Daran zeigt sich nicht zuletzt eine parametrische Abhängigkeit der Vorgehensweise, wenn vom Ganzen in die Tiefe und wieder zurück gearbeitet wird resp. Veränderungen auf diversen Tiefenebenen wiederum Veränderungen auf höheren Ebenen hervorrufen, wie es in parametrischen Entwurfssystemen der Fall ist.47 Das Prinzip der Ko-Evolution verweist dabei zwar auf die wechselseitige Abhängigkeit der beteiligten Komponenten aus Problem- und Lösungsraum, erfasst für die Diskussion um Parametrie jedoch noch nicht ausreichend, wie diese denn beschaffen sind.

43

44

45

46

47

»A rough description of what happened in this case is that a chunk, a seed, of coherent information was formed in the assignment information, and helped to crystallise a core solution idea. This core solution idea changed the designer’s view of the problem. We then observed designers redefining the problem, and checking whether this fits in with earlier solution-ideas.« Dorst; Cross (2001: 434). Vgl. Dorst; Cross (2001); Dorst (2006). Bereits einige Jahre zuvor (1970) hat Horst Rittel in seinen Ausführungen über den Entwurfsprozess als Planungsprozess im Design die Aufhebung beider Sphären proklamiert, wenn er darlegte: »Jede Aussage über das, was gesollt werden soll, korrespondiert mit einer Aussage darüber, wie das bewerkstelligt werden soll. Problemformulierung geht Hand in Hand mit der Entwicklung eines Lösungsvorschlages; Informationen kann man nur dann sinnvoll sammeln, wenn man an einem Lösungsprinzip orientiert ist, und ein Lösungsprinzip kann man nur in dem Maße entwickeln, wie man über das Problem informiert ist usw. Unter diesen Umständen gibt es keine Trennung in Projektphasen wie die oben aufgeführten.« Rittel (1970: 17). Vgl. Hasenhütl (2013: 98). Simon hat dazu den Begriff der begrenzten Rationalität (›bounded rationality‹) eingeführt. Vgl. Simon (1959). Der Begriff stammt aus den Wirtschaftswissenschaften und beschreibt die sowohl durch begrenzte kognitive Kapazitäten als auch durch Informationsmangel resultierende Ungewissheit geprägte Absicht der Nutzenmaximierung. Vgl. dazu auch Kirsch (1998: 114ff). Wie Rittel es im Sinne der Ko-Evolution für Entwurfsprobleme darlegte: »Ein Entwurfsproblem verändert sich, während man es behandelt, weil das Verständnis dessen, was erreicht werden soll oder wie es erreicht werden könnte, sich kontinuierlich ändert. Zu verstehen, was das Problem ist, ist das Problem. Was immer er über das Problem erfährt, wird zum Teil seiner ›Lösung‹. […] Seine Fokussierung wechselt ständig zwischen kleinen Bestandteilen und dem Gesamtproblem und wiederum anderen Details.« Rittel (1987/2012: 21-22). Im parametrischen Verständnis kann diese wechselnde Fokussierung als Veränderung der Auflösungsgrade verstanden werden, in denen ein Problem betrachtet wird, wie es im Folgenden noch ausführlicher zu erörtern ist. Wie Jabi es mit Hinsicht auf den Ausdruck der ›propagation‹, verstanden als assoziative Ausbreitung, für die gestalterische Praxis beschreibt: »We call this feature of updating the value of one object based on changes it in other values propagation. Imagine a large network of wired or associated values. A change in one or few parameters would propagate through the whole network, modifying the values of attributes and changing the characteristics of the final design solution. This is the power of an associative parametric system. Objects, attributes and values are associated with one another and parameterized so that a change in the value of one parameter can have ripple effects throughout the design.« Jabi (2013: 11).

155

156

Prozess als Gestalt

Zwar markiert die wechselseitige Abhängigkeit bereits ein parametrisches Charakteristikum, unklar bleibt jedoch, wie Parameter in Entwurfs- und Problemsituationen überhaupt strukturell angelegt sein können. Ein differenzierter Zugang dazu lässt sich anhand von Dörners Ausführungen anschaulich machen, der anstatt von Problemräumen von Realitätsbereichen spricht, in welchen jedes Problem eingebettet ist und welche – analog zum Problemraum Simons – aus Sachverhalten (den jeweiligen Zuständen, ›states‹ bei Simon) und Operatoren (die möglichen Mittel zur Veränderung der Zustände, ›operators‹ bei Simon) bestehen.48 Dabei geht er nicht, wie Simon, einer zweigliedrigen Einteilung in gut und schlecht strukturierte Probleme nach,49 sondern schlägt eine Klassifizierung nach Dimensionen vor, die den jeweiligen Sachverhalt verschiedener Realitätsbereiche näher zu bestimmen suchen. Dazu führt er die Dimensionen der Komplexität, der Vernetztheit, der Dynamik, der (In-)Transparenz und den Grad des Vorhandenseins freier Komponenten an, mit denen offene Probleme, wie sie auch für das Entwerfen typisch sind,50 konkreter zu fassen sind.51 Ein Entwurfsproblem, in der Übertragung von Dörners Dimensionen, offenbart sich ebendann als offenes bzw. schlecht strukturiertes Problem, wenn: die Anzahl der beteiligten Variablen groß ist und diese in Abhängigkeit zueinander stehen (Komplexität, Vernetztheit); es sich während der Bearbeitung verändert (Dynamik); gegebene Informationen nicht hinreichend sind und aktiv beschafft werden müssen (Intransparenz); das gegebene Material nicht frei substituiert werden kann, sondern jeweils weiteren Analysen unterzogen werden muss (freie Komponenten).52 Während sich alle genannten Dimensionen auf ein prozessuales Moment verstehen, das die grundlegende Verhandelbarkeit des Problemraums/Realitätsbereichs anschaulich macht, ist zur Klassifizierung desselben noch ein weiteres Phänomen in den Ausführungen Dörners auszumachen, das für die Erörterung von Parametrie und dem Verständnis des Designprozesses als Gestalt wesentlich erscheint. Dabei handelt es sich um den Begriff des Auflösungsgrades, wie Dörner ihn im Zusammenhang mit komplexitätsreduzierenden Maßnahmen zur Handhabbarmachung komplexer Probleme anführt.53 Der Auflösungsgrad beschreibt dabei die Beschaffenheit resp. Feingliedrigkeit

48

49 50

51 52 53

Vgl. Dörner (1976: 15). Als anschauliches Beispiel nennt Dörner das Problem eines defekten Autos: »Ein defektes Auto läßt sich durch bestimmte Hantierungen mit Werkzeugen unter Umständen wieder in ein fahrbereites umwandeln. Die möglichen Hantierungen, die den Zustand eines Autos verändern, sind die Operatoren des Realitätsbereichs »Autoreparatur«, während die möglichen Zustände eines Automobils die verschiedenen Sachverhalte des Realitätsbereichs darstellen.« Ebd. Weiter beschreibt Dörner den Vorgang, Sachverhalte durch Operatoren umzuwandeln, als grundlegenden Kern des allgemeinen Problemlösens. Vgl. Ebd.: 16. Vgl. Simon (1973). Wie Rittel es einst proklamierte, ist jedes Design-Problem zwangsläufig ein sog. ›wicked problem‹ – grob übersetzt ein ›verzwicktes‹ oder ›vertracktes‹ Problem –, da es mitunter sowohl seiner Form nach einzigartig und nicht abschließend zu definieren ist als auch, weil es keine ultimative Lösung anbietet und entsprechend nicht in Kategorien des ›richtig‹ oder ›falsch‹, sondern allein in solchen des ›gut‹ oder ›schlecht‹ bemessen werden kann. Vgl. Rittel; Webber (1973). Vgl. Dörner (1976: 18-21). Vgl. Ebd. Vgl. Dörner (1976: 18); Dörner (2002: 115ff).

6. Problemlösen und Parametrie

von Komplexen,54 die innerhalb eines Realitätsbereiches klassifiziert und betrachtet werden. Ein Auto beispielsweise kann entsprechend in einem geringen Auflösungsgrad als Materialansammlung mit bestimmter Höhe, Breite, Tiefe und Farbe angesehen werden, in einem nächsthöheren Auflösungsgrad als Zusammensetzung aus Karosserie, Fahrwerk und Motor, darüber hinaus als zusammengesetzte Einheiten aus Schrauben, Muttern und Teilelementen bis hin zur Betrachtung von Atomen auf molekularer Ebene. Mit wachsendem Auflösungsgrad werden Objekte und Gegebenheiten entsprechend unterscheidbarer und Handlungen damit gleichsam entscheidbarer.55 Die Komplexität des Realitätsbereiches steigt demnach proportional mit der Höhe des Auflösungsgrades, weshalb es nach Dörner ratsam und mitunter sogar notwendig ist, für das jeweilige Problem einen angemessenen resp. richtigen Auflösungsgrad zu wählen, durch welchen die Komplexität zunächst niedrig gehalten und bei Bedarf eines differenzierteren Handelns sukzessiv gesteigert werden kann.56 Der Auflösungsgrad stellt sich entsprechend als Skalierung des betrachteten Bezugsfeldes dar, die frei gewählt und verändert werden kann, ohne die Verbindungen (Binnenstrukturen, wie Dörner es nennt57 ) zwischen den Einzelteilen des Betrachtungsgegenstandes aufzuheben. Vielmehr verhält sich das Vorgehen reversibel, d.h., der problemlösenden Person ist es möglich, zwischen den Ebenen in der Tiefe vorwärts und rückwärts zu navigieren, je nachdem, welche Herangehensweise resp. Auflösung für den jeweiligen Fall angemessen erscheint. Die Dimension der Auflösungsgrade erweist sich demnach geradezu als parametrischer Schlüsselbegriff, der sich an mehreren Stellen der bereits diskutierten Themenbereiche wiederfindet: Als Form der Zusammenfassung einer Vielzahl von Einzelprozeduren versteht sich Parametrie in Anlehnung an handwerkliche und industrielle Prozesse zunächst auf eine verbesserte (einfachere) Handhabbarkeit, die komplexe Prozesse auf sich vereint, als Artikulation von Presets:58 Ob Handwerkzeuge, Maschinen oder Automaten – sie alle sind gestalterische Artikulationen, die auf oberster Ebene (niedrigster Auflösungsgrad) in ihrer Gesamtheit unmittelbar und auf tieferliegenden Ebenen (hohe Auflösungsgrade) differenziert gehandhabt und gestaltet werden können, während die Verbundenheit der Einzelelemente ebenenübergreifend bestehen bleibt. Innerhalb der gestalttheoretischen Betrachtung lässt sich ein Verständnis der Phänomene in Auflösungsgraden zunächst in Ehrenfels’ Konzeption von Höhe 54 55

56

57 58

Verstanden als Gesamtsumme von Einzelheiten, die hierarchisch strukturiert ist. Vgl. auch die Definition in Kapitel 4.7 ›Komplexität und Einfachheit‹. Entsprechend verstehen etwa Brander et al. das Entscheiden als Teilprozess des Problemlösens, in dem es vor allem darum geht, Probleme durch einen Zugewinn an neuen Informationen unterscheidbar zu machen. Vgl. Brander; Kompa; Peltzer (1985/1989: 112). Vgl. dazu auch Huber (1982). Wie Dörner es anhand des Automotors anschaulich macht: »Betrachtet man Automotoren als ungegliederte Ganze, so kann man eigentlich nur zwischen »defekten« und »heilen« Motoren unterscheiden, und die einzige mögliche Reparaturmaßnahme auf diesem Auflösungsgrad wäre die Auswechslung eines defekten Motors durch einen intakten; zweifellos eine sehr teure Maßnahme. Erst die Erhöhung des Auflösungsgrades bietet die Möglichkeit für differenziertes Handeln.« Dörner (1976: 19). Weiter beschreibt Dörner, dass eine zu feingliedrige Differenzierung ebenso kontraproduktiv sein kann: »Allerdings gibt es auch eine allzu differenzierte Betrachtung. Das Nachdenken über die Veränderung der Molekularstruktur ist im Realitätsbereich »Autoreparatur« wohl meist übertrieben differenziert.« Ebd. Ebd. Vgl. dazu weiter oben Kapitel 4.9 ›Standardisierung und Presets‹.

157

158

Prozess als Gestalt

und Reinheit der Gestalt nachvollziehen, welche das Verhältnis von Komplexität und Ordnung in Wahrnehmungsgegenständen zu bestimmen sucht – etwa dem einer Rose (hoher Auflösungsgrad) und einem Sandhaufen (niedriger Auflösungsgrad) – und die Auflösung der Phänomene als komplexitätsreduzierende Maßnahme versteht;59 weiter in Wertheimers Formulierung der Gestaltgesetze, welche die grundlegenden Prinzipien der Wahrnehmung als größtmögliche Abstraktionsform von Ganzheiten, d.h. als Wahrnehmung mit niedrigstem Auflösungsgrad begründen60 und zuletzt in der technischen Mustererkennung, welche eingehende Input-Daten mittels diverser Transformationsprozesse – vor allem jener der convolution und des poolings – von einem Auflösungsgrad in einen anderen überträgt und dadurch zu stabilen (invarianten) Aussagen eines Output-Datensatzes kommt.61 Es sind entsprechend die dynamischen Sprünge zwischen den Auflösungsgraden, das Zurücktreten und das Vorgehen mit jeweils anderem Fokus, welche sowohl für das Problemlösen im Allgemeinen als auch für eine parametrische Herangehensweise an Gestaltung im Besonderen bedeutsam erscheinen. Da sich dieses Wechselspiel als aktiver Prozess zwischen einem Problem und seiner Lösung vollzieht und sich der Fokus dabei auf die prozessualen Teilschritte verschiebt, lassen sich die Phänomene an dieser Stelle nicht mehr allein anhand des Problem-Begriffs nachvollziehen, sondern vielmehr auf Seiten eines Denkens, das in seinen Eigenarten differenziert auf Probleme reagiert, indem es Wahrnehmungsinhalte entweder innerhalb vorhandener Schemata registriert, oder, sofern diese nicht mehr ausreichen, von denselben abrückt, um neue strukturelle Muster und Verhältnisse zu etablieren und sich dadurch einer Lösung anzunähern. Dies sei im Folgenden sowohl mit Hinsicht auf ein produktives Denken als auch einer damit einhergehenden Umstrukturierung der Wahrnehmung näher zu erläutern.

6.2

Reproduktives und Produktives Denken

Denken ist ein alltagssprachlicher Begriff mit umfangreicher Verwendung.62 In weitestem Sinne ist darunter eine Leistung zu verstehen, die sich kognitiv abspielt und dem Menschen hinsichtlich seiner Absichten und Handlungen vorausgeht, wodurch sie ihm Orientierung in der ›Unendlichkeit der Welt‹ ermöglicht.63 Dementsprechend erscheint das Denken nicht unwesentlich an der Vergegenwärtigung vergangener und 59 60 61 62

63

Vgl. dazu Kapitel 5.1 ›Das Ganze und seine Teile‹, insb. Kapitel 5.1.5 ›Höhe und Reinheit der Gestalt‹. Vgl. dazu Kapitel 5.2.1 ›Gesetze des menschlichen Sehens‹. Vgl. dazu Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹. »Alltägliches Denken hat in vielerlei Hinsicht eine Bedeutung. Man denkt (urteilt), ob jemand sich richtig verhält. Man denkt (erinnert sich) an Freunde, wenn man aus den Ferien zurückkommt. Man denkt (überlegt), um die Lösung einer Rechenaufgabe zu finden. Man denkt (vermutet), dass man den Bus verpasst hat. Alle Menschen denken; sie aktivieren in mehr oder weniger komplexen Situationen ihr »Denken«, um die jeweilige Situation zu bewältigen. Romero-Tejedor (2007: 176). Wie etwa Markus Gabriel es umschreibt, wenn er das Denken als Prozess der Orientierung schaffenden Komplexitätsreduktion durch Mustererkennung bezeichnet: »Im Denken verarbeiten wir Rohdaten zu Informationen, indem wir zwischen Wesentlichem und Unwesentlichem unterscheiden. Dadurch können wir Muster in der Wirklichkeit erfassen. Diese Art von Komplexitätsreduktion ist eine Voraussetzung des Vermögens, uns mithilfe des Denkens in der Wirklichkeit zu orientieren.« Gabriel (2020: 35).

158

Prozess als Gestalt

und Reinheit der Gestalt nachvollziehen, welche das Verhältnis von Komplexität und Ordnung in Wahrnehmungsgegenständen zu bestimmen sucht – etwa dem einer Rose (hoher Auflösungsgrad) und einem Sandhaufen (niedriger Auflösungsgrad) – und die Auflösung der Phänomene als komplexitätsreduzierende Maßnahme versteht;59 weiter in Wertheimers Formulierung der Gestaltgesetze, welche die grundlegenden Prinzipien der Wahrnehmung als größtmögliche Abstraktionsform von Ganzheiten, d.h. als Wahrnehmung mit niedrigstem Auflösungsgrad begründen60 und zuletzt in der technischen Mustererkennung, welche eingehende Input-Daten mittels diverser Transformationsprozesse – vor allem jener der convolution und des poolings – von einem Auflösungsgrad in einen anderen überträgt und dadurch zu stabilen (invarianten) Aussagen eines Output-Datensatzes kommt.61 Es sind entsprechend die dynamischen Sprünge zwischen den Auflösungsgraden, das Zurücktreten und das Vorgehen mit jeweils anderem Fokus, welche sowohl für das Problemlösen im Allgemeinen als auch für eine parametrische Herangehensweise an Gestaltung im Besonderen bedeutsam erscheinen. Da sich dieses Wechselspiel als aktiver Prozess zwischen einem Problem und seiner Lösung vollzieht und sich der Fokus dabei auf die prozessualen Teilschritte verschiebt, lassen sich die Phänomene an dieser Stelle nicht mehr allein anhand des Problem-Begriffs nachvollziehen, sondern vielmehr auf Seiten eines Denkens, das in seinen Eigenarten differenziert auf Probleme reagiert, indem es Wahrnehmungsinhalte entweder innerhalb vorhandener Schemata registriert, oder, sofern diese nicht mehr ausreichen, von denselben abrückt, um neue strukturelle Muster und Verhältnisse zu etablieren und sich dadurch einer Lösung anzunähern. Dies sei im Folgenden sowohl mit Hinsicht auf ein produktives Denken als auch einer damit einhergehenden Umstrukturierung der Wahrnehmung näher zu erläutern.

6.2

Reproduktives und Produktives Denken

Denken ist ein alltagssprachlicher Begriff mit umfangreicher Verwendung.62 In weitestem Sinne ist darunter eine Leistung zu verstehen, die sich kognitiv abspielt und dem Menschen hinsichtlich seiner Absichten und Handlungen vorausgeht, wodurch sie ihm Orientierung in der ›Unendlichkeit der Welt‹ ermöglicht.63 Dementsprechend erscheint das Denken nicht unwesentlich an der Vergegenwärtigung vergangener und 59 60 61 62

63

Vgl. dazu Kapitel 5.1 ›Das Ganze und seine Teile‹, insb. Kapitel 5.1.5 ›Höhe und Reinheit der Gestalt‹. Vgl. dazu Kapitel 5.2.1 ›Gesetze des menschlichen Sehens‹. Vgl. dazu Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹. »Alltägliches Denken hat in vielerlei Hinsicht eine Bedeutung. Man denkt (urteilt), ob jemand sich richtig verhält. Man denkt (erinnert sich) an Freunde, wenn man aus den Ferien zurückkommt. Man denkt (überlegt), um die Lösung einer Rechenaufgabe zu finden. Man denkt (vermutet), dass man den Bus verpasst hat. Alle Menschen denken; sie aktivieren in mehr oder weniger komplexen Situationen ihr »Denken«, um die jeweilige Situation zu bewältigen. Romero-Tejedor (2007: 176). Wie etwa Markus Gabriel es umschreibt, wenn er das Denken als Prozess der Orientierung schaffenden Komplexitätsreduktion durch Mustererkennung bezeichnet: »Im Denken verarbeiten wir Rohdaten zu Informationen, indem wir zwischen Wesentlichem und Unwesentlichem unterscheiden. Dadurch können wir Muster in der Wirklichkeit erfassen. Diese Art von Komplexitätsreduktion ist eine Voraussetzung des Vermögens, uns mithilfe des Denkens in der Wirklichkeit zu orientieren.« Gabriel (2020: 35).

6. Problemlösen und Parametrie

der Antizipation zukünftiger Ereignisse beteiligt zu sein, im Sinne eines Erinnerns, Vergessens und Lernens.64 Darüber hinaus kann das menschliche Denken sowohl die Reflexion über das denkende Subjekt selbst umfassen, eine organisierende und klassifizierende Funktion von Begriffen darstellen als auch immer eine urteilende Funktion miteinbeziehen.65 In gestalterischer Hinsicht verknüpft das Denken zumeist Altes mit Neuem, Eines mit dem Anderem und versucht, Ordnungsstrukturen im Bewusstsein zu etablieren, durch welche ein Urteilsvermögen erst herausgebildet werden kann.66 Die Verknüpfung gedachter Inhalte kann dabei mal mehr und mal weniger anstrengend verlaufen: Auf die Frage »Was denkst du?« ist zunächst ohne große Vorbehalte zu antworten, etwa mit einer Beschreibung des letzten Urlaubstages am Strand, an den man gerade dachte. Ebenso verhält es sich mit einfachen, mathematischen Aufgaben, etwa 2 + 2 = 4. Die Lösung kann unmittelbar aus dem Gedächtnis abgerufen werden, weil das Wissen darum bereits vorhanden ist. Entsprechend erfordert die reine Artikulation eines bekannten resp. selbstverständlichen und ebenso kognitiv klar organisierten Phänomens relativ wenig Denkanstrengung. Im Gegensatz dazu stehen Denkereignisse, die mit mehr oder weniger offenen (schlecht strukturierten) Fragen verbunden sind, etwa »Was ist Parametrie?« oder Problemstellungen mit Aufforderungscharakter, beispielsweise: »Ordnen Sie die vier vor Ihnen liegenden Pfeile so an, dass es fünf werden.« Es wird schnell offenbar, dass der Versuch, diese Fragen und Problemstellungen zu beantworten, nicht derart schnell und reibungslos gelingt, wie es bei der Schilderung der eigenen Erinnerung oder der Lösung der mathematischen Aufgabe der Fall ist. An diesen Beispielen klärt sich der Begriff des Denkens ein Stück weit auf, insofern, als dass zwei Dimensionen des Begriffs zu identifizieren sind, die in der Vorwegnahme der Erläuterung im gestalttheoretischen Vokabular als reproduktives und produktives Denken bezeichnet werden können.67 Die Differenzierung geht dabei auf die gestaltpsychologische Betrachtung zurück, welche menschliche Denkprozesse verstärkt ab den 1920er-Jahren hinsichtlich der Fähigkeit des Problemlösens untersuchte und empirische Versuche anstellte, um die heuris-

64 65

66 67

Entsprechend schafft das Denken »Orientierung im Unendlichen« (Ebd.: 39), da es die »Wirklichkeit im Denken vereinfach[t] […]« Ebd.: 35. Vgl. dazu etwa die philosophische Betrachtung des menschlichen Gedächtnisses bei Monyer; Gessmann (2017), das, wie es der Untertitel vorwegnimmt, »aus der Vergangenheit die Zukunft macht«. Vgl. dazu die Ausführungen Funkes zur Phänomenologie des Denkens, in welcher er sechs Hauptmerkmale des Begriffs zusammenfasst und erläutert: Vergegenwärtigung, Ordnungsleistung durch Begriffsbildung, Innerlichkeit, Selektivität, Urteil der Entscheidung und Reflexivität. Vgl. Funke (2003: 23ff). Mayer dagegen klassifiziert den Begriff des Denkens mit Hinsicht auf menschliches Problemlösen in drei allgemeine Grundvorstellungen: »Denken ist kognitiv; Denken ist ein Prozeß; Denken ist zielgerichtet […]. Mit anderen Worten, Denken findet statt, wenn jemand ein Problem löst, d.h. es erzeugt Verhalten, welches den Denkenden von einem Ausgangszustand zu einem Zielzustand bringt – oder dies wird zumindest angestrebt.« Mayer (1979: 6-7). Vgl. dazu auch die Definition des Dudens: Denken ist »die menschliche Fähigkeit des Erkennens u. Urteilens […]; mit dem Verstand arbeiten; überlegen […].« Duden (2011: 405), denken. Die Abgrenzung geht dabei auf den Psychologen Otto Selz zurück, der die Begriffe des produktiven und reproduktiven Denkens erstmals in seiner Abschrift von 1922 ›Zur Psychologie der produktiven Denkens und des Irrtums‹ anbrachte. Vgl. Selz (1922).

159

160

Prozess als Gestalt

tischen Verfahren eben jener Denkprozesse weitestgehend aufzudecken.68 Im Zentrum stand die Bestrebung, die Form eines produktiven Denkens gegenüber der behavioristischen Theorie einer reinen Stimulus-Reaktions-Assoziation zu etablieren, die den Menschen entsprechend nicht als passives, reagierendes, reproduzierendes Wesen auffasst, sondern als aktives, selbstbestimmtes, produktives Individuum.69 Etwas im Denkprozess zu reproduzieren meint in diesem Zusammenhang, auf Basis bereits angeeigneten Wissens bzw. einer gemachten Erfahrung unmittelbar auf ein Problem reagieren und es ebenso mit den gegebenen Voraussetzungen lösen zu können. Das reproduktiv gedachte Problem stellt insofern keine Herausforderung dar, sondern vielmehr eine abrufbereite Aufgabe.70 Zu derartigen reproduktiven Aufgaben gehören entsprechend vor allem solche, die auf isolierte Wissens- und Erfahrungsbestände zurückgreifen und entsprechend auch ohne Verständnis der Problemsituation erfolgreich angewandt werden können. Im Gegensatz dazu erfordert ein Problem ein produktives Denken, sofern es sich um eines mit Herausforderungscharakter handelt. Dies trifft ebendann zu, sobald die unmittelbare Lösung eines Problems – auf Basis des vorhandenen Erfahrungs- und Faktenwissens oder erlernter methodischer Routinen – nicht möglich ist. Der Weg zum Ziel ist buchstäblich versperrt und muss, durch einen neuen Prozess der Annäherung an eine Lösung, überwunden werden.71 Der Prozess, der dies bewerkstelligt, ist jener, 68

69

70

71

Vor allem die empirischen Studien Karl Dunckers mit menschlichen Versuchspersonen in seiner Hauptschrift ›Zur Psychologie des Produktiven Denkens‹ von 1935 als auch die Experimente Wolfgang Köhlers mit Schimpansen auf Teneriffa (›Intelligenzprüfungen an Anthropoiden‹ von 1917, ›Intelligenzprüfungen an Menschenaffen‹ von 1921) markieren die Zuwendung der Gestaltpsychologie hin zur Erforschung der menschlichen Problemlösefähigkeiten. Beide Protagonisten dienen daher im Folgenden als Grundlage der weiteren Diskussion. Vgl. Hussy (1993: 33). Wie Wolfgang Metzger es im Vorwort zu Max Wertheimers Hauptwerk ›Produktives Denken‹ von 1957 anführt, besteht das produktive Moment bereits in der lateinischen Wortherkunft ›pro-ducere‹, d.h. im Wesen eines »vorwärts dringenden, eines weiterführenden Denkens«. Metzger im Vorwort bei Wertheimer (1945/1957: XV). Wertheimer selbst begründet die Unzulänglichkeit der psychologischen Forschung im Sinne der behavioristischen Assoziationstheorie mit Verweis auf eine Form der Blindheit: »Solcherart sind die klassischen Assoziationen zwischen einem a und irgend einem b, die blinden Verbindungen zwischen Mittel und Zweck; […] Die Verbindungen, die Bestandstücke, Daten, Operationen sind strukturblind oder strukturfremd: blind für ihre strukturelle dynamische Funktion innerhalb des Ganzen, und blind für die strukturellen Forderungen.« Ebd.: 223. Wie Duncker es bereits 1935 formuliert: »Wenn die Endlösung eines Problems dem Denkenden geläufig ist, so braucht sie eben nicht mehr ›aufgebaut‹ zu werden, sondern ist direkt von der Problemstellung her als Ganzes ›reproduzierbar‹ […],« Duncker (1935/1963: 13). In der gegenwärtigen Forschung herrscht damit weitestgehend Einstimmigkeit darüber, im Zusammenhang mit reproduzierenden Denkprozessen anstatt von Problemen von Aufgaben zu sprechen (Vgl. Hussy (1984: 114); Schmid; Funke (2013: 336); Dörner; Kreuzig; Reither; Stäudel (1983: 303)). Eine Aufgabe versteht sich demnach als eine ebensolche, sofern bei dieser »lediglich der Einsatz bekannter Mittel auf bekannte Weise zur Erreichung eines klar definierten Zieles gefordert« ist. Dörner; Kreuzig; Reither; Stäudel (1983: 303). Auch Rittel benennt, bezogen auf das Feld der Gestaltung und weiter im Zusammenhang mit seinen Ausführungen zum Entwurfsprozess als Planungsprozess derartige Prozeduren der Routine als »unproblematische Tätigkeiten«, die sich mit solchen »problematischen Situationen« abwechseln, aus denen man im Gegensatz zu ersteren »spontan keinen Ausweg weiß […]« Rittel (1970: 19). Entsprechend ist nach Dörner von Barrieren zu sprechen, die ein Hindernis auf dem Weg zur Lösung eines Problems darstellen und durch geistige, produktive Leistungen überwunden werden

6. Problemlösen und Parametrie

den die Gestaltpsychologen als produktives Denken bezeichnen.72 Der produktive Anteil versteht sich dabei auf eine charakteristische, schöpferische Qualität, die vor allem in der Neukombination von vorhandenem Erfahrungswissen und dem situativen Material ansichtig wird.73 Dabei besteht die kognitive Leistung darin, vorherrschende Annahmen, Bedingungen und Beziehungen zu hinterfragen und neue Zusammenhänge zwischen den Dingen herzustellen, die bis dahin unberücksichtigt geblieben sind. Dadurch ergeben sich zumeist neue Sichtweisen auf die Dinge, die wiederum das Finden einer Lösung in Aussicht stellen. Es werden dabei vor allem die Relationen bedeutsam, welche die Einzelbestandteile eines Problems miteinander und mit ihrer Umwelt verbinden, da es nicht die isolierten Eigenschaften der Bestandteile sind, sondern deren strukturelles Zusammenwirken, das die Lösung eines Problems als ganzheitliche Gestalt entstehen lässt.74 Das Erkennen von Beziehungen ist somit aus gestaltpsychologischer Sicht eine grundlegende Voraussetzung für das Lösen von Problemen, wie Wolfgang Köhler es formuliert: »Wir müssen erkennen, daß wahrscheinlich alle Probleme, vor die wir gestellt werden können, und auch die Lösung dieser Probleme, eine Frage der Beziehungen sind. Solange Probleme Probleme sind, weist das in Frage stehende Material gewiß wenigstens einige Beziehungen auf; diese speziellen Beziehungen jedoch enthalten noch Schwierigkeiten. Aber wir können jetzt andere Beziehungen in dem Material entdecken, die die Schwierigkeiten verschwinden lassen. In einigen Fällen ist es zunächst überhaupt schwer, irgendwelche Beziehungen im Material zu finden, die für unsere Aufgabe in Betracht kommen. Dann müssen wir die gegebene Situation so lange untersuchen, bis sich schließlich Beziehungen herausstellen, von denen man eine Lösung ableiten kann. Folglich hängt unser Verständnis eines Problems nicht nur davon ab, daß wir bestimmte Beziehungen kennen, sondern wir können ein Problem auch nicht lösen, ohne neue Beziehungen zu entdecken. […] Veränderungen in gegebenen Situationen, die die entscheidenden Beziehungen herbeiführen, sind nicht immer bloßes Hinzu-

72

73

74

müssen. Er spezifiziert dazu drei Barrieretypen, die Interpolationsbarriere, die Synthesebarriere und die Dialektische Barriere. Vgl. Dörner (1976: 11ff). Im erweiterten Zusammenhang ist das produktive Denken der übergeordnete Begriff dessen, was man weithin als problemlösendes Denken bezeichnet. Vgl. dazu die Definition bei Funke: »Problemlösendes Denken erfolgt, um Lücken in einem Handlungsplan zu füllen, der nicht routinemäßig eingesetzt werden kann. Dazu wird eine gedankliche Repräsentation erstellt, die den Weg vom Ausgangs- zum Zielzustand überbrückt.« Funke (2003: 25). Vgl. Hussy (1984: 172). In gleicher Weise formuliert es Romero-Tejedor in allgemeiner Hinsicht: »Nach dem alltäglichen Gebrauch des Wortes ›Denken‹ bedeutet Denken so etwas wie vorhandene Erfahrungen […] neu zu strukturieren in Beantwortung der Frage, die von der Situation gestellt wird. Der Denkapparat ist in solchen Momenten auf seinen gespeicherten Inhalt angewiesen, auf seine eigenen Vorstellungen.« Romero-Tejedor (2007: 176). Entsprechend ist in der gestaltpsychologischen Terminologie auch von defekter Gestalt (Problem) und guter Gestalt (Lösung) zu sprechen. Vgl. Hussy (1984: 31); Hussy (1993: 34); Funke (2003: 46). Wertheimer spricht in diesem Zusammenhang vom »Übergang von einer schlechten zu einer guten Gestalt« und weiter von »Tendenzen zur besseren Gestalt, zum Ineinanderfügen, wobei Störungen verschwinden« Wertheimer (1945/1957: 62, 66).

161

162

Prozess als Gestalt

fügen. Oft ist der entscheidende Schritt derjenige Vorgang, den wir Umstrukturieren des gegebenen Materials nennen können.«75 Köhler zeigt daran auf, dass der Fokus beim Problemlösen nicht etwa auf den einzelnen Bestandteilen, sondern auf den strukturgebenden Beziehungen liegt, welche die Eigenschaften der Bestandteile miteinander verknüpfen.76 Er macht anschaulich, dass jede Ausgangssituation von Problemen bereits über Beziehungen verfügt, die dem Problemlösenden in ihrer vorliegenden Gegebenheit jedoch noch keine Einsicht in die Lösung des Problems nahelegen. Entsprechend müsse das gegebene Material resp. die Situation so lange hinsichtlich neuer, möglicher Beziehungen umstrukturiert, d.h. die bestehende in eine neue Struktur umgewandelt werden, bis sich aus ebendieser eine Lösung für das Problem ergibt und sich ein Moment der Einsicht einstellt. Köhler deutet damit auf die beiden kennzeichnenden Merkmale des produktiven Denkens und Problemlösens hin: Prozesse der Umstrukturierung einerseits und Momente der Einsicht andererseits. Beide sollen daher zunächst anhand einiger Beispiele aus dem gestalttheoretischen Problemlösen im Folgenden anschaulich gemacht werden, um die Diskussion dem Feld der praktischen Gestaltung und der Frage nach einer technisch-medialen Korrespondenz des produktiven Denkens weiter anzunähern.

6.3

Umstrukturierung und Einsicht

Das klassische Problemlösen versteht sich als das praktische Anwendungsgebiet des produktiven Denkens. Der herauszustellende Beitrag der gestaltpsychologischen Forschung bestand vor allem darin, dass nicht, wie etwa im Behaviorismus, die Einzelteile einer atomistischen Betrachtungsweise (Reize, Signale etc.) im Fokus stehen, nach denen der Mensch sich lediglich reaktionär (passiv) verhält, sondern dessen Verbundenheiten als Ganzheit, als Gestalt, auf die der Mensch mittels geistiger Produktivität aktiv einwirkt.77 In diesem ganzheitlichen Sinn betrachtet die Gestaltpsychologie die Denk- und Problemlösefähigkeit entsprechend als wahrnehmungsspezifische Auseinandersetzung mit einem ganzheitlichen Prozess, der insofern eine charakteristische Besonderheit aufweist, als dass er – durch seine iterative Annäherung an ein Ziel resp. ein zu lösendes Problem – durchgehend verhandelbar bleibt. Der Prozess öffnet erst 75 76

77

Köhler (1971: 107-108). Die Bedeutsamkeit des strukturellen Zusammenwirkens durch Beziehungen erfasste, wie weiter oben dargestellt, bereits Christian von Ehrenfels. Vgl. Ehrenfels (1890/1960 : 20). Auch Wertheimer fasste diese Grundidee auf und erweiterte sie durch die Einschränkung, dass es nicht auf gänzlich neue, sondern gerade auf diejenigen Relationen ankomme, »die strukturell gefordert sind im Blick auf das Ganze« Wertheimer (1945/1957 : 50). Damit spielte Wertheimer darauf an, dass die Gestaltphänomene eine natürliche, innere Struktur besitzen, die es zu entdecken gilt: »Das ist nicht ein Suchen einfach nach irgendeiner Beziehung, die zwischen ihnen bestehen könnte, sondern nach der eigentlichen Natur ihrer gegenseitigen Abhängigkeit.« Ebd.: 48. Diese gilt es, innerhalb des Problemlösens zugänglich zu machen. Als übergreifendes Phänomen spielt das In-Beziehungen-Denken entsprechend nicht nur in der klassischen Gestaltauffassung, sondern ebenso im produktiven Denken und Problemlösen eine zentrale Rolle. Vgl. Hussy (1993: 33).

162

Prozess als Gestalt

fügen. Oft ist der entscheidende Schritt derjenige Vorgang, den wir Umstrukturieren des gegebenen Materials nennen können.«75 Köhler zeigt daran auf, dass der Fokus beim Problemlösen nicht etwa auf den einzelnen Bestandteilen, sondern auf den strukturgebenden Beziehungen liegt, welche die Eigenschaften der Bestandteile miteinander verknüpfen.76 Er macht anschaulich, dass jede Ausgangssituation von Problemen bereits über Beziehungen verfügt, die dem Problemlösenden in ihrer vorliegenden Gegebenheit jedoch noch keine Einsicht in die Lösung des Problems nahelegen. Entsprechend müsse das gegebene Material resp. die Situation so lange hinsichtlich neuer, möglicher Beziehungen umstrukturiert, d.h. die bestehende in eine neue Struktur umgewandelt werden, bis sich aus ebendieser eine Lösung für das Problem ergibt und sich ein Moment der Einsicht einstellt. Köhler deutet damit auf die beiden kennzeichnenden Merkmale des produktiven Denkens und Problemlösens hin: Prozesse der Umstrukturierung einerseits und Momente der Einsicht andererseits. Beide sollen daher zunächst anhand einiger Beispiele aus dem gestalttheoretischen Problemlösen im Folgenden anschaulich gemacht werden, um die Diskussion dem Feld der praktischen Gestaltung und der Frage nach einer technisch-medialen Korrespondenz des produktiven Denkens weiter anzunähern.

6.3

Umstrukturierung und Einsicht

Das klassische Problemlösen versteht sich als das praktische Anwendungsgebiet des produktiven Denkens. Der herauszustellende Beitrag der gestaltpsychologischen Forschung bestand vor allem darin, dass nicht, wie etwa im Behaviorismus, die Einzelteile einer atomistischen Betrachtungsweise (Reize, Signale etc.) im Fokus stehen, nach denen der Mensch sich lediglich reaktionär (passiv) verhält, sondern dessen Verbundenheiten als Ganzheit, als Gestalt, auf die der Mensch mittels geistiger Produktivität aktiv einwirkt.77 In diesem ganzheitlichen Sinn betrachtet die Gestaltpsychologie die Denk- und Problemlösefähigkeit entsprechend als wahrnehmungsspezifische Auseinandersetzung mit einem ganzheitlichen Prozess, der insofern eine charakteristische Besonderheit aufweist, als dass er – durch seine iterative Annäherung an ein Ziel resp. ein zu lösendes Problem – durchgehend verhandelbar bleibt. Der Prozess öffnet erst 75 76

77

Köhler (1971: 107-108). Die Bedeutsamkeit des strukturellen Zusammenwirkens durch Beziehungen erfasste, wie weiter oben dargestellt, bereits Christian von Ehrenfels. Vgl. Ehrenfels (1890/1960 : 20). Auch Wertheimer fasste diese Grundidee auf und erweiterte sie durch die Einschränkung, dass es nicht auf gänzlich neue, sondern gerade auf diejenigen Relationen ankomme, »die strukturell gefordert sind im Blick auf das Ganze« Wertheimer (1945/1957 : 50). Damit spielte Wertheimer darauf an, dass die Gestaltphänomene eine natürliche, innere Struktur besitzen, die es zu entdecken gilt: »Das ist nicht ein Suchen einfach nach irgendeiner Beziehung, die zwischen ihnen bestehen könnte, sondern nach der eigentlichen Natur ihrer gegenseitigen Abhängigkeit.« Ebd.: 48. Diese gilt es, innerhalb des Problemlösens zugänglich zu machen. Als übergreifendes Phänomen spielt das In-Beziehungen-Denken entsprechend nicht nur in der klassischen Gestaltauffassung, sondern ebenso im produktiven Denken und Problemlösen eine zentrale Rolle. Vgl. Hussy (1993: 33).

6. Problemlösen und Parametrie

die Möglichkeit, in einen dialogischen Austausch mit den Gegebenheiten als auch den Erfordernissen der Situationen zu treten und bietet Raum, sie ebenso zu verändern, wie Duncker es anführt: »Jede Lösung besteht in irgendeiner Veränderung der gegebenen Situation. Dabei verändert sich nicht nur dieses oder jenes an der Situation, d.h. es geschehen nicht nur solche Veränderungen, wie man sie bei jeder ganz aufs Praktische gerichteten Beschreibung zu erwähnen hätte, sondern es verändert sich außerdem die psychologische Gesamtstruktur der Situation (bzw. gewisser ausgezeichneter Teilbereiche). Solche Veränderungen nennt man ›Umstrukturierungen‹.«78 Der Prozess als Strukturgebilde ist demnach vor allem insofern ein produktives Phänomen, als dass eben jene psychologische Gesamtstruktur eine wandelbare ist, welche Transformationen an sich zulässt. Dabei bezieht sich der Ausdruck der psychologischen Gesamtstruktur vor allem auf diejenigen Wahrnehmungsbedingungen, mit denen ein Problem zu greifen ist. M. a. W. entscheidet im Verständnis der Gestalttheorie die Wahrnehmung darüber, wie die Struktur eines Problems wahrgenommen wird. Eine Umstrukturierung erfolgt entsprechend zuallererst auf Seiten der Wahrnehmung, wie es etwa an diversen Kippfiguren anschaulich wird, die zwei oder mehrere Formen bildlicher Wahrnehmungsinhalte in sich vereinen.79 Daran wird anschaulich, dass es sich dabei nicht um eine willkürliche Form von Wahrnehmung handelt, sondern um eine geleitete, die einer Richtung folgt und die das Bild in dieser oder jener Hinsicht erschließen lässt. Eine Veränderung der Richtung entspricht demnach einer neuen Betrachtungsweise des jeweiligen Problems oder Phänomens. Wie Hussy anführt, ist die Richtung dabei nicht erlernt, sondern – analog zu den Gestaltgesetzen – bestimmt.80 Eine Richtungsveränderung bedarf entsprechend einer produktiven Anstrengung, um sich von den anlagedeterminierten Richtungen zu lösen und sich dem Problem in neuer Betrachtungsweise anzunehmen; kurz, wie Heufler es anschaulich formuliert: »Probleme lösen heißt: Sich vom Problem lösen!«81 Entsprechend liegt der Fokus der Diskussion nun vor allem auf den Resultaten und Bedingungen derartiger Umstrukturierungen, die eben nur dadurch, dass sie Situationen umformen bzw. sie aus neuen Perspektiven betrachten und wahrnehmen, zu einem Verständnis der Sache resp. zu einer Einsicht in ihre Struktur gelangen.82 An78 79

80 81 82

Duncker (1935/1963: 34-35). Neben der ›Rubinschen Vase‹ und der ›Junge-Frau-Alte-Frau‹-Kippfigur (›My Wife and My MotherIn-Law‹) zählt die ›Hase-Enten-Kopf‹-Darstellung zu den mitunter bekanntesten Kippfiguren, wie sie insbesondere von Ludwig Wittgenstein zur Veranschaulichung des sog. Aspektwechsels diskutiert wurde. Vgl. Wittgenstein (1984: PU II, 519ff). Vgl. ebenso die anschaulichen Darstellungen von Kippfiguren bei Metzger (1936/1953). Vgl. Hussy (1984: 176). Heufler (2016: 97). In diesem Verständnis beschreibt bereits Aristoteles den Begriff der (sittlichen) Einsicht: »[…] sittliche Einsicht hat der, welcher die Fähigkeit zu richtigen Überlegung besitzt.« Aristoteles (2013: 1140a 30). Es bedarf entsprechend – im Sinne der gestalttheoretischen Übertragung – eines Denkens, das die Überlegungen in eine bestimmte Richtung leitet, um Einsicht zu gewinnen. Ein solches Denken versteht sich demgemäß als produktives Denken. Ferner sieht Aristoteles jene sittliche Einsicht mit der praktischen Erfahrung verbunden, wodurch sie ihrem Wesen nach vor allem ein Handeln

163

164

Prozess als Gestalt

schaulich wird dies vor allem an ausgewählten, gestaltpsychologischen Experimenten – der Strahlungsaufgabe, der Streichholzaufgabe und dem Neun-Punkte-Problem –, welche im Folgenden knapp dargelegt und als anschauliche Grundlage zum tieferen Verständnis von Wahrnehmungs- und Denkprozessen beitragen werden sollen.

Die Strahlungsaufgabe Karl Duncker leitet seine Abhandlung ›Zur Psychologie des Produktiven Denkens‹ von 1935 mit einem anschaulichen Problemszenario ein, das dem Feld der Medizin entnommen ist und der praktisch orientierten Fragestellung nachgeht, auf welche Weise ein Tumor (»Geschwulst«) eines Patienten durch Strahlung behandelt werden kann, ohne gesundes Gewebe des Körpers in Mitleidenschaft zu ziehen.83 Die Versuchspersonen – im allgemeinen Studierende und Gymnasiasten – waren entsprechend dazu aufgefordert, ›laut zu denken‹, während sie über die Problemstellung nachdachten.84 Duncker fasst exemplarische Äußerungen aus den Protokollen zusammen und diskutiert diese, um daraus letztlich eine Klassifikation abzuleiten, welche die verschiedenen Lösungsvorschläge hierarchisch, gemäß ihrer Allgemeingültigkeit, gliedert. Einige Vorschläge von Versuchspersonen verstehen sich etwa darauf, die ›Strahlen durch die Speiseröhre [zu] schicken‹ oder die ›Geschwulst durch eine Operation freizulegen‹, um den Kontakt mit gesundem Gewebe weitestgehend zu vermeiden; das ›Gewebe durch eine chemische Einspritzung‹ oder eine ›vorausgehende schwache Bestrahlung‹ unempfindlich zu machen oder die ›Strahlenintensität unterwegs herab[zu]setzen‹ bzw. die ›Strahlen zwischenzeitlich unschädlich [zu] machen‹.85 Duncker erkennt, dass mehrere Lösungsvorschläge zu Gruppen zusammengefasst werden können und dass aus diesen Gruppierungen verschiedene Konkretionsebenen abzuleiten sind, von welchen die oberste als allgemeines Prinzip des Lösungsvorschlages zu verstehen sei, als dessen ›Wodurch‹ resp. als sog. »Funktionalwert«.86 So ist etwa die Lösung ›Strahlen durch die Speiseröhre schicken‹ eine konkrete Umsetzung (Verkörperung) eines allgemeineren Prinzips, das

83

84

85

86

ist: »Das Wesen der sittlichen Einsicht ist Handeln.« Ebd.: 1141b 3-22. Darin erschließt sich auch der gestalterische Zusammenhang. »Gesucht ein Verfahren, um einen Menschen von einer inoperablen Magengeschwulst zu befreien mit Hilfe von Strahlen, die bei genügender Intensität organisches Gewebe zerstören — unter Vermeidung einer Mitzerstörung der umliegenden gesunden Körperpartien.« Duncker (1935/1963: 1). Die Methode des ›lauten Denkens‹ stellt dabei eine Form der Selbstbeobachtung dar, die auf die Artikulation jener Denkprozesse abzielt, die einen Gegenstand resp. ein Problem bearbeiten. In der psychologischen Forschung werden ferner allgemeinhin zwei Formen der empirischen Beobachtung unterschieden: jene der Introspektion (Selbstbeobachtung) und jene der Extraspektion (Fremdbeobachtung). Vgl. Hussy (1984: 19). Vgl. Duncker (1935/1963: 2ff). Die Protokolle offenbaren, dass es sich bei den Vorschlägen mitunter um solche Lösungen handelt, die durchaus als kreativ bezeichnet werden können, wie es weiter unten noch genauer zu erörtern ist. Vgl. Kapitel 7 ›Kreativität und Parametrie‹. Ebd.: 6. Es ist offensichtlich, inwiefern die Begrifflichkeit in der gestaltpsychologischen Tradition der Gestalt- und Ganzheitswahrnehmung (Strukturzusammenhängen) steht. Der Funktionalwert beschreibt dabei eben das, was als übergeordnetes Prinzip, als struktureller Funktionszusammenhang, in den Problemsituationen auf abstrakter Ebene zu suchen ist, um nicht lediglich eine singuläre Lösung anzuwenden, sondern um das Problem zu verstehen. Der Funktionalwert ist daher das Resultat einer Umformung der Problemstellung hinsichtlich größtmöglicher Allgemeingültigkeit und entsprechend Indikator für ein Verständnis des Problems. Vgl. dazu auch Funke (2003:

6. Problemlösen und Parametrie

sich auf eine zu erfüllende Grundeigenschaft, ihren Funktionalwert, versteht; in diesem Fall, einen ›freien Weg in den Magen‹ zu finden.87 Diese Forderung (›freier Weg in den Magen‹) ist wiederum eine konkretere Antwort auf die Frage, wie man den ›Kontakt zwischen Strahlen und gesundem Gewebe vermeiden‹ könnte – jedoch nicht die einzige.88 Es handelt sich dabei entsprechend um die Wechselwirkung konkretere Lösungsvorschläge und der Abstraktion resp. Reduktion auf allgemeinere Aussagen: Mal wird die Fragestellung ausgedehnt, mal wird sie wieder verengt. Dadurch wird ein kognitiver Abstand gewonnen, der eine Umdeutung sowohl der Problemstellung als auch der funktionellen Bestandteile zulässt, etwa, wenn die Speiseröhre als Gegebenes nicht mehr der menschlichen Nahrungsaufnahme dient, sondern als Gefordertes einen ›freien‹ Strahlenweg verkörpert.89 Sie muss zunächst als etwas anderes wahrgenommen werden, um einer Lösung näherkommen zu können. Entsprechend ist an der Speiseröhre in diesem Fall nun nicht mehr ihre Primärfunktion der Nahrungsaufnahme als Gesamtheit interessant, sondern allein ihre Eigenschaft, einen ›freien Weg in den Magen‹ darzubieten. Diese Eigenschaft wird isoliert, extrahiert, in ein neues Bezugsfeld übertragen und zu einer neuen Wahrnehmung als Ganzheit, als Gestalt, zusammengeführt, was gleichsam – designmethodologisch gesprochen – so etwas wie den kreativen Sprung ausmacht, d.h. die Umstrukturierung des Gegebenen auf praktischer Ebene.90 Die menschlich-biologischen Voraussetzungen der Wahrnehmung müssen geradezu aufgebrochen werden, um sie in neuer Gestalt wieder zusammenzufügen. Ein Problem stellt im gestaltpsychologischen Verständnis dementsprechend nichts anderes dar, als eine als defekt wahrgenommene Gestalt, insofern, als dass die evolutionär konditionierten, menschlichen Wahrnehmungsformen (Gestaltgesetze) nicht ausreichen, um die Lösung zu (be)greifen. Entsprechend muss den eingefahrenen Wahrnehmungsformen entgegengearbeitet werden, um aus der defekten wiederum eine gute Gestalt herzustellen,91 welche letztlich aus der Einsicht in neue Wahrnehmungsformen besteht.

87

88 89

90

91

51), der in diesem Zusammenhang von einer »Generalisierung eines Lösungsprinzips« als »Index für ihr Verstehen« spricht. »Der Funktionalwert einer Lösung ist zum Verständnis ihres Lösungseins unerläßlich. Er ist genau das, was man den ,Witz‹, das Prinzip, das, worauf es ankommt, nennt. Die untergeordneten, spezielleren Bestimmungen und Eigenschaften einer Lösung ›verkörpern‹ dieses Prinzip, ›wenden es an‹ auf die spezielleren Situationsgegebenheiten. So ist z.B. die Speiseröhre eine Anwendung des Prinzips ›freier Weg in den Magen‹ auf die spezielleren Umstände eines menschliehen Körpers. Eine Lösung als Lösung ›verstehen‹ ist dasselbe wie eine Lösung als Verkörperung ihres Funktionalwertes erfassen.« Duncker (1935/1963: 6). Alternativ könnte etwa wie beschrieben die ›Geschwulst durch eine Operation freigelegt‹ werden. Wie Duncker es grundlegend als Definition einer Lösung beschreibt: »eine Lösung entsteht aus der Beanspruchung des jeweils Gegebenen durch das jeweils Geforderte. Diese beiden Komponenten sind nun aber sehr variabel bezüglich ihres Anteils am Entstehen einer Lösungsphase.« Duncker (1935/1963: 13). Der Ausdruck des kreativen Sprungs (›creative leap‹) ist dabei der Designmethodologie entnommen. Jones verwendet ihn im Zusammenhang mit der Beschreibung des Designers als BlackBox, um das unsagbare Moment der geistigen, kreativen Eingebung zu betonen. Vgl. Jones (1970/1992: 46). Nigel Cross diskutiert den Ausdruck mit Hinsicht auf die Hervorbringung kreativer Ideen und Originalität im Designprozess. Vgl. Cross (2007: 65ff). In weiteren Ausführungen findet sich der kreative Sprung auch in verschiedenen Planungs- und Organisationsschemata zum Entwurfsprozess wieder, so etwa bei Luckmann (1970). Vgl. Hussy (1984: 32).

165

166

Prozess als Gestalt

Diese sind insofern produktiv, als dass buchstäblich zu ihnen vorgedrungen werden muss (lat. ›producere‹ = dt. ›vorwärtsführen‹), da sie auf menschlich-biologischer Basis nicht a priori gegeben sind.92 Diese Leistung der Abstraktion und Umformung verbindet Duncker mit einem genuinen Verständnis des Problems, das den wesentlichen Kern erfasst und daraus ableitbare Lösungen transponierbar und invariant macht.93 Dies bedeutet, dass aus dem Verständnis des generellen Prinzips, das zu einer Lösung führt, ein Lerneffekt resultiert, der auch auf andere, strukturähnliche Aufgaben angewandt werden kann. Duncker bezieht sich dabei jedoch nicht auf ein notwendiges Verständnis von absoluten und vermeintlichen Wahrheiten, die den Ursprung eines Problems markieren, sondern allein auf die kausalen Beziehungen, die im Prozess der Bearbeitung vorherrschen. Es ist entsprechend kein Verständnisbegriff, der nach dem ›Warum‹ fragt, sondern vielmehr ein solcher, der ein ›Wodurch‹ nachverfolgt.94 Er setzt das Bemühen voraus, eine allgemeine Lösungseigenschaft zu finden und das Problem innerhalb dieses Prozesses umzuformen; sowohl einen Schritt zurück als auch einen nach vorne zu treten und somit sowohl eine abstraktere als auch konkretere Umformung des Ausgangsproblems herzuleiten.95 Der produktive Schritt zur Lösungsfindung entsteht in dieser ersten Hinsicht zusammenfassend in der Abstraktion konkreter Lösungswege zu dessen übergeordneten, allgemeinen Prinzipien – den Funktionalwerten bzw. den strukturellen Wesentlichkeiten, oder, bezogen auf das Feld der Gestaltung, den Konzepten.96 Diese Form der Umstrukturierung kann entsprechend als Umformung des Problems zu neuen, abstrak92

93 94

95

96

Wertheimer spricht im Zusammenhang mit den Gestaltgesetzen von starken und labilen Formen der Wahrnehmung, von welchen die starken grundlegend dominieren. Vgl. Wertheimer (1923: 302ff). Man müsse buchstäblich gegen diese starken Wahrnehmungsformen ankämpfen, um die eigene Betrachtungsweise zu verändern. Vgl. Duncker (1935/1963: 7). Anschaulich macht Duncker es anhand eines Phänomens, bei welchem auch ›unverständliche‹ Beziehungen zumindest kausal nachvollziehbar werden, wie etwa beim Anblasen eines schwach glimmenden Feuers: »Die Zuführung von Sauerstoff ist der unmittelbare Funktionalwert des Anblasens. Aber warum die Verbindung mit Sauerstoff Wärme und Flamme erzeugt, ist zuletzt nicht mehr ,verständlich‹. Und sollte es auch gelingen, die ganze Chemie aus Prinzipien der Atomphysik lückenlos abzuleiten, diese Prinzipien sind in sich selber nicht restlos verständlich, d.h. sie müssen zuletzt nur noch, ,hingenommen‹ werden. […] ›Verständlichkeit‹ bedeutet häufig nicht mehr als Partizipieren an, Ableitbarkeit aus hinreichend elementaren und universellen Kausalbeziehungen.« Duncker (1935/1963: 6). Gleiches benennt van den Boom rund 75 Jahre später für das Design als Benutzerillusionen, die »völlig aus[reichen], um mit den Sachen unsere Ziele zu erreichen.« van den Boom (2011: 81). Der Bearbeitungsprozess beinhaltet nach Duncker daher rückwärtsgerichtet einerseits einen Lösungscharakter, vom Allgemeinen zum Besonderen, nach vorne hin dagegen einen Problemcharakter, vom Besonderen zum Allgemeinen. Vgl. Duncker (1935/1963: 10). Das Konzept versteht sich in diesem Zusammenhang als die strukturelle Rahmung und Richtung, der jeweilige gestalterische Ausprägungen untergeordnet sind. Es bestärkt die Argumentation des Entwurfs insofern, als dass der konkrete gestalterische Vorschlag stets verhandelbar bleibt, ohne eine Schwäche der Entwurfsidee in seiner Gesamtheit einräumen zu müssen. Es »drückt also ein Sollen aus, ohne schon über das einlösende Können vorweg irgendetwas Konkretes wissen zu müssen«, wie van den Boom und Romero-Tejedor es formulieren. van den Boom; Romero-Tejedor (2003: 75). Das Konzept bildet sozusagen die jeweilige Gestalt eines Entwurfsprozesses, indem sie die Ent-

6. Problemlösen und Parametrie

teren, generalisierten Problemstellungen verstanden werden, wodurch es klarer und aus neuen Perspektiven zu betrachten ist: »Es hat somit einen guten Sinn, zu sagen, die eigentliche Leistung beim Lösen von Problemen bestehe darin, daß das Problem produktiver gestellt wird«, wie Duncker es prägnant zusammenfasst.97 Wie kommen die konkreten Vorschläge für bestimmte Lösungen jedoch auf praktischer Ebene zustande? Anhand einer weiteren von Duncker angeführten Aufgabe soll dies knapp dargestellt werden.

Die Streichholzaufgabe Dunckers Beispiel der Bestrahlungsaufgabe macht anschaulich, wie sich ein produktives Denken als Umstrukturierung verschiedener Lösungsvorschläge zu abstrakteren und wiederum zu konkreteren Feststellungen vollzieht. Liegt der Fokus dabei verstärkt auf der Umstrukturierung der konzeptionellen Fragestellung auf formal-abstrakter Ebene, macht ein weiteres Beispiel vor allem die praktisch-pragmatische Dimension des Umstrukturierens anschaulich, wie es auch im Feld der praktischen Gestaltung grundgegeben ist und dem Moment eines kreativen Einfalls, wie es später noch ausführlich zu untersuchen ist, näher steht. Es handelt sich dabei um die sog. Streichholzaufgabe; eine auf den ersten Blick niederkomplexe Fragestellung, die auffordert, aus sechs Streichhölzern vier gleichseitige Dreiecke zu bilden (Abb. 09). Gegeben sind demnach sechs gleich lange Streichhölzer und eine Ebene, auf der diese platziert werden können. Nun obliegt es der Versuchsperson, die Lösung durch ein gedankliches Antizipieren bzw. durch reines Ausprobieren zu erreichen, wobei an einem gewissen Punkt die Erkenntnis eintritt, dass das Problem dem ersten Anschein nach unter den antizipierten Bedingungen nicht zu lösen ist, da sechs Streichhölzer innerhalb einer planaren Fläche nicht in derartiger Weise angeordnet werden können, dass sie vier gleichseitige Dreiecke bilden (Abb. 09 (a)). Die Lösung besteht im Heraustreten aus der zweidimensionalen Fläche in die dritte Dimension – in der Bildung eines Tetraeders (Abb. 09 (b)). Was bedarf es, um diese Lösung zu finden? Sowohl mehrere Facetten des Problemlösens als auch die charakteristischen Eigenschaften eines Problems werden daran ansichtig. Wie Duncker es in seiner allgemeinsten Definition beschreibt, besteht ein Problem ebendann, wenn man ein Ziel hat und nicht weiß, wie man es erreichen soll.98 Es besteht entsprechend ein Ausgangszustand, der in einen Zielzustand überführt werden soll, durch die Überwindung von Barrieren, die den direkten Weg zunächst versperren.99 So klar die schematische Vorgehensweise zunächst erscheint, so verborgen scheint ein konkreter Lösungsweg. Wovon ist entsprechend auszugehen?

97 98 99

wurfsargumente transponierbar, d.h. invariant gegenüber Veränderungen der konkreten Bestandteile macht. Duncker (1935/1963: 10). Vgl. Duncker (1935/1963: 1). Vgl. Dörner; Kreuzig; Reither; Stäudel (1983: 302).

167

168

Prozess als Gestalt

Abb. 09: Eigene, erweiterte Darstellung nach Duncker (1935/1963: 31). (a) zeigt mehrere ausgewählte Konfigurationen der Streichholzanordnung in der zweidimensionalen Ebene, die jedoch keine Lösung erzielen. (b) zeigt die Lösung als dreidimensionales Tetraeder, wodurch die Anforderung der Aufgabe, aus sechs Streichhölzern vier gleichseitige Dreiecke zu bilden, erfüllt wird.

Den Ausgangszustand bilden sechs Streichhölzer, die alle gleich lang, gleich dick und aus Holz gefertigt sind und lose auf einem ebenen Tisch liegen. Gegeben sind weiter sowohl eine plane Ebene bzw. ein Tisch als auch weiter die Möglichkeit, die Streichhölzer mit beiden Händen frei bewegen und anordnen zu können. Letzteres bildet die Operatoren, d.h. die Mittel und Wege zum Ziel. Den Zielzustand bildet eine spezifische Anordnungsfigur der Streichhölzer, die aus allen sechs Streichhölzern besteht und insgesamt vier gleichseitige Dreiecke erkennen lassen soll. Sowohl der Anfang, das Ziel als auch die Mittel sind demnach klar definiert. Es fehlt jedoch die Einsicht, welche kombinatorische Anordnung der Streichhölzer die Bedingungen der Zielfigur erfüllt.100 Abhilfe verspricht ein pragmatisches Ausprobieren von Möglichkeiten (›trial-and-error‹), bis sich die richtige Lösung ergibt. Jedoch bleibt die Lösung aus, solange versucht wird, die Streichhölzer lediglich in zweidimensionaler Ebene zu legen.101 Erst, wenn die Testperson aus der angenommenen Bedingung ›Streichhölzer auf dem Tisch zu einer Figur legen‹ ausbricht, indem sie die Streichhölzer in einem Punkt oberhalb der Tischfläche zusammenkommen lässt, kippt die Denkfigur aus der zweidimensionalen in eine dreidimensionale Sphäre und die Lösung erschließt sich unmittelbar und plötzlich, als erhellendes ›Aha-Erlebnis‹.102 Dieses Moment eröffnet sich als Einsicht, 100 Dementsprechend handelt es sich nach Dörner um ein Interpolationsproblem, bei welchem Ausgangs- und Zielzustand als auch die Mittel dessen Erreichens bekannt sind, die richtige Anordnung/Kombination jedoch nicht. Vgl. Dörner (1976: 14). 101 Wie Wertheimer es an anderer Stelle anhand eines mathematischen Beispiels betont, ist das ›trialand-error‹-Verfahren dabei mit dem bloßen ›Finden‹ der Lösung gleichzusetzen, durch ein »blindes Auswendiglernen und Herumprobieren«. Wertheimer (1945/1957: 111). Er unterscheidet es im Gegensatz zu »sinnvollen produktiven Prozessen«, die sich der Lösung durch logisches Schlussfolgern sukzessiv annähern. Ebd. Dies mag für die damalige Betrachtung einen gerechtfertigten Standpunkt markiert haben, nicht zuletzt, da Wertheimer sich größtenteils auf mathematische Beweise und abstrakte Formeln bezog. Jedoch soll im Folgenden noch gezeigt werden, dass – vor allem in gestalterisch-visueller Hinsicht – die Prozesse des ›trial-and-error‹ eine ebenso produktive Funktion haben, wenn es um die Neuverknüpfung von Sinnzusammenhängen geht, die sich der formallogischen Sphäre entziehen. 102 Das Phänomen des ›Aha-Erlebnisses‹ geht dabei auf den Psychologen Karl Bühler zurück, der damit das plötzliche Eintreten einer Erkenntnis beschreibt. Vgl. Bühler (1918: 280). In gleicher Ver-

6. Problemlösen und Parametrie

d.h. als Verständnis für die neu ansichtig gewordene Struktur der Situation und für die Erweiterung der Handlungsmöglichkeiten, die durch die neue Betrachtungsweise entstehen.103 Die Notwendigkeit eines Ausbrechens macht offenbar, dass zunächst ein Widerstand vorhanden ist, der einer neuen Wahrnehmung der Gegebenheiten im Weg steht. Widerstände stellen die vermeintlich festgeschriebenen Selbstverständlichkeiten dar, die »stillen Vorannahmen«, wie Pricken sie nennt,104 die sich in einer Problemsituation zumeist unmittelbar einstellen. Sie beziehen sich auf das in der Situation Gegebene und messen jedem Bestandteil ein Maß der Verhandelbarkeit zu, das bei einigen Situationselementen größer, bei anderen wiederum geringer ausfällt. Entsprechend wird die planare Tischfläche samt ihrer Zweidimensionalität stärker als unveränderbares Gegebenes angesehen als etwa die freie Anordnung der Streichhölzer auf dieser Fläche, die sich in dieser Hinsicht als kontingenter Möglichkeitsraum des Ausprobierens offenbart. Die Bedingung der Zweidimensionalität wird entsprechend nicht angefochten, nicht hinterfragt, sondern als selbstverständliches, unveränderbares Gegebenes in der Problemkonstellation fixiert. Duncker spricht in diesem Zusammenhang von zwei Arten einer Disponibilität (Lockerheit) von Situationsmomenten: Einer Disponibilität von Konfliktmomenten und einer Disponibilität des Materials.105 Ersteres geht dabei zum Großteil vom problemlösenden Individuum aus und bezieht sich vorwiegend auf durch Wissen und Erfahrung etablierte psychologische Routinen, die mal leichter und mal weniger leicht abgelegt und durch neue Handlungsmuster ersetzt werden können. Duncker macht dies daran fest, dass diese Routinen verschiedenen Festigkeitsgraden unterliegen: Im einen Extrem sind die Festigkeitsgrade gering und etwa durch eine Aufmerksamkeitsverschiebung zu überwinden (im Sinne von ›jetzt will ich es mal anders machen‹), im anderen Extrem können hohe Festigkeitsgrade gar eine Fixierung darstellen, wenn die Bedingungen der Situation von der problemlösenden Person als unverhandelbar angenommen werden (im Sinne von ›es gibt keine andere Möglichkeit‹).106 Im Beispiel der Streichholzaufgabe besteht nach Duncker eine solche Fixierung etwa darin, dass viele Versuchspersonen die Gegebenheit der Zweidimensionalität nicht infrage stellten und »unheilbar auf die Ebene ›fixiert‹« blieben.107 Dies ist nicht zuletzt auch

103 104 105 106

107

wendung wird das Phänomen mitunter auch als ›Geistesblitz‹ bezeichnet, so etwa bei Duggan, der die Vorgänge in gestalttheoretischer Hinsicht als die »raschen komplexen Synthesen der […] Gestaltwahrnehmung« beschreibt. Vgl. Duggan (2009: 56). Köhler setzt den Begriff der Einsicht mit dem des Verständnisses gleich, was im Folgenden ebenso gehandhabt werden soll. Vgl. Köhler (1971: 112). Pricken (2004: 166). Vgl. Duncker (1935/1963: 28ff, 102ff). »Ein Konfliktmoment kann natürlich sehr verschiedene ›Festigkeits‹-grade aufweisen. Es gibt einen Grad von Festigkeit, der eben hinreicht, um für den Moment die Veränderungstendenz auf nachgiebigere Stellen abzulenken, der aber schon einem relativ geringen Auflockerungsdruck (›jetzt will ich’s einmal anders versuchen‹) und einer systematischen Sondierung der Situation nach ›anderen Angriffsstellen‹ nachgeben/würde. Es gibt andererseits einen Festigkeitsgrad, der so gut wie allen Anfechtungen gewachsen ist. Hier sprechen wir von ›Fixierung‹.« Ebd.: 30. Vgl. dazu auch den Begriff der Fixation als psychologisches Phänomen der gestalterischen Praxis bei Cross (2007: 104ff). Der Ausdruck benennt die Schwierigkeit, sich von einer gegebenen Konkretion (Idee, Text, Darstellung etc.) zu lösen, sobald sie einmal wahrgenommen wurde. Duncker (1935/1963: 31).

169

170

Prozess als Gestalt

dadurch bedingt, dass die grundlegende Tendenz besteht, die Streichhölzer aus Gründen der Formstabilität flach zu legen, als sie aufrecht stehend als (fragile) Hochbauten anzuordnen.108 Damit vermag die eine Disponibilität (des Konfliktmoments) fließend in die andere, die Disponibilität des Materials, überzugehen. Diese geht dabei nicht etwa von der psychologischen Vorprägung des Individuums, sondern von den Gegenständen aus, die in der Situation gegeben sind. Damit umschreibt Duncker einen »Grad der Gebundenheit«, der darüber entscheidet, ob ein Gegenstand leichter oder schwerer »umzentriert«, d.h. in seiner Verwendung umgedeutet werden kann.109 Ein Streichholz stellt sich dabei zunächst als relativ leichter, länglicher, dünner Holzstreifen mit einer sphärischen Verdickung anderen Materials an einem Ende dar. In dieser figuralen Betrachtungsweise erscheint das Streichholz fragil und wenig geeignet, um damit als Bauwerkstoff umzugehen, da in dieser materiellen Konfiguration keine Möglichkeit des Zusammensteckens oder des dauerhaften Verbindens ansichtig wird. In funktionaler Betrachtungsweise ist ein Streichholz in erster Linie dem Zweck verschrieben, am Kopfende entzündet zu werden, durch Reibung oder thermische Energie. Dies bedeutet weiter, dass jede andere Verwendung sich als eine Art des ›Losdenkens‹ vom primären Gebrauch versteht und damit eine gewisse Überwindung kostet. Duncker argumentiert weiter, dass Gegenstände, neben der figuralen und funktionalen, eine heterogene Gebundenheit aufweisen, die sie stets in einem bestimmten Kontext – Dörner nennt es Realitätsbereich – verortet.110 Wenn ein Streichholz von einer Person immer nur in

108 Wie Duncker es formuliert: »Das kommt offenbar daher, daß alle sonstigen bekannten Streichholzaufgaben sich in der Ebene abspielen, was naturgemäß dazu führen muß, daß der Charakter ›Streichholzaufgabe‹ mit dem Charakter des ›Legens‹ verschmilzt. Außerdem eignen sich Streichhölzer ihrer Natur nach nicht gut zu ›Hochbauten‹.« Ebd.: 30, Fußnote 1. Das Moment des Verschmelzens beschreibt dabei eine vermeintliche Untrennbarkeit mindestens zweier gegebener Situationselemente, die als Selbstverständlichkeit lediglich hingenommen werden. Wolfgang Köhler beschreibt dieses Phänomen später als Assimilation: »Der Ausdruck bedeutet, daß, wenn bestimmte Wahrnehmungstatsachen immer wieder von anderen wichtigen Tatsachen begleitet worden sind, die Charakteristika der letzteren nicht mehr getrennt erinnert werden; vielmehr sind allmählich diese Charakteristika in die Wahrnehmungstatsachen selbst eingedrungen, so daß jetzt diese Wahrnehmungstatsachen mit solchen Eigenschaften, d.h. aber, mit Bedeutung durchtränkt sind.« Köhler (1971: 105ff). Damit nimmt Köhler vorweg, was erst im Zusammenhang mit dem Offenbacher Ansatz und der Theorie der Produktsprache in den 1980er-Jahren im Feld des Designs zu neuer Anwendung finden sollte; eben jenen Umstand, dass Anzeichenund Symbolfunktionen Zuweisungen und Gebundenheiten von Bedeutungen sind, die ihrer Art mehr oder weniger verhandelbar sind und innerhalb ihrer (Um-)Deutung – gemäß ihrem Festigkeitsgrad – dem Rezipienten mal mehr und mal weniger Widerstand entgegenbringen. Vgl. Bürdek (2012); Bürdek (2015); Steffen (2000). Es könnte dadurch sogar argumentiert werden, dass die hier diskutierten Momente der Umstrukturierung und Einsicht die (psychologischen) Vorbereiter einer postmodernen Auseinandersetzung waren, die, entgegen der konventionellen Gebundenheiten einer modernistischen Anschauung, Widerstände aufgebrochen, Festigkeiten neu verteilt und Zuweisungen neu verhandelt hat. Für die vorliegenden Zwecke würde sich hier jedoch der Fokus verlieren, weshalb dies an anderer Stelle zu diskutieren wäre. 109 Duncker (1935/1963: 102). 110 »Individuen haben in vorausgehenden Situationen die Erfahrung gemacht, daß bestimmte Operatoren bestimmten Realitätsbereichen angehören. Nun sind sie nicht mehr bereit, diese Operatoren auch andernorts zu verwenden.« Dörner (1976: 78).

6. Problemlösen und Parametrie

seinem primären Realitätsbereich, etwa zum Anzünden einer Kerze zu Hause, verwendet wurde, vermag es ihr aufgrund der heterogenen Gebundenheit schwerer zu fallen, das Streichholz in neuen, derivativen Verwendungsmöglichkeiten und Kontexten zu betrachten (oder gar, eine dreidimensionale Skulptur daraus zu bauen).111 Eine Möglichkeit, dem entgegenzuwirken, benennt Dörner mit dem von ihm eingeführten Begriff der Auflösungsgrade, wie er weiter oben bereits ausgeführt wurde. Was den Blick für derivative Verwendungsmöglichkeiten verstellt, ist nicht selten ein zu hoher oder zu niedriger Auflösungsgrad der Betrachtung. Sofern das Streichholz lediglich in seiner differenzierten Verwendungsart (Kerze anzünden) betrachtet wird, verstellt sich der Blick auf die peripheren Eigenschaften, welche nicht weniger in ihm verkörpert sind. Verringert sich der Auflösungsgrad der Betrachtung, treten diese peripheren Eigenschaften deutlicher hervor: Das Streichholz wird nicht mehr als Streichholz, sondern als ein aus Holz gefertigtes Vierkantprofil mit sphärischer Verdickung an einem Ende betrachtet, dessen Verwendung dahingehend neu, d.h. weitestgehend ohne Einschränkungen, erwogen werden kann. Dadurch entstehen weitere Anschlussmöglichkeiten, mit dem Streichholz auch noch anders umzugehen; es etwa zu biegen, zu knicken, zu zerteilen etc., wodurch, neue Optionen der Anordnung ansichtig werden, die womöglich Einsicht in eine mögliche Lösung darbieten. Eine Veränderung des Auflösungsgrades erfolgt entsprechend dann, sobald eine bestimmte (zumeist routinierte) Form der Betrachtung nicht mehr ausreicht, um eine Lösung herbeizuführen. Es bedarf dazu einer Auseinandersetzung mit dem gegebenen situativen Material resp. mit dem Situationsrelief, d.h. mit der durch Festigkeitsgrade und Gebundenheiten vorgeprägten Situation.112 Dies erfolgt durch ein Nachdenken, Ausprobieren, Anordnen – letztlich durch ein Suchen nach geeigneten Lösungsmöglichkeiten auf Basis von ›trial-and-error‹. Dieses »Darinherumprobieren«, wie Duncker es nennt,113 vollzieht sich noch weitestgehend ungeordnet und blind, jedoch wird es nicht zuletzt dadurch zu einem produktiven Akt, als dass es ermöglicht, bestimmte Kombinationen auszuschließen bzw. andere weiterzuverfolgen. Im Sinne der Auflösungsgrade hieße dies, etwa Formähnlichkeiten auf abstraktere Grundeigenschaften zu reduzieren

111

112 113

Einen Spezialfall beschreibt Duncker in diesem Zusammenhang, wenn er von heterogener funktionaler Gebundenheit spricht, wobei die Grenzen zwischen den Klassifikationen fließend erscheinen. Darunter versteht er die Schwierigkeit, die Verwendung von Gegenständen umzudeuten, wenn diese unmittelbar vorher in anderer Funktion gebraucht wurden. Anschaulich macht es Duncker an einer Versuchsreihe zur sog. ›Schachtelaufgabe‹, bei welcher eine Kerze mit auf einem Tisch gegebenen Gegenständen und Materialien – darunter eine Schachtel mit Reißzwecken – an einer Tür befestigt werden sollte. Vgl. Duncker (1935/1963: 103ff). War die Schachtel bei einer ersten Versuchsgruppe mit Reißzwecken gefüllt, wurde die Lösung (Schachtel mit Reißzwecken an der Tür befestigen und Kerze in die Schachtel stellen) weniger oft gefunden, als wenn die Schachtel bei einer zweiten Versuchsgruppe von vorneherein unbefüllt zur Verfügung gestellt wurde. Die Wahrnehmung der ersten Versuchsgruppe war durch die gefüllte Schachtel auf die primäre Verwendungsart als ›Aufbewahrungsraum‹ fixiert, wodurch es nur in wenigen Fällen gelang, die erwartete Lösung zu finden. Vgl. Ebd.: 31. Ebd.

171

172

Prozess als Gestalt

und zu gruppieren – etwa Symmetrie, Linearität, kreisförmige Anordnung etc. –,114 gleichzeitig darüber zu urteilen und Schlüsse daraus zu ziehen.115 Kontingente Möglichkeiten werden abgearbeitet, bis ein Moment der Sättigung eintritt, welches dazu anleitet, weitere Restriktionen resp. Festigkeitsgrade zu hinterfragen, wiederum Auflösungsgrade zu verändern, die situativen Gegebenheiten neu zu beurteilen und somit die Situation umzustrukturieren.116 Das Moment der Umstrukturierung folgt entsprechend auf einen produktiven Akt der sowohl kognitiven als auch handwerklichen Auseinandersetzung und führt dazu, dass man Einsicht in die Situation bzw. ein Verständnis ihrer Struktur gewinnt. Der erhellende Moment, in welchem sich offenbart, dass die Streichhölzer nur in der Dreidimensionalität zu vier gleichseitigen Dreiecken zusammengestellt werden können, markiert dabei das neue Verständnis für die Möglichkeit zur Auflösung der Widerstände, die eine bisherige Lösung verhindert haben: »Mit anderen Worten, wenn das Material einmal geeignet verändert worden ist, verstehen wir vollkommen, […]. Eben diesen Vorgang nennen wir Einsicht im Denken.«117

114

115

116

117

Dies entkräftet den Einwand Wertheimers, dem ›trial-and-error‹-Verfahren eine produktive Funktion abzusprechen (Wertheimer (1945/1957: 111)), da diese eben genau darin besteht, durch Operationen der Neuordnung, wie Wertheimer an anderer Stelle darlegt – »das Gruppieren, das Umordnen, das Strukturieren, Operationen des Aufteilens in Unterganze […]« (S. 47) –, diejenigen Beziehungen aufzudecken, welche die Eigenschaften in seiner Wirksamkeit als Ganzes widerspiegeln, was, im Falle der Streichhölzer, auch die dreidimensionale Anordnung miteinschließt. Der Prozess des Problemlösens versteht sich in dieser Hinsicht entsprechend als vielschichtiges Phänomen, das mehrere Teilaspekte auf sich vereint. Hussy benennt diese als Schlussfolgern, Urteilen und Kreativität, die jeweils – in unterschiedlichem Maß – an der Lösung eines Problems beteiligt sind. Vgl. Hussy (1986: 11). Vgl. Duncker (1935/1963: 112). Das Phänomen der Sättigung ist dabei ein zentraler Begriff der psychologischen Forschung, welcher gegen Ende der 1920er-Jahre von den Gestaltpsychologen Anitra Karsten und Kurt Lewin in den wissenschaftlichen Diskurs eingeführt wurde. Vgl. Karsten (1928); Lewin (1928). Der Begriff beschreibt den Umstand, dass wiederkehrende Reiz- und Handlungsschemata einen Nachlass des Interesses bzw. eine affektgeladene Abneigung zur Folge haben und dadurch ein »Streben nach Variation« eintritt (Duncker (1935/1963: 112)), das, im Falle des Problemlösens, wiederum dazu anleitet, andere Perspektiven einzunehmen und neue Beziehungen in Situationen anzulegen. Für das Feld der Ökonomie beschreibt Herbert Simon ein ähnliches Phänomen mit dem von ihm kreierten Begriff des ›satisficing‹, nach welchem in einer Entscheidungssituation die erstbeste Lösung erwählt wird, die dem Zweck oder dem gegebenen Anspruch genügt, weil zum Zeitpunkt keine bessere bekannt ist oder der Entscheider keine Wahl hat. Vgl. Simon (1968/1994: 25, 102ff). In beiden Fällen tritt ein Moment der Sättigung ein, das mit einem temporären Stillstand und einem darauffolgenden Um- bzw. Weiterdenken einhergeht. Vgl. dazu auch das Phänomens des spielerischen Stutzens in Kapitel 7.4 ›Spiel und Integration‹. Köhler (1971: 110).

6. Problemlösen und Parametrie

Das Neun-Punkte-Problem Eine solche Einsicht im Denken erfolgt dabei nicht selten als sich plötzlich einstellende und als überraschend empfundene Erkenntnis nach einem längeren Suchprozess. Sie markiert die Überwindung eines Widerstandes, der den Weg zu einer Lösung bislang verhindert hat und lässt das Individuum aus etablierten Verhältnissen ausbrechen. Ein solches Ausbrechen ist entsprechend das Resultat eines produktiven Abtastens der Gegebenheiten – des Materials einerseits und der unsichtbaren Vorbedingungen resp. der stillen Vorannahmen andererseits. Ein Beispiel, das dieses Ausbrechen besonders anschaulich macht und in welchem ein produktives Denken gleichzeitig auch den Anschlusspunkt für ein kreatives Denken markiert, ist das sog. Neun-Punkte-Problem.118 Die darin gestellte Aufgabe besteht darin, neun quadratisch angeordnete Punkte mit einem Stift durch vier gerade Linien zu verbinden, ohne den Stift abzusetzen (Abb. 10 (a)).119 Die Schwierigkeit des Problems besteht für die meisten Versuchspersonen darin, sich von der Wahrnehmung der Punkte-Anordnung als quadratische Rahmung zu lösen, da mitunter drei Gestaltgesetze – der Nähe, Gleichheit (Ähnlichkeit) und Geschlossenheit – daran wirksam werden und diese eine ihnen entgegengesetzte Wahrnehmung erschweren.120 Der Suchraum erscheint dadurch auf die quadratische Grundfläche beschränkt, wodurch er kleiner angenommen wird als der Raum, der die richtige Lösung beinhaltet.121 Die implizite Annahme der unzutreffenden Rahmenbedingung, die zu besagen vermag, dass die Striche nicht über die Begrenzung des Quadrates hinausgehen dürfen, verhindert entsprechend die Lösung.122 Dörner benennt drei potenzielle Gründe für solche stillen Vorannahmen:123 die (unbewusste) Berufung auf Erfahrungen, die in der Vergangenheit mit Erfolg angewandt wurden – etwa die »Tatsache […], daß in der Schule, etwa im Geometrieunterricht, Striche fast immer zwischen Punkten gezogen werden müssen, selten aber über diese hinaus« –,124 die heterogene Gebundenheit der Erfahrung (Duncker), die verhindert, sich von der primären Verwendung der Dinge (Operatoren) ›loszudenken‹ und den ›Verbotsirrtum‹, d.h. die

118

Das Neun-Punkte-Problem (›nine dot problem‹) ist eine Aufgabenstellung aus dem Bereich des praktischen Problemlösens in der Denkpsychologie und geht auf den amerikanischen Spieleerfinder Samuel Loyd zurück, in dessen Namen es erstmals 1914 in ›Sam Loyd’s Cyclopedia of 5000 Puzzles, Tricks, and Conundrums With Answers‹ veröffentlicht wurde. Vgl. Loyd (1914: 301, 380). Es dient seit den 1950er-Jahren häufig als Beispiel für kreatives Problemlösen, so etwa bei Dörner (1976: 77); Funke (2003: 47); Hussy (1984: 118ff); Perkins (2003: 49ff); Pricken (2004: 165ff); Scheerer (1963). 119 Nach Dörner beschreibt das Neun-Punkte-Problem ein synthetisches Problem, d.h. ein solches, dessen Zielstellung klar ist, die Operatoren (Wege zum Ziel) jedoch unbekannt sind. Vgl. Dörner (1976: 77ff). 120 Die Gestaltgesetze bewirken eine »stärkere Tendenz« zur »natürlichen Form« der Wahrnehmung, dessen »Gegenform […] im ganzen spontan fast nie auf[tritt].« Wertheimer (1923: 307, 339). Es bedürfe schon eines »angespannten ›Willens‹«, so Wertheimer, um der Wahrnehmung aus eigenem Antrieb entgegenzuarbeiten. Ebd.: 339. Vgl. dazu die Übersicht weiter oben in Kapitel 5.2.1 ›Gesetze des menschlichen Sehens‹. 121 Vgl. Dörner (1976: 77). 122 Vgl. dazu auch die ausführliche Analyse des Neun-Punkte-Problems bei Öllinger; Knoblich (2006). 123 Vgl. Dörner (1976: 78ff). 124 Ebd.: 78.

173

174

Prozess als Gestalt

Abb. 10: Eigene Darstellung. (a) zeigt die Anordnung der Punkte, die es mit maximal vier zusammenhängenden Strichen zu verbinden gilt. (b) und (c) stellen exemplarische, unzureichende Lösungsversuche dar, während (d) die Lösung aufzeigt. Die Schwierigkeit des Problems ergibt sich daraus, dass es den meisten Versuchspersonen schwerfällt, über die angenommenen Grenzen des Quadrates hinauszudenken. Sobald diese vermeintliche Bedingung aufgelöst wird, kann die Lösung gefunden werden.

Annahme von Verboten, verstanden als vorschnelle Assoziation wahrscheinlicher Erfordernisse, die aber nicht explizit geäußert wurden. Sich der Lösung anzunähern, macht es entsprechend erforderlich, sich von der eigenen Wahrnehmung und gemachten Erfahrungen ›loszudenken‹, d.h. Verhältnisse und Beziehungen zu hinterfragen, sie aufzulösen, neue Aspekte hinzuzufügen und alles wechselseitig neu zu verhandeln. Eben jenes Heraustreten aus den vermeintlichen Bedingungen, das Absehen von etablierten Verhältnissen und das Zusammenfügen bislang ungetrennter Phänomene, vermag jene mentale Haltung zu umschreiben, die auf produktiven Vorgängen des Problemlösens aufbaut, um sich kreativen Lösungen anzunähern – als buchstäbliches Denken außerhalb des Rahmens (›thinking outside the box‹). In dieser Hinsicht markiert das Neun-Punkte-Problem an dieser Stelle einen Übergang ins Feld der Kreativität, in welchem die bisher dargelegten Erkenntnisse nun zusammengeführt und mit Hinsicht auf gestalterische Prozesse, Gestalten und Parametrie abschließend verhandelt werden sollen.

7. Kreativität und Parametrie

Wie anschaulich werden konnte, verstand sich die gestalttheoretische Perspektive darauf, die Phänomene hinsichtlich der Bedingungen der menschlichen Wahrnehmung zu befragen. Angefangen bei Ehrenfels’ Begriff der Übersummativität, der die Gestalt als qualitative Dimension einer Ganzheit beschreibt, fortgeführt mit Wertheimer, der mit der Artikulation der Gestaltgesetze die biologisch angelegten Vorbedingungen des menschlichen Sehens in eine fassbare Form brachte und zuletzt exemplarisch mit Duncker, welcher in seinen Studien zum produktiven Denken den Anwendungsbezug zum Problemlösen herstellte, indem er jene Prozesse beobachtete, die währenddessen abliefen.1 Die Ausführungen zum produktiven Denken sowie zu Prozessen der Umstrukturierung und der Einsicht haben aufgezeigt, unter welchen Bedingungen Formen der Wahrnehmung neu arrangiert werden können, um sie für das Lösen von Problemen anwendbar zu machen. Die Strahlungsaufgabe, die Streichholzaufgabe und das Neun-Punkte-Problem haben dabei anschaulich gemacht, dass Prozesse der Umstrukturierung sich auf Perspektiven der Wahrnehmung verstehen, durch welche sich das problemlösende Individuum aktiv und produktiv von etablierten Betrachtungsweisen löst und sich in neuer Ausrichtung zu den Dingen positioniert. Ein Problem wurde entsprechend als defekte Gestalt verstanden, sobald die eigene Wahrnehmung mit der richtigen/guten Wahrnehmung nicht mehr übereinstimmte.2 Erst durch Prozesse der Umstrukturierung war es möglich, Einsicht in die Struktur der Sache zu gewinnen und das Problem somit nicht mehr als Problem, sondern als Lösung wahrzunehmen. Mit Hinsicht auf das Feld der Gestaltung und die Diskussion um Parametrie wird nun schnell klar, dass die Betrachtungsweisen der Gestalttheorie zwar einen ersten Zugang zur gestalterischen Praxis anbieten, indem sie mit den Begriffen des produktiven Denkens, der Umstrukturierung und der Einsicht ein erstes Fundament ausbilden, jedoch 1

2

Neben Duncker führten selbstredend noch andere Gestaltpsychologen Untersuchungen und Studien zum Problemlösen durch. Vgl. dazu etwa die Experimente Wertheimers mit Kindern, die er beim Lösen geometrischer Mathematikaufgaben beobachtete und Köhlers Studien zum Problemlösen in Versuchen mit Schimpansen. Vgl. Wertheimer (1945/1957); Köhler (1921/1963). Im Fokus standen dabei, wie auch bei Duncker, die Begriffe der Umstrukturierung und der Einsicht, wie sie weiter oben dargelegt wurden. Vgl. Hussy (1993: 34); Funke (2003: 46).

176

Prozess als Gestalt

für die Diskussion der gestalterischen und parametrischen Praxis einer Erweiterung bedürfen. Diese bezieht sich weniger auf die grundlegenden Mechanismen der angeführten Phänomene, da diese, wie noch zu zeigen sein wird, auch in der gestalterischen Praxis wiederzufinden sind, sondern vielmehr auf dessen Ausrichtung, d.h. auf den Fokus, den die Gestalttheorie auf das Lösen eines Problems bzw. auf das Finden einer naturgemäßen, richtigen Lösung legte.3 Dabei stellte der Prozess des produktiven Denkens einen logisch-analytischen Akt dar, der die erfahrungsbasierten Kenntnisse der problemlösenden Person nur bedingt in die Überlegungen miteinbezieht. Auf der Suche nach der singulären, ›wahren‹ Lösung erfolgten die Bestrebungen der im gestalttheoretischen Verständnis gemäß einer »Durchdringung« von »Tatsachen«; der »Natur dieses Materials«, das in der Situation gegeben ist, um »das darin enthaltene Problem völlig verstehen« zu können.4 Das produktive Denken verstand sich in dieser Lesart auf eine naturgemäße Logik, der es lediglich zu folgen galt. Es stand entsprechend keine verhandelbare Sichtweise im Vordergrund, sondern eine der naturgegebenen Richtigkeit im Sinne einer einzigen Wahrheit, die es aufzudecken galt.5 Das problemorientierte Denken sollte einer klaren Richtung folgen. Alle Anstrengungen, die von dieser Richtung abwichen, konnten nicht der Lösung dienen und waren entsprechend zu vernachlässigen. Nach Wertheimer war es vor allem ein »Verlangen nach wirklichem Verständnis«,6 welches das produktive Denken antrieb, und nicht etwa ein solches, das dazu anleitete, sowohl neue Potenziale der Andersartigkeit zu entfalten als auch gegen die vermeintlich ›naturgemäßen‹ und traditionellen Überzeugungen zu argumentieren. Letzteres ist es jedoch, was die gestalterische Praxis der Gegenwart mitunter auszeichnet. Würden Entwurfsprozesse unter rein funktionalen Richtungen im Sinne eines produktiven Denkens ablaufen und allein nach dem ›wirklichen‹ Verständnis der Sache suchen, wäre Design eine unlösbare Aufgabe, eben weil es das eine Verständnis der Sache nicht mehr gibt.7 Wie Bürdek es treffend anbringt, gilt es nicht mehr zu fra3

4 5

6 7

In der Bestrahlungsaufgabe bestand die richtige Lösung etwa darin, die Strahlung von mehreren Seiten in abgeschwächter Form auf den Patienten zu schicken, sodass die Strahlen sich an der Position des Tumors bündeln und dort die entsprechende Wirkung hervorrufen. Beim Streichholzproblem liegt die einzig richtige Lösung in der Konstruktion eines dreidimensionalen Tetraeders. Beim Neun-Punkte-Problem besteht die richtige Lösung im Ausbrechen aus der als Quadrat wahrgenommenen Punktekonstellation und dem Zeichnen der Linie über die vermeintliche Begrenzung hinaus, als buchstäbliches Denken außerhalb des gedachten Rahmens (›outside the box‹). Köhler (1971: 101, 102). Wertheimer beschreibt dies anschaulich als »Suchen [nicht] einfach nach irgendeiner Beziehung, die zwischen ihnen bestehen könnte, sondern nach der eigentlichen Natur ihrer gegenseitigen Abhängigkeit« Wertheimer (1945/1957: 48). Später spricht er auch von einem »Verlangen nach wirklichem Verständnis«, das die produktiven Untersuchungen motiviert (Ebd.: 193) oder vom »Herzen des Problems« (Ebd.: 221). Entsprechend bestärkt Wertheimers Verständnis vom produktiven Denken tendenziell die eine, richtige Lösung und weniger den Wert derivativer Lösungen im Sinne eines kreativen Potenzials. Ebd.: 193. Dabei steht vor allem die Individualisierung der eigenen Lebenswelt im Zentrum der Bestrebungen, im Sinne einer kreativen Selbstverwirklichung, wie Reckwitz es anführt. Vgl. Reckwitz (2012/2013: 12). Bürdek bezieht dieses Phänomen auf den Zusammenhang von Kontext und Design, wobei Ersteres »wichtiger wird als die Produkte selbst«, weil »erst durch die Formulierung und Gestaltung der jeweiligen Lebensstilzusammenhänge […] der Hintergrund geschaffen [wird], vor dem die Produkte Bestand

7. Kreativität und Parametrie

gen: »Wie werden die Dinge gemacht?«, sondern vielmehr, »Was bedeuten die Dinge eigentlich für uns?«8 Die Phänomene sind durchdrungen, die Verhältnisse geklärt und Materialien und Technologien verfügbar – was sich anschließt, sind Fragen, wie damit in alten und neuen Kontexten gestalterisch umzugehen ist,9 wie die Anforderungen daran neu zu verhandeln, zu hinterfragen, zu kombinieren sind und welche Richtungen sich als vielversprechend darbieten, um derivative Lösungsansätze daraus zu abzuleiten; nicht mit Hin-Sicht auf das Eine, sondern mit Ab-Sicht in eine Breite zu arbeiten; Fragen zu formulieren, die Dichotomien aufzuheben suchen und nebenstehende Phänomene und Ambiguitäten prozessual zusammenführen, wie Simone Mahrenholz es für die von ihr dargelegte Kreativitätstheorie beansprucht.10 Nicht mehr die singuläre, beste Lösung steht im Fokus der Betrachtung, sondern dessen Abweichung, das Nebenstehende, das Alternative, das noch Zweckungebundene, Unverhandelte, das Unvernünftige, das Irrationale, das es im Zuge des Entwurfsprozesses in sinnvolle Zusammenhänge zu bringen gilt.11 Die Leistung, die dies zu bewerkstelligen vermag, soll daher im Folgenden und in Erweiterung eines produktiven Denkens als kreatives Denken bezeichnet und hinsichtlich seiner Charakteristika, Mechanismen und Methoden in die Diskussion um Parametrie, Prozesse und Gestalten miteinbezogen werden. Es zeigt sich daran, dass diejenigen Verfahren, die im kreativen Prozess zwischen Ja und Nein, Rationalem und Irrationalem und Sinn und Unsinn oszillieren letztendlich nichts anderes sind als parametrisierbare Funktionen, die durch die willkürliche, leichtgängige und kontinuierliche Veränderung von Parametern unmittelbar anschaulich machen, welche Wirksamkeit mit ihnen in der Gesamtheit der Prozessgestalt verbunden ist. Parametrisch zu gestalten heißt in diesem Zusammenhang, durch handhabbar gemachte Prozesse der unmittelbaren Veränderung neue Beziehungen in Gestaltungsinhalten zu erkennen und somit Einsichten zu gewinnen; nicht die objektiven Wahrheiten, sondern die relativen Richtigkeiten in den Blick zu nehmen, indem nicht die vermeintlich beste, sondern in gleicher Gewichtigkeit alternative, nebenstehende Lösungen berücksichtigt und damit gleichsam neue Gestaltungs-Richtungen und -Richtigkeiten verhandelbar werden. Es geht um Sinnkonstrukte, die im Modus eines Trotzdem legitim werden, indem diese nicht absolute, sondern relative Gültigkeit beanspruchen: »Es gibt Sinn, aber nicht

8 9

10

11

haben können.« Bürdek (2015: 115). Eine sozialgesellschaftliche Untersuchung der benannten Kontexte findet sich bei Schulze, worin er nicht etwa die Gebrauchswerte der Produkte in den Fokus rückt, sondern die Erlebniswelten, die sich als verschiedene Perspektiven auf das gesellschaftliche Leben offenbaren. Vgl. Schulze (1993/2005). Bürdek (2015: 115) . Wie Bielefeld und Khouli es etwa für die Architektur darlegen: »Jeder Entwurf entsteht in seinem eigenen, spezifischen Kontext. Dazu gehören der Bauplatz und dessen Umgebung, aber auch gesellschaftliche und soziokulturelle Einflüsse.« Bielefeld; Khouli (2011: 15). »Sie [Kreativität] hebt Dichotomien auf zwischen Kunst und Erkenntnis, Körper und Geist, Denken und Fühlen, Wissenschaft und Kunst, Logik und Ästhetik, entweder-oder und sowohl-als-auch. Allgemeiner gesagt steht hier die Alternative von exklusiv-schließender binärer Logik und inklusiv-öffnender Prozessualität auf dem Prüfstand.« Mahrenholz (2012: 11). Maßgebend für ein solches Verständnis von Kreativität sei dabei mitunter dessen Kontingenz, welche etwa Waldenfels wie folgt umschreibt: »Das Entscheidende ist dabei, dass etwas einen Sinn bekommt, den es nicht schon hat, und zwar einen Sinn, der auch ein anderer sein könnte.« Waldenfels (2020: 37).

177

178

Prozess als Gestalt

den Sinn«, wie Waldenfels es im Verweis auf Heidegger, Merleau-Ponty und Foucault formuliert.12 Das Nebenstehende, die Parameter, können somit vorerst als diejenigen Instanzen benannt werden, die maßgeblich an der produktiv-kreativen Verwertung gestalterisch-konzeptioneller Entwürfe beteiligt sind, wenn nicht sogar als diejenigen, die dessen Grundlage bilden. Einen anschaulichen Zugang zum Feld der Kreativität durch die parametrische Perspektive bietet eine Kreativitätsdefinition Robert W. Weisbergs, welche vor allem auf die Erschaffung neuer Sinnzusammenhänge abzielt: »›Die besondere Art seiner Kreativität befähigt seinen Besitzer, aus dem Irrelevanten Bedeutung zu ziehen und Sinnzusammenhänge in Widersprüchen zu erkennen.‹ Das kreative Genie ist also irgendwie in der Lage, etwas aus dem zu machen, was für andere Menschen einfach nichts ist.«13 Das Zitat lässt zunächst Skepsis aufkommen, vor allem gegenüber einem Besitzer von Kreativität resp. dem Genie, wodurch Kreativität zu einer exklusiven Eigenschaft und Kompetenz erklärt wird. Dem sei im Folgenden nicht zuletzt insofern entgegenzuarbeiten, als dass aufgezeigt werden soll, auf welche Art und Weise kreative Prozesse technischen Systemen zugänglich und für die Gestaltungspraxis anschlussfähig gemacht werden können. Diese Anbindung obliegt dabei maßgeblich der Frage, wie relevante Inhalte von irrelevanten einerseits getrennt und andererseits (wieder) zusammengefügt werden können. Während die menschliche Wahrnehmung, wie gezeigt wurde, bereits ein komplettiertes kognitives Filtersystem darstellt, ist für ein technisches System zunächst jeder eingehende Inhalt ein gleichsam relevanter. Es bedarf entsprechend verschiedener Transformationsprozesse auf mehreren Ebenen, etwa der convolutional oder pooling layer, wie sie weiter oben im Zusammenhang mit künstlich neuronalen Netzwerken dargestellt wurden,14 durch welche Ähnlichkeiten in den empirischen Datenmengen erfasst und in Regeln übertragen werden können, wodurch die Zuordnung zu einer definierten Klasse mit einer bestimmten Wahrscheinlichkeit erst möglich wird. Ein technisches System sieht entsprechend keinen Hund auf einem Bild, sondern es erfasst eine Anordnung binärer Datenwerte (Input), welche in ihrer spezifischen Eigenart der definierten Begriffsklasse ›Hund‹ mit einer bestimmten Wahrscheinlichkeit

12 13

14

Ebd. Weisberg (1989: 16). Der erste Satz des Zitates stammt von einem unbekannten Autor, den Weisberg zitiert. Etwas differenzierter drückt es der Komponist und Musikwissenschaftler David Cope aus: »Creativity is just finding an association between two things which ordinarily would not seem related.« Cope zitiert nach Fry (2018: 229). Auch Holger van den Boom formuliert es mit Hinsicht auf die Zuweisung von Bedeutung in ähnlicher Weise: »Kreativität besteht durchweg darin, Bedeutungsloses neu mit Bedeutung auszufüllen. Der Vollzug von Kreativität entspricht einer Sinnverleihung, […].« van den Boom (1987: 142). Für die gestalterische Praxis beschreibt es Heufler: »Es [Kreativität] ist – vereinfacht dargestellt – das neuartige Verknüpfen von bereits bekannten Elementen, Prinzipien oder Wirkungsweisen.« Heufler (2016: 98). Ebenso stellt von Mutius die charakteristische Eigenart kreativer Prozesse heraus: »durch Kombinationen, d.h. durch ein neues ›In-Beziehung-Setzen‹ von bislang Getrenntem.« Mutius (2000: 143). Vgl. dazu Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹.

7. Kreativität und Parametrie

zugeordnet werden kann (Output). Die Trennung des Relevanten vom Irrelevanten erfolgt entsprechend durch Transformationen, Umstrukturierungen, Rekombinationen resp. durch einen Akt der Gestalt(-bild-)ung, in welchem Inhalte analysiert, etablierte Verhältnisse aufgelöst, neu gesetzt, gewichtet und in einer ganzheitlichen Gestalt zusammengefügt werden. Mit Hinsicht auf Parametrie vermag dabei eben darin, in der Trennung des Relevanten vom Irrelevanten, der wesentliche Anschlusspunkt für die Diskussion um Kreativität zu liegen: Da ein Parameter, wie in Kapitel 2 dargestellt, für jeweils nur einen Fall konstant ist und für einen anderen wiederum einen neuen Wert annehmen kann,15 heißt dies gleichsam, dass für einen Fall auch immer nur ein Wert relevant ist, während alle anderen es nicht sind. Die besondere, hybride Eigenschaft des Parameters besteht nun eben darin, dass unmittelbar zwischen den Werten gewechselt werden kann, d.h., dass eine grundlegende Eigenschaft der Variation resp. der Reversibilität in der parametrischen Funktion angelegt ist, die es möglich macht, die Relevanz und Irrelevanz von Werten für jeden Anwendungsfall unmittelbar anschaulich zu machen und zu überprüfen. Dabei verweilen die Ergebnisse im schwebenden Zustand einer Kontingenz, die zu jedem Zeitpunkt die Möglichkeit zur Veränderung suggeriert; als reversible Iterationsschleifen, die im leichtgängigen Spiel mit den Parametern ihre jeweils eigenen Maßstäbe der Richtigkeit herausbilden, die wiederum nicht aus statischen Wahrheiten, sondern aus relativen Wahrscheinlichkeiten hervorgehen und gleichsam als solche durch parametrische Funktionen erst handhabbar werden. Mit parametrischen Funktionen zu arbeiten bzw. parametrisch zu gestalten heißt demnach, die Veränderung im Entwurf immer auch gleich mitzudenken. Parametrie verspricht demnach grundlegend sehr gut dazu geeignet zu sein, im Sinne der obigen Bestimmung von Kreativität, Irrelevantes in Relevantes umzudeuten, was, wie bereits kurz angeführt, die Debatte um den Mythos vom kreativen Genie stark abkürzt, da es sich dabei nicht um exklusive, undurchsichtige und sprunghafte, sondern um technisch verfügbare, nachvollziehbare und iterative Prozesse handelt.16 Die folgende Auseinandersetzung versteht sich entsprechend darauf, die Konturen eines kreativen Denkens nachzuzeichnen, das die gestalterische Praxis der Gegenwart seitens ihrer (künstlich intelligenten) Medien zur Entwurfs- und Ideenartikulation geradezu neu einzufordern scheint; ein Denken, das wechselseitige Beziehungen, kontingente Veränderungen und unvorhersehbare Ambiguitäten als prozessuale, dynamische und anschlussfähige Phänomene verhandelt und im Entwurf, als Gestalt, zusammenführt. Um sich einer solchen Betrachtungs- und Denkweise anzunähern, dient der Begriff der Kreativität zunächst als Ausgangspunkt der Diskussion. An diesem lässt 15 16

S. Anm. 2 in Kapitel 2 ›Parametrie – Begriff und Entwicklung‹. Ebendiese Punkte bestärken die Entmystifizierung der Genie-Hypothese, wie Weisberg es etwa formuliert: »Betrachtet man nur das Problem und die kreative Lösung, dann erscheint der ganze Prozeß höchst mysteriös. […] Kreative Produkte entwickeln sich schrittweise, und wer den kreativen Prozeß verstehen will, muß die Zwischenschritte beobachten können.« Weisberg (1989: 25). Diese Haltung bewegte auch den Autor dieses Buches dazu, im Jahr 2018 den ›Design Iteration Award‹ als deutschlandweiten Designwettbewerb durchzuführen, der nicht das letzte Resultat und Produkt, sondern den Prozess dessen Entstehung prämiert. Vgl. dazu https://www.designiterationaward.com, abgerufen am 18.08.2020.

179

180

Prozess als Gestalt

sich aufzeigen, welche Facetten dem Phänomen zu eigen sind, wie diese bislang in der Kreativitätsforschung gedeutet wurden und welche gestalterischen Aspekte daran aus heutiger Sicht ansichtig werden. Nach der Darlegung dieser Grundlage knüpft die darauffolgende Betrachtung dort an, wo die gestalttheoretischen Ansätze des Problemlösens zunächst an ihre Grenzen stießen; wenn nun im Verständnis eines produktiven Denkens weniger nach dem einen besten Weg zu einer Lösung, sondern im Sinne eines kreativen Denkens vielmehr nach den Umwegen zu fragen ist, auf denen Ziele auch anders erreicht und Phänomene in neue Sinnzusammenhänge gebracht werden können. Dazu sei der Vorschlag dargelegt, die beteiligten kognitiven Prozesse in eine Ausrichtung der Hin-Sicht und eine der Ab-Sicht zu unterscheiden, welche sich gleichsam als Handlungsformen der Improvisation und des Spiels in Anwendung bringen lassen. Während die Improvisation sich dabei darauf versteht, die in der Situation gegebenen Bestandteile als Prozess der eingeschränkten Rekombination neu zu verhandeln und in Form temporärer Lösungen auf Dauer zu stellen, lassen sich anhand des SpielBegriffs vor allem jene Prozesse anschaulich machen, die einen weitestgehend freien Umgang mit (Gestaltungs-)Inhalten befördern, indem sie im Handlungsvollzug des Spielens einen Spielraum samt eigenen Regeln ausbilden, in welchem die Dinge fortwährend als unendliche, zyklische Iterationen im Modus eines gleichzeitigen Nebeneinanders verhandelt und zu ganzheitlichen Gestalten integriert werden können – und dies für jeden Anwendungsfall erneut. Unmittelbar daran anschließend ist in Bezug auf die gestalterische Praxis der Gegenwart nach den technisch-medialen Bedingungen zu fragen, welche an der Artikulation und Visualisierung von Ideen und Entwürfen beteiligt sind und welche sich weniger in Form spielerischer Unentschiedenheiten, als vielmehr in Form computational simulierter Wahrscheinlichkeiten erfassen lassen. Es gilt entsprechend, die Möglichkeiten der computationalen – d.h. vor allem auch der künstlich intelligenten – Berechenbarkeit nicht als Gegensatz, sondern als Ergänzung menschlicher Kreativitätspraktiken zu betrachten und davon ausgehend zu fragen, wie der Umgang mit derartigen Systemen an die Erfordernisse menschlicher Sinnhaftigkeit zurückgebunden werden kann bzw. muss. Wie zu zeigen sein wird, vermag dies maßgeblich eine Frage der Auflösungsgrade zu sein, in der die Dinge betrachtet, nachvollzogen und gestaltet werden können. Die Betrachtung und Gestaltung der Phänomene in verschiedenen Auflösungsgraden vermag dabei jene parametrische Eigenart zu versinnbildlichen, die es ermöglicht, die wie auch immer gearteten Entwicklungen nicht als disruptive Brüche, sondern als kontinuierliche und zusammenhängende Prozesse, als Gestalten, wahrzunehmen. Die technischen Medien dienen dabei – nicht zuletzt durch die zusehends steigende Auflösung ihrer Messbarkeiten – vor allem als Visualisierungswerkzeuge dessen, was sich der menschlichen Wahrnehmung (und Gestaltung) bislang entzog: Strukturen, Muster und Zusammenhänge sowohl auf der Mikroals auch auf der Makro-Ebene. Ein Design, das sich dieser Medien bedient, muss es sich entsprechend zur Hauptaufgabe machen, die Phänomene auf eine Meso-Ebene zurückzubinden, d.h., sie in handhabbare Formen menschlich sinnvoller Gestaltung (zurück) zu übersetzen und im wortwörtlichen parametrischen Sinne damit gegen eine technokratische Messbarkeit anzuarbeiten (gr. ›para‹ = dt. ›gegen/neben‹, gr. ›metron‹ = dt. ›das Maß‹), um nicht lediglich noch einen Toaster (Produkte), sondern menschliche Weltverhältnisse (Prozesse) mitzugestalten. In dieser Hinsicht lässt sich Parametrie als

7. Kreativität und Parametrie

mediales und mentales Bindeglied verstehen, das (gestalterische) Prozesse erfahrbar macht und damit die notwendigen und konsistenten Voraussetzungen bietet, um sie als Gestalten immer wieder neu zu verhandeln.

7.1

Phänomen und Begriff

Wie Simone Mahrenholz es anschaulich formuliert, ist ›Kreativität‹ ein sehr junger Begriff und gleichzeitig ein sehr altes Phänomen.17 Den Beginn der Kreativitätsforschung markiert dabei ein Vortrag des Psychologen und Intelligenzforschers Joy Paul Guilford, den er im Jahr 1950 als Präsident der ›American Psychological Association‹ hielt.18 Darin betonte Guilford, dass Erfindungen und Innovationen nicht zwangsläufig und ausschließlich durch ein hohes Maß an Intelligenz zustande kämen – wie es bis dato weitreichend die wissenschaftliche Überzeugung war –,19 sondern, dass es vielmehr ein Zusammenspiel vielschichtiger, personenbezogener Eigenschaften sei, an dem Kreativität ansichtig wird.20 Als schöpferische Kraft kann Kreativität dabei allgemeinhin als das menschliche Bestreben verstanden werden, die Umwelt hinsichtlich eigener Bedürfnisse anzupassen resp. umzuformen, was sich nicht zuletzt in den Artefakten offenbart, die der Mensch seit jeher gestaltet und welche ihn tagtäglich umgeben.21 Entsprechend könne, nach Sabine General, gleichsam alles menschliche Verhalten als kreativ bezeichnet werden.22 In ebendieser Hinsicht lassen sich die Wurzeln des Begriffs noch weiter zurückverfolgen. Entlehnt aus dem theologischen Begriff des Schöpfergottes, des ›creators‹, der aus dem Nichts etwas entstehen lässt, wurde die Fähigkeit der ›creatio ex nihilo‹ im 17. Jahrhundert auf diejenigen Individuen übertragen, die offenkundig über herausragende schöpferische Qualitäten verfügten, die ›Genies‹ (lat. ›genius‹ = dt. ursprünglich:

17 18

19

20

21 22

Vgl. Mahrenholz (2012: 14). Ein übersichtlicher, historischer Abriss zur schöpferischen Idee von Kreativität findet sich bei Chan (2015: 245ff). Vgl. Guilford (1950) sowie die deutsche Übersetzung bei Ulmann (1973: 25-43). Vgl. auch die zeithistorische Darstellung der Entwicklung des Kreativität-Begriffs bei Albert; Runco (1999) als auch eine übersichtliche Zusammenfassung der Kreativitätsforschung seit den 1950er-Jahren bei Bycroft (2009). »Viele glauben, daß man dem schöpferischen Talent in der Form von hoher Intelligenz oder hohem IQ Rechnung trägt. Diese Auffassung ist nicht nur unzulänglich, sondern auch weitgehend verantwortlich für den Mangel an Fortschritt im Verständnis kreativer Menschen.« Guilford (1950/1973: 42). »Bei der kreativen Persönlichkeit geht es dann um solche Eigenschaftsgefüge, die für schöpferische Menschen charakteristisch sind. Ein kreatives Gefüge zeigt sich in kreativem Verhalten, das solche Tätigkeiten wie Entdecken, Entwerfen, Erfinden, Ordnen und Planen umgreift. Menschen, die diese Arten des Verhaltens in bemerkenswertem Grade aufweisen, werden als kreativ anerkannt.« Ebd.: 26. Vgl. Simonton (2000); Holm-Hadulla (2008: 128). Vgl. General (2008: 147). Vgl. dazu auch die Ausführungen zum Begriff der Kreativität nach Marschall im ›Wörterbuch Design‹, worin er Kreativität als Eigenschaft beschreibt, »die in allen Aspekten menschlicher Tätigkeit sichtbar wird. In naturwissenschaftlichen, technischen, landwirtschaftlichen, unternehmerischen Leistungen kann wirkliche Kreativität stecken.« Erlhoff; Marshall (2008: 247).

181

7. Kreativität und Parametrie

mediales und mentales Bindeglied verstehen, das (gestalterische) Prozesse erfahrbar macht und damit die notwendigen und konsistenten Voraussetzungen bietet, um sie als Gestalten immer wieder neu zu verhandeln.

7.1

Phänomen und Begriff

Wie Simone Mahrenholz es anschaulich formuliert, ist ›Kreativität‹ ein sehr junger Begriff und gleichzeitig ein sehr altes Phänomen.17 Den Beginn der Kreativitätsforschung markiert dabei ein Vortrag des Psychologen und Intelligenzforschers Joy Paul Guilford, den er im Jahr 1950 als Präsident der ›American Psychological Association‹ hielt.18 Darin betonte Guilford, dass Erfindungen und Innovationen nicht zwangsläufig und ausschließlich durch ein hohes Maß an Intelligenz zustande kämen – wie es bis dato weitreichend die wissenschaftliche Überzeugung war –,19 sondern, dass es vielmehr ein Zusammenspiel vielschichtiger, personenbezogener Eigenschaften sei, an dem Kreativität ansichtig wird.20 Als schöpferische Kraft kann Kreativität dabei allgemeinhin als das menschliche Bestreben verstanden werden, die Umwelt hinsichtlich eigener Bedürfnisse anzupassen resp. umzuformen, was sich nicht zuletzt in den Artefakten offenbart, die der Mensch seit jeher gestaltet und welche ihn tagtäglich umgeben.21 Entsprechend könne, nach Sabine General, gleichsam alles menschliche Verhalten als kreativ bezeichnet werden.22 In ebendieser Hinsicht lassen sich die Wurzeln des Begriffs noch weiter zurückverfolgen. Entlehnt aus dem theologischen Begriff des Schöpfergottes, des ›creators‹, der aus dem Nichts etwas entstehen lässt, wurde die Fähigkeit der ›creatio ex nihilo‹ im 17. Jahrhundert auf diejenigen Individuen übertragen, die offenkundig über herausragende schöpferische Qualitäten verfügten, die ›Genies‹ (lat. ›genius‹ = dt. ursprünglich:

17 18

19

20

21 22

Vgl. Mahrenholz (2012: 14). Ein übersichtlicher, historischer Abriss zur schöpferischen Idee von Kreativität findet sich bei Chan (2015: 245ff). Vgl. Guilford (1950) sowie die deutsche Übersetzung bei Ulmann (1973: 25-43). Vgl. auch die zeithistorische Darstellung der Entwicklung des Kreativität-Begriffs bei Albert; Runco (1999) als auch eine übersichtliche Zusammenfassung der Kreativitätsforschung seit den 1950er-Jahren bei Bycroft (2009). »Viele glauben, daß man dem schöpferischen Talent in der Form von hoher Intelligenz oder hohem IQ Rechnung trägt. Diese Auffassung ist nicht nur unzulänglich, sondern auch weitgehend verantwortlich für den Mangel an Fortschritt im Verständnis kreativer Menschen.« Guilford (1950/1973: 42). »Bei der kreativen Persönlichkeit geht es dann um solche Eigenschaftsgefüge, die für schöpferische Menschen charakteristisch sind. Ein kreatives Gefüge zeigt sich in kreativem Verhalten, das solche Tätigkeiten wie Entdecken, Entwerfen, Erfinden, Ordnen und Planen umgreift. Menschen, die diese Arten des Verhaltens in bemerkenswertem Grade aufweisen, werden als kreativ anerkannt.« Ebd.: 26. Vgl. Simonton (2000); Holm-Hadulla (2008: 128). Vgl. General (2008: 147). Vgl. dazu auch die Ausführungen zum Begriff der Kreativität nach Marschall im ›Wörterbuch Design‹, worin er Kreativität als Eigenschaft beschreibt, »die in allen Aspekten menschlicher Tätigkeit sichtbar wird. In naturwissenschaftlichen, technischen, landwirtschaftlichen, unternehmerischen Leistungen kann wirkliche Kreativität stecken.« Erlhoff; Marshall (2008: 247).

181

182

Prozess als Gestalt

›die erzeugende Kraft‹ 23 ). Während den kreativen Protagonisten – etwa Mozart, Goethe, Marie Curie, van Gogh etc. – sowie dessen kreativen Produkten und Leistungen stets eine zeitgeschichtliche Präsenz zukam und dies den Mythos vom Genie weitreichend bestärkte,24 wurde dem kreativen Prozess als kognitives Phänomen erst mit dem Entstehen der Psychologie als wissenschaftliches Feld gegen Ende des 19. Jahrhunderts eine gesteigerte Aufmerksamkeit zuteil.25 Seitdem erarbeitete der Begriff der Kreativität sich fortwährend eine Stellung in annähernd sämtlichen sozialen, künstlerischen und wissenschaftlichen Feldern; der Psychologie,26 der Philosophie,27 der Politik,28 der Wirtschaft,29 der Unternehmensführung,30 der Markenbildung,31 der Biologie,32 der Neurowissenschaften,33 der Intelligenzforschung,34 u.v.a., und ist seitdem als schier undefinierbare wie antreibende Kraft fest in den Prozessen verankert, sowohl durch die Hervorbringung von Neuartigem und Originärem als auch durch eine ihm zugesprochene schöpferische Virtuosität im Sinne einer ästhetisch-künstlerischen Begabung.35 Nicht zuletzt vermag Kreativität dabei die Möglichkeit zu beschreiben, einem Problem

23 24

25

26 27 28 29 30 31 32 33 34 35

Brodbeck (2006: 246). Vgl. dazu auch die resümierenden Ausführungen von Reckwitz (2012/2013: 60ff) zur künstlerischen Genieästhetik. Anschauliche Rekapitulationen zum Genie-Mythos finden sich sowohl bei Weisberg (1989: 99ff) als auch in den historiometrischen Untersuchungen Simontons, in welchen er mehr als 300 ›kreative‹ Personen, die in der Periode von 1450 und 1850 lebten, zum Untersuchungsgegenstand machte, um daraus, ausgehend von sozio-kulturellen Merkmalen der Vertreter, Schlüsse auf Kreativität ziehen zu können. Vgl. Simonton (1999). Vgl. dazu auch die Ausführungen Hans Ulrich Gumbrechts, der im Verweis auf Heideggers Begriff der Zuhandenheit daran anschaulich macht, dass ein Begriff der Kreativität in der romantischen Tradition der Genialität für die Gegenwart nicht mehr angemessen erscheint. Vielmehr sind es gegenwärtig »Helden der Zuhandenheit«, wie etwa Steve Jobs, denen es gelingt, »lebenswerte Verhältnisse« in der Welt der Dinge zu finden, jedoch nicht durch singuläre, geniale Erfindungen, sondern durch Formen der variantenreichen Optimierung. Vgl. Gumbrecht (2015). Vgl. dazu auch die Perspektive auf das Feld des Designs in der Analyse von Melanie Kurz, die darin den sog. Inspirationsmythen (in welchen die Musen dem Künstler resp. Designer seine Ideen einhauchen, lat. ›inspirare‹) die Argumente tentativer, iterativer, forscherischer Gestaltungsarbeit entgegenhält. Vgl. Kurz (2014). Auch Weisberg spricht sich gegen Formen des Mythos und des Geniekultes in Bezug auf Kreativität aus, indem er die Prozesse mit den ›gewöhnlichen‹ Denkprozessen des Problemlösens gleichsetzt. Vgl. Weisberg (1989); Weisberg (1995). Als Hauptvertreter und Begründer der wissenschaftlichen Psychologie gilt Wilhelm Wundt, der die Prozesse des Denkens in zwei Klassen einteilte – einfache psychische Prozesse und höhere psychische Prozesse – und damit den Grundstein zur Erforschung allgemeiner (und kreativer) Denkprozesse legte. Vgl. dazu weiter Mayer (1979: 12); Hussy (1993: 26). Vgl. Sternberg (1988/1995); Funke (2008). Vgl. Mahrenholz (2012); Abel (2008). Vgl. Holm-Hadulla (2010: 59ff); Weber (2000). Vgl. Brodbeck (2008); Bangert (2008); Holm-Hadulla (2010: 67ff); Petersen (2000). Vgl. Lautenschläger (2000); Segler (2000); Gaier (2011). Vgl. Kästner (2009). Vgl. Kozbelt (2019); Barbot; Eff (2019). Vgl. Vester (1975/2016); Fink (2008); Eichhorst (2014); Vartanian (2019). Vgl. Newell; Simon (1961); Dreyfus (1985). Vgl. Reckwitz (2012/2013: 10). Unter Begabung lässt sich nach Guilford »die Bereitschaft eines Menschen [verstehen], bestimmte Arten von Dingen zu erlernen.« Guilford (1950/1973: 26).

7. Kreativität und Parametrie

und seiner Lösung auch anders begegnen zu können; als eigener, abweichender, spontaner (Um-)Weg der Annäherung. Daher sei die Diskussion um Kreativität, in Fortführung der gestaltpsychologischen Leitlinie, im Folgenden vorwiegend auf eine psychologische Betrachtung der Phänomene beschränkt, dessen praktisches Anwendungsgebiet das Problemlösen darstellt.36 Die Bestrebung der wissenschaftlichen Forschung, das Phänomen der Kreativität zum Untersuchungsgegenstand zu machen und hinsichtlich nachvollziehbarer Denkmodelle und Theorien auszudifferenzieren, setzte verstärkt erst in der zweiten Hälfte des 20. Jahrhunderts ein, nicht zuletzt angestoßen durch den oben genannten Vortrag Guilfords.37 Dieser spricht sich darin für eine differenziertere Betrachtung von Kreativität aus, vor allem mit Hinsicht auf einen pädagogischen Mehrwert, den das neue Forschungsgebiet – das in seiner Entstehungszeit noch Teil der Intelligenzforschung war38 – ausbilden sollte. Es galt, herauszufinden, wie schöpferische Prozesse womöglich erfasst und gezielt gefördert werden könnten, was später zu einer Auffächerung der verschiedenen Forschungsfelder führte und innerhalb dieser diverse Ansätze herausbildete, die das Phänomen in seiner Komplexität und seinen diffusen Erscheinungsformen zu fassen versuchten.39 Die Hochzeit der Kreativitätsforschung bezieht sich dabei auf den Zeitraum von 1950 bis 1975,40 worauf in den 1980er-Jahren ein verstärkt ökonomisches Interesse aufkam, Kreativität als Technik und Methode in die unternehmerischen und planerischen Prozesse zu integrieren.41 Auch die Designtheorie und insbesondere die Designmethodologie der 1960er und 1970er-Jahre banden den kreativen Akt unter den Prämissen der Alternativenbildung und der Konzepterarbeitung in die modellhafte Artikulation des Designprozesses als Planungsprozess mit ein.42 In neueren Konzeptionen des Designprozesses löst sich der planerische Gedanke dagegen zusehends auf und weicht einer Betonung der konzeptionell-praktischen Arbeit des Individuums oder Teams, wodurch sowohl das handwerkliche Moment und dessen Dynamik43 als auch die

36

37 38 39

40 41 42 43

Als Grundlagenwerke, die vielfältige Perspektiven zum Phänomen der Kreativität auf sich vereinen und der folgenden Betrachtung zugrunde liegen, seien die folgenden genannt: Taylor; Getzels (1975a): ›Perspectives in Creativity‹; Sternberg (1988/1995): ›The Nature of Creativity‹; Kaufman; Sternberg (2019): ›The Cambridge Handbook of Creativity‹; Dresler (2008): ›Kreativität‹. Vgl. Guilford (1950). Vgl. Brodbeck (2006: 246). Seit Anbeginn der wissenschaftlichen psychologischen Forschung differenzierten sich über die Zeit diverse Betrachtungsformen aus, um das Phänomen der Kreativität besser greifen zu können: Taylor (1975: 4-12) spricht in der Rekapitulation des Zeitraums von 1950 bis 1975 von psychoanalytischen, humanistischen, Merkmal-basierten, holistischen und assoziationistischen Ansätzen. Sternberg; Lubart (1999: 4ff) unterscheiden in mystische, pragmatische, psychodynamische, psychometrische, kognitive, sozial-persönliche und vereinende Ansätze der Kreativitätsforschung. Dresler (2008: 7-10) erweitert die Aufzählung um neuere Betrachtungsweisen, die er als biographische, historiometrische, persönlichkeitsorientierte, pragmatisch-kommerzielle, komputationale/konnektionistische, kognitive, neurowissenschaftliche und systemische/relationale Ansätze benennt. Vgl. Taylor; Getzels (1975b). Vgl. Brodbeck (2006: 246). Vgl. Asimov (1962); Bürdek (1975); Grigo (1973); Höfler; Kandel; Kohlsdorf; Kreuz (1970); Luckmann (1970); Maser (1970); Michael (1973); Rittel (1970). Vgl. Anderson (2013); Feige (2018); Frye (2017); Hasenhütl (2013); Kurz (2015).

183

184

Prozess als Gestalt

individuelle Denkleistung verstärkt in den Vordergrund rücken,44 wie sie auch für die weitere Diskussion im Zentrum stehen sollen. Worum handelt es sich nun bei Kreativität, wenn von Denken, Problemlösen und Design zu sprechen ist? Wie Tim Marshall es festhält, ist »Kreativität […] für Designer und Design-Theoretiker schon immer ein uneindeutiger Begriff gewesen.«45 Dies vermag nicht zuletzt dem Umstand geschuldet zu sein, dass die Prozesse und Gedankengänge, die zu kreativen Leistungen resp. Produkten führen, für Außenstehende zumeist schlichtweg kaum nachvollziehbar sind. Oftmals wird allein das Produkt als Resultat von Kreativität sichtbar, nicht jedoch der Prozess, in dem sie wirksam wird. Kreative Prozesse können dabei als erfinderisch, originell und ungewöhnlich beschrieben werden –46 jedoch bleiben sie in weiten Teilen unverständlich, sodass sie mehr die Zuflucht in einen Mythos als die Anwendung innerhalb einer Praxis zu bestärken vermögen. Entsprechend erscheint eine vereinheitlichende Definition von Kreativität – an der sich bereits viele Protagonisten versucht haben47 – stets unzureichend, da sich die kreativen Personen, Denkweisen, Produkte und Situationen durchgehend verändern, nicht zuletzt, weil sie stets einem zeitlichen und gesellschaftlichen Wandel unterliegen.48 In der Diskussion um Kreativität hat sich entsprechend weniger eine allgemeingültige Definition verfestigt, als vielmehr die Betrachtung von vier Gewichtungen des Phänomens: der kreativen Person, dem kreativen Produkt, dem kreativen Prozess und der kreativen Situation,49 welche auch im Folgenden als Grundlage der Auseinandersetzung dienen sollen. Es ist offensichtlich, dass die Bereiche in enger Wechselwirkung zueinanderstehen, etwa, wenn das Produkt (resp. die kreative Idee)50 das Resultat eines Prozesses ist, das in der Auseinandersetzung einer Person mit einer spezifischen Situation zustande kommt. Soweit deckt sich die Struktur mit dem Prozess des allgemeinen Problemlösens, wie Duncker es grundlegend definiert hat, als die »Beanspruchung des jeweils Gegebenen durch das jeweils Geforderte«.51 Wie es etwa an der Duncker’schen Strahlungsaufgabe anschaulich wurde, enthält die Umstrukturierung des Gegebenen (des situativen Materials/der Problemstellung) dabei das Potenzial, Probleme in neue (Unter-)Probleme zu zerlegen und gegebene Elemente in derivativer Verwendung zu betrachten, gemäß ihrem Funktionalwert (›Speiseröhre als freier Weg in den Magen, nicht nur für Nahrung, sondern 44 45 46 47 48 49

50

51

Vgl. Cross (2007); Cross (2013); Dorst; Cross (2001); Heufler (2016); Hornuff (2014); Lawson (2006); Romero-Tejedor (2007); Terstiege (2009); van den Boom; Romero-Tejedor (2017). Erlhoff; Marshall (2008: 247). Vgl. Erlhoff; Marshall (2008: 247); Hussy (1993: 118). Vgl. dazu die Aufzählungen bei Cropley (1999); Taylor (1975: 2-4); Taylor (1995: 118ff). Vgl. Taylor (1975: 3); Glăveanu; Kaufman (2019: 9). Erstmals wurde die Aufteilung von Mooney (1963) vorgeschlagen, bevor sich der Ansatz in der Feldforschung etablierte. Vgl. dazu auch Brodbeck (2006: 246); MacKinnon (1975); Ulmann (2013); Plucker; Makel; Qian (2019); Simonton (1995); Michael (1973: 38-39). Teilweise wurden die Felder um weitere ergänzt, so etwa bei Taylor (1975: 12) durch jene der kreativen Problemformulierung (›creative problem formulation‹), der kreativen Bewusstseinszustände (›creativity and mental health‹) und der kreativen Intelligenz (›creativity and intelligence‹). Der Begriff der Idee sei hier und im Folgenden nicht weiter diskutiert, da der phänomenologische Horizont des Begriffs in seinem Umfang an dieser Stelle nicht zu fassen und auch nicht relevant ist. Vielmehr sei von einem Produkt als Denkprodukt zu sprechen. Duncker (1935/1963: 13).

7. Kreativität und Parametrie

womöglich auch für Strahlen‹). Ein kreativer Umgang findet sich demnach bereits in der gestaltpsychologischen Auffassung. Jedoch bildet er dort nicht ein zentrales, sondern vielmehr ein randstehendes Moment, das innerhalb der eng determinierten, analytischrationalen Herangehensweise keinen rechten Raum zur Entfaltung findet.52 Entsprechend handelt es sich bei Kreativität um ein Phänomen, das für die vorliegenden Zwecke als Bestandteil des allgemeinen Problemlösens zu fassen ist,53 jedoch in seiner Ausrichtung über die Schranken der eindimensionalen, geradlinigen Problembearbeitung hinauszugehen scheint, wenn nun nicht mehr die eine, beste Lösung im Fokus des Interesses steht, sondern die derivative, nebenstehende Breite an Lösungen, die aus dem Wechselspiel eines freien, spielerischen Umgangs mit dem situativen Material im Sinne eines kreativen Denkens und dem folgerichtigen, zielgerichteten Vorgehen in der Tradition des produktiven Denkens hervorgeht.54 Um den Fokus für die folgende Diskussion klarer zu setzen, sei daher einführend knapp dargelegt, welche Positionen und Betrachtungsweisen der Begriff der Kreativität auf sich vereint, wo er die gestalttheoretischen Ansätze erweitert, wo nicht, und woran mit Hinsicht auf die parametrische Diskussion angeschlossen werden kann.

Das kreative Produkt Die Anforderungen an ein kreatives Produkt55 sind in der etablierten Forschung seit 1950 vorwiegend auf zwei Merkmale zurückzuführen: eines der Neuheit/Originalität und eines der Nutzbarkeit/Angemessenheit.56 Diese sind dabei stets im Zusammenhang zu betrachten, da der kreative Mehrwert bei nur einfacher Beteiligung nicht mehr herzustellen ist: Ein Produkt kann beispielsweise neuartig und ungewöhnlich, dafür jedoch wenig nützlich sein, umgekehrt sehr nützlich, aber wenig bzw. keine Neuartigkeit enthalten.57 Kaufman und Glăveanu nennen darüber hinaus weitere, periphere Aspekte 52

53 54

55

56

57

Wie Dunbar es etwa treffend beschreibt, ging es in der gestalttheoretischen Auseinandersetzung vor allem darum, ein wesentliches, singuläres Moment der Einsicht aufzudecken, sodass ein Problem gelöst werden konnte: »The types of problems that the Gestalt psychologists used often were problems in which subjects must discover a crucial element and once this element is discovered all the other elements fall into place and the problem is solved. These are insight problems.« Dunbar (1998: 292). Brander; Kompa; Peltzer (1985/1989); Dörner (1976); Funke (2003); Hussy (1984); Hussy (1993); Mayer (1979). Nach Schmid und Funke definiert sich ein kreatives Problemlösen entsprechend darüber, dass sowohl Ausgangs- und Zielzustand als auch die Mittel nicht oder nur teilweise beschrieben werden können. Vgl. Schmid; Funke (2013: 335). Im Folgenden seien die Begriffe der kreativen Idee, des kreativen Einfalls, die kreative Lösung als auch der kreativen Leistung als Produkt anzunehmen und der Anschaulichkeit halber synonym zu verwenden. Somit wird sich der Ansicht Taylors angeschlossen, nach welcher ein kreatives Produkt mehrere Komponenten verkörpern kann: »The products of creativity can include behaviors, performances, ideas, things, and all other kinds of outputs, with any of all channels and types of expressions.« Taylor (1995: 104). Vgl. weiter ebenso Brogden; Sprecher (1964) und MacKinnon (1975). Vgl. in Übereinstimmung Barron (1955); Dresler (2008: 7); Funke (2000: 292); Glăveanu; Kaufman (2019: 17); Hussy (1986: 65); Jackson; Messick (1965: 312-313); Michael (1973: 38); Weisberg (2006). Stellenweise werden die Kriterien um weitere ergänzt, etwa um jenes der Akzeptanz, das sich erst erfüllt, sobald das kreative Produkt im sozialem Umfeld anerkannt worden ist. Vgl. dazu Preiser (2008: 44). Vgl. dazu sowohl Hussy (1986: 65) als auch Weisberg (1989: 18).

185

186

Prozess als Gestalt

der Betrachtung, so etwa die hohe Qualität, ein Moment der Überraschung, die Ästhetik, die Authentizität oder die Kreation eines Produktes.58 Die Merkmalzuweisungen gehen dabei den grundlegenden Fragen voraus, die MacKinnon in diesem Zusammenhang anführt; nämlich was kreative Produkte sind, was sie charakterisiert und was sie von bereits gegebenen Produkten unterscheidet.59 Die Bestrebungen, die Eigenschaften kreativer Produkte durch verschiedene Modelle messbar zu machen, eröffneten sich in der Hochzeit der Kreativitätsforschung als wenig aussagekräftig, da sie in empirischen Studien nur teilweise oder ungenügend belegt werden konnten.60 Vielmehr verstanden sich die Entwicklungen seit den 1980er-Jahren vorwiegend darauf, von ›harten‹ Kriterien der Bewertung abzusehen und vielmehr die subjektive Beurteilung (von Experten) als Gradmesser für Kreativität anzulegen – frei nach dem Credo: »Menschen erkennen Kreativität, sobald sie sie sehen.«61 Die Produktion kreativer Ideen steht jedoch in einem anderen Verhältnis zu dessen Erzeuger als die Rezeption zu dessen Betrachter. Entsprechend gründen frühere Definitionsversuche auf der Basis des klassischen Problemlösens, welches seit jeher kreative Anteile auf sich vereint. Hussy spricht mit Hinsicht auf Kreativität entsprechend von einem Spezialfall des Problemlösens, welcher sich vor allem durch die Neuartigkeit und Ungewöhnlichkeit von diesem abgrenzt, wobei diese Neuartigkeit auch eine potenzielle Nützlichkeit aufweisen muss.62 Differenzierter betrachten Newell, Shaw und Simon das kreative Produkt, indem sie vier grundlegende Merkmale anführen, die dem Problemlösen im Allgemeinen und dem kreativen Problemlösen im Besonderen zugesprochen werden können: (1) Ein Produkt, das sowohl neu ist als auch Wert und Nutzen für die problemlösende Person und/oder die gemeinschaftliche Kultur hat. (2) Ein Produkt, das in einem solchen Sinne ungewöhnlich ist, als dass es bestehende Ideen modifiziert oder zurückweist. (3) Ein Produkt, das aus hoher Motivation und konsequenter, intensiver Bearbeitung resultiert. (4) Ein Produkt, das aus der (Neu-)Formulierung eines zuvor vage beschriebenen Problems hervorgeht.63 Darin finden sich sowohl einerseits charakteristischer Merkmale des wei-

58 59 60

61

62 63

Vgl. Kaufman; Glăveanu (2019: 27). Vgl. MacKinnon (1975: 68). Vgl. Plucker; Makel; Qian (2019: 48). Zu den prominentesten Modellen zählen u.a. das sog. structure of intellect-Modell (SOI) von Guilford (1967), der Remote Association Test (RAT) von Mednick (1967) sowie der Torrance Tests of Creative Thinking (TTCT) von Torrance (1974). »[…] people know creativity when they see it.« Plucker; Makel; Qian (2019: 54). Diese Auffassung wurde vor allem durch die Consensual Assessment Technique (CAT) verdeutlicht, einem methodologischen Ansatz zur subjektiven Beurteilung kreativer Produkte, der von Teresa Amabile erstmals 1982 vorgestellt wurde. Vgl. Amabile (1982). Joachim Funke weist dabei auf die verschiedenartige Rezeption kreativer Produkte hin: »Dass Urteile bezüglich des kreativen Werts eines Produkts nicht nur vom historischen Kontext, sondern auch von der sozialen Bezugsgruppe abhängig sind, merkt man an der großen Spannbreite von Beurteilungen bei ein und demselben Produkt.« Funke (2000: 293). Dieser Umstand spiegelt sich bis heute in den Bewertungsprozeduren diverser Designwettbewerbe wider, wenn es u.a. um die Bewertung des ›Innovationsgrades‹, des ›Gesamtkonzepts‹, der ›Gestaltungsqualität‹, der ›Einzigartigkeit‹, des ›symbolischen und emotionalen Gehalts‹ resp. der ›emotionalen Ansprache‹ oder der ›Ästhetik‹ geht. Vgl. dazu sowohl die Ausschreibung des Rat für Formgebung (2020) als auch des iF Design Award (2019) für die Wettbewerbe im Jahr 2020. Vgl. Hussy (1986: 65). Eigene Übersetzung nach Newell; Shaw; Simon (1958: 4).

7. Kreativität und Parametrie

ter oben beschriebenen Problemlösens, etwa in der absichtsvollen und konsequenten Bearbeitung des Problems und als allgemeine Zielgerichtetheit im Sinne eins produktiven Denkens, als auch andererseits ein Moment, das über die Notwendigkeit der reinen Bewältigung hinausgeht: wenn Ideen bewusst modifiziert oder zurückgewiesen werden64 und dadurch eine Neuartigkeit aufweisen65 bzw. wenn Probleme nicht nur bearbeitet, sondern vielmehr neu formuliert resp. gefunden werden, wie es auch Getzels und Csikszentmihalyi veranschaulichen, wenn sie dem klassischen Problem-Lösen ein kreatives Problem-Finden gegenüberstellen.66 Das Finden eines Problems kommt entsprechend dann einem kreativen Akt gleich, wenn in einer unsortierten, ungeordneten Fülle von Möglichkeiten Muster erkannt werden, die als neue Problemstellung dienen und ein kreatives Handeln anleiten können.67 Ähnlich wie der menschliche Verstand – und ebenso wie ein sog. Convolutional Neural Network (CNN), wie es weiter oben beschrieben wurde68 – in einer unsortierten Menge an Wahrnehmungsinformationen Muster erkennt (im technischen Vokabular durch das sog. unsupervised learning), so kann auch angenommen werden, dass dies auf die Neuformulierung von Problemen resp. auf die Problemfindung zutrifft, sofern Probleme konstruiert werden, wie Donald Schön es 64

65

66

67 68

Darin wird die Wirksamkeit kreativer Produkte gegenüber ihrer Umwelt deutlich; wie Jackson und Messick es formulieren: »[creative products have] the power to transform the constraints of reality. Some objects combine elements in ways that defy tradition and that yield a new perspective« Jackson; Messick (1965: 315). Hier ist anzumerken, dass es sich dabei um eine relative und bezugsdeterminierte Neuartigkeit handelt, da das Produkt für verschiedene Personen(-Kreise) neu, für andere dagegen weniger bzw. auch nicht neu sein kann. Vgl. Getzels; Csikszentmihalyi (1975/1975). Dabei verschieben sie den Fokus vom traditionellen Problemlösen (›problem solving‹) hin auf die (Neu-)Formulierung eines Problems (›problem finding‹) und unterscheiden dabei zwischen vorgefertigten, präsentierten Problemen (›presented problems‹), wie etwa beim Lösen von Testaufgaben und eigens resp. neu entdeckten Problemen (›discovered problems‹), wobei erst letztere zu kreativen Resultaten und Denkweisen führen, nicht zuletzt durch eine unbeschwerte, spielerische Herangehensweise. Vgl. Getzels; Csikszentmihalyi (1975/1975: 92ff). Zuvor hatte bereits Ernest Hilgard auf die Notwendigkeit des Problem-Findens beim kreativen Denken hingewiesen. Vgl. Hilgard (1959). Auch in der klassischen Designmethodologie hat sich eine Phase das Problem-Findens als Teilaspekt des Designprozesses etabliert. Vgl. Bürdek (1975: 20). Dagegen schlagen Dorst und Cross später vor, dass die Entwicklung einer Lösung vielmehr als Brückenschlag zwischen einem Problem- und einem Lösungsraum verstanden werden muss, als Ko-Evolution. Vgl. Dorst; Cross (2001: 434ff). Der Begriff stammt ursprünglich aus der Biologie und ist ebenso mit der Entwicklung von Technologien und gesellschaftlichen Strukturen in Verbindung zu bringen, wie Kelly es anschaulich darlegt. Vgl. Kelly (2010: 179ff). Die Vorgehensweise, eine Lösung durch die wechselseitige Abhängigkeit von Anfangs- und Zielzustand zu beschreiben, findet sich für das Problemlösen ebenso bei Dörner beschrieben, der diesen Problemtyp als dialektisches Problem bezeichnet. Vgl. Dörner (1976: 95ff). Bezogen auf das gegenwärtige Feld der Gestaltung zählt die reversible und dynamische Entwicklung einer Designlösung mittlerweile zur gängigen, im besten Fall selbstverständlichen Praxis des Designers, eben wenn sich die Bearbeitung nicht auf eine klare Start-Ziel-Logik versteht, sondern es gerade die Umwege an ein Ziel sind, die Entwürfe und Gestaltung interessant machen. Dies fängt beim Hinterfragen des Briefings an und hört bestenfalls nie auf. Wie de Bono es formuliert: »Der Verstand ist ein musterbildendes System. Das Informationssystem des Verstandes schafft Muster und erkennt sie.« de Bono (1992: 33). Vgl. Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹.

187

188

Prozess als Gestalt

etwa darlegt.69 Dazu bedarf es jedoch einer besonderen Motivation: eine solche, welche die gegebene Gestalt der Problemstellung buchstäblich zerschlägt und sie damit in einen Zustand der Unordnung versetzt, aus dem letztlich neue Muster resp. neue Probleme gebildet werden können. Die Unordnung der Dinge stellt entsprechend einen Anspruch daran, sie wiederum gestalterisch neu zu ordnen.70 Daran offenbart sich eine (kulturgeschichtliche) Dialektik, die, wie Holm-Hadulla es darstellt, wesentlich ist für die Ausübung und Erfahrbarkeit von Kreativität: als wechselseitiger Prozess zwischen »Gestalten und Geschehen-Lassen, Aktivität und Passivität, Struktur und Chaos«.71 Es steht somit die Hypothese im Raum, dass Unordnung die Hervorbringung kreativer Produkte befördern kann.72 Weiter scheint es, mit Hinsicht auf die (kreative) Kraft, die jene Unordnung herzustellen vermag, entsprechend bedeutungsvoll zu sein, eine Verhaltensform des Widerstandes gegen die jeweils naheliegendste Lösung eines Problems auszubilden; eine subversive Verweigerung resp. eine »Inakzeptanz gegenüber Automatisierungen der Handlungsfolgen«, wie Funke es beschreibt.73 Eine solche entsteht mitunter aus der Motivation, das Problem nicht nur hinsichtlich seiner Lösung befragen, sondern es vielmehr bezüglich seiner Struktur und Formulierung ganz neu gestalten zu wollen. Dies schlägt sich dann nicht nur in den kreativen Produkten nieder, sondern erscheint als Motivation auch in der kreativen Person gegeben zu sein, wie sie folgend knapp betrachtet werden soll.

Die kreative Person Was motiviert eine problemlösende Person entsprechend, Widerstände aufzulösen, Unordnung zu ordnen und Probleme in alternative Fragestellungen umzuformen? Bevor verschiedene Merkmale einer kreativen Person als solche benannt werden, soll für die

69

70

71 72

73

»In real-world practice, problems do not present themselves to the practitioner as givens. They must be constructed from the materials of problematic situations which are puzzling, troubling, and uncertain.« Schön (1983: 40). Vgl. dazu den Sammelband ›Die Unordnung der Dinge‹ von Kassung (Hg.), in welchem die wissensund mediengeschichtliche Bedeutsamkeit des Unfalls an mehreren Beispielen anschaulich gemacht wird. Vgl. weiter auch die Beitragssammlung ›Wild Thing‹ von Claudia Mareis und Christof Windgätter, welche sich mit Formen unordentlicher Prozesse im Entwerfen und der Wissenschaft beschäftigen und konstatieren, dass eben jene Umwege, Brüche, Unfälle und Zufälle oftmals keine kontraproduktiven Störfaktoren darstellen, sondern maßgeblich an der Hervorbringung von neuer Gestaltung und neuem Wissen beteiligt sind. Vgl. Mareis; Windgätter (2018). Im Zusammenhang mit der absichtsvollen Anwendung ungeordneter Zustände vgl. dort vor allem den Beitrag ›Unordnug mit Methode‹ von John Law. Vgl. Law (2007/2018). Holm-Hadulla (2008: 130). Vgl. ebenso Holm-Hadulla (2020). Wertheimer lässt dahingehend bereits einen Ansatz erkennen, wenn er von der »ungestalteten Undsumme« spricht, die in eine »angemessene Struktur« umgewandelt werden muss: »Manchmal ist der Übergang von einer ungestalteten Undsumme zu der angemessenen Struktur erforderlich. Aber noch bedeutsamer ist der Übergang von einer einseitigen Auffassung, einer oberflächlichen oder verfehlten Strukturierung, von einer falsch zentrierten, verzerrten oder verarmten Fassung zu der sinngemäßen und recht zentrierten Struktur.« Wertheimer (1945/1957: 147). Mit Letzterem spielt Wertheimer auf die Zerschlagung alter Denkmuster an, die womöglich falsch resp. verfehlt sind und einen Neuaufbau der sinngemäßen Struktur notwendig machen. Funke (2000: 294).

7. Kreativität und Parametrie

folgende Darstellung grundlegend festgehalten werden, dass die kreative Person als begrifflicher Ausdruck im Folgenden nicht als Abgrenzung zu anderen Personenformen verstanden wird, etwa der unkreativen Person o.ä. Gegensätzen. Vielmehr soll in der Verwendung des Ausdrucks auf diejenigen Merkmale verwiesen werden, die, nach dem Stand der dargelegten empirischen Forschung, begünstigend auf die Hervorbringung kreativer Produkte einwirken. Diese sind jedoch prinzipiell in den Denkprozessen und -strukturen jeder menschlichen Person angelegt.74 Frühe Bestrebungen, charakterspezifische Merkmale kreativer Personen als solche festzulegen, unternahm u.a. Donald MacKinnon.75 Innerhalb seiner Studien, die er am Institute for Personality Assessment and Research (IPAR) mit seinen Kollegen durchführte, untersuchte er diverse Wissenschaftler und Architekten, um Merkmale auszumachen, die auf kreatives Denken schließen ließen. Mitunter stellte er die kreative Person als selbstbewusst, flexibel, neugierig, hochgradig motiviert und unabhängig im Denken und Handeln dar.76 Sie verhält sich dabei tendenziell eher introvertiert, ist jedoch sprachlich versiert, und stellt die Intuition über die Sensation.77 Darüber hinaus bewahre sich die kreative Person eine wahrnehmungsspezifische Offenheit für neue Phänomene (›perceptual openness‹), welche mehr Gewicht trägt als die Bewertung derselben.78 Zudem ginge es der kreativen Person vorwiegend um das Erfassen größerer Zusammenhänge als um die Ausarbeitung von Details.79 Nach Guilford verfüge eine kreative Person weiter über eine hohe Ambiguitätstoleranz, welche es der kreativen Person ermöglicht, Widersprüche, Spannungen und Unsicherheiten auszuhalten und gleichsam an der Auflösung derselben zu arbeiten.80 Frank Barron fügt der Ansamm74

75

76

77 78 79 80

Entsprechend sei hier die Haltung Weisbergs vertreten, dass kreative Prozesse und Leistungen nicht auf außerordentlichen und spektakulären, sondern auf gewöhnlichen Denkprozessen beruhen. Vgl. Weisberg (1989); Weisberg (2006). Vgl. MacKinnon (1960); MacKinnon (1962). Auch Frank Barron gilt aus früher Vertreter der personenspezifischen Erforschung kreativer Merkmale. Vgl. Barron (1969). Später setzte sich etwa Dean Keith Simonton mit den sozio-kulturellen Bedingungen kreativen Handelns auseinander. Vgl. dazu auch Simonton (1995); Simonton (1999); Simonton (2019). Vgl. MacKinnon (1960). Vgl. in Bezug auf den gestalterischen Entwurfsprozess auch die Merkmale zur Kreativitätsbestimmung bei Höfler, Kandel et al., die sie wie folgt aufzählen: »Selbstvertrauen, Mißbehagen am Status quo, optimistische Einstellung zur Zukunft, ständige Suche nach der Möglichkeit, Schwierigkeiten zu überwinden. Mut zu der Fähigkeit, bei anderen Kritik herauszufordern, sie zu ertragen und in neuere, ›bessere‹ Lösungen umzusetzen.« Höfler; Kandel; Kohlsdorf; Kreuz (1970: 66). Vgl. dazu auch die Aufzählung charakteristischer Merkmale bei Funke (2008: 33): »Unabhängigkeit, Nonkonformismus, unkonventionelles Verhalten, weitgespannte Interessen, Offenheit für neue Erfahrungen, Risikobereitschaft, kognitive und verhaltensmäßige Flexibilität.« »Our assumptions that creatives would tend to be introverted and to show a preference for intuition over sensation, and for perception over judgment were confirmed.« MacKinnon (1975: 76). Vgl. MacKinnon (1962: 490). Vgl. Ebd. Vgl. Guilford (1975: 45). Ebenso beschreibt es Siegfried J. Schmidt, wenn er davon spricht, dass »die Struktur von Kreativität gerade in der Integration von Alteritäten und Dualitäten« begründet liegt. Schmidt (1988: 38). »Bipolarität der Produktmerkmale, Oszillation der Prozeßfaktoren und Paradoxalität der Komponenten, also Angst und Ich-Stärke, Naivität und Reife, Männlichkeit und Weiblichkeit, Aktivität und Gelassenheit, Bewußtsein und Regression, Egozentrik und Altruismus, Destruktion und Konstruktion müssen in spezifischer Weise zusammenkommen.« Ebd.

189

190

Prozess als Gestalt

lung eine moralische Einstellung (›moral attitude‹) hinzu, die er als persönliche Verpflichtung (›personal commitment‹) zu ästhetischer und philosophischer Bedeutsamkeit ansieht und durch einen außergewöhnlichen Drang motiviert ist, Ordnung dort zu herzustellen, wo noch keine besteht.81 Dieser Drang eröffnet sich aus humanistischer Perspektive bei Maslow als Form der Selbstverwirklichung (›self-actualization‹), als Ausdruck eines grundlegenden menschlichen Strebens, sein volles Potenzial entfalten zu wollen, sobald die Grundbedürfnisse gedeckt sind.82 Maslow verweist dabei in Freud’scher Tradition auf die Auflösung der Dichotomien zwischen primären und sekundären Denkprozessen, die sich in kreativen Prozessen als Wechselspiel zwischen dem spielerischen, naiven, unvoreingenommen Denken eines Kindes und der rationalen, gefestigten, kritischen Haltung eines Erwachsenen offenbaren.83 Darin stellt sich die Losgelöstheit und spielerische Leichtigkeit heraus, mit der Probleme kreativ bearbeitet werden. Das Format, das einer solchen Denk- und Handlungsform am ehesten zu entsprechend vermag, kann demnach mitunter im Spiel gefunden werden, welches die ungezügelte Freude des Denkens (›pleasure in thinking‹), wie Guilford es benennt,84 mit einer gewissen Risikobereitschaft und potenziellen Fehlbarkeit vereint und dadurch rationale Bewertungen nachlagert.85 In diesem Zusammenhang können die charakteristischen Merkmale der Risikobereitschaft und Spielfreude mit Csikszentmihalyi’s ›Flow‹-Theorie zusammengeführt werden, welche besagt, dass sich die ausgiebige und 81

82 83

84 85

Vgl. Barron (1963). Später differenziert Barron diesen Drang nach Ordnung in mehrere Teilaspekte aus, die er als »Zutaten für Kreativität« (›ingredients for creativity‹) wie folgt benennt: »1. Recognizing patterns, 2. Making connections 3. Taking risks, 4. Challenging assumptions, 5. Taking advantage of chance, 6. Seeing in new ways.« Barron (1995: 78). Auch Guilford führt ein andauerndes Bestreben nach Ordnung an: »There is also probably a desire to resolve the ambiguity and organize the disordered information.« Guilford (1975: 45). Auch Wertheimer griff diesen Gedanken bereits in seinen Überlegungen auf: »Im Nebel zu leben, in einer unübersichtlichen Mannigfaltigkeit von Faktoren und Kräften, die eine klare Entscheidung für das Handeln hinsichtlich der Hauptzüge der Situation verhindern, ist für Menschen ein unhaltbarer, ein unerträglicher Zustand. Es gibt ein Streben nach struktureller Klarheit, Überschaubarkeit, nach Wahrheit im Gegensatz zum Blick auf Belanglosigkeiten.« Wertheimer (1945/1957: 231). Vgl. ebenso Höfler, Kandel, et al. in Bezug auf den gestalterischen Entwurfsprozess, dessen Vorgänge sie als »Präzisierungsphase von Lösungen definieren, und zwar von Lösungen, die zu Beginn des Entwurfsvorganges nur als ungeordnete Elemente entstehen […], die dann im weiteren Ablauf des Entwerfens weiter geordnet und präzisiert werden. In den einzelnen Präzisierungsphasen wird mehr oder minder stark eine Fähigkeit wirksam, die man mit Kreativität bezeichnet.« Höfler; Kandel; Kohlsdorf; Kreuz (1970: 66). Vgl. Maslow (1954). Wie Taylor es in Bezug auf Maslow resümiert: »Healthy, creative people are able to be childlike at one time and when appropriate, grownup, rational, and critical. The creative person may be both childlike and mature at the same time.« Taylor (1975: 7). Vgl. Guilford (1975: 46). »It is also said of the more creative person that he is more ready to take risks; he is not afraid of being wrong; he is willing to try out ›long shots‹.« Ebd.: 43. In dem von Guilford entwickelten structure-of-intellectModell ist dabei der Prozessschritt der Bewertung denen des (divergenten und konvergenten) Denkens stets nachgelagert. Vgl. dazu Ebd.: 40ff. Weiter sieht Howard Gardner in der Fehlbarkeit einen wichtigen Faktor der kreativen Persönlichkeitsentfaltung: Neben der Fähigkeit zur Reflexion und dem Erkennen der eigenen Stärken macht er die sinnvolle Bewältigung von Erfahrung als charakteristisches Merkmal einer kreativen Lebenshaltung aus, worunter er die Fähigkeit versteht, »Erfahrungen auf eine positive Weise zu verarbeiten, so daß man die richtigen Lehren daraus zieht«, was wiederum heißt, »[…] Rückschläge als Chance zum Lernen zu begreifen« Gardner (2002: 192-193).

7. Kreativität und Parametrie

intensive Beschäftigung mit einem Phänomen bzw. das restlose Aufgehen in einer Tätigkeit (›absorption‹) als erlebtes Glücksgefühl einstellt.86 Die Theorie ähnelt dabei dem Konzept der sog. starken Kreativität, wie es Knape zusammenfassend darstellt; als Kreativitätsimperativ, der sich als eine extreme Spannungslage oder Krise darbietet, die nach dessen Auflösung strebt, durch ein mutiges Wagnis: »Habe Mut, das Unerhörte zu denken!« 87 Darin spiegelt sich die tendenziell unkonformistische Haltung der kreativen Person wider:88 im Widerwillen, die Dinge so zu akzeptieren, wie sie sind.89 Dieses widerständige Bestreben kann in dieser Hinsicht als der Ehrgeiz verstanden werden – im Sinne Harry Frankfurt’s ›higher-order volition‹ –,90 ein gutes Ergebnis erzielen zu wollen und dazu über die Grenzen des Geforderten (etwa des Briefings) hinauszugehen;91 als empirische Selbsterfüllung, die einer Leidenschaft nachgeht, und Dinge nicht nur in Hin-Sicht auf ihre Zweckerfüllung produziert, sondern gänzlich und buchstäblich neue Ab-Sichten kreiert. Dabei spielen die Neugier, das grundlegende Interesse an Neuartigem, die spielerische Leichtigkeit und ebenso die auf eigenen Überzeugun-

86

87

88 89

90 91

Vgl. Csikszentmihalyi (2010). Vgl. dazu auch den Ausspruch Wertheimers, der im Gegensatz dazu den Fokus vom Individuum auf die Sache legt: »Wirkliche Denker vergessen sich selbst beim Denken. Die Hauptvektoren beim ursprünglichen Denken beziehen sich oft nicht auf das Ich mit seinen persönlichen Interessen; sie bringen vielmehr die strukturellen Forderungen der gegebenen Situation zum Ausdruck.« Wertheimer (1945/1957: 158). Holm-Hadulla hingegen verhandelt das Phänomen unter dem Begriff des Interesses, d.h. der »Bereitschaft, sich einer Sache autotelisch zu widmen«, in einer aus Begeisterung und Hingabe resultierenden »kreativen Versenkung.« Holm-Hadulla (2010: 51). Dies deckt sich mit dem Anspruch Sennetts, der eigenen (handwerklichen) »Arbeit mit Hingabe nach[zu]gehen und sie um ihrer selbst willen gut machen [zu] wollen«. Sennett (2014: 32). Knape (2013a: 33). Auch Wertheimer spricht von einer »Willigkeit, den Problemen gerade ins Gesicht zu sehen, eine Bereitschaft, sie mutig und gewissenhaft zu verfolgen, ein Verlangen nach Verbesserung, […].« Wertheimer (1945/1957: 230). Auch Brodbeck formuliert Kreativität als Wagnis, das Mut erfordert. Vgl. Brodbeck (2008: 20). Ebenso Höfler, Kandel, Kohlsdorf und Kreuz, die von einem »Mut zu der Fähigkeit« sprechen, »bei anderen Kritik herauszufordern, sie zu ertragen und in neuere, ›bessere‹ Lösungen umzusetzen« Höfler; Kandel; Kohlsdorf; Kreuz (1970: 66). »creative people [are] far more likely to be unconventional nonconformists who value their autonomy […].« Simonton (2019: 474). »Unlike bis peers, he [the creative person] is unwilling to accept things as they are; he seeks improvements.« Guilford (1975: 46). Holm-Hadulla (2010: 50) spricht in diesem Zusammenhang von einem »kreativen Infragestellen«, das zwischen Anpassung und Nonkonformismus balanciert und für jede kreative Person höchst unterschiedlich ausfallen kann. Vgl. Frankfurt (1999/2003). S. auch Anm. 93 in Kapitel 4.6 ›Absicht und Kontrolle‹. Wie Guilford es beschreibt: »He commonly says or thinks, ›There must be a better way.‹« Guilford (1975: 46). Calvin W. Taylor führt in diesem Zusammenhang die höchsten und niedrigsten Anforderungen einer Kreativitäts-Skala der NASA-Raumfahrtbehörde an: »In the NASA creativity scale, the highest degree is as follows: ›The impact of his work has been quite exceptional. His creative solutions to complex problems have broad generality and have even opened up important areas of investigation with wide implications.‹ NASA’s lowest degree of creativity is described as follows: ›His work has demonstrated very little creativity or originality. It usually has provided no more than a rather simple solution to the immediate problem.‹« Taylor (1995: 114). Entsprechend versteht sich die reine Erfüllung der Aufgabenerwartung als wenig kreative Leistung, während ein Darüberhinausgehen eine Öffnung des Feldes bewirkt und damit neue Zugänge zu neuen Fragen offenlegt, was einem schöpferischen sprich einem kreativen Akt gleichkommt.

191

192

Prozess als Gestalt

gen beruhende Risikobereitschaft eine übergeordnete Rolle,92 auf die in den folgenden Ausführungen mit Hinsicht auf Parametrie im Allgemeinen und ebenso in Bezug zum parametrischen Selbstbild des Gestalters im Besonderen noch weiter eingegangen werden soll.

Die kreative Situation Neben Produkten und Personen versteht sich Kreativität auf die Kontexte, in denen diese eingebettet sind. Eine solche kreative Situation versteht sich allgemeinhin als Umwelt, welche die kreative Person auf zwei Ebenen umgeben kann: auf einer MakroEbene, verstanden als die gegebenen Lebensumstände bzw. die sozialen und kulturellen Hintergründe,93 und auf einer Mikro-Ebene, etwa in Form einer bestimmten Raumszene oder eines Arbeitsumfeldes.94 Darüber hinaus vermag eine kreative Situation die Beschaffenheit der räumlichen Gegebenheiten samt der verfügbaren Mittel zu benennen, d.h. das situative Material, das in ihr vorzufinden ist. Die kreative Situation verfügt dabei über Menschen, Gegenstände und Materialien, die jeweils verschiedene Ansichten, Funktionen, Eigenschaften, Beschaffenheiten oder Potenziale aufweisen, und somit äußere ›Grenzen‹ zur jeweils eigenen Auffassung einer Problemsituation darstellen.95 In kreativen Situationen bilden sich entsprechend Momente der Reibung aus, wenn verschiedene Parteien als Resultat einer dialogischen Auseinandersetzung über ein Problem miteinander in Konflikte treten.96 Donald A. Schön spricht dabei von DesignDialogen, die sich innerhalb der sozialen Auseinandersetzung herausbilden,97 Frederic Vester dagegen von einer schöpferischen Teamarbeit, die von der Überlagerung individueller Assoziationsmuster geprägt ist,98 während Ignacio Farías das Phänomen im

92

93 94 95

96

97

98

Holm-Hadulla unterscheidet zur Bestimmung der Grundeigenschaften der kreativen Person zwischen motivationalen Faktoren – Neugier, Interesse und Ehrgeiz – und Persönlichkeitseigenschaften – Flexibilität, Nonkonformismus und Widerstandsfähigkeit –, die wechselseitig miteinander in Verbindung stehen. Vgl. Holm-Hadulla (2008: 129). Vgl. Amabile; Pillemer (2012); MacKinnon (1975: 81). Vgl. Amabile (1996); Taylor (1975: 19); Hunter; Bedell; Mumford (2007). Vgl. dazu die Ausführungen Luhmanns zur Funktion von Grenzen im Systemzusammenhang als Abgrenzung des Eigenen: »Durch Fixierung von Grenzen zeichnet das System einen Ausschnitt aus der unendlichen Welt als ›eigenes‹, internes Geschehen aus und entwickelt für diesen nun überblickbaren Bereich besondere Kriterien der Selektion. Damit wird zugleich in der Umwelt der Bereich relevanter Ursachen und Folgen des eigenen Handelns erheblich verkleinert.« Luhmann (1973: 264). Holm-Hadulla macht es etwa am Beispiel der Politik anschaulich, welche vor allem den Ausgleich gegensätzlicher Interessen forciert. Interesse entsteht entsprechend nur dort, wo Gegensätze Reibung erzeugen, wie er im Verweis auf Pfetsch und Hegel anführt: »Pfetsch begründet mit Hegel, dass in der Regel ›Interesse nur vorhanden ist, wo Gegensatz ist‹. Diesen Satz könne man auch umkehren: Erst das Entgegengesetzte generiert Interessen.« Holm-Hadulla (2010: 60). Versteht sich ›Interesse‹ entsprechend als gestalterische Motivation, so offenbart sich diese eben in derartigen Situationen, welche Reibung und Dissonanz verursachen und buchstäblich Entgegengesetztes in sich bergen. "But actual designing is usually a social process, a dialogue among individuals in which different views of designing and different ways of framing design situations are pitted against each other. Design dialogues are dialectical unfoldings of conflicts among the views of design structure held by different parties to the dialogue.« Schön (1990: 112). Vgl. Vester (1975/2016: 110ff).

7. Kreativität und Parametrie

Verweis auf David Stark als kreative Dissonanz bezeichnet,99 welche die kreative Situation gleichsam zu einer unbefriedigenden Situation werden lässt und andersherum. Entsprechend sei es im Gegenzug notwendig, wie etwa Preiser oder Pricken es betonen, eine vertrauensvolle Atmosphäre zu schaffen, in der andersartige Lösungen nicht unmittelbar bewertet, kritisiert oder negiert werden, sondern Raum für dessen Entfaltung gelassen wird.100 Eine Situation eröffnet sich dabei stets als Möglichkeitsraum, der die Potenziale der darin enthaltenen Elemente (Menschen, Gegenstände etc.) bisher nur in seiner unmittelbarsten Erscheinung zeigt; in ihren funktionalen Gebundenheiten, mit Duncker gesprochen.101 Besteht nun ein Problem mit Herausforderungscharakter, obliegt es der kreativen Person, die Situation, in der sie sich befindet, entsprechend so umzuformen, dass eine Lösung des Problems in Aussicht rückt. Dazu löst sie die funktionalen Gebundenheiten bestmöglich auf und erschafft neue Verwendungsund Betrachtungsweisen, durch das Anlegen neuer Beziehungen und Sinnzusammenhänge im situativen Material.102 Die kreative Auseinandersetzung mit einer Situation kann entsprechend Formen der Interaktion103 und der Improvisation104 miteinbeziehen, ebendann, wenn die Lösung eines Problems als Notwendigkeit von zwei Seiten begrenzt wird, d.h. »aus der Beanspruchung des jeweils Gegebenen durch das jeweils Geforderte«, wie Duncker es grundlegend für das produktive Denken und Problemlösen dargestellt hat.105 Dabei tritt die kreative Person in einen Dialog mit der Situation, in eine »reflective conversation with the situation«, wie Donald Schön es formuliert,106 um im wechselseitigen Prozess der Umdeutung der situativen (heterogenen/funktionalen/figuralen) Gebundenheiten schrittweise zu neuen Lösungen vorzudringen. Die Umdeutung von Gegenständen und Funktionsprinzipien vermag dabei jenes unsagbare Moment auszumachen, das den Eindruck einer kreativen Lösung entstehen lässt; als eleganter und harmonischer Kompromiss, als Übergang eines Bekannten in ein Neues, das aus der andersartigen, dennoch nutzvollen und zweckorientierten, derivativen Verwendung eines Gegenstandes/eines Prinzips/eines Phänomens resultiert.107

99

100 101 102 103 104 105

106 107

Vgl. Farías (2013: 81). Vgl. zum Begriff der Dissonanz in problemlösenden Gemeinschaften Stark (2011). Weiter stellt Simonton in seinen historiometrischen Studien fest, dass sozio-kulturelle Heterogenität zur Förderung von Kreativität beitragen kann. Vgl. Simonton (1999). Vgl. Preiser (2008: 53); Pricken (2004: 18ff). Vgl. Duncker (1935/1963: 102ff). Vgl. Köhler (1971: 109). Vgl. Taylor; Gantz (1969). Vgl. dazu in Bezug auf den Design- und Entwurfsprozess auch Frye (2017) und Feige (2018: 155-162). Duncker (1935/1963: 13). Nach Dörner bildet dies ein sog. synthetisches Problem, bei dem Ausgangsund Zielzustand zwar bekannt, die Operatoren jedoch unbekannt sind. Vgl. Dörner (1976: 77ff). Taylor und Gantz klassifizieren das Phänomen dagegen als handlungsspezifische Interaktion, in welcher das Subjekt einen Stimulus zunächst (um)organisiert, bevor es darauf reagiert (S-O-RSchema). Die ›interaction‹ folgt in ihrem kreativen Ausmaß dabei auf die einfache ›reaction‹ (S-RSchema) und geht der ›transaction‹ (O-R-S- Schema) voraus, die nach Taylor und Gantz als höchste Stufe des kreativen Handelns gilt. Vgl. Taylor; Gantz (1969). Die Theorie soll weiter unten im Zusammenhang mit dem Phänomen der Improvisation noch ausführlicher diskutiert werden. Schön (1983: 76). Vgl. auch Schön (1990: 136ff). Vgl. dazu auch die ›kreativen‹ Beispiele umgedeuteter Gegenstände bei Brandes; Erlhoff (2006), die in diesem Zusammenhang den Ausdruck des ›non intentional Design‹ geprägt haben.

193

194

Prozess als Gestalt

Die kreative Situation vermag bei der Ausübung kreativer Tätigkeiten nicht nur als Form der Reibung, sondern auch als Form der Anregung eine Rolle spielen. Dabei zielt etwa die bewusst bürountypische Gestaltung von Büroräumen darauf ab, Momente der Ablenkung, des Ausbrechens und der Zwanglosigkeit in den Prozess der sonst zielgerichteten Arbeit zu integrieren, um den kreativen Einfall zu begünstigen.108 In dieser Hinsicht gilt es, sich im Umfeld der kreativen Situation anregen zu lassen, im naheliegendsten Sinne etwa durch die Anordnung der Sitzmöbel, die mitunter ein zwangloses Gespräch begünstigen, oder bspw. durch Basketballkörbe, Sprungstelzen oder bunte Wandtapeten, die eine freie und spielerische Entfaltung suggerieren. Die Auflockerung der Atmosphäre vermag die Tendenz zur Analogiebildung zu begünstigen, wie sie umfassend bei Dörner dargestellt wird und welche für die Auseinandersetzung mit Kreativität wesentlich erscheint.109 Dörner spricht dabei von der »Analogisierung von Realitätsbereichen« als »Mittel zur hypothetischen Komplettierung eines nur teilweise bekannten Realitätsbereichs.«110 Auf der Suche nach dem, was der problemlösenden Person noch unbekannt ist, wendet diese sich an das ihr Bekannte, das in ihrem unmittelbaren Aufmerksamkeitsbereich gegeben ist, auch, wenn dieses Bekannte einem gänzlich anderen Kontext entspringt.111 Es gilt, wie William Gordon es im Zusammenhang mit der von ihm etablierten Synektik-Methode anschaulich formuliert hat, sich das Fremde vertraut und das Vertraute fremd zu machen.112 Die Mittel zur Analogiebildung finden sich dabei nach Dörner in komplexitätsreduzierenden Maßnahmen resp. in Abstraktionsprozessen, welche die Komplexität der wahrgenommenen Gegenstände und Phänomene (Realitätsbereiche) reduzieren, dabei die »inneren Strukturgesetze«, wie Wertheimer sie nennt,113 erkennen lassen und die wechselseitige Übertragung der Struktur resp. den ›kreativen Sprung‹, wie er seit den 1970er-Jahren in der gestalterischen Diskussion genannt wird,114 begünstigen.

108 Vgl. dazu etwa Kellner; Bosch (2004), welche derartige Phänomene anhand von Tagungshotels anschaulich machen. Vgl. weiter auch die Untersuchungen von Siegfried Preiser zur Arbeitsplatzgestaltung, welche einem »Wunsch nach Abwechslung« des Individuums nachgeben und dessen »Neugier auf die Umgebung […] richten« Preiser (2008: 50). Eine solche Umgebung versteht sich als »abwechslungsreiche, vielseitige, aber nicht ablenkende Arbeitsumwelt« (Ebd.: 51), welche die Blockaden der Gedanken durch seine äußeren Anregungen lockert oder gar auflöst. 109 Vgl. Dörner (1976: 81ff). Vgl. auch die allgemeine Definition der Analogie bei Niewerth; Schröder (1968: 5) als »Übereinstimmung von Gegenständen oder Vorgängen in einer Reihe von [strukturellen] Merkmalen.« Vgl. ebenso die Definition diverser Analogieformen bei Hasenhütl (2013: 62-68, 103ff), der diese über das Medium der Entwurfszeichnung und in Bezug zum Feld der Gestaltung diskutiert. 110 Dörner (1976: 82). 111 Die Grundidee findet sich dabei bereits im zweiten Buch von John Locke’s ›Versuch über den menschlichen Verstand‹, in welchem er untersucht, wie der Mensch zu seinen Ideen kommt. Alle Erkenntnis der Welt entspringt demnach der menschlichen Erfahrung, innerhalb welcher bekannte Ideen zu neuen Vorstellungen zusammengesetzt und kombiniert werden, als komplexe Ideen. Vgl. Locke (1690/2012). 112 Vgl. Gordon (1961). 113 Vgl. Wertheimer (1925: 42). 114 Vgl. Bürdek (1975: 52); Jones (1970/1992: 46); Cross (2007: 65).

7. Kreativität und Parametrie

Der kreative Prozess Wenn allgemeinhin von einem kreativen Prozess die Rede ist, steht nicht selten ein dominantes Resultat dieses Prozesses im Vordergrund: ein Geistesblitz, die kreative Eingebung oder ein Moment der überraschenden Einsicht. Solche ›Aha-Momente‹, wie Karl Bühler sie einst nannte,115 ergeben sich zumeist schlagartig und erscheinen vordergründig nicht selten brillant wie unergründlich, wodurch sie ferner den Mythos des kreativen Genies weithin zu bestärken vermögen:116 »Betrachtet man nur das Problem und die kreative Lösung«, wie Weisberg es schildert, »dann erscheint der ganze Prozeß höchst mysteriös.«117 Es gilt entsprechend zu erkennen, dass die erhellende Einsicht zwar urplötzlich ins Bewusstsein dringt, jedoch einer mitunter langen Zeit der intensiven Auseinandersetzung mit einem Problem bedarf, um diesen Sprung vorzubereiten.118 Entsprechend bezieht sich der kreative Prozess im Folgenden auf die kreativen Denkprozesse, in welchen sich kreative Produkte schrittweise und iterativ entwickeln; als Wechselspiel zwischen verschiedenen Denkformaten, die es noch näher zu bestimmen gilt. Eine bis heute grundlegende Theorie zum Aufbau von Denkprozessen legt Graham Wallas bereits 1926 in seiner Abhandlung ›The art of thought‹ dar.119 Darin entwickelt er, in der Weiterführung von Henri Poincarés Selbstbeobachtungen zur Beweisführung eines mathematischen Problems,120 ein vierstufiges Phasenmodell, das den allgemeinen wie auch den kreativen Denkprozess in eine handhabbare Form bringt.121 Die Phasen

115 116 117 118

Vgl. Bühler (1918). Vgl. Duggan (2009: 17). Weisberg (1989: 25). Anhand dieser Annahme entwirft William Duggan sein Modell der sog. strategischen Intuition, welches den Geistesblitz als einen »bewussten Gedanken«, und nicht als »Gefühl« beschreibt. Duggan (2009: 18). Auch der Gestaltpsychologe Wolfgang Köhler hat auf dieses Moment der plötzlichen Eingebung im Zusammenhang mit ›produktivem Denken‹ hingewiesen: »Es ist nicht verwunderlich, daß Menschen, die das Glück haben, Probleme dieser Art (oder weit wichtigere) zu lösen, ohne Ausnahme überrascht sind von ihren eigenen Leistungen. Offenbar entstehen die richtigen neuen Beziehungen und die entsprechende Einsicht erst dann, wenn etwas anderes vorausgegangen ist. […] Da wir meistens solche plötzlich erscheinenden Strukturierungen nicht absichtlich hervorbringen, sondern sie plötzlich vor uns auftauchen, müssen wir den Schluß ziehen, daß —unter dem Zwang unseres Wunsches, ein bestimmtes Problem zu gegebenen Materials — manchmal Gehirnprozesse neue Formen oder Strukturen annehmen, die, wenn sie bewußt werden, uns plötzlich neue Beziehungen sehen lassen, und uns so neue Einsichten bringen, die zur Lösung führen.« Köhler (1971: 115-116). 119 Vgl. Wallas (1926/2014). Frühere Ansätze, die sich jedoch nicht durchsetzten, finden sich als Rekapitulation bei Ulmann (1968: 20ff). 120 Vgl. Poincaré (1913/1985). 121 Sofern beide überhaupt angemessen zu unterscheiden sind: Wie Weisberg konstatiert, handelt es sich bei kreativen Denken nicht etwa um außergewöhnliche, sondern vielmehr um gewöhnliche und allgemeine Denkprozesse. Vgl. Weisberg (1989: 28ff). Brander schließt sich dieser Haltung an und verweist auf den Umstand, dass Kreativität weniger aus den eigentlichen Denkprozessen besteht, sondern vielmehr in den Zwecken ansichtig wird, die diesen vorausgehen: »Der Zweck oder das Ziel organisiert unser geistiges Potential, um kreative Leistungen zu erreichen.« Brander; Kompa; Peltzer (1985/1989: 102). Vgl. in diesem Zusammenhang sowohl auch die Unterscheidung von schwacher und starker Kreativität bei Knape (2013b: 31ff) als auch die Ergänzung einer Zwischenstufe, der moderaten Kreativität, bei Abel (2008: 90). Alle drei Formen markieren dabei eine bestimmte Ausrichtung des Denkens: im einen Extrem die routinierte Bearbeitung alltäglicher, profaner Auf-

195

196

Prozess als Gestalt

des Modells gliedern sich nach Wallas wie folgt:122 In einer ersten Phase der (1) Vorbereitung (›preparation‹) wird umfassendes Material gesammelt, um der Problemstellung zu begegnen bzw. um ein Problem zu formulieren. Ebenso werden erste Lösungsversuche unternommen, die jedoch zwangsläufig erfolglos bleiben müssen, um dadurch die weitere Suche zu motivieren. Daraufhin tritt die Phase der (2) Inkubation (›incubation‹) in Kraft, in welcher die bewusste, angestrengte Suche nach Lösungen für das Problem aufgegeben wird und die Aufmerksamkeit des Individuums sich auf Problem-fremde Dinge richtet. In dieser Phase arbeiten nach Wallas unbewusste Denkprozesse fortlaufend an neuen Verknüpfungen alter und neuer Erfahrungen und Wahrnehmungserscheinungen.123 Die dritte Phase der (3) Illumination (›illumination‹) stellt mehr einen Moment als einen Prozess dar, insofern, als dass die gesuchte Lösung des Problems – bzw. markante Hinweise darauf –124 schlagartig ins Bewusstsein treten; als ›Aha-Effekt‹ oder, in gestaltpsychologischem Verständnis, als Einsicht. Auf diese Einsicht folgt die (4) Verifikation (›verification‹) der Lösung, die durch bewusstes, zielgerichtetes Denken eine Bewertung vornimmt und/oder die Ausarbeitung der Lösung unmittelbar anschließt.125 Anhand des Wallas’schen Modells ist für die weitere Diskussion anschaulich zu machen, dass Kreativität nicht statisch und isoliert, sondern als prozessuales Phänomen betrachtet werden kann. Grundlegend ist dabei festzuhalten, dass die Prozessschritte eine modellhafte Erfassung eines allgemeinen Denkprozesses darstellen, der auch auf kreative Denkleistungen übertragbar ist. Es soll für die weitere Diskussion entsprechend nicht hinsichtlich eines allgemeinen und kreativen Denkprozesses unterschieden

gaben (schwache Kreativität), im anderen das Erfassen komplexer, mehrdimensionaler Probleme und Zusammenhänge (starke Kreativität). 122 Vgl. Wallas (1926/2014: 37-55). 123 So werden etwa neue Wahrnehmungserscheinungen als Analogien in diese unbewussten Verknüpfungen im Prozess der Inkubation miteinbezogen. Archimedes etwa kam der Legende nach die Idee, die Dichte einer goldenen Krone über ihr Volumen zu bestimmen, während er selbst in der Badewanne lag, mit seinem Körper Wasser verdrängte und dies als Analogieschluss die erhellende Lösung für jenes Problem war, das ihn vor der Phase der Entspannung im Bad so beschäftigte. Der Ausruf ›Heureka!‹ (dt. ›Ich habe es gefunden!‹) markiert dabei einerseits die Entdeckung des sog. hydrostatischen Prinzips und versinnbildlicht gleichsam die Wallas’sche Theorie, dass Analogien weitestgehend unbewusst prozessiert resp. inkubiert werden. Vgl. dazu auch Perkins (2003: 13ff). 124 Hussy spricht in diesem Zusammenhang von einer Intimation, d.h. dem subjektiven Eindruck, der Lösung »sehr nahe« zu sein und diesen Eindruck durch ein Ausschalten aller Störquellen zu schärfen. Vgl. Hussy (1986: 71). 125 Gelegentlich wird die Phase der Verifikation noch von weiteren Phasen unterschieden, so etwa von einer der Evaluation, die bei Funke (2008: 32) unmittelbar auf die Inkubationsphase folgt. Holm-Hadulla dagegen stellt der Verifikationsphase eine Phase der Realisierung voran. Vgl. HolmHadulla (2010: 54ff). Timo Off versucht darüber hinaus, die kreativen Prozessphasen näher an das gestalterische Feld heranzuführen, indem er die Wallas’schen Bezeichnungen umbenennt: In eine erste Phase der Beschreibung, eine zweite der Informationssammlung, eine dritte der Lösung (oder des Lichtes) und eine vierte der Darstellung und Durchsetzung; kurz: B-I-L-D. Vgl. Off (2008: 136ff). Wie er selbst konstatiert: »Mit diesem Bild der Lösung kommt man zielgerichtet vom Problem zur Durchsetzung der Lösung.« Ebd.: 138.

7. Kreativität und Parametrie

werden, sondern lediglich in Bezug auf die jeweilige Ausrichtung. Diese kann im allgemeinen Fall – gemäß dem Anspruch des produktiven Denkens – mit Hin-Sicht auf ein Problem angelegt sein, ebendann, wenn lediglich eine richtige, wahre Lösung gesucht wird, und im besonderen Fall – als kreatives Denken – im Sinne einer Ab-Sicht, d.h. einer Verschiebung des Blicks auf die derivativen Lösungen, die sich in der Breite ergeben, und jene Umwege, auf denen Ziele auch anders erreicht werden können. Mitunter am deutlichsten wird Letzteres innerhalb der Wallas’schen Phase der Inkubation, in welcher Erfahrungsbestandteile unbewusst, gar mitunter zufällig und spielerisch in neue Verbindungen gebracht werden. Prozesse der Kombination von bekannten Erfahrungsinhalten, d.h. sowohl die freie Assoziation von Gedanken als auch die Analogiebildung, spielen dabei eine maßgebende Rolle, weshalb die prominentesten damit in Verbindung stehenden Denkmodelle knapp erläutert werden sollen. Ein früher Versuch, kreative Denkprozesse zu erfassen, geht auf Joy Paul Guilford zurück. Dieser identifizierte insgesamt 120 Merkmale, welcher er in einem dreidimensionalen Darstellungsmodell, dem sog. ›structure-of-Intellect‹-Modell (›SI-Modell‹, häufig auch ›Würfelmodell”126 ), zusammenfasste und daran anschaulich zu machen versuchte, dass Intelligenz kein eindimensionaler, monolithischer Faktor, sondern ein Konglomerat aus vielen verschiedenen, unabhängigen kognitiven Prozeduren und Teilfaktoren ist, die zur Bestimmung von Intelligenz und Kreativität herangezogen werden können.127 Dabei versteht er den menschlichen Denkprozess als Abfolge informationsverarbeitender Operationen (›operations‹): Auf die Wahrnehmung von Informationen (›cognition‹) folgt die Speicherung (›memory‹), worauf sich zwei Arten der Prozessierung anschließen (›divergent and convergent production‹), bevor die Ergebnisse derselben bewertet werden (›evaluation‹). Eine übergeordnete Stellung nehmen dabei die Begriffe des divergenten und konvergenten Denkens ein, wobei sich Ersteres vor allem auf die losgelöste, spielerische, quantitative Produktion von Alternativen versteht,128 als Suche in die Breite, die mehrere Antworten zulässt, und Letzteres, das konvergente Denken, die etablierten und routinierten Denkprozesse bezeichnet, als fokussierte Suche in die Tiefe nach einer Antwort auf ein spezifisches Problem, das gezielt und kleinteilig bearbeitet wird, bevor eine Bewertung der Resultate erfolgt.129 Eine ähnliche Aufteilung der

126 127 128

129

Vgl. Hussy (1986: 82). Vgl. Guilford (1959). A.a.O.: »[…] intelligence is not the information itself but rather a collection of abilities or functions for processing information.« Guilford (1975: 38). Die Idee des divergenten Denkens geht dabei auf William James zurück, der diese bereits 1880 in seinen Grundzügen formulierte. Vgl. dazu die Darstellung der Entwicklungen bei Albert; Runco (1999: 26ff). Vgl. Guilford (1975: 40). Einen designmethodologischen Widerhall findet das Begriffspaar bei Jones, wenn er von drei Stufen des Entwerfens spricht (›three stages of designing‹), welche er mit ›divergence‹, ›transformation‹, und ›convergence‹ benennt. Während die ›divergence‹-Stufe sich als Suche in die Breite versteht, als Suchraum (›search space‹), eröffnet sich die ›transformation‹Stufe als kreative Konzeptualisierung und Konkretisierung des Problems und die letzte, die ›convergence‹-Stufe, als Ausarbeitung der Ergebnisse. Vgl. Jones (1970/1992: 63-69). Vgl. ferner auch das sog. ›Double Diamond Model‹ bei Design Council (2005), das im Jahr 2005 durch den British Design Council entwickelt wurde und Prozesse des divergenten und konvergenten Denkens innerhalb von Problem- und Lösungsräumen zu veranschaulichen versucht.

197

198

Prozess als Gestalt

Denkprozesse umschreibt Edward de Bono, wenn er von lateralem und vertikalem Denken spricht, die sich in äquivalenter Weise zueinander verhalten wie das Guilford’sche Begriffspaar.130 Die grundlegende Dialektik der Phänomene kann dabei als modellhafte Konkretisierung der darwinistischen Theorie aufgefasst werden, nach welcher sich Organismen innerhalb der Evolution durch die (zufällige) Herausbildung einer Vielfalt (›diversity‹) und einer darauffolgenden Anpassung (›adaption‹) entwickeln, als Selektionsprozess.131 Donald T. Campbell überführte diesen Ansatz mit dem sog. ›Blind Variation and Selective Retention‹-Modell (BVSR) auf die Kreativitätsforschung.132 Dabei wurden Ideen ›blind‹ miteinander kombiniert, worauf die am vielversprechendsten erscheinenden Lösungen in finale Produkte überführt und daraufhin von einer Menge von Menschen bewertet und auf Akzeptanz geprüft wurden, gemäß einer ›natürlichen‹ Selektion auf Basis der Nützlichkeit.133 Eine Übertragung der dialektischen Vorgehensweise auf das Feld der Gestaltung erfolgte später etwa durch Horst Rittel, der die »Erzeugung und Reduktion von Varietät« als die beiden wesentlichen »Elementarprozesse« bezeichnete, die das Entwerfen in seiner kreativen Dimension antreiben.134 Rainer Holm-Hadulla macht in diesem dialektischen Prinzip sogar den »roten Faden der Kulturgeschichte« aus, in welcher »Kreativität immer in einer Dialektik von Gestalten und GeschehenLassen, Aktivität und Passivität, Struktur und Chaos stattfindet«.135 Es zeigt sich daran, dass das Wechselspiel eines divergenten Denkens in die Breite und eines konvergenten Denkens in die Tiefe ein weitreichender Mechanismus ist, der sich auf mehreren Ebene der Diskussion wiederfindet. Neben dem divergenten Denken, d.h. der spielerischen Suche in die Breite, bemisst Guilford den Transformationen, mit denen Informationen umstrukturiert werden, eine übergeordnete Bedeutung zur Generierung kreativer Ideen zu.136 Dabei stellt er heraus, dass Informationen nicht nur quantitativ erzeugt, sondern ebenso qualitativ modifiziert resp. umstrukturiert werden müssen. In dieser Hinsicht verweist er auf den assoziationistischen Ansatz der Kreativitätsforschung, der sich dem Phänomen der Kreativität vor allem durch Methoden der Analogie- und Metapherbildung nähert, wodurch Bekanntes hinterfragt und in neue, noch unbekannte Kontexte überführt wird. Dabei bauen bereits bestehende Gedankenelemente aufeinander auf, indem sie mehr oder weniger sprunghaft neu miteinander verknüpft werden.137 Als prominente Beispiele 130 131 132 133 134 135 136 137

Vgl. de Bono (1992). Vgl. dazu Albert; Runco (1999: 24ff); Kozbelt (2019: 120ff). Vgl. Campbell (1960). Vgl. Kozbelt (2019: 121). Rittel (1970: 19). In ähnlicher Hinsicht spricht Dörner von einem dialektischen Prozess der Suchraumeinschränkung und der Suchraumerweiterung. Vgl. Dörner (2002: 244). Holm-Hadulla (2008: 130). »Perhaps fully as important for creativeness as the divergent-production functions is another segment of the SI model that contains the transformation abilities.« Guilford (1975: 44). Im assoziationistischen Verständnis ist entsprechend bereits das gesamte zur Lösung des Problems notwendige gedankliche Material im Individuum vorhanden – die Inhalte müssen lediglich in neue Verhältnisse gebracht werden. Eschenfelder spricht entsprechend auch davon, dass »Kreativität […] nicht ein einziges Ereignis [ist], sondern vielmehr das Ergebnis von Gedanken, die nicht ohne Vorbereitung entstehen konnten« Eschenfelder (1968: 232). Michael versteht unter dem Assoziationsvermögen in diesem Zusammenhang die »Fähigkeit, unter Ausnutzung vorbewußten Infor-

7. Kreativität und Parametrie

dazu dienen sowohl etwa der Fragenkatalog Alex Osborns (die sog. ›Osborn Checklist‹), den Charles Clark später zur heute weitreichend bekannten Form des ›Brainstormings‹ weiterentwickelte,138 als auch die ›Synektik‹-Methode William Gordons (griech. ›synechein‹ = dt. ›etwas miteinander in Verbindung bringen, verknüpfen‹);139 beides Methoden, die John Christopher Jones bereits 1970 als gezielte Suche nach Ideen in die gestalterische Praxis übertragen hat.140 Die Ansätze der assoziationistischen Methode gehen dabei auf den Psychologen Théodule Ribot zurück, der den kreativen Denkprozess um 1900 als Analogiebildung zwischen eigenschaftsbezogenen Ähnlichkeiten auffasste, die durch die eigene Vorstellungskraft hervorgebracht wurden.141 Darauf aufbauend gilt Sarnoff A. Mednick als einer der Hauptvertreter der assoziationistischen Auffassung, der seine Theorie im Grundsatz auf der temporären Verbindung distanzierter, assoziativer Elemente errichtete, die in daraus resultierender, ungewöhnlicher Kombination etwas Neues hervorbringen.142 Mednick entwickelte in diesem Zusammenhang den sog. Remote Association Test (RAT), der, ähnlich wie Guilfords Divergent Production Test (DPT),143 Kreativität über die Fähigkeit zur assoziativen Neuverknüpfung messbar machen sollte.144 Mit der Frage, wie derartige assoziative Verbindungen und ein kreatives Denken zustande kommen, beschäftigte sich Arthur Koestler, der 1967 zur Erläuterung der Phänomene den Begriff der Bisoziation (›bisociation‹) einführte.145 Darunter versteht er ein Phänomen, das unterbewusste Erfahrungsbestände miteinander in Beziehung setzt und als geistige Synthese verschmilzt.146 Während sich die Assoziation auf

138

139 140 141 142

143

144 145 146

mationsreichtums Querverbindungen zu anderen Informationsstrukturen herzustellen« Michael (1973: 45). Vgl. Osborn (1953); Clark (1958). Eine Neuauflage der sog. Osborn Checkliste, einem Fragenkatalog mit mehr als 60 Positionen, hat Mario Pricken mit seinem sog. Clicking-Fragenkatalog entwickelt. Dieser stellt ein kategorisiertes Kontingent von mehr als 200 Fragen dar, welche insbesondere zur Verwendung teambezogener Arbeit in Werbe- und Kreativagenturen Einsatz finden soll. Vgl. Pricken (2004: 32ff). Vgl. Gordon (1961). Vgl. Jones (1970/1992). Vgl. Ribot (1900). »He described ›the creative thinking process as the forming of associative elements into new combinations which either meet specified requirements or are in some way useful. The more mutually remote the elements of the new combination, the more creative the process or solution.‹« Mednick (1962: 221) zitiert nach Taylor (1975: 11). Mit dem sog. Divergent Production Test (DPT) versuchte Guilford, übergeordnete Merkmale zu erfassen, die Kreativität als kognitiven Prozess auszuzeichnen vermochten: Sowohl die Flexibilität und Flüssigkeit des Denkens als auch die Originalität der Ideen. Der Test bestand für eine Versuchsperson mitunter darin, für einen herkömmlichen Gegenstand, etwa einen Ziegelstein, möglichst viele Verwendungsmöglichkeiten zu benennen. Daran sollten entsprechend die Flexibilität (Beweglichkeit) des Denkens, die Flüssigkeit der Ideenproduktion (Geläufigkeit) und die Originalität der Ideen (Seltenheit) erfasst werden. Vgl. Guilford (1975: 44). Vgl. auch die übersetzte Zusammenfassung bei Hussy (1986: 75). Vgl. Mednick (1967). Vgl. Koestler (1964). »Ein vertrautes Ding oder Ereignis wird in einem neuen, unvertrauten, enthüllenden Licht wahrgenommen […]; ich habe für ihn den Begriff ›Bisoziation‹ geprägt, um ihn von der gewöhnlichen Routine der Assoziation auf ausgetretenen Wegen zu unterscheiden. Bisoziation bedeutet einen plötzlichen Sprung der schöpferischen Phantasie, der zwei bis dahin unverbundene Ideen, Beobachtungen, Wahrnehmungsgefüge oder

199

200

Prozess als Gestalt

eine zuvor bereits hergestellte Verbindung von Gedanken bezieht (ein Gedanke führt zu einem anderen, innerhalb der gleichen Matrize147 ), erzeugt die Bisoziation dort neue Verbindungen, wo bislang noch keine existierten (im sprunghaften Übergang eines Gedankens in eine gänzlich andere Matrize). Die Besonderheit der Bisoziation besteht nun darin, dass sie im Unterbewusstsein abläuft, und nur dann in die Sphäre des Bewusstseins dringt, sobald sich ein neues Potenzial der Nützlichkeit offenbart. Dieses zeigt sich, so Henri Poincaré, auf der Basis eines Sinnes für Ästhetik, für den das Unterbewusstsein sensibilisiert ist,148 ebendann, wenn eine Verbindung besonders ›schön‹ oder ›elegant‹ erscheint.149 An anderer Stelle ist es der Zufall, aus dem ein potenziell brauchbarer Sinn zu ziehen ist und der erst durch seine Unberechenbarkeit genuin Neues entstehen lässt, wie Klaus Mainzer es etwa darlegt.150 Mainzer geht dabei sowohl mit der behavioristischen Auffassung einher, die besagt, dass ein Individuum sich in unbekannten Situationen rein zufällig in diesen verhält,151 als auch mit der weiter oben angerissenen darwinistischen Auffassung, welche die Mutationen und Transformationen ebenfalls auf dem Zufall gründet, da diese ohne Voraussicht, d.h. ohne Plan erfolgen.152 Er grenzt diese Zufälligkeit jedoch insofern ein, als dass er zwar konstatiert, dass der Zufall selbst nicht als solcher zu kontrollieren ist, seine »Systemgesetze«, d.h. die Nebenbedingungen resp. die Parameter, jedoch durchaus.153 Entsprechend sei dann nicht von einem blinden, sondern vom kreativen Zufall zu sprechen. Der Zufall erscheint dabei der bewussten Entscheidung diametral gegenüberzustehen. Jedoch verweist er in der Diskussion um Kreativität nicht nur auf ein Äußeres, das von außen auf die Dinge wirkt – etwa, sobald neue Gegebenheiten in eine Situation treten –, sondern ebenso auf ein Inneres, dessen bestehende Gegebenheiten lediglich neu verknüpft werden. Das übergeordnete Prinzip versteht sich dabei nicht auf die Bestandteile, sondern auf die Verknüpfungen, die jeweils neu erstellt werden; etwa durch

›Gedankenuniversen‹ in einer neuen Synthese verbindet.« Koestler (1976). Koestler verortet diese Leistung darüber hinaus nicht etwa nur im kreativ-künstlerischen Feld, sondern ebenso als Grundbestandteil allgemeiner, wissenschaftlicher Forschung. Vgl. Ebd. Ferner seien Bisoziationen an der Entstehung von Humor beteiligt: »The sudden bisociation of an idea or event with two habitually incompatible matrices will produce a comic effect, provided that the narrative, the semantic pipeline, carries the right kind of emotional tension.« Koestler (1964: 51). 147 Die Matrize gibt die Klasse bzw. die Kategorie an, in welcher die Gedanken ›verankert´ sind. Vgl. Ebd.: 38ff. 148 Vgl. Weisberg (1989: 40). 149 Vgl. Poincaré (1913/1985). Der Anspruch an eine ›elegante‹ und ›schöne‹ Verbindung deckt sich in dieser Hinsicht mit der Gestaltauffassung Max Bills, der die Gestalt als »harmonischer ausdruck der summe aller funktionen« resp. als »die natürliche, die selbstverständliche erscheinung« einer Form bezeichnet, an der die Qualität ihrer Gestalt erst ansichtig wird. Bill (1958/2008: 135). 150 "Ohne Zufall entsteht nichts Neues«. Mainzer (2008: 141). 151 Vgl. Weisberg (1989: 16-17). 152 Vgl. Mainzer (2008: 136ff). Ebenso schildert es Dennett: »Because evolution occurs without foresight, ›adaptations get their start as fortuitous [unintended, we must note,] – effects that get opportunistically picked up by selective forces in the environment.‹« Dennett zitiert nach Albert; Runco (1999: 24). 153 »Der Zufall lässt sich zwar nicht berechnen und kontrollieren. Wir können aber seine Systemgesetze analysieren und verstehen. Mit geeigneten Nebenbedingungen lassen sich dann Voraussetzungen schaffen, unter denen zufällige Ereignisse synergetische Effekte von selber auslösen.« Mainzer (2008: 141).

7. Kreativität und Parametrie

Assoziationen, Bisoziationen oder Analogien. Die Verknüpfungslogik bestärkt dabei insofern ein prozessuales Moment, als dass die Verknüpfungen einerseits nicht abbrechen (sondern allenfalls Schleifen drehen) und andererseits unumgänglich sind: Wie Simone Mahrenholz es formuliert, kann der Mensch »nicht nicht kreativ sein«.154 Die Tendenzen zur Umstrukturierung, Neuordnung, Verknüpfung und Mustererstellung sind als biologische Automatismen fest im menschlichen Wesen verankert,155 sodass die Frage danach, wo Kreativität relevant wird, nicht auf Seiten ihrer Entstehung, sondern vielmehr hinsichtlich ihrer Dosierung und Zielbestimmung verhandelt werden muss.156 Kreativität stellt kein zu erzeugendes Produkt dar, das erworben werden kann, sondern die antreibende Kraft, die den Resultaten vorausgeht. Die zugrunde liegenden Denkprozesse sollten deshalb nicht mit jenen aufmerksamkeitswirksamen ›kreativen‹ Produkten verwechselt werden, denen Kreativität aufgrund ihrer Kontrastwirkung zur Umwelt zugesprochen wird.157 Vielmehr handelt es sich bei letzteren eher um Kreativitätseffekte als um eine nachhaltige und umsichtige Leistung.158 Die menschlichen (neuronalen) Grundbedingungen, die einer kreativen Leistung vorausgehen, sind grundsätzlich gleichgeschaltet.159 Die Unterschiede entstehen allenfalls in der individuellen Ausrichtung des Denkens; in Hin-Sichten, in Ab-Sichten, im freien Spiel eines divergenten Denkens und in der zielgerichteten Ausarbeitung eines konvergenten Denkens – und nicht zuletzt im gemeinsamen Wechselspiel aller beteiligten Prozesse. Kreativität versteht sich dabei nicht als absolute Größe, die einen objektiven Maßstab setzt,

154

155

156

157 158

159

Mahrenholz (2012: 23). Reckwitz spricht im erweiterten, gesellschaftswissenschaftlichen Zusammenhang von einer »Unvermeidlichkeit« von Kreativität im Streben nach individueller Originalität. Reckwitz (2012/2013: 12ff). Verantwortlich dafür sind aus neurobiologischer Sicht »in Form hochkomplexer Nervenzellverschaltungen herausgeformte, […] Denken, Fühlen und Handeln bestimmende Muster, also im Lauf des Lebens erworbene und im Gehirn verankerte Verschaltungsmuster zwischen den Nervenzellen.« Hüther (2011: 16) Der Mensch nimmt seine Umwelt entsprechend im »Rückgriff auf handlungsleitende, Orientierung bietende innere Muster« (Ebd.) wahr, und gestaltet auch mit diesen, mal mehr und mal weniger (un)bewusst. Vgl. dazu auch Roth (2015: 144ff). Bereits Otl Aicher betonte die Ausrichtung des Entwurfs an seiner Zielbestimmtheit, dem Zweck, wie Wolfgang Jean Stock es in der Einleitung zu ›die welt als entwurf‹ zusammenfasst: »Die Frage nach dem Wozu ersetzt die Frage nach dem Warum. Zwecke müssen auf ihren Sinn geprüft werden.« Aicher (1992: 12). Vgl. dazu im weiterführenden Zusammenhang auch die Ausführungen Alex Buck’s zur ›Dominanz der Oberfläche‹ im Produktdesign. Vgl. Buck (1998). Derartige Effekte sind vor allem ein Resultat einer übersteigerten Ästhetisierung von Lebenswelt, wie es etwa in den soziologischen Studien Wolfgang Welschs und Gerhard Schulzes anschaulich wird. Vgl. dazu Welsch (1996); Schulze (1993/2005). Wie Weisberg es darlegt und damit dem Mythos des kreativen Genies entgegenarbeitet: »Meines Erachtens besitzen kreative Menschen keine außergewöhnlichen Merkmale – sie tun in Wirklichkeit nichts anderes, als was wir alle tun können. Weil jeder seine gewohnten Reaktionen modifizieren und so auf eine neuartige Situation reagieren kann, dürften keine weiteren, außergewöhnlichen Fähigkeiten erforderlich sein. Obwohl in einem gegebenen Fall die Leistung eines Menschen außergewöhnlich sein mag, ist diese außergewöhnliche Leistung nicht zwangsläufig das Ergebnis außergewöhnlicher Prozesse oder außergewöhnlicher persönlicher Merkmale.« Weisberg (1989: 29). Dieser Haltung soll sich für die weitere Diskussion um Kreativität uneingeschränkt angeschlossen werden.

201

202

Prozess als Gestalt

sondern als verbindende Kraft, welche die Dinge dynamisch zusammenzieht, Wichtigkeiten neu verteilt, multiple Lösungen in der Breite akzeptiert und Widersprüche aushält, um nicht nur aus dem Relevanten, sondern ebenso aus dem scheinbar Irrelevanten eine Nützlichkeit resp. einen Sinn zu generieren.

7.2

Hin-Sicht und Ab-Sicht

Nachdem nun die grundlegenden Eigenarten eines kreativen Denkens umrissen worden sind, soll die weitere Diskussion den Blick nun auf diejenigen Phänomene richten, die im Zusammenhang mit Parametrie und gestalterischen Prozessen bedeutsam erscheinen. Dazu zählt zunächst die Schärfung zweier Termini; der Hin-Sicht und der Ab-Sicht. Beide sind bereits in der einleitenden Darlegung des Kreativität-Begriffs erwähnt worden, in dessen Diskussion sie vor allem auf die unterschiedliche Zielausrichtung eines produktiven bzw. eines kreativen Denkens hinweisen sollten. Ersteres versteht sich dabei in der Auffassung der Gestaltpsychologen vor allem darin, dass jedes Problem eine naturgemäße, beste Lösung bereits in sich trägt, die im Sinne einer singulären Wahrheit lediglich noch aufgedeckt werden muss.160 Dazu wird der Problemraum systematisch analysiert, um die Struktur der Lösung durch logisches Verknüpfen des gegebenen Materials offenzulegen.161 Die Bestrebungen verlaufen entsprechend im wörtlichen Sinn in Hin-Sicht auf eine Lösung, d.h. mit engem Fokus auf ein bestimmtes Ziel, das eindringlich und differenziert untersucht werden soll. Letzteres, ein kreatives Denken, kann im Gegensatz dazu als ein solches verstanden werden, das nicht nur eine singuläre, naturgemäß wahre Lösung, sondern multiple und verhältnismäßig richtige Lösungen in Betracht zieht, die nebeneinander bestehen und jeweils eine eigene Sphäre der Richtigkeit ausbilden können – nicht allein mit Hin-Sicht auf nur eine Lösung, sondern als fortwährende Ab-Sicht von derselben. Es geht entsprechend vielmehr um das Anlegen einer Breite als um die Zuspitzung einer Tiefe. Innerhalb dieser Breite resp. dem gleichzeitigen Nebeneinander besteht entsprechend die Möglichkeit, dass Lösungen im Widerspruch zueinander stehen und unvereinbar scheinen. Ein kreatives Denken soll entsprechend – wie es auch in der einleitenden Erörterung des Begriffs weiter oben deutlich wurde – zwischen diesen vermeintlichen Unvereinbarkeiten vermitteln, indem es Widerstände und Dichotomien aushält und Probleme nicht nur hinsichtlich einer Lösung befragt, sondern sie vielmehr bezüglich ihrer Struktur und Formulierung neu zu gestalten sucht. Im Sinne eines kreativen Denkens gilt es entsprechend, nicht lediglich eine beste, absolute und auf Dauer gestellte Lösung zu finden, sondern die Probleme – inklusive ihrer Gegebenheiten, Zielsetzungen und Lösungsmöglichkeiten – in einem kontinuierlichen Prozess permanent neu zu verhandeln.162

160 Vgl. dazu weiter oben das Kapitel 6 ›Problemlösen und Parametrie‹. 161 Wertheimer etwa spricht in diesem Zusammenhang von einem »Drang, die innere Struktur der Aufgabe zu finden«, welcher sich in jedem Schritt als »geschlossener Gedankenzug« darstellt, der »keine willkürlichen Schritte, kein blindes Herumprobieren« zulässt. Wertheimer (1945/1957: 182,184). 162 Vgl. dazu auch weiter unten das Kapitel 7.6 ›Kontinuität und Disruption‹.

202

Prozess als Gestalt

sondern als verbindende Kraft, welche die Dinge dynamisch zusammenzieht, Wichtigkeiten neu verteilt, multiple Lösungen in der Breite akzeptiert und Widersprüche aushält, um nicht nur aus dem Relevanten, sondern ebenso aus dem scheinbar Irrelevanten eine Nützlichkeit resp. einen Sinn zu generieren.

7.2

Hin-Sicht und Ab-Sicht

Nachdem nun die grundlegenden Eigenarten eines kreativen Denkens umrissen worden sind, soll die weitere Diskussion den Blick nun auf diejenigen Phänomene richten, die im Zusammenhang mit Parametrie und gestalterischen Prozessen bedeutsam erscheinen. Dazu zählt zunächst die Schärfung zweier Termini; der Hin-Sicht und der Ab-Sicht. Beide sind bereits in der einleitenden Darlegung des Kreativität-Begriffs erwähnt worden, in dessen Diskussion sie vor allem auf die unterschiedliche Zielausrichtung eines produktiven bzw. eines kreativen Denkens hinweisen sollten. Ersteres versteht sich dabei in der Auffassung der Gestaltpsychologen vor allem darin, dass jedes Problem eine naturgemäße, beste Lösung bereits in sich trägt, die im Sinne einer singulären Wahrheit lediglich noch aufgedeckt werden muss.160 Dazu wird der Problemraum systematisch analysiert, um die Struktur der Lösung durch logisches Verknüpfen des gegebenen Materials offenzulegen.161 Die Bestrebungen verlaufen entsprechend im wörtlichen Sinn in Hin-Sicht auf eine Lösung, d.h. mit engem Fokus auf ein bestimmtes Ziel, das eindringlich und differenziert untersucht werden soll. Letzteres, ein kreatives Denken, kann im Gegensatz dazu als ein solches verstanden werden, das nicht nur eine singuläre, naturgemäß wahre Lösung, sondern multiple und verhältnismäßig richtige Lösungen in Betracht zieht, die nebeneinander bestehen und jeweils eine eigene Sphäre der Richtigkeit ausbilden können – nicht allein mit Hin-Sicht auf nur eine Lösung, sondern als fortwährende Ab-Sicht von derselben. Es geht entsprechend vielmehr um das Anlegen einer Breite als um die Zuspitzung einer Tiefe. Innerhalb dieser Breite resp. dem gleichzeitigen Nebeneinander besteht entsprechend die Möglichkeit, dass Lösungen im Widerspruch zueinander stehen und unvereinbar scheinen. Ein kreatives Denken soll entsprechend – wie es auch in der einleitenden Erörterung des Begriffs weiter oben deutlich wurde – zwischen diesen vermeintlichen Unvereinbarkeiten vermitteln, indem es Widerstände und Dichotomien aushält und Probleme nicht nur hinsichtlich einer Lösung befragt, sondern sie vielmehr bezüglich ihrer Struktur und Formulierung neu zu gestalten sucht. Im Sinne eines kreativen Denkens gilt es entsprechend, nicht lediglich eine beste, absolute und auf Dauer gestellte Lösung zu finden, sondern die Probleme – inklusive ihrer Gegebenheiten, Zielsetzungen und Lösungsmöglichkeiten – in einem kontinuierlichen Prozess permanent neu zu verhandeln.162

160 Vgl. dazu weiter oben das Kapitel 6 ›Problemlösen und Parametrie‹. 161 Wertheimer etwa spricht in diesem Zusammenhang von einem »Drang, die innere Struktur der Aufgabe zu finden«, welcher sich in jedem Schritt als »geschlossener Gedankenzug« darstellt, der »keine willkürlichen Schritte, kein blindes Herumprobieren« zulässt. Wertheimer (1945/1957: 182,184). 162 Vgl. dazu auch weiter unten das Kapitel 7.6 ›Kontinuität und Disruption‹.

7. Kreativität und Parametrie

Wie stellt sich dies nun im praktischen Bezug zum (kreativen) Problemlösen dar? Auf dem Fundament der Gestalttheorie ist dabei zunächst auf dem Begriff des Problems aufzubauen, wie es weiter oben bereits dargelegt und in seinen Grundzügen nach Duncker wie folgt definiert wurde: »Ein ›Problem‹ entsteht z.B. dann, wenn ein Lebewesen ein Ziel hat und nicht ›weiß‹, wie es dieses Ziel erreichen soll.«163 In ähnlicher Weise kennzeichnet Dörner ein Problem durch drei Komponenten: Erstens durch einen unerwünschten Ausgangszustand, zweitens durch einen erwünschten Endzustand und drittens durch Barrieren, die eine Transformation vom ersten in den zweiten Zustand im jeweiligen Moment verhindern.164 Ein Problem offenbart sich entsprechend dann, wenn sich eine Form der willentlichen Bestrebung resp. ein Wunsch verfestigt, gemäß welchem eine Situation verändert werden soll.165 Was dabei mitunter schnell übersehen werden kann, ist der Umstand, dass die antreibende Kraft dieses Prozesses vom problemlösenden Individuum selbst ausgeht und demnach auch das Problem erst als Konsequenz einer willentlichen Bestrebung entsteht; aufgrund einer Absicht, ein Ziel erreichen zu wollen.166 Beispielsweise setzt etwa das Problem – so banal es auch zunächst erscheinen mag –, ein Marmeladenglas nicht öffnen zu können, voraus, dass man es öffnen will; andernfalls wäre es kein Problem. Ein Problem wird demnach immer erst zu einem gemacht, und dies in einem Maß, das der Mensch selbst bestimmt. Mit der antizipierten Handlung geht somit immer eine Form der Intentionalität einher, welche ein Problem erst als solches erscheinen lässt.167 Der lateinische Begriff ›intentio‹ beschreibt dabei bereits in der mittelalterlichen Philosophie eine bestimmte Struktur von Handlungen, die zwei Wirkdimensionen auf sich vereint: einerseits den Akt eines absichtsvollen Handelns

163 Duncker (1935/1963: 1). 164 Vgl. Dörner (1976: 10). 165 Wie bereits in Anm. 93 in Kapitel 4.6 ›Absicht und Kontrolle‹ dargestellt, hat Harry Frankfurt dies als Ausgangspunkt zur Erörterung menschlicher Willensfreiheit herangezogen, wenn er einerseits von Wünschen erster Ordnung spricht (›first-order volition‹) – etwa, Dinge zu besitzen, zu vereinnahmen oder bestimmte Erfahrungen zu machen –, und andererseits von Wünschen zweiter resp. höherer Ordnung (›higher-order volitions‹), welche über die Wünsche der ersten Ordnung reflektieren – etwa, einen bestimmten Wunsch nicht zu haben. Vgl. Frankfurt (1999/2003). Der englische Begriff der ›volition‹ vereint dabei mehrere Begriffscharakteristika auf sich, wie sie u.a. mit deutschen Begriffen der Absicht, Motivation, des Wunsches, des Interesses oder des Ziels verknüpft sind. 166 Weiter oben wurde der Begriff der Absicht bereits im Kontext parametrischer Werkzeuge diskutiert (Vgl. Kapitel 4.6 ›Absicht und Kontrolle‹). Dabei wurde der Begriff zunächst als übergeordnete Haltung verstanden, die den Entwurfsprozess lediglich noch beobachtend anleitet und weniger als Motivation, die ausführenden Arbeiten selbstständig/manuell/handwerklich zu bewerkstelligen. In der kognitionswissenschaftlichen Deutung kann diese Betrachtung aufrechterhalten und durch die Funktion erweitert werden, dass die Absicht einerseits Ursache für ein Problem und gleichzeitig Antreiber seiner Umstrukturierung ist, ebendann, wenn sie dazu dient, im Sinne einer kreativen Bearbeitung eine Breite an Lösungen zu generieren und sogleich wieder dagegen anzukämpfen resp. das Bedürfnis zu stillen, nicht nur etwas, sondern auch etwas anderes zu wollen und dadurch eine neue, eigene Sphäre der Richtigkeit zu etablieren, wie es weiter unten noch ausführlicher diskutiert wird. Vgl. Kapitel 7.6 ›Kontinuität und Disruption‹. 167 Vgl. dazu auch Funkes Ausführungen zum handlungstheoretischen Ansatz des Problemlösens, in welchen er zwischen intendierterHandlung und unbelebtem Verhalten unterscheidet. Vgl. Funke (2003: 95ff).

203

204

Prozess als Gestalt

und andererseits dessen Ausrichtung auf ein in diesem Akt bereits angelegtes Ziel.168 Diese zwei Wirkdimensionen formen sich entsprechend zu einem Problem, sobald das Ziel durch absichtsvolles Handeln nicht erreicht werden kann. Daran wird der konstruktive Charakter eines Problems offenbar, da es nicht etwa die äußeren Umstände sind, die ein Problem hervorrufen, sondern die Ausrichtung der eigenen Ziele, die aus einer inneren Erwartungshaltung der Zielerfüllung auf jene äußeren Gegebenheiten der Problemsituation projiziert werden. Befindet sich – im Beispiel des Marmeladenglases – eine Person mit besagtem Marmeladenglas etwa regungslos im gleichen Raum, geht von der dort herrschenden Situation (das Marmeladenglas inbegriffen) selbst noch kein Problem aus. Erst die Absicht – im Sinne einer Gerichtetheit –, es öffnen zu wollen, lässt das Problem entstehen.169 Gerät die Absicht nun an ein situatives Hindernis (etwa mangelnde körperliche Kraft), lässt dies weiter fragen, wie das Glas auf anderen Wegen zu öffnen wäre. Die Veranschaulichung der Thematik anhand des Marmeladenglases und dem absichtsvollen Verhalten macht offenbar, dass Probleme nicht starr gegeben und fixiert, sondern von willkürlichen Faktoren abhängige, konstruierte Phänomene sind. Eine stets gegebene Möglichkeit zur Problemlösung besteht dementsprechend darin, nicht etwa lediglich nach einem geeigneten Weg für die Überwindung des Problems zu suchen, sondern ebenso, die Zielsetzung zu ändern; im Beispiel des Marmeladenglases etwa, auf ein anderes Nahrungsmittel auszuweichen, das in der Situation zugänglicher ist. Daran zeigt sich, dass die Absicht, von einem Ziel abzuweichen, weitere Prozesse in Gang setzt, die auf eine Breite von Alternativen abzielen. Das Wissen darum, dass Probleme konstruiert sind und ihre Ausrichtung und Zielsetzung daher grundsätzlich immer verhandelbar und zu hinterfragen sind erscheint damit als grundlegendes Merkmal eines kreativen Denkens, das in die Breite arbeitet. Wenn ein Problem aus der Setzung eines Ziels resultiert und insofern ein konstruiertes Phänomen ist, so macht dies zwar einerseits – im Sinne einer Umstrukturierung des Problems, wie Duncker es als Akt eines produktiven Denkens versteht – dessen Verhandelbarkeit anschaulich, andererseits deutet es jedoch noch nicht darauf hin, wie das gesetzte Ziel denn zu erreichen sein könnte. Zur Öffnung des Marmeladenglases etwa erscheinen zunächst vielerlei Wege denkbar, jedoch vermögen einige einen direkteren, andere einen indirekteren Zugang zu suggerieren. Ein direkter Weg wäre etwa das Öffnen von Hand durch die kreisförmige Rotation des Deckels, wie es der Mechanismus in erster Linie vorsieht. Dies verspricht in vorderster Betrachtung den Weg des leichtesten Widerstandes, welchem der Mensch zuallererst geneigt wäre, nachzugehen.170 Sofern dieser Weg jedoch versperrt bleibt, etwa durch nicht ausreichende Kraft, weicht der Blick von der ersten Lösung ab und richtet sich auf derivative Möglichkeiten, um das Marmeladenglas womöglich auch anders öffnen zu können. Dafür kommen nun

168 Vgl. Gessmann (2009: 356): Intention. 169 »Die Situationen selbst sind nicht das Problem, sondern eine gegebene Situation zusammen mit einer bestimmten Zielsetzung eines Organismus machen ein Problem.« Funke (2003: 19). 170 Dabei beruft sich der Mensch aus neurobiologischer Sicht auf bekannte Erfahrungs- und Handlungsmuster, die – im Sinne eines reproduktiven Denkens – auf neue, noch unbekannte Probleme als erste Form der Annäherung appliziert werden. Vgl. Hüther (2011: 16ff, 29ff).

7. Kreativität und Parametrie

mehrere Ansätze infrage, die einerseits sowohl dem eigenen Sachwissen und der Erfahrung als auch andererseits den Beziehungen der situativen Gegebenheiten bzw. der Gegenstände (Werkzeuge) entspringen können, die in der Situation zu finden sind: Das Marmeladenglas könnte u.a. an die Wand geworfen, zwischen zwei Gegenständen eingeklemmt, erhitzt, eingefroren, geschüttelt oder mit dem Auto überrollt werden.171 Jeder Lösungsweg zöge eine bestimmte Wahrscheinlichkeit mit sich, nach welcher der Erfolg und die Konsequenzen der Methode zu sortieren wären. Eine Breite, im Sinne einer kreativen Darlegung von Möglichkeiten, bedarf entsprechend einer Sortierung durch Wichtungen, die über die Wahl der geeigneten Methode entscheiden. Dabei sind ebenso die Neben- und Fernwirkungen miteinzubeziehen, die durch die entsprechende Handlung entstünden: zerbrochenes Glas, Flecken an der Wand oder gar Verletzungen. Eine elegantere Lösung für den konkreten Fall könnte dagegen darin bestehen, den Deckelrand des Marmeladenglases mit einem spitzen Gegenstand anzuheben, sodass Luft eintritt und der Unterdruck, der eine Drehung des Deckels erschwerte, aufgelöst würde. Wie dieser Lösungsweg veranschaulicht, erfordert es zur Lösung entweder die Kenntnis der erlernten Methode (reproduktives Denken), oder aber die Einsicht in diejenigen Prozesse, die das Öffnen des Glases erschweren resp. das Erkennen der Beziehungen, wie Köhler es betont;172 in diesem Zusammenhang die physikalische Beziehung zwischen Unterdruck und Festigkeit des Deckels (produktives Denken). Letzteres könnte entsprechend zu einer Umstrukturierung des Problems führen, welches sich dann nicht mehr als ›Öffnen des Glases‹, sondern als ›Ausgleichen des Unterdrucks‹ darstellt, wodurch ebenso neue Lösungen in Betracht kämen, etwa, das Glas zu erwärmen, ein Loch in den Deckel zu stoßen etc.173 Es zeigt sich daran, dass in dieser Hinsicht auch in Vorgängen des produktiven Denkens Anteile eines kreativen Denkens zum Tragen kommen, ebendann, wenn reproduktive Maßnahmen – etwa ein Marmeladenglas durch Rotation des Deckels zu öffnen – nicht mehr ausreichen und auf derivative Umwege ausgewichen werden muss. Die Erweiterung des produktiven Denkens im Zusammenhang mit Kreativität ergibt sich 171

172 173

Diese Lösungsansätze erscheinen zwar legitim, jedoch weniger elegant, da die situative Material dabei stark in Mitleidenschaft gezogen werden kann. Entsprechend versteht sich die Selektion einer Lösung auch als Abwägen der Konsequenzen, die auch stets eine gewisse Fehlbarkeit bzw. Verlustdimension in sich tragen können. Vgl. dazu auch Simon mit Hinsicht auf den Ausdruck des ›satisficing‹. Vgl. Simon (1968/1994: 25, 102ff). Darunter kann in diesem Zusammenhang die Bereitschaft verstanden werden, eine Entscheidungslösung aufgrund mangelnder Alternativen oder Kräfte unter Inkaufnahme von Verlusten zu wählen. In ähnlicher Hinsicht spricht Duncker von ›par-force‹-Lösungen, die das Problem durch Krafteinwirkung zu lösen versuchen. Vgl. Duncker (1935/1963: 33ff). Unter solchen lässt sich die (gewaltsame) Durchsetzung eines Lösungsweges verstehen, von dem bewusst nicht abgerückt werden will. Duncker formuliert es in pragmatischer Hinsicht: »Bei vielen Aufgaben gerät man einfach dadurch auf die Lösung, daß bei einem etwas gewaltsamen Versuch, das Ziel auf direktem Wege zu erzwingen, der physikalische Sachverhalt sozusagen in der Lösungsrichtung ausweicht.« Ebd.: 34. Ein an der Wand zerschelltes Marmeladenglas wäre in dieser Hinsicht ein eben solcher Sachverhalt, der durch Krafteinwirkung in Lösungsrichtung ausgewichen ist. Vgl. Köhler (1971: 107ff). Schlecht strukturierte Probleme können somit in gut strukturierte Teilprobleme zergliedert werden, d.h. in lösbare Aufgaben. Vgl. dazu die Erörterung weiter oben im Kapitel 6.1 ›Problem und Lösung‹.

205

206

Prozess als Gestalt

daher weniger aus der grundlegenden Struktur des Vorgehens als vielmehr hinsichtlich der Zielrichtung resp. dem Fokus, der es anleitet. Um dies deutlich zu machen, sei für die vorliegenden Zwecke zwischen den Begriffen der Hin-Sicht und der Ab-Sicht zu unterscheiden. Für die Diskussion um Kreativität sind entsprechend diejenigen Bestrebungen in den Fokus zu rücken, die nicht etwa nur auf eine singuläre Lösung hinsehen, sondern vielmehr jene, die von einem eingefahrenen Weg der Lösung absehen und sich somit neuen Betrachtungsweisen und Möglichkeiten zuwenden – mitunter auch ohne die Notwendigkeit, einen neuen Lösungsweg einschlagen zu müssen. Der Mehrwert der Ab-Sicht generiert sich dabei über die Umwege, die in Kauf genommen werden, um das Ziel auch anders zu erreichen. Um es in diesem Sinne auch anders zu formulieren: Während die Hin-Sicht sich lediglich im Rahmen der bereits etablierten Verhältnisse bewegt und diese, im Sinne einer letzten Wahrheit, nicht hinterfragt, versucht die AbSicht, das Problem in derivative Zusammenhänge zu verschieben und diese, im Sinne alternativer Richtigkeiten, neu zu betrachten und daraus einen Mehrwert bzw. neuen Sinn zu generieren. Dabei erscheint die Ab-Sicht durch Antriebskräfte aus zwei Richtungen motiviert: eine erste, die, bezogen auf das in einer Situation gegebene Material, eine Form der Unzulänglichkeit darstellt – etwa, wenn die reproduktiven Mittel und Methoden nicht ausreichen, um das Ziel zu erreichen (im genannten MarmeladenglasBeispiel etwa die körperliche Kraft) –, wodurch neue Überlegungen notwendig werden (Unzulänglichkeit und Notwendigkeit bezeichnen dabei jene äußeren Wirkkräfte, die den Anstoß zum andersartigen, produktiv-kreativen Handeln geben), und eine zweite, durch welche die Ab-Sicht in anderen Fällen durch eine innere Kraft angetrieben scheint, die sich als die eigene Motivation aus sich selbst heraus versteht, Ziele über Umwege auch anders erreichen zu wollen; d.h. aus der grundlegenden Ab-Sicht zur Andersartigkeit, die keiner direkten Notwendigkeit und Zweckmäßigkeit unterliegt. Ersteres, die Ab-Sicht aus Unzulänglichkeit und Notwendigkeit, findet sich dabei vor allem im Zusammenhang mit Situationen der Improvisation, in welchen die situativ vorhandenen Gegebenheiten aus einer unmittelbaren Notwendigkeit heraus umgedeutet werden, während Letzteres, die freie Motivation, sich vor allem in der Handlungsform des Spielens offenbart, in welcher etablierte Gebundenheiten und Verhältnisse bewusst vernachlässigt bzw. aufgebrochen, durch bislang unverbundene Inhalte erweitert und

7. Kreativität und Parametrie

in neue Sinnzusammenhänge gebracht werden.174 Ein kreatives Denken wird dabei, wie es folgend gezeigt werden soll, innerhalb beider Spezifikationen, sowohl dem eingeschränkten Umgang mit dem Gegebenen in Form der Improvisation als auch dem freien Umgang eines Hypothetischen und Nicht-Gegebenen im Spiel, ansichtig.

7.3

Situation und Improvisation

Wie anschaulich gemacht wurden, lässt eine Absicht – im Sinne einer Intentionalität – zwar ein Problem entstehen (und strukturiert es mitunter um), löst es jedoch nicht ohne Weiteres. Dazu bedarf es einer Vollzugshandlung, die das Problem zunächst sorgsam angeht, die situativen Bedingungen weitestgehend abklärt und zu einer produktiven Lösung ansetzt. Dabei helfen in erster Linie diejenigen Elemente, die als Gegebenes unmittelbar in der Problemsituation angelegt sind. Wie Köhler es darlegt, erfordert ein Problem entsprechend auch immer die Beschäftigung »mit einem bestimmten Material bzw. einer bestimmten Situation, worin dieses Problem enthalten ist.«175 In diesem Verständnis ist die Absicht (Intention) als jene anleitende Motivation zu verstehen, welche die Situation und das gegebene Material fragend nach dessen Tauglichkeit für eine mögliche Lösung abtastet. Wie sich dies im Zuge des produktiven Denkens und des Problemlösens verhält, konnte dazu bereits weiter oben hinreichend erläutert werden.176 Im Folgenden soll nun betrachtet werden, wie derartige Umstrukturierungen der Situation in die Diskussion um Kreativität zu übertragen sind und wo die Anschlusspunkte für die gestalterische Auseinandersetzung liegen. Eine Situation versteht sich dabei im oben diskutierten Sinn als gegebenes Äußeres, das ein Individuum in einer bestimmten raumzeitlichen Verfassung umgibt, vorwiegend in Form von Informationen, die es zur Problembewältigung und Entscheidungsfindung heranziehen kann.177 Es steht dem (problemlösenden) Individuum entsprechend frei, wie es sich in dieser Situation verhält resp. welche situativen Gegebenheiten

174

175 176 177

Hier ist anzumerken, dass die Trennung von Hin-Sicht und Ab-Sicht lediglich eine Form der Rahmung ist, welche die kreativen Prozesse für die vorliegenden Zwecke erfassen soll und entsprechend auf mehreren Ebenen wechselseitig und hierarchisch verlaufen kann: So kann beispielsweise ein zu erreichendes Ziel in einer singulären Hin-Sicht verfolgt werden, sich jedoch in darunterliegende Ab-Sichten aufteilen, mit der Bestrebung, derivative Mittel zur Erreichung des Ziels kreativ zu ergründen. Andererseits können multiple Ab-Sichten wiederum gemäß singulärer HinSichten bearbeitet werden, ebendann, wenn das Ziel nicht in neuen Verknüpfungen, sondern in der Ausarbeitung einzelner Lösungen besteht. Die Begrifflichkeiten schließen sich in kognitionswissenschaftlicher Betrachtungsweise jenen Denkprozessen an, wie sie etwa von Guilford als konvergentes und divergentes Denken und von de Bono als vertikales und laterales Denken bezeichnet wurden. Vgl. de Bono (1992); Guilford (1975). In Bezug auf das Feld der Gestaltung unterscheidet Rittel in diesem Zusammenhang in einen Prozess der Varietätserzeugung und der Varietätsreduktion. Rittel (1970). Dies versteht sich letztlich als ein iterativer Prozess, der, im kreativen Verständnis, zwischen Hin- und Ab-Sichten oszilliert. Köhler (1971: 101). Vgl. dazu Kapitel 6 ›Problemlösen und Parametrie‹. Vgl. dazu auch die Definition des Begriffs der Situation bei Kirsch (1971a: 136ff).

207

7. Kreativität und Parametrie

in neue Sinnzusammenhänge gebracht werden.174 Ein kreatives Denken wird dabei, wie es folgend gezeigt werden soll, innerhalb beider Spezifikationen, sowohl dem eingeschränkten Umgang mit dem Gegebenen in Form der Improvisation als auch dem freien Umgang eines Hypothetischen und Nicht-Gegebenen im Spiel, ansichtig.

7.3

Situation und Improvisation

Wie anschaulich gemacht wurden, lässt eine Absicht – im Sinne einer Intentionalität – zwar ein Problem entstehen (und strukturiert es mitunter um), löst es jedoch nicht ohne Weiteres. Dazu bedarf es einer Vollzugshandlung, die das Problem zunächst sorgsam angeht, die situativen Bedingungen weitestgehend abklärt und zu einer produktiven Lösung ansetzt. Dabei helfen in erster Linie diejenigen Elemente, die als Gegebenes unmittelbar in der Problemsituation angelegt sind. Wie Köhler es darlegt, erfordert ein Problem entsprechend auch immer die Beschäftigung »mit einem bestimmten Material bzw. einer bestimmten Situation, worin dieses Problem enthalten ist.«175 In diesem Verständnis ist die Absicht (Intention) als jene anleitende Motivation zu verstehen, welche die Situation und das gegebene Material fragend nach dessen Tauglichkeit für eine mögliche Lösung abtastet. Wie sich dies im Zuge des produktiven Denkens und des Problemlösens verhält, konnte dazu bereits weiter oben hinreichend erläutert werden.176 Im Folgenden soll nun betrachtet werden, wie derartige Umstrukturierungen der Situation in die Diskussion um Kreativität zu übertragen sind und wo die Anschlusspunkte für die gestalterische Auseinandersetzung liegen. Eine Situation versteht sich dabei im oben diskutierten Sinn als gegebenes Äußeres, das ein Individuum in einer bestimmten raumzeitlichen Verfassung umgibt, vorwiegend in Form von Informationen, die es zur Problembewältigung und Entscheidungsfindung heranziehen kann.177 Es steht dem (problemlösenden) Individuum entsprechend frei, wie es sich in dieser Situation verhält resp. welche situativen Gegebenheiten

174

175 176 177

Hier ist anzumerken, dass die Trennung von Hin-Sicht und Ab-Sicht lediglich eine Form der Rahmung ist, welche die kreativen Prozesse für die vorliegenden Zwecke erfassen soll und entsprechend auf mehreren Ebenen wechselseitig und hierarchisch verlaufen kann: So kann beispielsweise ein zu erreichendes Ziel in einer singulären Hin-Sicht verfolgt werden, sich jedoch in darunterliegende Ab-Sichten aufteilen, mit der Bestrebung, derivative Mittel zur Erreichung des Ziels kreativ zu ergründen. Andererseits können multiple Ab-Sichten wiederum gemäß singulärer HinSichten bearbeitet werden, ebendann, wenn das Ziel nicht in neuen Verknüpfungen, sondern in der Ausarbeitung einzelner Lösungen besteht. Die Begrifflichkeiten schließen sich in kognitionswissenschaftlicher Betrachtungsweise jenen Denkprozessen an, wie sie etwa von Guilford als konvergentes und divergentes Denken und von de Bono als vertikales und laterales Denken bezeichnet wurden. Vgl. de Bono (1992); Guilford (1975). In Bezug auf das Feld der Gestaltung unterscheidet Rittel in diesem Zusammenhang in einen Prozess der Varietätserzeugung und der Varietätsreduktion. Rittel (1970). Dies versteht sich letztlich als ein iterativer Prozess, der, im kreativen Verständnis, zwischen Hin- und Ab-Sichten oszilliert. Köhler (1971: 101). Vgl. dazu Kapitel 6 ›Problemlösen und Parametrie‹. Vgl. dazu auch die Definition des Begriffs der Situation bei Kirsch (1971a: 136ff).

207

208

Prozess als Gestalt

und Verhältnisse es für sich zu nutzen vermag.178 Wie Duncker es in seinen Untersuchungen festhält, weist jede Situation ein sog. Situationsrelief auf, innerhalb welchem sich die einzelnen Elemente dem Problemlöser in unterschiedlichen Festigkeitsgraden resp. in figuralen bzw. heterogen funktionalen Gebundenheiten offenbaren, die nicht etwa objektiv vorhanden sind, sondern den Dingen subjektiv zugeschrieben bzw. im Individuum kognitiv manifestiert werden.179 Duncker spricht in diesem Zusammenhang auch von der Disponibilität (Lockerheit) der situativen Gegebenheiten, im Sinne von dessen Verfügbarkeit.180 Beispielsweise sei etwa der Ast eines Baumes – wie Köhler es in seinen Untersuchungen mit Menschenaffen dargelegt hat –181 dementsprechend weniger signifikant als ›Werkzeug‹ ansichtig, wenn er in seiner figuralen Gebundenheit der Ganzheit ›Baum‹ angehöre, als wenn er von dieser abgetrennt auf dem Boden läge.182 Gleiches gilt für Formen der heterogen funktionalen Gebundenheit, etwa, sobald die primäre Verwendung bestimmter Gegenstände dermaßen dominant erscheint, dass eine derivative Verwendung kaum resp. gar nicht in Betracht gezogen wird. Dörner hebt die scharfe Trennung beider Gebundenheiten auf, indem er sie dem gleichen Grundphänomen unterordnet, das er wie folgt benennt: »Individuen sind in geringerem Maße bereit, Teile eines ihnen bekannten Ganzen in einem anderen Kontext zu verwenden als ›freie‹ Teile.«183 Situationen offenbaren sich entsprechend in Form des in ihnen gegebenen Materials, das je nach individueller Vorprägung – d.h. entsprechend den Sachkenntnissen des Problemlösers resp. dessen Erfahrung, vorhandener kognitiver Schemata und Muster –184 in manchen Hinsichten mal besser zugänglich und transformierbar ist, wäh-

178

Bereits Sartre hat den Begriff der Situation für die Existenzphilosophie im Zusammenhang mit menschlicher Freiheit diskutiert, wonach es Freiheit nur in der Situation (›en situation‹) und es Situation nur durch Freiheit geben kann. Vgl. Sartre (1943/2014). Entsprechend sei der Mensch nicht das, was ihn bestimmt, sondern das, was er tut. Vgl. König (2013: 182-185). In dieser Hinsicht sei das Phänomen der Situation im Folgenden vorwiegend in Bezug auf jene Handlungen und Aspekte hin zu untersuchen, die sie umstrukturieren. 179 Vgl. Duncker (1935/1963: 28ff). Vgl. auch weiter oben das Kapitel 6.3 ›Umstrukturierung und Einsicht‹. 180 Vgl. Ebd. 181 Vgl. Köhler (1921/1963: 17ff). 182 Vgl. Duncker (1935/1963: 102); Dörner (1976: 78). 183 Dörner (1976: 79). 184 Gerald Hüther vereinheitlicht die verschiedenen Begriffe – »Schema, Muster, Information, Programm und so weiter« – unter dem Ausdruck der inneren Bilder. Vgl. Hüther (2011: 18). Darunter versteht er diejenigen »Selbstbilder, […] die Menschenbilder und […] die Weltbilder, die wir in unseren Köpfen umhertragen und die unser Denken, Fühlen und Handeln bestimmen« Ebd.: 9. Diese erfahrungsbasierten Formen der kognitiven Schema- und Musterbildung verstehen sich dabei als Fixierungen und spielen im Zusammenhang mit dem Prozess des (kreativen) Problemlösens eine ambivalente Rolle, da sie sowohl als effizienter Wegbereiter als auch als hemmende Wegblockade fungieren können. Vgl. Hussy (1993: 120ff). Wie auch Weisberg in Bezug auf die eigene Erfahrung herausstellt, entwickelt sich die kreative Leistung aus der schrittweisen Veränderung und Bearbeitung früherer Arbeiten. Sie ist entsprechend hochgradig individuell und stützt sich auf ein detailliertes Fachwissen, das sich linear und progressiv aufbaut. Vgl. Weisberg (1989: 29ff). Donald A. Schön betont in diesem Zusammenhang mit Fokus auf die Person des Gestalters, dass diesem jedes gestalterische Projekt als Vorbereitung für alle zukünftigen Projekte dient und somit ebenfalls Teil einer linearen Entwicklung ist. Entsprechend erfolgt der Akt des Gestaltens zwar weitestgehend als Findung einer

7. Kreativität und Parametrie

rend es in manch anderen fixiert und unveränderlich erscheint. Es scheint entsprechend im Sinne einer (kreativen) Umstrukturierung des Situationsreliefs notwendig, die Gebundenheiten der Situation aufzulösen: indem Ganzheiten zerteilt und dessen Bestandteile in neue Kontexte und Verhältnisse überführt werden. Eben denjenigen Ganzheiten, die Wertheimer im Zusammenhang mit den Gestaltgesetzen als »erstere […], spontane, ›natürliche‹, normaliter zu erwartende« Formen der Wahrnehmung bezeichnete,185 gilt es nun entgegenzuarbeiten – durch eine gewisse Widerständigkeit und Ambiguitätstoleranz, wie sie für ein kreatives Denken charakteristisch ist.186 Ein Ansatz, der aufzeigt, wie dies erfolgen kann, findet sich dabei bereits Christian von Ehrenfels, dem Mitbegründer der Gestaltpsychologie, wenn er von der Höhe und Reinheit einer Gestalt spricht und wie diese zu erfassen sei.187 Ehrenfels gründet seine Überlegungen darauf, dass es einen Grad der Gestaltung gibt, der Auskunft über die Differenziertheit einer Gestalt gibt. So konstatiert er etwa, dass »eine Rose […] eine höhere Gestalt als ein Sandhaufen« habe, da das Rot der Rosenblätter eine »sattere – lebhaftere – Farbe ist, wie Grau« und dass das »Produkt von Einheit und Mannigfaltigkeit« bei der Rose größer ist als beim Sandhaufen.188 Die Bestimmung des Grades der Gestaltung bzw. die Vergleichbarkeit der Höhe der Gestalt macht Ehrenfels dabei an einem rückwärtigen Vorgehen fest, wodurch die Gestalten durch »zufällige, regellose Eingriffe schrittweise« abgetragen werden:189 »Welche der beiden Gestalten hierbei die weitere Skala von Veränderungen durchläuft, dies ist die höhere«, so Ehrenfels.190 Er beschreibt damit einen Prozess der Abstraktion, in welchem die Komplexität resp. Ausdifferenziertheit der Gestalt schrittweise auf eine simple Grundform reduziert wird. Je mehr Schritte es dazu benötigt, desto komplexer (höher) ist der Grad an Gestaltung resp. die Gestalt. Ehrenfels’ Ansatz kann in dieser Hinsicht und innerhalb der Diskussion um Parametrie als eine Reduzierung und Steigerung der Auflösung verstanden werden, in welcher die Dinge wahrgenommen werden. Dörner hat dazu für das Feld des Problemlösens den Begriff der Auflösungsgrade eingeführt, wie er bereits weiter oben knapp ausgeführt wurde.191 Diese ermöglichen es, eine Problemsituation (bzw. einen Realitätsbereich) in verschiedenen Graden der Abstraktion zu betrachten, Probleme in Teilprobleme zu zerlegen und diese entsprechend für manche Fälle differenzierter und für andere wiederum abstrakter wahrzunehmen.192 Eine Rose etwa kann in dieser Hinsicht

185

186 187 188 189 190 191 192

Lösung für ein Problem, darüber hinaus jedoch immer auch als selbstreferenzielle Erweiterung des eigenen gestalterischen Horizontes. Vgl. Schön (1990: 111-112). Wertheimer (1923: 302). Wertheimer erörtert dies anhand seiner Wahrnehmungsexperimente mittels grafischer Punktreihen, die gemäß den Gestaltgesetzen veranschaulichen, dass die Wahrnehmung bestimmter Punkt-Konstellationen anderen vorgezogen wird, etwa, wenn eine Gruppe von Punkten eine bestimmte Nähe oder Gleichförmigkeit aufweist. Neben der ersten, natürlichen Form der Wahrnehmung umschreibt Wertheimer die alternative Form, die Gegenform, als »zwar auch realisierbar, aber nur künstlich, resp. unter besonderen Umständen und etwa labiler« Ebd. Vgl. dazu Kapitel 7.1 ›Phänomen und Begriff‹. Vgl. Ehrenfels (1916/1960). Ebd.: 44. Ebd. Ebd. Vgl. dazu Kapitel 6.1 ›Problem und Lösung‹. Vgl. Dörner (1976: 18ff); Dörner (2002: 70ff, 115ff).

209

210

Prozess als Gestalt

als kompositorische Trennung eines Rot- und Grünbereichs wahrgenommen werden (geringer Auflösungsgrad), als Verästelung linearer Streben mit geschwungenem und verwachsenem Kopfende (erhöhter Auflösungsgrad) oder etwa auf atomarer Ebene als Konfiguration von Molekülen und Bindungskräften (höchster Auflösungsgrad).193 Mit jeder Erhöhung des Auflösungsgrades geht entsprechend eine Möglichkeit zu differenzierterem Handeln einher,194 d.h., je höher die Auflösung, desto mehr Parameter werden in der Betrachtung ansichtig und damit auch veränderlich. In gegenläufiger Richtung können komplexe Einzelphänomene wiederum als abstraktere Ganzheiten betrachtet werden. Dadurch werden sie handhabbarer und ebenso wieder zugänglich für Veränderungen.195 Sofern die Lösung für ein Problem entsprechend nicht auf Anhieb ersichtlich ist, erscheint es mitunter zielführend zu sein, den Auflösungsgrad der Betrachtung zu erhöhen oder zu reduzieren, um weiterführende Ansatzpunkte auf neuen Ebenen zu untersuchen.196 Für den einen Fall lassen sich die Dinge durch eine Erhöhung des Auflösungsgrades entsprechend weiter ausdifferenzieren (mehr Parameter werden ansichtig = Extension) – für einen anderen Fall wiederum lassen sich Phänomene verstärkt als Ganzheiten betrachten, wenn der Auflösungsgrad verringert wird (einzelne Parameter werden zusammengefasst und als ganzheitliche Einheiten handhabbar = Komprimierung). In der parametrischen Übertragung lässt sich das Phänomen der Auflösungsgrade demnach als dialogisches Wechselspiel zweier Funktionen verstehen: eine extensionale Funktion von Parametrie, verstanden als die Ausdifferenzierung von Einzelphänomenen (Erhöhung der Auflösung = mehr Parameter), und eine komprimierende Funktion, verstanden als die Zusammenfassung von Einzelphänomenen (Reduzierung der Auflösung = weniger Parameter).197 In beiden Richtungen ergeben sich dabei Möglichkeiten, eine derivative Breite nach Anschlussverwendungen abzufra-

Wie Dörner es beschreibt: »Betrachtet man ein System nicht mehr auf der Ebene seiner zunächst sinnfälligen Elemente, sondern auf der Ebene der Bestandteile dieser Elemente, so erhöht man den Auflösungsgrad der Betrachtung. Dies kann man prinzipiell bis zur atomaren oder bis zur subatomaren Stufe vorantreiben. Es stellt sich die Frage nach dem richtigen Auflösungsgrad.« Dörner (2002: 115). 194 »Erst die Erhöhung des Auflösungsgrades bietet die Möglichkeit für differenziertes Handeln.« Dörner (1976: 19). 195 Die Betrachtung komplexer Phänomene als handhabbare Einheiten kann, wie Dörner es in experimentellen Untersuchungen dargelegt hat, nicht zuletzt die Entscheidungsfreudigkeit der problemlösenden Person steigern: »Je weniger aufgenommene Information, desto mehr Entscheidungsfreude – und umgekehrt!« Dörner (2002: 150). 196 Dörner betont entsprechend die Bedeutsamkeit, den richtigen Auflösungsgrad für das jeweilige Problem zu wählen. Dabei geht er – analog zu Ehrenfels – von einer schrittweisen Annäherung aus: »Wie wählt man den richtigen Auflösungsgrad? Unseres Erachtens vernünftigerweise so, daß man ihn zunächst möglichst niedrig hält und ihn erst bei Mißerfolg des Problemlöseversuchs steigert.« Ebd.: 19. 197 Die Differenzierung hinsichtlich einer extensionalen und komprimierenden Funktion parametrischer Mechanismen erweitert dabei die weiter oben entwickelte Unterscheidung von Pre-Set und Post-Set insofern, als dass die Betrachtung der Dinge in Auflösungsgraden ein allgemeineres Prinzip darstellt, das nicht mehr nur im technisch-ästhetischen Zusammenhang gedacht werden kann, sondern auf grundlegenden Ebenen der menschlichen Wahrnehmung, wodurch es gleichsam für annähernd jede gestalterische Handlungsform anschlussfähig wird. Vgl. dazu auch weiter oben Kapitel 4.9 ›Standardisierung und Presets‹, insb. die Differenzierung in Pre-Set und Post-Set. 193

7. Kreativität und Parametrie

gen, d.h. nach auch anderen Zusammenhängen, die erst ansichtig werden, sobald eine Veränderung der Auflösungsgrade erfolgt ist. Dies alles macht anschaulich, dass die Wahrnehmung von Gestalten nicht allein auf Ganzheiten fixiert bleiben muss, wie es die Gestalttheorie dargelegt hat, sondern vielmehr, dass die Auflösung der ganzheitlichen Betrachtung je nach Anwendungsfall variieren kann. Dabei werden Gestalten nicht etwa zerstört, sondern reversibel – d.h. mal differenzierter, mal abstrakter – betrachtet, um eine durchgehende Anschlussfähigkeit zu gewährleisten. Eine Situation, in der sich ein Individuum befindet, vermag in dieser Hinsicht und zusammenfassend einerseits in engem Zusammenhang mit einer Ab-Sicht stehen, durch welche das Individuum motiviert ist, die Situation zu verändern. Andererseits vermag sie gleichsam durch die Möglichkeit zur Betrachtung der Dinge in verschiedenen Auflösungsgraden charakterisierbar zu sein, durch welche sie sich dem Individuum erschließt. Wie dieses wechselseitige Verhältnis aus Ab-Sicht und Veränderung der Auflösungsgrade in der Praxis zusammenwirkt und wie es im Sinne einer kreativen Umdeutung der Situation erfolgen kann, lässt sich für die folgende Erörterung mit Karl Dunckers Grundannahme auf den Begriff bringen, welche besagt, dass eine Lösung stets »aus der Beanspruchung des jeweils Gegebenen durch das jeweils Geforderte« entsteht198 und entsprechend von zwei Seiten begrenzt ist. So grundlegend Dunckers Formulierung die Thematik zunächst zusammenfasst, so differenziert erscheinen die Phänomene in weiterführenden Betrachtungsweisen: Dörner etwa spricht in dieser Hinsicht von Syntheseproblemen, bei welchem zwar Anfangs- und Zielzustand bekannt sind, die benötigten Mittel (Operatoren), um vom ersteren in den letzteren Zustand überzugehen, jedoch nicht.199 Neben dem Syntheseproblem bestehen nach Dörner noch die Problemtypen des Interpolationsproblems, in welchem alle Zustände und Operatoren zwar bekannt sind, die richtige Reihenfolge jedoch unbekannt ist, und das dialektische Problem, bei welchem die Mittel zwar bekannt, Anfangs- und Zielzustand dagegen unbekannt sind.200 Weiter benennen etwa Taylor und Gantz eine solche von zwei Seiten begrenzte Handlungsform – in behavioristischer Anleihe – als eine der Interaktion (›interaction‹). Dabei werden die eingehenden Stimuli (S) im Prozess einer neuen Organisation (O) umstrukturiert und als Reaktion (R) handlungsspezifisch verarbeitet (S-O-R-Schema). Der Interaktion geht die Handlungsform der Reaktion (›reaction‹) voraus, welche lediglich auf Reize reagiert, ohne diese umzustrukturieren (S-RSchema). Der Interaktion nachfolgend, als dritte und höchste – und gleichsam kreativste – Form handlungsspezifischen Verhaltens, nennen Taylor und Gantz die Transaktion (›transaction‹), in welcher die Organisation der Dinge dem Gegebenen nicht wie in der Interaktion nachfolgt, sondern den Gegebenheiten vorausgeht (O-R-S-Schema).201 Die Handlung hat dabei nun nicht mehr Informations-empfangenden, sondern Struktursendenden Charakter. Das Individuum bestimmt dabei – letztlich durch dessen innere Vorprägung und Wahrnehmungsstruktur (›the inner world of perception‹) – wie die Dinge sich verhalten sollen, anstatt sie als gegeben hinzunehmen. Dies erfolgt durch

198 199 200 201

Duncker (1935/1963: 13). Vgl. Dörner (1976: 11ff). Vgl. Ebd. : 14. Vgl. Taylor; Gantz (1969).

211

212

Prozess als Gestalt

ein Verhalten, das sich nicht zuletzt als unabhängig und/oder unkonformistisch offenbart (›independent or unconforming behavior‹), wodurch es gleichsam als kreativ zu bezeichnen ist.202 Entsprechend offenbart sich nach Taylor und Gantz das Maß an Kreativität bei Reaktionen als nicht vorhanden, bei Interaktionen als eingeschränkt und erst bei Transaktionen in vollem Potenzial, als dessen grundlegende Basis. Wenn von der Auflösung von Gestalten, der Begrenzung von zwei Seiten und Reaktionen, Interaktionen und Transaktionen zu sprechen ist, so vermag dies zunächst den situativen Rahmen bereitzustellen, in dem ein Individuum sich mithilfe eines kreativen Denkens zurechtzufinden kann. Es bleibt im Folgenden zu klären, auf welche Art und Weise dies möglich wird und welche Mechanismen der Situationsbewältigung daran abgelesen werden können. Um dies anschaulich zu machen, sei im Folgenden ein exemplarisches Beispiel angeführt, in welchem der Psychologe Robert W. Weisberg auf eine eigens gemachte Erfahrung zurückgreift und diese schildert. Daran kann aufgezeigt werden, dass die Ab-Sicht als anleitendes Phänomen einen Suchprozess einleitet, der durch das Variieren der Auflösungsgrade eine aktiv-gestalterische Handlung darstellt, die auch als eine Form der Improvisation verstanden werden kann. Das Beispiel, das Weisberg als eigenen Erfahrungsbericht anführt, handelt von einer Autofahrt, die er kurzerhand unterbrach, weil der Bremsverstärker des Wagens ausgefallen war.203 Noch im Unklaren darüber, was das Problem verursacht hat, öffnete Weisberg die Motorhaube und stellte fest, dass ein kleines Ventil ein zischendes Geräusch erzeugte. Er legte die Hand auf das Ventil, worauf das Zischen aufhörte und seine Hand durch einen Unterdruck angesogen wurde. Ein Test mit seinem Beifahrer bestätigte, dass das Bremspedal wieder funktionierte, sobald die Hand das Ventil verschloss. Das Problem, dem Weisberg sich gegenübergestellt sah, bestand also darin, eine Möglichkeit zu finden, das Ventil abzudichten. Um dies umzusetzen, bediente sich Weisberg einem Stück Pappe, das er im Wagen mitführte. Die Fahrt konnte er zunächst fortsetzen, befürchtete jedoch, dass das Provisorium dem Unterdruck des Ventils nicht lange standhalten würde. Er überlegte während der Fahrt um eine neue Möglichkeit, das Ventil abzudichten: am besten durch eine Art Metalldeckel mit einem Durchmesser von zwei bis drei Zentimetern – wie könnte man so etwas herstellen oder finden? Noch während er über das neue Problem nachdachte, musste er anhalten, um eine Straßennutzungsgebühr zu bezahlen. Als er eine Vierteldollarmünze aus der Geldbörse nahm, kam ihm plötzlich der erhellende Gedanke, dass die Münze die Anforderungen an den erdachten Metalldeckel bestens erfüllte. Damit schloss Weisberg die Suche nach einer Lösung des Problems zunächst ab. Seine Leistung beschreibt Weisberg zwar als kreativ, jedoch als wenig beeindruckend. Er ist der Ansicht, dass es nicht etwa außergewöhnliche, ›geniale‹ Prozesse und Einfälle sind, die zu einer kreativen Leistung führen, sondern schrittweise Annäherungen in Form von verketteten Reaktionen, die neue Lösungen in Aussicht stellen.204

202 Vgl. Ebd.: 3. 203 Vgl. Weisberg (1989 : 19ff). 204 »Das kreative Handeln vollzieht sich vielmehr langsam und schrittweise, und die vertraute Art, mit einem Problem umzugehen, entwickelt sich ganz allmählich zu etwas Neuem.« Ebd. : 29. In diesem Zusammenhang betont Weisberg vor allem das reaktive Moment, das Problem und Anforderungen des-

7. Kreativität und Parametrie

Dass dies im obigen Beispiel der Fall ist, wird besonders an der zweistufigen Lösung anschaulich, eben wenn die erste provisorische Lösung, der Pappdeckel, von einer stabileren, dem Metalldeckel, abgelöst wird. Diese Lösung stellt sich als Ergebnis einer Suche ein, die eigentlich bereits beendet wurde. Jedoch zweifelte Weisberg während der Weiterfahrt an der Stabilität der Pappdeckel-Lösung, führte jedoch aktiv keine Änderung herbei, weil es an Alternativen fehlte. Die Suche wurde nicht mehr aktiv, sondern passiv weitergeführt, weil der Pappdeckel keine dauerhaft befriedigende Lösung darstellte.205 Das Finden der Vierteldollarmünze als Lösung versteht sich in diesem Zusammenhang als Resultat einer im Unterbewusstsein weitergeführten Suche,206 durch welche die Situation weiter betrachtet wird, bis ein Gegenstand – in welchem Auflösungsgrad auch immer – in den Aufmerksamkeitsbereich des Individuums vordringt und die Suchanforderungen mit einer bestimmten Wahrscheinlichkeit erfüllt. Es stellt sich ein überraschendes Aha-Erlebnis ein, welches die Gegebenheiten scheinbar sprunghaft in geordnete Verhältnisse bringt.207 Die Frage nach der Aufmerksamkeit ist in diesem Zusammenhang insofern bedeutsam, als dass die Vierteldollarmünze und die Information über ihre tauglichen Eigenschaften im Prozess der aktiven Suche nicht anschaulich zugänglich bzw. gedanklich nicht greifbar oder verfügbar waren.208 Erst als Weisberg die Münze im Rahmen einer routinierten Bewegung hervorholte, wurde sie als mögliche Lösung ansichtig und gemäß den Suchkriterien evaluiert. Von ihrer Verwendung als Zahlungsmittel mit gewissem Gegenwert (hoher Auflösungsgrad) wurde die Münze

205

206

207

208

selben umstrukturiert: »Beim kreativen Problemlösen wird durch eine neuartige Reaktion ein gegebenes Problem gelöst.« Ebd.: 18. Wie Weisberg es schildert: »Hätte ich den Pappdeckel von Anfang an für eine akzeptable Lösung gehalten, hätte ich den Vorfall einfach vergessen und in meiner Umgebung auch keinen Gegenstand gefunden, der mir das Problem wieder ins Gedächtnis gerufen hätte.« Ebd.: 20. Derartige unterbewusste Prozesse stehen seit jeher mit dem Begriff der Kreativität in Verbindung und dabei insbesondere mit dem Begriff der Inkubation, wie er von Wallas erstmals 1926 zur Beschreibung unbewusst ablaufender Denkprozesse eingeführt wurde. Vgl. Wallas (1926/2014) sowie Kapitel 7.1.4 ›Der kreative Prozess‹. Der amerikanische Psychologe Jerome S. Bruner spricht in diesem Zusammenhang entsprechend vom Moment einer »effektiven Überraschung« (›effective surprise‹), welches kreative Prozesse allgemeinhin kennzeichnet. Vgl. Bruner (1962). Vgl. dazu Kahneman; Tversky (1972) zur sogenannten ›Verfügbarkeitsheuristik‹, wonach die kognitive Zugänglichkeit zu Informationen vor allem durch eine Lebendigkeit und Anschaulichkeit der jeweiligen Informationen gesteigert wird. Nach Hussy senkt die Anschaulichkeit von Informationen und den gegebenen Zusammenhängen zwischen denselben auch die generelle Problemschwierigkeit, durch sogenannte Bereichseffekte, die dann in Kraft treten, wenn Informationen etwa nicht in erfahrungsfremder Art und Weise, d.h. in Kontexten, die dem Subjekt selbst fremd sind, dargeboten werden, sondern in einen solchen Kontext überführt werden, welcher der problemlösenden Person gut bekannt ist. Zumeist erfolgt dieser Transfer durch eine andere Namensgebung, wie es auch etwa bei mathematischen Schulaufgaben oftmals der Fall ist, wenn nicht etwa von Objekt 1, 2, und 3 gesprochen wird, sondern von Äpfeln, Bananen und Birnen. Vgl. dazu Hussy (1984: 137ff). Vgl. dazu auch Vester (2015: 340), der diesen Standpunkt auch aus neurobiologischer Sicht vertritt. Nicht zuletzt erscheint die Generierung einer Anschaulichkeit in dieser Hinsicht ebenfalls eine Komponente des kreativen Denkens zu sein, die gemäß der oben angeführten Definition Sinnzusammenhänge zwischen vermeintlich fremdartigen Phänomenen herstellt, die bislang nicht vorhanden und/oder nicht einsehbar waren.

213

214

Prozess als Gestalt

von Weisberg auf die Eigenschaften ihrer physikalischen Beschaffenheit reduziert (geringer Auflösungsgrad). Dadurch ergaben sich neue Anschlusspunkte und derivative Verwendungsweisen, die sich nicht mehr auf den symbolischen Geldwert, sondern auf den materiellen Funktionswert verstanden. Eine solche, durch den Wechsel der Auflösungsgrade veränderte Wahrnehmung evoziert entsprechend neue Assoziationen eines Gegenstandes zur Situation, in der er aufgefunden wird, und bietet damit gleichsam die Chance, neue Verhältnisse darin zu etablieren. An Weisbergs Schilderung wird weiter anschaulich, dass sich Handlungen der Improvisation als Reaktionen auf veränderte Verhältnisse zu einer (Problem-)Situation eröffnen. Es erfolgt eine Neujustierung eben jener Verhältnisse in Bezug auf das situativ Gegebene und das intentional Geforderte. Ein wesentlicher Aspekt einer Improvisation besteht dabei in der kurzfristigen Notwendigkeit einer Lösung: Der Suchprozess stellt sich dabei als ein kreativ-produktives Überbrücken einer Lücke innerhalb einer unvorhergesehenen Notwendigkeit dar (lat. ›in- pro- videre‹, dt. ›un- vor- (ge)sehen‹), die ein Provisorium erforderlich macht,209 wodurch automatisch neue – da nicht optimale – Lösungen und Betrachtungsweisen in den Prozess Einzug erhalten und ggf. zu Innovationen führen.210 In dieser Hinsicht kann Improvisation entsprechend vorerst als eine Handlung verstanden werden, die mit einem Unvorhergesehen in ebenso unvorhergesehenen Art und Weise umgeht. In Folge eines solchen Verständnisses, das auf der Veränderung von Auflösungsgraden und dem reaktionären Setzen neuer Verhältnisse gründet, kann ein kreatives Denken in zwei Ausrichtungen angenommen werden: einerseits mit Hinsicht auf die Umstrukturierung des Problems (›Das Auto fährt nicht mehr‹ wird zu ›Das Ventil muss abgedichtet werden‹ umstrukturiert), andererseits bezogen auf die Umdeutung der beanspruchten Gegenstände (›Pappe als Deckel‹ bzw. ›Vierteldollarmünze als stabiler Verschluss‹).211 Ein kreatives Denken vermag sich dabei auf zwei Aspekte zu stützen, die für die jeweilige Auseinandersetzung wesentlich erscheinen: sowohl einerseits ein

209 Das provisorische Moment wird dabei ebenso in der formalen Definition und Wortherkunft des Begriffs der Improvisation anschaulich: Der Duden umschreibt die Improvisation dabei als eine Leistung, die »ohne Vorbereitung, aus dem Stehgreif « erfolgt und insofern eine »Stehgreifschöpfung« beschreibt. Duden (2011: 906), Improvisation. In seiner etymologischen Herkunft ist der Begriff dem Italienischen ›improvisso‹ (dt. ›unvermutet‹) entlehnt (18. Jh.), welcher wiederum auf das lateinische Stammverb ›providere‹ (dt. ›vorhersehen, Vorkehrungen treffen‹) zurückzuführen ist und dessen Bedeutung durch das Präfix ›in-‹ in sein Gegenteil gewandt wird. Kluge; Seebold (2011: 441), improvisieren. 210 Eine optimale Lösung wäre in dieser Hinsicht das passende Ersatzteil gewesen. Dem Phänomen der Improvisation vermag entsprechend eine innovationsfördernde Wirksamkeit zugesprochen werden, wie Frye es etwa mit Hinsicht auf die handwerkliche Praxis des Designmodellbaus anschaulich zu machen suchte. Vgl. Frye (2017: 38ff). 211 Diese Feststellung deckt sich mit der Überlegung Dunckers, nach welcher ein Lösungsprozess stets zwei Zielrichtungen aufweist: »Die Endform einer Lösung wird typisch auf dem Wege über vermittelnde Prozeßphasen erreicht, deren jede nach rückwärts Lösungscharakter, nach vorwärts Problemcharakter besitzt.« Duncker (1935/1963: 10). In Bezug auf die gegenwärtige gestalterische Praxis formuliert Nigel Cross den Umstand wie folgt: »In practice, designing seems to proceed by oscillating between sub-solution and sub-problem areas, as well as by decomposing the problem and combining sub-solutions.« Cross (2007: 78).

7. Kreativität und Parametrie

fundiertes Sachwissen als auch andererseits die Fähigkeit, dieses Sachwissen in neue Beziehungen zu setzen – und Letzteres entsprechend so, dass sich das Gegebene einem Geforderten anzunähern vermag. Dies heißt nichts anderes, als dass kreatives Denken im Sinne eines Improvisierens nicht etwa willkürlich Dinge miteinander in Beziehung setzt, sondern innerhalb verschiedener Auflösungsgrade zielgerichtet nach Sinnzusammenhängen sucht, welche die Lösungsanstrengungen weiter vorantreiben und in diesem Verständnis produktiv (lat. ›producere‹ = dt. ›vorgehen‹) und kreativ (lat. ›creatio‹ = dt. [Sinnzusammenhänge] ›herstellen‹) zugleich sind. So hilft es zumeist wenig, bei einer Autopanne den Scheibenwischer zu aktivieren und abzuwarten, sondern ggf. mehr, die Motorhaube zu öffnen und zu ergründen, welche Komponenten den Ausfall der Fahrtüchtigkeit verursacht haben könnten und weiter zu fragen, wie das situativ gegebene Material einerseits und die eigene Erfahrung andererseits zu einer Lösung beitragen könnten. Letztere Vorgehensweise vollzieht dabei als selektive Bewertung der möglichen Handlung in einem vorausplanerischen Sinne, als Richtung, wie Wertheimer es nannte,212 d.h. als Evaluierung einer Wahrscheinlichkeit hinsichtlich einer potenziell brauchbaren Lösung des Problems, welche unmittelbar umgesetzt werden kann.213 Den Scheibenwischer in dieser Situation zu aktivieren vermag in einer sehr spezifischen Art und Weise auch einen nützlichen Sinn zu haben – mit dem gegebenen Umstand und der Ursache der Panne jedoch weitestgehend unverbunden zu sein, was ein erfolgreiches Lösen des Problems zunächst unwahrscheinlich macht. Jedoch wäre ein solcher Vorschlag ggf. nicht weniger kreativ; er würde lediglich zu keiner unmittelbar nutzbaren Lösung führen. Es bedarf in dieser Hinsicht – und im Sinne von Improvisation – einer brauchbaren Lösung, die dem Zweck in unmittelbarer Art und Weise dient und entsprechend mit einer gewissen Zielrichtung nach einer Lösung sucht.214 Improvisation ist dabei als Suchprozess zu verstehen, der – durch die schrittweise Veränderung der Auflösungsgrade – die Problemstruktur einerseits und das situative Material andererseits mit einer gewissen Zielgerichtetheit mitunter spielerisch abtastet.215 Der tastende Abgleich von Gegebenem und Gefordertem macht

212 213

Vgl. Wertheimer (1945/1957: 112). De Bono spricht in diesem Zusammenhang, angelehnt an die menschlich-evolutionären Vorbedingungen, von einem Selektionsmechanismus, der Eindrücke und gedankliche Muster nach ihrer Nützlichkeit sortiert und nur diejenigen Bestand haben lässt, die unmittelbar zum »Überleben« der Sache beitragen. Vgl. de Bono (1992: 34). Gabriel spricht dagegen von »Lösungsstrategien«, die man »nach ihrer Effizienz ordnen [kann]«, für die es aber »kein absolutes Effizienzkriterium [gibt]« Gabriel (2020: 190, 191). 214 Wie Weisberg es ferner in seinen Ausführungen darlegt, muss eine kreative Lösung gleichsam zweierlei Anforderungen erfüllen: eine der Neuartigkeit und eine der Nutzbarkeit. Nur eine der beiden zu erfüllen, reicht nach Weisberg nicht aus: »Versuche ich das Problem, meinen Wagen in Gang zu bringen, dadurch zu lösen, daß ich mit dem Kopf gegen die Wand stoße, so mag das durchaus eine neuartige Reaktion sein. Auch andere mögen sie für neuartig halten. Vielleicht habe ich das zuvor noch nie getan, erst recht nicht in einer solchen Situation. Aber neuartig oder nicht, mein Problem wird so nicht gelöst, und damit ist die Lösung auch nicht kreativ.« Weisberg (1989: 18). 215 Wie Meisenheimer es ausführt: »Improvisation ist zudem eine Art spielerischer Probe. Im Spiel können die Elemente, anders als bei leistungsorientierter Arbeit, versuchsweise eingesetzt, herausgenommen und durch andere ersetzt werden; sogar die Spielregeln stehen zur Disposition; man kann andere vereinbaren.

215

216

Prozess als Gestalt

dabei ebenso eine zeitliche Dimension anschaulich, in Form einer Frequenz, in der dieser Abgleich erfolgt. Die linearen Prozessschritte der Suche – Input/Output/Evaluation (Wahrscheinlichkeit) – bilden dabei rekursive Feedback-Schleifen, die in derart engen Zyklen verlaufen, dass sich der Eindruck einer Gleichzeitigkeit einstellt; eines Veränderns der Suche während der Suche resp. eine Formung während der Formung. Donald A. Schön hat ein solches Phänomen zu Beginn der 1980er-Jahre für das Entwerfen mit dem Ausdruck des ›Reflecting-in-action‹ auf den Begriff gebracht.216 Darunter versteht er die unmittelbare Anpassung einer Handlung während des Prozesses des Handelns selbst.217 Die Handlung bzw. in diesem Fall die Suche wird nicht zuletzt durch den Umstand angeleitet, dass sie nach vorne hin offen ist und die situativen Gegebenheiten in iterativen Zyklen gemäß der (Such-)Anforderungen – die sich ebenso innerhalb der Suche verändern können – fortwährend überprüft. Die Suche ist demnach durch das situative Material begrenzt, welches das Individuum mehr oder weniger unmittelbar umgibt und welches von selbigem im Zuge einer Lösungsfindung permanent umgedeutet wird. Diese Umdeutung vermag nichts anderes zu meinen, als die Gegenstände nicht etwa in ihrer jeweiligen Produktform und ihrer intendierten Verwendungsart (hoher Auflösungsgrad), sondern mit Bezug auf die davon abstrahierten Eigenschaften anzusprechen (geringer Auflösungsgrad): etwa, wenn nicht ein ›3,5 mm großes Rohrventil‹ mit einem ›3,5 mm großem Verschlussdeckel‹ luftdicht verschlossen werden muss, sondern eine ›ansaugende Öffnung‹ lediglich ›zugemacht‹ werden soll (ProblemUmstrukturierung).218 Es wird nach eben denjenigen Eigenarten gesucht, die Duncker im Zusammenhang mit produktivem Denken als »Resonanzwirkung eines Signalements« beschreibt.219 Darunter versteht er das Wechselverhältnis eines »Suchmodells« zu einem »Suchbereich«, in welchem die sowohl in der Situation gegebenen Gegenstände als auch die Vorstellung des Geforderten (Signalelemente) im Wahrnehmungsfeld des Individuums eine Reaktion auslösen (Resonanz).220 Dabei merkt Duncker an, dass innerhalb dieses Suchprozesses sowohl ein »bestimmtes individuelles Ding« als auch »irgend etwas Deshalb ist jedes Kind und jeder Künstler gern und grundsätzlich ein Spieler; er variiert sein Vorgehen mit Lust und dies immer wieder.« Meisenheimer (2010: 84). 216 Vgl. Schön (1983: 55ff). In gedanklicher Anleihe kann mitunter auch auf Heinrich von Kleist verwiesen werden, der bereits um 1800 von der »allmähliche[n] Verfertigung der Gedanken beim Reden« gesprochen hat. Vgl. Kleist (1978: 453). 217 An den Beispielen eines Baseball-Spielers und eines Jazz-Musikers macht Schön anschaulich, dass sich ein Gefühl für das Richtige einstellt (›feel for the ball‹/'feel for the music‹), sobald man mit den Gegebenheiten der Situation konfrontiert wird und die eigenen Handlungsschemata und Erfahrungen in neuer Weise darin arrangiert: »As the musicians feel the direction of the music that is developing out of their interwoven contributions, they make new sense of it and adjust their performance to the new sense they have made. […] They are reflecting-in-action on the music […], thinking what they are doing and, in the process, evolving their way of doing it.« Schön (1983: 55-56). In gleicher Hinsicht hält etwa Özkar es im Zusammenhang mit der Erzeugung repetitiver, grafischer Muster als visuelles Denken fest: »[…] the designer acts on what he sees during design construction. The variety of patterns relies on such actions. […] I value these examples as illustrations of visual thinking at work.« Özkar (2014: 57). 218 Vgl. dazu auch die Klassifizierung in gut und schlecht strukturierte Probleme nach McCarthy, Simon und Bonsiepe, wie sie weiter oben im Kapitel 6.1 ›Problem und Lösung‹ dargelegt wurde. 219 Vgl. Duncker (1935/1963: 89ff). 220 Duncker macht dies an der Suche eines Bleistifts auf einem Tisch anschaulich: »Ich suche auf dem Tisch vor mir nach einem Bleistift. Der Blick wandert umher, bis er schließlich am Bleistift ›hängen bleibt‹.

7. Kreativität und Parametrie

So-und-so-Artiges« gesucht werden kann, zum Beispiel etwas Längliches oder Stockartiges.221 Das kognitive Suchmodell/Signalelement vermag sich entsprechend nicht nur auf Konkretes, sondern ebenso – und im kreativen Zusammenhang umso mehr – auf Abstraktes zu verstehen.222 Innerhalb der Suche nach einer improvisierten Lösung löst sich die produktspezifische Ausrichtung der Gegenstände entsprechend auf und offenbart dessen abstrakte Eigenschaften bzw. dessen ›-Haftiges‹: Weisberg suchte nicht nach dem passenden, optimalen Ersatzteil, dem ›3,5 mm Verschlussdeckel‹, sondern nach einem ›relativ kleinen, flachen und stabilen Teil, das zu entbehren ist und ggf. in eine andere Form gebracht werden kann‹, also nach Eigenschaften, die einem Gegenstand ›anhaften‹. Mit dieser vorbestimmten Haltung (Suchmodell/Signalelement), die auch als Anforderungskatalog verstanden werden kann, untersuchte Weisberg die Umgebung resp. sein Auto (Suchbereich) und fand eine Pappe, die diese Anforderungen auf einem abstrakten Niveau erfüllte. Gleichsam verhält es sich für die Vierteldollarmünze, welche beim Bezahlen der Maut in den Aufmerksamkeitsbereich der Suche einbezogen und entsprechend durch verschiedene Auflösungsgrade betrachtet wurde.223 Die Zielrichtung des (kreativen) Denkens verläuft dementsprechend vom Spezifischen zum Allgemeinen – und ebenso wieder zurück –, sodass die dem konkreten Produkt anhaftenden Eigenschaften in den Fokus der Aufmerksamkeit rücken. Die eigene Aufmerksamkeit eröffnet sich dabei nicht etwa als weniger zielgerichtet, sondern lediglich in anderer Fokussierung resp. in anderem Auflösungsgrad: nicht mehr in buchstäblicher Hin-Sicht auf die singuläre Verwendung von nur einem bestimmten, optimal passenden Teil, sondern als Ab-Sicht auf die grundlegenden Eigenschaften, die das Potenzial einer neuen, derivativen Verwendung offenbaren und damit eine neue Breite an Lösungen zugänglich machen. An den Ausführungen ist anschaulich geworden, in welchem Zusammenhang das Phänomen der Improvisation mit dem Begriff der Ab-Sicht steht und welche Aspekte eines kreativen Denkens daran ablesbar sind. In der Zusammenfassung ergeben sich daraus folgende Wesensmerkmale, die für den Begriff der Improvisation in der dargelegten Auffassung kennzeichnend erscheinen: Erstens und in allgemeiner Betrachtung kann Improvisation als prozessuales Wechselspiel zwischen einem Gegebenen und einem Geforderten verstanden werden. Auf — Wir haben also zu unterscheiden: ein Signalement oder ›Suchmodell‹ (vgl. die ungefähre Vorstellung des Bleistifts) und einen ,Suchbereich‹ (vgl. den Tisch).« Ebd.: 90. 221 Vgl. Ebd. 222 Wie Duncker es an anderer Stelle noch allgemeiner formuliert: »Das Gesuchte braucht kein Ding zu sein. Es kann auch ein Verfahren sein, ein Weg zu . . Die signalisierte Eigenschaft lautet dann eben ›hinführend zu dem und dem Effekt‹.« Ebd.: 91. 223 Es wäre dementsprechend anzunehmen, dass jede Form der aufmerksamen Suche die Bereitschaft zur Veränderung der Auflösungsgrade bestärkt. Das Phänomen der Aufmerksamkeit spielt dabei eine nicht unbedeutsame Rolle, insofern, als dass sie verschiedene kognitive Prozesse fördert bzw. verbessert, wie Norman es etwa festhält: »Folgende unmittelbare Leistungen ermöglicht uns die Aufmerksamkeit, wodurch wir, besser als es sonst möglich wäre, a) wahrnehmen b) vorstellen c) unterscheiden d) erinnern können, und zwar sowohl mehrere aufeinanderfolgende Dinge als auch jedes Ding mit größerer Klarheit. Weiterhin e) verkürzt sie die ›Reaktionszeit‹.« Norman (1973: 23). Eine Veränderung der Auflösungsgrade wäre entsprechend als die Konsequenz eines Zusammenwirkens besagter Prozesse zu verstehen: als Streben nach größerer Klarheit.

217

218

Prozess als Gestalt

Seiten des Gegebenen sind es das situative Material und die Vorkenntnisse resp. Erfahrungen des Individuums, mit welchen versucht wird, ein Gefordertes (Ziel) zu erreichen. Entsprechend ist dieses Wechselspiel als fortwährender Suchprozess zu betrachten, welcher sich im Voranschreiten stets immer wieder aktualisiert und neue Erkenntnisse als Informationen in den dialogischen Prozess miteinbezieht, die wiederum als Reaktionen eine Veränderung sowohl der Suchrichtung als auch der Zielformulierung bewirken können.224 Zweitens erscheint dieser dialogische Suchprozess von einer intentionalen Bestrebung motiviert, das Geforderte unter Einbeziehung von Umwegen erreichen zu wollen, die sich nicht zuletzt aus einer situativen Notwendigkeit ergeben.225 Darauf begründet sich der Begriff der Ab-Sicht, wie er weiter oben erörtert wurde und welcher den Blick nicht etwa auf die singulären, einzelnen Primärfunktionen der Dinge, sondern auf dessen derivative Eigenschaften und Eigenarten richtet und diese in Form einer Breite von neuen Ansatzpunkten auslegt. Die Ab-Sicht löst dabei jene vermeintlichen Begrenzungen auf, die den Weg an ein Ziel bis dahin versperrten und strukturiert entsprechend nicht nur die Gegenstände, sondern gleichsam die Problemstellung um und umgekehrt. Drittens konnte anschaulich gemacht werden, dass der dialogische Abgleich zwischen Gegebenem und Gefordertem, wie er sich als Suchprozess und im Begriff der AbSicht manifestiert, auf der stetigen Veränderung der Auflösungsgrade beruht, in welchen die Gegebenheiten betrachtet werden. Während eine Erhöhung der Auflösungsgrade eine Erweiterung in der Tiefendimension bewirkt, ermöglicht eine Reduzierung der Auflösung neue Ansatzpunkte im Sinne von Querverweisen, über welche neue Verhältnisse im gegebenen Material angelegt werden können. Ersteres bestärkt dabei im parametrischen Zusammenhang die extensionale Funktion von Parametern (eine erhöhte Beschreibbarkeit, durch welche neue Parameter sichtbar und steuerbar werden), während Letzteres die komprimierende Funktion (die Zusammenfassung von Einzelphänomenen zu ganzheitlichen Gruppierungen) parametrischer Mechanismen ansichtig werden lässt. Viertens kann festgehalten werden, dass sich die Veränderung der Auflösungsgrade und damit der Parameter, die dadurch ansichtig werden, im Modus eines ›trialand-error‹- Prinzips vollzieht, durch welches Formen der Improvisation nicht zuletzt einen Charakter des Vorläufigen und Unfertigen erhalten. Eine Evaluation kann entsprechend einzig durch ein gedankliches oder handwerkliches Ausprobieren stattfin224 In dieser Hinsicht versteht sich eine Reaktion als Bewertung einer Information, wie Breidbach es im Zusammenhang mit der systemischen Einbettung von Informationen formuliert: »Eine Information wird in dem Gefüge vernetzter Systembestandteile in der Vielzahl der Zugriffe fortwährend neu bewertet.« Breidbach (2008: 41). Eine solche Neu-Bewertung kann entsprechend zu einer kreativen Reaktion führen. 225 Sobald eine Problemsituation entsteht, heißt dies ebenso, dass eine Absicht bzw. der Weg zum Ziel bzw. ein reibungsloser Ablauf unterbrochen wurde. Aus der Bestrebung, diese Unterbrechung aufzuheben, ergibt sich entsprechend die Motivation, in der Situation proaktiv zu handeln und ebenso, jenes situative Material zu nutzen, das in der Situation gegeben ist. In diesem Sinne erscheint der Begriff der Notwendigkeit als eine Grenze der Verfügbarkeit derjenigen Gegebenheiten, mittels welcher das Individuum die Situation verändern kann.

7. Kreativität und Parametrie

den; ein solches, das nicht auf Wahrheiten, sondern auf Wahrscheinlichkeiten gründet. Dementsprechend erscheinen Prozesse der Improvisation stets von einer Form der Unsicherheit begleitet, die nur insofern gehandhabt werden kann, als dass sie so lange immer wieder neu hinterfragt wird, bis die Dinge auf Dauer gestellt werden können.226 Fünftens macht eine solche Form der Unsicherheit anschaulich, dass in Prozessen der Improvisation ebenso stets die Möglichkeit gegeben ist, dass die gewählte Lösung auch nicht funktioniert. Im Beispiel Weisbergs wäre dies etwa der Fall gewesen, wenn die Pappe dem Unterdruck des Ventils nicht standgehalten hätte.227 Die mögliche Fehlbarkeit einer Lösung zeugt entsprechend einerseits von ihrem innovativen Potenzial, andererseits von dem Risiko, die Konsequenzen jener Fehlbarkeit tragen zu müssen. Die Fähigkeit, ein solches Risiko resp. eine solche Unsicherheit auszuhalten, versteht sich nach Guilford als Charakteristikum einer kreativen Person; als Ambiguitätstoleranz, die es ermöglicht, Widersprüche, Spannungen und Unsicherheiten auszuhalten und gleichsam an der Auflösung derselben zu arbeiten.228 Sie offenbart sich als Motivation, Unsicherheiten in Kauf zu nehmen und bewusst gegen etablierte Lösungen anzuarbeiten – im Modus eines Trotzdem, das gefestigtes Pfade verlässt, um neue (Um-)Wege zu ebnen und dadurch gleichsam neue Sinnzusammenhänge herstellen zu können. Ebene jene Widerstandskraft versinnbildlicht ein parametrisches Verständnis der Phänomene, da in Parametern die Veränderbarkeit der Dinge immer schon mit angelegt ist – für den einen Fall verhalten sich die Dinge so, für einen anderen wiederum ganz anders. In diesem Sinne kann Parametrie im kreativen Zusammenhang als jene Wirkkraft verstanden werden, die immer wieder gegen (gr. = ›para‹) etablierte Verhältnisse bzw. gegen jede formale Messbarkeit (gr. = ›metron‹) anarbeitet, indem sie die Dinge nicht dauerhaft fixiert, sondern stets ihre Kontingenz und Verhandelbarkeit veranschaulicht. Sechstens machen die Wesensmerkmale der potenziellen Fehlbarkeit, des Vorläufigen und Unfertigen anschaulich, dass der Improvisationsprozess nicht nach endgültigem Abschluss, sondern nach stetiger Verbesserung strebt. Improvisation erscheint in dieser Betrachtung als ein nach vorne hin offener Prozess, der sich als tastender Versuch des ›trial-and-error‹ immer wieder aufs Neue an den sich verändernden Gegebenheiten und gewonnenen Erkenntnissen ausrichtet. In dieser Hinsicht etabliert sich in der Improvisation eine Denk- und Handlungsform der Gleichzeitigkeit, die sich nicht an

226 Dies wird für das Feld der Gestaltung mitunter am Designmodellbau anschaulich, wie Annika Frye es etwa am Beispiel der Entwicklungsarbeit der Firma Braun für Rasierapparate dargestellt hat. Vgl. Frye (2017: 54ff). Aus Vormodellen lassen durch ihre Vorläufigkeit entsprechend überprüfbare Erkenntnisse darüber gewinnen, wie Produkte für die Massenproduktion gestaltet und in diesem Sinne auf Dauer gestellt werden können. Entsprechend geht die Improvisation der Innovation voraus, wie Frye es darstellt: »So setzt gerade der Prozess des Entwerfens, der zur Erstellung des Planes für ein Serienprodukt notwendig ist, Improvisation voraus. […] Improvisiert wird dann, wenn Modelle gebaut, Prototypen hergestellt und schließlich Werkzeuge zur Produktion eines Designprodukts entwickelt werden müssen.« Ebd.: 15. 227 »Die Lösung mit dem Pappdeckel konnte Probleme mit sich bringen, sofern der Unterdruck im Rohr ausreichte, um diesen Deckel zu zerstören.« Weisberg (1989: 19). 228 Vgl. Guilford (1975: 45).

219

220

Prozess als Gestalt

objektiven Maßstäben eines Äußeren orientiert, sondern eigene, dynamische Maßstäbe einer vorläufigen Richtigkeit aus dem Inneren des Prozesses selbst bezieht. Nach der ersten Verortung von Improvisation aus wahrnehmungspsychologischer Perspektive gilt es im Weiteren zu klären, wie die dargelegten Phänomene sowohl für das Feld der Gestaltung als auch für die Diskussion um Parametrie zu verwerten sind. Eine praxisnahe Untersuchung zum Phänomen der Improvisation und dessen Verortung und Funktion im Designprozess findet sich dazu bei Frye.229 Sie zeichnet den designgeschichtlichen Zusammenhang des Begriffs nach und macht anhand zweier Praxisbeispiele anschaulich, welche Mechanismen und Prozesse als Improvisation verstanden werden können. Dabei beleuchtet sie Improvisation vor allem hinsichtlich dessen handwerklich-körperlicher Dimension in der gestalterischen Praxis: als Tüfteln, als Ausprobieren und als experimenteller Umgang mit Materialien. Entsprechend sind es, wie Frye es etwa am Beispiel des Designers Sebastian Herkner anschaulich macht, mitunter sowohl die »begrenzten technischen Mittel« – Frye bezeichnet den Designprozess entsprechend auch als »Umgang mit dem Vorhandenen«230 – als auch »die Verwendung kruder und ungeeigneter Materialien«, welche »überhaupt erst bestimmte ungewöhnliche, neue Kombinationen und Ideen [provozieren].«231 Dabei erscheint Design in der handwerklichen Praxis als absichtsvolle Untersuchung von Andersartigkeiten,232 durch welche »vermeintlich dilettantische Lösungen« im Designprozess zu durchaus »sinnvollen Lösungen« führen können.233 Damit zeigen Fryes Ausführungen bereits einige Parallelen zum Begriff der Kreativität auf, wie er weiter oben dargelegt wurde. In erweiterter Betrachtung und aufbauend auf dem prozessualen Charakter von Gestaltung ergründet Daniel Martin Feige das Phänomen der Improvisation als disziplinübergreifende Form gestalterischen Handelns.234 Ähnlich wie Schön verortet Feige – angelehnt an die improvisatorischen Praktiken der Jazzmusik – die Entwurfspraxis als Prozess, der während seines Vollzuges seine eigenen Dynamiken und Richtlinien für ein gestalterisches Handeln entwickelt: »Erst im und durch den Prozess des Handelns selbst klärt sich die Designidee und erhält ihren spezifischen Sinn […].«235 Das übergreifende Paradigma macht Feige dabei zunächst am Vollzug der eigentlichen Handlungsprakti-

229 230 231 232

Vgl. Frye (2017). Ebd.: 28. Ebd.: 27-28. Wie Frye es am Beispiel des Handwerks ausführt: »Solange Dinge handwerklich produziert werden, ist es hingegen noch möglich, dass konzeptionelle Momente wie Improvisation bei der Produktion des einzelnen Artefakts vorkommen. Der Handwerker kann in die Form eingreifen und eigene Formentscheidungen treffen. So spielt also für die Improvisation die Absicht, ganz anders als beim Zufall, eine zentrale Rolle.« Ebd.: 185. 233 Ebd.: 67. 234 Vgl. Feige (2018: 157ff). 235 Ebd.: 160. Wittgenstein hat dies bereits früh für die Sprachphilosophie in seinem berühmten Ausspruch anschaulich gemacht, wenn er davon spricht, dass (Spiel-)Regeln erst innerhalb ihres Vollzuges zu stabilisierten und stabilisierenden Größen werden: »[Gibt] es nicht auch den Fall, wo wir spielen und – ›make up the rules as we go along‹? Ja auch den, in welchem wir sie abändern – ›as we go along.‹« Wittgenstein (1953/2008: PU 83).

7. Kreativität und Parametrie

ken fest,236 die sich erst in der Improvisation als wirkmächtig erweisen; insofern, als dass ihr Sinn immer erst in der Retrospektive resp. im Nachhinein erkannt wird und in die Ganzheit des Prozesses mit einfließt.237 In dieser Hinsicht schließen Feiges Überlegungen an die oben genannten Ausführungen an, welche Improvisation als nach vorne hin offenen Prozess des ›trial-and-error‹ im Modus erlebter Gleichzeitigkeit erörtert haben. Feige differenziert das Phänomen der Improvisation noch weiter aus, indem er drei Eigenarten anführt, die dieses zu kennzeichnen vermögen:238 Erstens versteht sich Improvisation als grundlegend prozessual, da sie keinem vorgegebenen Skript oder festgelegtem Plan folgt und ihre Ergebnisse – durch iterative Sequenzen des ›trialand-error‹ (Vollzug) – jeweils auf den vorangegangenen aufbauen. Zweitens versteht sich Improvisation als dynamisch, weil sie vorwärtig wie auch rückwärtig einen offenen Prozess darstellt und ihr Sinn entsprechend im reversiblem Abgleich mit vergangenen Handlungen immer wieder aufs Neue verhandelt werden kann. Der Sinn einer Improvisation ist in dieser Hinsicht niemals abschließend fixiert, weil sie, die Improvisation, auch in der Retrospektive stets neue Bedeutung(en) erfahren kann. Drittens kann Improvisation nach Feige als autopoietisch angesehen werden, da sie die Richtlinien, Kriterien und Maßstäbe, an denen ihre Hervorbringungen zu bemessen sind, selbst setzt und permanent neu anpasst. Sie verhält sich damit nicht imitierend, sondern im selbstreferenziellen Sinne schöpferisch. Feiges Ausführungen bilden damit eine knappe Veranschaulichung einer Handlungspraktik für das Design, welche mit dem Phänomen der Parametrie in vielerlei Hinsicht vereinbar erscheint: Zunächst eröffnen sich parametrische Strukturen im Sinne einer charakteristischen Prozessualität, da durch ein parametrisches Verständnis der Phänomene ein grundlegendes Moment der Veränderbarkeit in die Handlungspraxis Einzug erhält, das es nahelegt, Veränderungen im Entwurf immer schon gleich mitzudenken. Durch die Variation von Parametern kann dabei ein unmittelbarer Abgleich von Ursache und Wirkung im Modus des ›trial-and-error‹ generiert werden, welcher die Gestaltungs-(zwischen)-ergebnisse gewissermaßen im Live-Abgleich (Gleichzeitigkeit) evaluieren lässt und die Entwurfsausrichtung (Suche) dabei stetig weiter schärft und voranbringt. Veränderung und Variation sind demnach weniger von außen eindringende als vielmehr aus dem Inneren des Prozesses hervorgehende Impulse. Weiter sind parametrische Prozesse im Verweis auf Feige insofern als dynamisch anzusehen, als dass sie reversibel sind. Parametrisch zu gestalten heißt in diesem Verständnis, ein Bewusstsein für die Umkehrbarkeit von Entscheidungen zu entwickeln und diese als Haltung einer souveränen Selbstverständlichkeit zu etablieren, der es im kreativen Sinne erlaubt ist, in sämtlichen Gestaltungsinhalten eine Kontingenz und Andersartigkeit 236 Auch Holger van den Boom bestärkt den handlungsorientierten Ansatz eines Designs, das erst im Vollzug Geltung und Gültigkeit erfährt. Vgl. van den Boom (2011: 31ff). Er wendet sich damit gegen ein nominalistisches Design, das durch maschinell bedingte Umgangsformen einen »Rückzug aus dem Vollzug ins bloße Zeichen« resp. die »Substituierung des Vollzugs durch einen semantisch leeren Formalismus« markiert. Ebd.: 37. 237 »Jede meiner späteren Handlungen bestimmt neu und weiter, was der Sinn meiner vorangehenden Handlungen war. Erst am Ende einer Improvisation kann man sagen, ob sie sinnvoll gewesen ist, weil mit jedem weiteren Zug der Improvisation diese als Ganze zur Disposition steht.« Feige (2018: 158-159). 238 Vgl. Ebd.: 158ff.

221

222

Prozess als Gestalt

und damit auch weiterführende neue Sinnzusammenhänge zu vermuten. Zuletzt kann parametrische Gestaltung insofern als autopoietisch verstanden werden, als dass darin die Verhältnisse, die zwischen den einzelnen Wirkkräften resp. Parametern bestehen, sich für jeden Anwendungsfall neu herausbilden. Durch die Arbeit mit parametrischen Beziehungen verfestigt sich ein stellenweise mal höher und niedriger aufgelöstes Geflecht aus Wechselwirkungen, das sich für jedes Entwurfsprojekt neu stabilisiert und somit jeweils eigene Maßstäbe der Richtigkeit resp. eigene Regeln herausbildet. Ein parametrisches Entwerfen versteht sich entsprechend nicht nur auf die Platzierung und Adjustierung einzelner Parameter, sondern ebenso auf die Verbindung derselben untereinander. Dadurch etablieren sich Verhältnisse, die – je nach Vorgehensweise – durch manuell (Gestalter) oder autonom (selbstlernende Systeme) definierte Abhängigkeiten der Einzelteile das Wirkungsgefüge im Ganzen beeinflussen und auf mehreren Ebenen (in verschiedenen Auflösungsgraden resp. in extensionaler und komprimierender Funktion) handhabbar werden. Nun hat sich die Diskussion um Improvisation insofern ausgeweitet, als dass diese nicht mehr allein als ein von zwei Seiten begrenztes Phänomen eines Gegebenen und Geforderten (Duncker) resp. als Synthesebarriere (Dörner) resp. als Interaktion (Taylor u. Gantz) angesehen werden konnte, sondern hinsichtlich seiner Prozessualität und Dynamik einer Erweiterung bedurfte. Feige hat in diesem Zusammenhang anschaulich gemacht, wie eine entsprechende Kontur für die gestalterische Praxis im Allgemeinen verlaufen könnte. Weiter konnte gezeigt werden, welche Perspektiven mit Hinsicht auf Parametrie im Besonderen daran anzuschließen sind. Was nun noch aussteht, ist eine genauere Betrachtung derjenigen Umgangsformen, Wirksamkeiten und Mechanismen, welche die freie, ungebundene Offenheit dieser Prozessualität genauer erfassen und auf Dauer stellen. Es soll geklärt werden, wie die Dinge im Sinne einer offenen, dynamischen Prozessualität zu handhaben sind und wie sie mit Hinsicht auf ein kreatives Denken in neue, sinnvolle Zusammenhänge gebracht werden können. Eine Handlungsform, die dies anzubieten vermag, ist jene des Spielens. Und so weit die spielerische Praxis zunächst von der gestalterischen entfernt zu sein scheint, so evident werden die Anschlusspunkte, wenn die wesentlichen Charakteristika in der folgenden Diskussion näher betrachtet und mit Hinsicht auf Parametrie erörtert werden.

7.4

Spiel und Integration

Anhand der Begriffe der Situation und Improvisation konnte anschaulich gemacht werden, welche Formen des Umgangs mit dem situativ Gegebenen den Rahmen für ein kreatives Denken resp. für ein kreatives Entwerfen bereitstellen. Im Fokus der Erörterung stand die Bestrebung, aufzuzeigen, wie das gegebene Material einer Situation so umstrukturiert werden kann, dass eine (Übergangs-)Lösung für ein Problem ansichtig wird. Das Phänomen der Improvisation ließ sich dabei in seinen Grundzügen vor allem als ein solches verstehen, das, gemäß seinem etymologischen Ursprung, durch ein Moment der Unvorhersehbarkeit gekennzeichnet ist (lat. ›in- pro- videre‹, dt. ›unvor- sehen‹), sodass jede Vorbereitung einer auf die Situation zugeschnittenen Lösung nicht unmittelbar möglich ist und letztere somit aus dem situativ Gegebenen hergelei-

222

Prozess als Gestalt

und damit auch weiterführende neue Sinnzusammenhänge zu vermuten. Zuletzt kann parametrische Gestaltung insofern als autopoietisch verstanden werden, als dass darin die Verhältnisse, die zwischen den einzelnen Wirkkräften resp. Parametern bestehen, sich für jeden Anwendungsfall neu herausbilden. Durch die Arbeit mit parametrischen Beziehungen verfestigt sich ein stellenweise mal höher und niedriger aufgelöstes Geflecht aus Wechselwirkungen, das sich für jedes Entwurfsprojekt neu stabilisiert und somit jeweils eigene Maßstäbe der Richtigkeit resp. eigene Regeln herausbildet. Ein parametrisches Entwerfen versteht sich entsprechend nicht nur auf die Platzierung und Adjustierung einzelner Parameter, sondern ebenso auf die Verbindung derselben untereinander. Dadurch etablieren sich Verhältnisse, die – je nach Vorgehensweise – durch manuell (Gestalter) oder autonom (selbstlernende Systeme) definierte Abhängigkeiten der Einzelteile das Wirkungsgefüge im Ganzen beeinflussen und auf mehreren Ebenen (in verschiedenen Auflösungsgraden resp. in extensionaler und komprimierender Funktion) handhabbar werden. Nun hat sich die Diskussion um Improvisation insofern ausgeweitet, als dass diese nicht mehr allein als ein von zwei Seiten begrenztes Phänomen eines Gegebenen und Geforderten (Duncker) resp. als Synthesebarriere (Dörner) resp. als Interaktion (Taylor u. Gantz) angesehen werden konnte, sondern hinsichtlich seiner Prozessualität und Dynamik einer Erweiterung bedurfte. Feige hat in diesem Zusammenhang anschaulich gemacht, wie eine entsprechende Kontur für die gestalterische Praxis im Allgemeinen verlaufen könnte. Weiter konnte gezeigt werden, welche Perspektiven mit Hinsicht auf Parametrie im Besonderen daran anzuschließen sind. Was nun noch aussteht, ist eine genauere Betrachtung derjenigen Umgangsformen, Wirksamkeiten und Mechanismen, welche die freie, ungebundene Offenheit dieser Prozessualität genauer erfassen und auf Dauer stellen. Es soll geklärt werden, wie die Dinge im Sinne einer offenen, dynamischen Prozessualität zu handhaben sind und wie sie mit Hinsicht auf ein kreatives Denken in neue, sinnvolle Zusammenhänge gebracht werden können. Eine Handlungsform, die dies anzubieten vermag, ist jene des Spielens. Und so weit die spielerische Praxis zunächst von der gestalterischen entfernt zu sein scheint, so evident werden die Anschlusspunkte, wenn die wesentlichen Charakteristika in der folgenden Diskussion näher betrachtet und mit Hinsicht auf Parametrie erörtert werden.

7.4

Spiel und Integration

Anhand der Begriffe der Situation und Improvisation konnte anschaulich gemacht werden, welche Formen des Umgangs mit dem situativ Gegebenen den Rahmen für ein kreatives Denken resp. für ein kreatives Entwerfen bereitstellen. Im Fokus der Erörterung stand die Bestrebung, aufzuzeigen, wie das gegebene Material einer Situation so umstrukturiert werden kann, dass eine (Übergangs-)Lösung für ein Problem ansichtig wird. Das Phänomen der Improvisation ließ sich dabei in seinen Grundzügen vor allem als ein solches verstehen, das, gemäß seinem etymologischen Ursprung, durch ein Moment der Unvorhersehbarkeit gekennzeichnet ist (lat. ›in- pro- videre‹, dt. ›unvor- sehen‹), sodass jede Vorbereitung einer auf die Situation zugeschnittenen Lösung nicht unmittelbar möglich ist und letztere somit aus dem situativ Gegebenen hergelei-

7. Kreativität und Parametrie

tet werden muss. Es handelt sich entsprechend um eine reaktionäre Handlungsform, die das situative Material iterativ – im Modus von ›trial-and-error‹ – in verschiedenen Auflösungsgraden untersucht, bis eine Konstellation der Verhältnisse gefunden worden ist, die eine Lösung in Aussicht stellt. Anhand dieser knappen Zusammenfassung des Phänomens wird ansichtig, dass der Prozess der Improvisation zwar eine grundlegende Handlungsform des (parametrischen) Gestaltens zu kennzeichnen vermag, aber aus mehreren Gründen noch einer Erweiterung bedarf: Erstens vollzieht sich Improvisation im Modus einer temporalen Einmaligkeit, die nicht zuletzt durch die Unvorhersehbarkeit eines Problems innerhalb einer willkürlichen Situation im einzelnen Individuum entsteht. Lösungen werden nicht auf Dauer gestellt, sondern bieten eine temporäre Überbrückung an, wie es sowohl am Beispiel von Weisbergs Autopanne als auch im Verweis auf Fryes Darstellung handwerklicher Designprozesse anschaulich wurde. Es gilt entsprechend im Folgenden zu klären, wie improvisierte Lösungen zu gestalteten Entwürfen avancieren und auf Dauer gestellt werden können. Dies betrifft nicht nur die eigentliche Lösung, den Entwurf, sondern ebenso die Prozessierung und Artikulation von jenen Sinnzusammenhängen, die ihn entstehen lassen und stabilisieren. Es ist zweitens jener Einmaligkeit geschuldet, dass jede Situation in ihrer Beschaffenheit zumeist eine jeweils einzigartige ist – sowohl in ihren Gegebenheiten als auch in Bezug zu den daraus hervorgehenden Möglichkeiten, die dem Individuum zur Verfügung stehen. Auch wenn die Einzigartigkeit jedes Entwurfsweges und Prozesses mitunter einen erhabenen Mehrwert zum Gestaltungsgegenstand beitragen kann,239 wird in einer solchen Auffassung verpasst, jenes Potenzial zu nutzen, das in der Modellierung der Situation selbst angelegt ist; in der Metagestaltung derselben, ebendann, wenn die Rahmenbedingungen nicht als Gegebenes, sondern als Gestaltbares angenommen werden. Um diese Möglichkeit zu bewahren, bedarf es einer eigenen Entwurfssphäre, die von der eigentlichen Realsituation abgekoppelt ist. Drittens geht der Begriff der Improvisation vom einzelnen Individuum aus, das seine jeweils eigene Situation durch verschiedene Maßnahmen umstrukturiert. Wie verhält es sich jedoch, wenn die Situation nicht nur durch eigenes, sondern auch durch fremdes Handeln bestimmt wird? Um dies erfassen und mit weiteren Teilnehmern der Situation interagieren zu können, bedarf es eines gestalteten Ganzen, das allen Beteiligten gleiche Bedingungen bietet und sie als handhabbare Größen darin verortet. Eine Dynamik, die besagte Anforderungen zu bewerkstelligen vermag, findet sich dabei nur bedingt im dargestellten Zusammenwirken von Situation und Improvisation, sondern vielmehr in einer Spielsituation, in welcher mehrere Akteure – unter Verfolgung jeweils eigener Interessen – in einer eigens dafür modellierten Sphäre miteinander spielen. Es gilt daher, genauer zu untersuchen, wie Spielsituationen einerseits

239 Nicht selten erscheinen derartige Prozesse mehr der Kunst als dem Design verbunden, wie es etwa die Arbeiten von Petra Blaise, Hella Jongerius oder Denise Gonzalez Crisp erkennen lassen, die auch unter dem Ausdruck der Design-Art zusammenzufassen sind. Vgl. Erlhoff; Marshall (2008: 249). Das Verhältnis von Kunst und Design kann in solcher Hinsicht als fließend angenommen werden, wie etwa Sabine Foraita es herausgearbeitet hat. Vgl. Foraita (2011).

223

224

Prozess als Gestalt

modelliert und erfasst werden können, andererseits, wie darin gespielt wird und ebenso, welcher Sinn daraus entsteht. Dabei legen die drei Fokussierungen sowohl einen unmittelbaren Anschluss an die gestalterische Praxis als auch an die parametrische Perspektive nahe, wenn zunächst von Spielräumen die Rede ist, welche den abstrakten, medialen Rahmen der Entwurfsartikulation samt dessen Regeln und Bedingungen darstellen, von Spannungsverhältnissen, die den Prozess der iterativen Lösungsfindung stets weiter an- und vorantreiben, und letztlich von Sinnzusammenhängen, die im Entwurf artikuliert werden, welche sich ebendann einstellen und den Entwurf stabilisieren, sobald heterogene Einzelphänomene in eine ganzheitliche Gestalt integriert werden. In Anbetracht dieses Vorgehens sei der Begriff des Spiels für die folgende Diskussion in seinem Deutungsumfang vorab stark einzuschränken, nicht zuletzt deshalb, da sich darunter allgemeinhin eine Vielfalt von Tätigkeiten und Phänomenen verstehen lässt, die sich einer einheitlichen Definition weitestgehend entziehen.240 Seit jeher versteht sich das Spiel dabei als ein Phänomen, das sowohl die philosophischen, ästhetischen als auch die kultursoziologischen Felder durchstreift – von ontologischen und phänomenologischen Fragen241 bis hin zur Ausgestaltung spielerischer Handlungsformen in der angewandten (digitalen) Praxis –242 , und nicht zuletzt jene der Naturwissenschaften und der Ökonomie.243 Seine grundsätzliche Dynamik wurde dabei, vorwiegend seit Mitte des 18. Jahrhunderts, in zahlreichen Theorien erfasst, welche etwa die arbeitserholende Funktion, die dialogische Gebundenheit zur Umwelt, seine kulturschaffende Funktion oder seine Wesensart als Trieb betonten.244 Wovon ist demnach auszugehen, wenn vom Spiel zu sprechen ist? Dies lässt sich weniger klar beantworten, als allenfalls hinsichtlich zweier Bedeutungsdimensionen umreißen: eine antike, die das Spiel als geschlossenes und endliches Phänomen im kosmischen Weltbild verortet, und eine neuzeitliche, die den Spielbegriff hinsichtlich der Erschaffung und Veränderung offener Lebenswelten begreift. Ersteres offenbart sich dabei zunächst mit Platon als transzendentale Bestrebung des Menschen, sich dem göttlichen Ideal im Spiel so weit wie möglich anzunähern: Demgemäß strebt im Spiel

240 Der Duden fasst unter dem Begriff des Spiels gar zwölf Bedeutungsdimensionen zusammen. Vgl. Duden (2011: 1641ff), Spiel. Übergeordnete Charakteristika können dabei vorerst mitunter mit seiner Nicht-Notwendigkeit, seinen Regeln, seiner Spannung und der Gewinnabsicht der Spielenden benannt werden. Vgl. ebenso die definitorische Annäherung an das Spiel bei Berg; Sass (2014a: 18-26). Vgl. ferner auch die knappe Übersicht zur Verortung des Spiel-Begriffs in ästhetisch-philosophischer Hinsicht bei Trebeß (2006: 355ff). 241 Vgl. dazu etwa Strätling (2014) als auch die interdisziplinäre Auseinandersetzung bei Berg; Sass (2014b). 242 Vgl. dazu einerseits Scheuerl (1954/1973) für einen Überblick über das Spiel in seiner praktischen Anwendung aus pädagogischer Perspektive als auch andererseits die Erörterung der ästhetischen Eigenarten des Computerspiels bei Feige (2015); Feige; Ostritsch; Rautzenberg (2018). 243 Vgl. hier vor allem die Darlegung der biologischen und physiologischen Grundlagen des Spiels bei Hüther; Quarch (2018) als auch die ökonomische Strategie des Nutzenmaximierens (Spieltheorie) bei Rieck (2007); Holler; Illing (2009) und die betriebswirtschaftliche Einbettung in den Gesamtzusammenhang bei Kirsch (1998: 93ff); Kirsch (1971b: 61ff). 244 Vgl. dazu auch die knappe Übersicht der theoretischen Ausdifferenzierungen des Spiels bei Warwitz; Rudolf (2014: 10ff).

7. Kreativität und Parametrie

die menschliche Seele (gr. ›psyché‹) nach ihrem göttlichen Vorbild, der höchsten Verdichtung des Seins.245 Entsprechend tat der Mensch gut daran, wie Platon es im siebten Buch der Dialoge über die Gesetze (›Nomoi‹) darlegt, sein Leben spielend zu verbringen.246 Die unendliche Sphäre des Göttlichen fand im Spiel ihr endliches Abbild, nicht zuletzt als Teilhabe am Göttlichen im Wettkampf, wo nicht etwa mehrere Sieger, sondern einzig der Beste bekränzt wurde, weil an ihm, wie Hüther und Quarch es formulieren, »das Wesen des Gottes am sichtbarsten geworden war.«247 Eine weniger aufgeschlossene Auffassung des Spiels findet sich dagegen bei Aristoteles, der dem Spiel den rein zweckhaften Mehrwert der Erholung von Arbeit zuspricht: »Denn das Spiel ist soviel wie Erholung, Erholung aber braucht der Mensch, weil er außerstande ist, ohne Unterbrechung zu arbeiten. Erholung ist somit kein Endziel, denn man gönnt sie sich um der Tätigkeit willen.«248 Das Spiel ist dem Leben damit strukturell gleichgestellt, und deshalb auch in einer funktionalen Zweckgebundenheit in dieses eingegliedert, jedoch nur als ernst zu nehmender Teilschritt, als »spielen um des Ernstes fähig zu sein«,249 den ein glückliches Leben erfordert.250 Dies vermag die eine Bedeutungsdimension des Spiels darzustellen; eine des Ernstes und der Geschlossenheit, wie sie bis in die Neuzeit andauerte und erst mit den humanistischen Vorstellungen der Aufklärung Widerstand erfuhr. Erst um 1800 waren es vor allem Protagonisten wie Kant, Schiller, später Wittgenstein, Gadamer et al., die sich der Bedeutung und Konturierung des Spiels sowohl als ästhetisches als auch als humanistisches Phänomen widmeten.251 Nicht zuletzt Schiller verwies dabei früh auf ein Moment wesentlichster Menschlichkeit im Spiel, wenn er in seinen Briefen ›Über die ästhetische Erziehung des Menschen‹ davon sprach, dass der

245 Vgl. Hüther; Quarch (2018: 44). 246 »und der Mensch dagegen, […], sei nur ein Spielzeug, welches der Gott sich gebildet, ja in Wahrheit bestehe eben hierin sein Vorzug. Dieser Eigenschaft gemäß sollte also jeder Mensch, so Mann wie Weib, sein ganzes Leben zu einer ununterbrochenen Kette der schönsten Spiele machen.« Platon (1862: 803, C). 247 Hüther; Quarch (2018: 50). 248 Aristoteles (2013: 1176b 27 – 1177a 16). 249 Anacharsis zitiert nach Ebd. 250 »Ferner gilt, daß das glückliche Leben ein ethisch hochstehendes Leben ist. Ein solches aber erfordert Anstrengung und ist kein Spiel. Und wir stellen fest, daß ernste Dinge wertvoller sind als lächerliche und spielerische, und daß jeweils das Wirken des wertvolleren Teils oder des wertvolleren Menschen ernsthafter ist.« Aristoteles (2013: 1176b 27-1177a 16). Vgl. dazu auch die Unterscheidung von Ernst und Spiel bei Huizinga, der darlegt, dass der Begriff des Ernstes in seiner etymologischen Entstehungsgeschichte den Versuch darstellte, »gegenüber dem allgemeinen Begriff Spiel einen für Nichtspiel zu prägen« Huizinga (1938/2009: 56). Huizingas Auseinandersetzung endet später in der Feststellung, dass der »Begriff Spiel als solcher [von] höherer Ordnung [ist] als der des Ernstes. Denn Ernst sucht Spiel auszuschließen, Spiel jedoch kann sehr wohl den Ernst in sich einbeschließen.« Ebd. Gleichsam sprechen Berg und von Sass in Bezug auf die Ernsthaftigkeit des Spiels davon, dass die »nach Außen hin gerichteten Zwecke […] im Spiel durchaus Verbissenheit erzeugen [können],« es weiter einer »gewissen Disziplin« bedarf, »um die Regeln zu befolgen« als auch das Spiel als Wettkampf ernst zu nehmen. Berg; Sass (2014a: 29). Dörner betont dagegen den prognostizierenden Charakter des Spiels mit Hinsicht auf seine Verbundenheit zur Ernsthaftigkeit: »Spielen war immer eine wichtige Methode zur Vorbereitung auf den Ernstfall. […] Wer Spiel nur als Spiel betrachtet und Ernst nur als Ernst, hat beides nicht verstanden!« Dörner (2002: 309). 251 Vgl. Berg; Sass (2014a: 9ff).

225

226

Prozess als Gestalt

Mensch nur da ganz Mensch sei, wo er spiele,252 indem er im Spiel die Zwänge der Wirklichkeit – resp. Form- und Stofftrieb – außer Acht lassen könne.253 Erst im Spieltrieb verschmelzen beide zu einer Einheit, aus welcher das Schöne, die Harmonie, die Kunst und damit nicht zuletzt menschliche Freiheit erst erwachsen könne.254 Im kantischem Verweis meint dies das Zusammenspiel von Natur und Geist, welche sich in der geschützten Sphäre interesselosen Wohlgefallens zur Schönheit und damit gleichsam zum Ausdruck menschlicher Freiheit verbinden, da im Spiel gespielt wird, »ohne weiter irgend einen Zweck dabei zu beabsichtigen«.255 Dies lässt bedeutsame Konditionen des Spiels, etwa seine Freiheit und seine Zweck-Ungerichtetheit, zwar als vage Richtungen erahnen, jedoch noch nicht recht als Kontur des Phänomens festschreiben – und vielleicht ist dies auch gar nicht möglich: In seinen ›Philosophischen Untersuchungen‹ stellt Ludwig Wittgenstein der definitorischen Unzugänglichkeit des Spiels eine Annäherung an dasselbe durch seinen weitreichend bekannten Ausdruck der Familienähnlichkeit entgegen.256 Entsprechend gäbe es keine allgemein verbindenden Merkmale, die etwa gleichsam im Brettspiel, dem Kartenspiel oder dem Ballspiel ansichtig würden, sondern allenfalls eine die vagen Grenzen überschreitende Familienähnlichkeit, d.h. eine Verbundenheit, die auch und gerade dann besteht, wenn seine Glieder unverbunden sind.257 Daran wird mitunter besonders anschaulich, dass Spiele jeweils ihre eigene Sphäre der Richtigkeit ausbilden, die sie zu anderen Spielen abgrenzt, während sie gleichzeitig eine kategorische Zugehörigkeit zu denselben herstellt. Was zunächst paradox anmutet, erscheint in der differenzierten Betrachtung des Spiels als eine Form der Ambivalenz, die sich in der Diskussion auf mehreren Ebenen wiederfinden lässt: sowohl im Innen und Außen seiner Struktur, im Vor und Zurück seiner Performativität als auch im Sinn und Un-Sinn seiner Resultate. Das Spiel zeigt sich entsprechend als dynamisches Phänomen, das sich nicht auf ein Absolutes festlegen lässt, sondern sich vielmehr in der Bewegung dazwischen immer wieder neu an die Gegebenheiten anpasst – durch den Vollzug, den Gebrauch und die Arbeit an den Geschehnissen, während sie geschehen, wie Wittgenstein es als dynamische Verfestigung von Spielregeln

252 »Der Mensch spielt nur, wo er in voller Bedeutung des Wortes Mensch ist, und er ist nur da ganz Mensch, wo er spielt.« Schiller (1795/2013: 48/15. Brief, 617). 253 Vgl. dazu auch Scheuerl (1954/1973: 70). 254 Vgl. zur Rezension Schillers mit Hinblick auf den Spielbegriff auch Hüther; Quarch (2018: 57-66). 255 Kant zitiert nach Scheuerl (1954/1973: 70). 256 Vgl. Wittgenstein (1953/2008: PU 66ff). 257 »[…] Schau z.B. die Brettspiele an, mit ihren mannigfachen Verwandtschaften. Nun geh zu den Kartenspielen über: hier findest du viele Entsprechungen mit jener ersten Klasse, aber viele gemeinsame Züge verschwinden, andere treten auf. Wenn wir nun zu den Ballspielen übergehen, so bleibt manches Gemeinsame erhalten, aber vieles geht verloren. – Sind sie alle ›unterhaltend‹ ? Vergleiche Schach mit dem Mühlefahren. Oder gibt es überall ein Gewinnen und Verlieren, oder eine Konkurrenz der Spielenden? Denk an die Patiencen. In den Ballspielen gibt es Gewinnen und Verlieren; aber wenn ein Kind den Ball an die Wand wirft und wieder auffängt, so ist dieser Zug verschwunden. Schau, welche Rolle Geschick und Glück spielen. Und wie verschieden ist Geschick im Schachspiel und Geschick im Tennisspiel. Denk nun an die Reigenspiele: Hier ist das Element der Unterhaltung, aber wie viele der anderen Charakterzüge sind verschwunden! Und so können wir durch die vielen, vielen anderen Gruppen von Spielen gehen. Ähnlichkeiten auftauchen und verschwinden sehen.« Wittgenstein (1953/2008: PU 66).

7. Kreativität und Parametrie

einprägsam dargelegt hat.258 Dies erscheint für die Übertragbarkeit auf das Feld des Designs und Parametrie nicht zuletzt deshalb aussichtsvoll, weil auf sich verändernde Bedingungen der Lebenswelt auch nur mit iterativer Veränderung resp. Bewegung und Anpassung, mit ReDesign, wie Bruno Latour es prominent gemacht hat,259 reagiert werden kann. Das Spiel versteht sich dabei ganz als Bewegung; d.h. als mediale Rahmung für Prozesse, die zwischen den Modi des Festhaltens und Loslassen oszillieren, dabei alte Strukturen auflösen, Inhalte neu zusammenfügen und entsprechend auch immer dann gefragt sind, wenn neue Technologien nach ebenso neuen Artikulationsformen verlangen.260 Für die folgende Diskussion um Gestaltung und Parametrie soll das SpielPhänomen entsprechend nicht auf Seiten des absoluten Ernstes und ebenso wenig auf Seiten der absoluten Freiheit verortet werden, sondern im »Raum des Dazwischen«, wie Berg und von Sass es für das Spiel formulieren.261 Denn: Verhalten sich die Dinge zu ernst, können sie sich kaum bewegen – sind sie zu frei resp. zu offen, finden sie keinen Anschluss mehr an die Bedingungen der Lebenswelt. Design, als theoretische und praktische Disziplin,262 kann entsprechend nur dann angemessen auf die entsprechenden Bedingungen reagieren, wenn es sich als dynamisches Phänomen des Dazwischen versteht, d.h. eben als ein solches, das nicht zu fest in der Lebenswelt verankert und nicht zu weit von ihr entfernt ist. Entsprechend erscheint das Spiel für die folgende Diskussion eben dort anschlussfähig wie bedeutsam, wo es um die

258 Demnach verfestigen sich Regeln erst dann, wenn man mit ihnen umgeht: »make up the rules as we go along«. Ebd.: PU 83. Daraus ergeht der Umkehrschluss, dass das Spiel »nicht überall von Regeln begrenzt [ist], aber es gibt ja auch keine Regel dafür z.B., wie hoch man im Tennis den Ball werfen darf, oder wie stark, aber Tennis ist doch ein Spiel und es hat auch Regeln.« Ebd.: PU 68. In der parametrischen Übertragung erscheint dies als eine Frage der Auflösungsgrade, in der die Regeln erfasst werden können: Was für den Menschen als Regelanweisung ausreicht, reicht für ein digitales Computerprogramm womöglich nicht und muss genauer definiert werden; etwa die maximale Wurfhöhe für einen Tennisball bzw. die Bandbreite, innerhalb welcher alle möglichen Höhen definiert sind. Dies wird weiter unten ausführlicher diskutiert. Vgl. dazu Kapitel 7.5 ›Simulation und Computation‹. 259 Vgl. Latour (2009). 260 Vgl. dazu auch die medientheoretische Auseinandersetzung Natascha Adamowskys, welche den Umgang mit neuen medialen und digitalen Entwicklungen auf Prinzipien des Spiels zurückführt: »Die neuen medientechnisch geprägten Räume sind nämlich in der Regel gestaltbare Bereiche, […] die einen Suspens von der ,einen wahren Welt‹ und anderen Direktiven und Vorgaben erlauben zugunsten eines kreativen Potentials. Klassische Dualismen von Produzenten- und Rezipientenseite werden dort aufgelöst, um mit neuen Partizipationsmöglichkeiten und Aneignungstechniken zu experimentieren. All das aber sind Prinzipien des Spiels. […] Es ist das Phänomen des Spiels, welches unseren Umgang mit der neuen Technologie bestimmt.« Adamowsky (2000: 18). Ein künstlerischer (wie spielerischer) Umgang mit der Thematik wird ferner etwa in Matthias Zimmermanns ›Modellwelten‹ anschaulich, die als großformatige Bildcollagen der gegenwärtigen »technomorphe[n] Kultur mit ihren Medien der Kommunikation und Unterhaltung, des Verkehrs und ihren Wissenschaften« Ausdruck zu verleihen suchen. Adamowsky (2018a: 16). 261 Berg; Sass (2014a: 25). In ähnlicher Hinsicht spricht Adamowsky im Verweis auf Winnicott vom »intermediären Raum des Spiels« Vgl. Adamowsky (2000: 26ff). 262 Vgl. Bürdek (2012).

227

228

Prozess als Gestalt

ambivalenten, kontroversen, widerständigen Tendenzen geht, die es als prozessuales, dynamisches und relationales Phänomen auszeichnen.263 Um sich dieser Bedeutsamkeit anzunähern, sei im Folgenden zunächst von jenen Räumen zu sprechen, die den Ort des Geschehens konkretisieren – jene Spielräume, die abstrakte Modelle der Wirklichkeit abbilden, welche nach Außen hin abgrenzen, um im Inneren Verhandelbarkeit anzulegen. Demgemäß soll ein Exkurs in die Spieltheorie zunächst aufzeigen, wie das Phänomen des Spiels im Sinne des homo oeconomicus als Veranschaulichung strategisch-rationaler Entscheidungsprozesse und der Modellierung von Spielsituationen gedacht werden kann. Nachdem das buchstäbliche Spielfeld umrissen worden ist, soll in einer zweiten Betrachtung der Fokus auf die Frage gelegt werden, wie in diesem gespielt wird. Dazu sei der Blick auf jene Spannungsverhältnisse zu richten, die das (gestalterische) Spiel an- und stetig weiter vorantreiben. Als Ausgangspunkte der Erörterung um jene Spannungsverhältnisse dienen dazu in erster Linie die Auseinandersetzungen Johann Huizingas im kulturhistorischen Kontext des homo ludens als auch die phänomenologischen Analysen Hans Scheuerls. Während Huizinga sich auf die Darlegung formaler Kennzeichen und allgemeiner Charakteristika des Spiels versteht, sollen u.a. mit Scheuerl jene dynamischen, wechselseitigen Verbundenheiten spielerischer Spannung herausgearbeitet werden, die auch im gestalterischen (parametrischen) Kontext vorzufinden sind. Sofern bis dahin annähernd umrissen ist, wo und wie gespielt wird, schließt sich nicht zuletzt die Frage nach dem Warum an. In einer letzten Auseinandersetzung gilt es entsprechend, nach dem Sinn des Spiels zu fragen bzw. vielmehr danach, wie Sinnzusammenhänge artikuliert, auf Dauer gestellt und in Entwürfen stabilisiert werden können. Dazu sei mit Hinsicht auf den kulturanthropologischen Begriff der Integration ein Vorschlag darzulegen, wie Prozesse der Gestalt-Bildung im gestalterischen Feld – spielerisch und parametrisch – gedacht werden können.

Spielräume Von einem Raum zu sprechen, setzt Grenzen voraus: solche, die ein Äußeres aus- und ein Inneres einschließen. In Erweiterung zu Such-, Problem- oder Lösungsräumen, wie sie weiter oben bereits diskutiert wurden,264 vergrößert der Spielraum den Bedeutungsumfang insofern, als dass er nicht nur durch äußere Grenzen, sondern vor allem durch in ihm etablierte Regeln stabilisiert wird. Der Spielraum bezieht seine spezifische Eigenart entsprechend nicht nur durch seine nach außen hin abgrenzende Räumlichkeit – diese tritt zumeist sogar stark in den Hintergrund –, sondern gleichsam durch die darüber hinausgehenden Reglementierungen, die ihn im Inneren zusammenhalten. Damit sei ein jeder Spielraum gleichzeitig ein Modell, das einschränkt und gerade dadurch den Blick auf die wesentlichen Faktoren und Verhältnisse resp. die Parameter und

263 Berg und von Sass umschreiben diese Dynamik des Spiels sowohl mit den Schlagworten der flexiblen Bindung als auch der involvierenden Performanz: Während Ersteres sich auf die anpassungsfähige Struktur und die Veranschaulichung von Verhältnissen und Abhängigkeiten versteht, die im Spiel ansichtig werden, soll mit Letzterem die menschliche Aktivität darin auf den Begriff gebracht werden. Vgl. Berg; Sass (2014a: 10ff). 264 Vgl. dazu weiter oben Kapitel 6.1 ›Problem und Lösung‹.

7. Kreativität und Parametrie

dessen Verbundenheiten legt, an denen ein neuer Umgang mit den Dingen – spielerisch – zu erproben ist.265 Wer spielt, spielt im eingeschränkten Modell,266 im abstrakten Abbild einer Wirklichkeit,267 welches Anschlussfähigkeiten herstellt, während es viele derivative Betrachtungsweisen gleichsam vernachlässigt bzw. ausschließt.268 Die begrenzende Funktion von Modellen resp. Spielräumen ist dabei eine Notwendigkeit, welche dem menschlichen Blick und Denken erst eine Richtung aufzeigt, in der es sinnbildlich voranschreiten kann, wie es bereits die Gestaltpsychologie im produktiven Denken verortet sah (lat. ›producere‹, dt. ›vorwärtsführen, hervorbringen‹).269 Daran wird ein Moment der Ordnung im Spiel erkennbar, welches in mitunter komplexen Situationen einerseits Klarheit schafft, andererseits, wie es der Soziologe Armin Nassehi etwa darlegt, jedoch nur möglich ist, »wenn Verhaltensmöglichkeiten eingeschränkt werden.«270 Die Einschränkung erscheint entsprechend als ein übergreifendes Merkmal des Spiels samt dessen Spielräumen.271 Sie erhält Ausdruck in der Definition eines Spielraums als Begrenzungsform nach außen und als Regelwerk nach innen; als ambivalentes Konstrukt, das einerseits kontingente Auswahlmöglichkeiten eröffnet, indem es anderer-

265 Scheuerl spricht in dieser Hinsicht vom Spiel als ein Phänomen, dem »Schranken nur von außen gesetzt sind« Scheuerl (1954/1973: 78). 266 »Spiele sind Modelle. Modelle der Wirklichkeit. Als dynamische Modelle sind Spiele auch Simulationen der Wirklichkeit«, wie es der Biochemiker und Systemforscher Frederic Vester formuliert. Vester (1975/2016: 181). 267 Der Mathematiker Karl Sigmund spricht in dieser Hinsicht auch von »einer Art aufgehobener Wirklichkeit«. Sigmund (1995: 330). 268 Bereits Rittel sprach im gestalterischen Zusammenhang vom Entwerfens als Planungsprozess, der von einer Notwendigkeit der Modellbildung gekennzeichnet sei, durch sog. constraints (Zwänge), die logischer, physischer, technischer, ökonomischer, kultureller oder politischer Art sein können. Vgl. Rittel (1970 : 26ff). Diese bilden entsprechend die entwurfsrelevanten Parameter, die das Entwurfsvorhaben einschränken bzw. ihm eine Richtung vorgeben. 269 Wie es der Physiker und Sozialwissenschaftler Günter Küppers beschreibt: »Modelle sind Idealisierungen, in denen bestimmte Aspekte der Wirklichkeit vernachlässigt werden.« Küppers (2004: 46). Wäre es anders, und Alles wäre mit Allem verknüpft, wäre keine Unterscheidbarkeit mehr in den Dingen angelegt: »Wären in einem Datensatz alle Punkte mit allen in gleicher Weise verbunden«, wie es der Soziologe Armin Nassehi etwa für die Digitaltechnik formuliert, »könnte man mit diesem Datensatz nichts erklären. Diesem Datensatz könnte man keine Informationen entlocken, denn eine statistische Analyse […] ist darauf angewiesen, dass es eine selektive, also begrenzte und strukturierte Relation zwischen den Elementen gibt […].« Nassehi (2019: 45). Es bedarf entsprechend »formierter Räume« der Einschränkung, die »wenigstens so viel Unbedingtheit in sich tragen, dass sie nicht dem dumpfen Hintergrundrauschen der Welt zugerechnet werden.« Ebd.: 102. Im übertragenen Sinn vermag das Spiel entsprechend die kontingenten Relationen der Welt in einer begrenzten Sphäre neu zu verhandeln, sodass sie in dieser handhabbar und erlebbar werden. Vgl. auch Wertheimer (1945/1957), der die Notwendigkeit einer die Möglichkeiten begrenzenden Richtung in seinen Ausführungen zum produktiven Denken dargelegt hat. 270 Nassehi (2019: 36). Huizinga benennt darüber hinaus die Ordnung als maßgebliches Kennzeichen des Spiels: »[Das Spiel] schafft Ordnung, ja es ist Ordnung. In die unvollkommene Welt und in das verworrene Leben bringt es eine Zeitweilige, begrenzte Vollkommenheit. Das Spiel fordert unbedingte Ordnung.« Huizinga (1938/2009: 19). 271 Hüther und Quarch benennen diese Einschränkung als jene charakteristische Eigenart des Spiels, welche die eigentliche Freude an der spielerischen Tätigkeit ausmacht, ebendann, wenn »das, was spielerisch alles möglich ist, durch bestimmte Regeln begrenzt wird« Hüther; Quarch (2018: 21).

229

230

Prozess als Gestalt

seits eine restriktive Ordnung festlegt. Spielräume bieten, wie es Hüther und Quarch formulieren, eine Sphäre an, in der es möglich wird, sich »gleichzeitig verbunden und frei zu fühlen« und in der »wir frei und unbekümmert denken und handeln, wahrnehmen und erkennen und dabei Neues entdecken und das Spektrum unserer Möglichkeiten erkunden können.«272 Sie, die Spielräume, stellen in dieser Hinsicht jene Gestaltungssphären bereit, die es ermöglichen, die Dinge unverbindlich neu zu verbinden, »Disparates […] in versöhnende Formen« zu bringen, wie Adamowsky es formuliert,273 und ebenso, bestehende Ordnungen jederzeit umzustrukturieren. Spielräume erschaffen entsprechend eine schützende Sphäre der Abgeschiedenheit,274 welche als solche erst jene Ruhe und Ordnung gewährleistet, die es bedarf, um sich in ihr entfalten bzw. die Dinge klarer erkennen zu können; indem Spielräume nicht nur gegen ein Äußeres abgrenzen, sondern sich dem Spieler gleichsam nach innen öffnen. Wie die dafür notwendigen Einschränkungen rational zu fassen sind, veranschaulicht die klassische Spieltheorie, indem sie Realsituationen als Spielräume modelliert und auf Basis mathematischer Wahrscheinlichkeitsrechnungen die Grundlagen für rationale und konsistente Entscheidungen vorbereitet, wie es im Folgenden knapp ausgeführt werden soll.

Abb. 11: Eigene Darstellung des spieltheoretischen Gefangenendilemmas. Die Werte geben das Strafmaß im spieltheoretischen Verständnis als negativen Gewinn an, sinnbildlich als Entzug von Lebenszeit in gesellschaftlicher Freiheit.

1234562527ÿ









 0

0





 0

 0

1234562527ÿ9

Die Spieltheorie versteht sich als eine Theorie der Modellbildung zur Lösung von Entscheidungsproblemen, die in vielerlei Disziplinen – etwa der Ökonomie, der Politik, im Sport, in der Medizin – eine vor allem praxisnahe, strategische Anwendung erfährt.275 Dabei arbeitet sie mit mathematischen Wahrscheinlichkeiten, welche im 272 Ebd.: 22, 19. 273 Adamowsky (2018b: 39). 274 Im Sinne einer Abgeschiedenheit spricht Huizinga darüber hinaus vom Spiel als »zeitweilige Aufhebung der ›gewöhnlichen‹ Welt«, in der »die Gesetze und Gebräuche des gewöhnlichen Lebens keine Geltung« haben. Huizinga (1938/2009: 21). 275 Nach Fisher »dreht sie [die Spieltheorie] sich nicht um Spiele, sondern um Strategien, die wir tagtäglich im Umgang mit anderen Menschen anwenden […] [und] erklärt uns die Hintergründe von Konfrontationen,

7. Kreativität und Parametrie

Zuge der Entscheidungsfindung eine prognostizierende Funktion einnehmen, indem sie eine Einschätzung der Situationslage fassbar und mögliche Handlungsoptionen anschaulich machen. Die Spieltheorie geht dabei in seinen wesentlichen Aspekten auf Johann von Neumann und Oskar Morgenstern zurück, welche in ›Theory of Games and Economic Behavior‹ von 1944 eine erste Theorie darlegten, um ökonomische Entscheidungen auf mathematischen Wahrscheinlichkeitsrechnungen zu gründen.276 Die formale Beschreibbarkeit einer Spielsituation, seiner Funktionen und daraus resultierenden Strategien markierte dabei einen Grundstein der mathematisch-rationalen Analyse wirtschaftlicher Fragestellungen, was später, vor allem ab den 1970er-Jahren, zur disziplinären Ausdifferenzierungen der Spieltheorie anregte277 und ebenso zur Vergabe mehrerer Wirtschaftsnobelpreise führte.278 Welche Merkmale bilden nun die Rahmenbedingungen der Spieltheorie? Dazu sei ein klassisches – und das wohl bekannteste – Beispiel der Spieltheorie angeführt, das sogenannte Gefangenendilemma.279 Dieses besteht innerhalb eines fiktiven Szenarios darin, dass zwei nach einem bewaffneten Raubüberfall gefangene Verbrecher in zwei separaten Räumen vor die Wahl gestellt werden, die Tat entweder zu gestehen resp. auszusagen oder darüber zu schweigen, wovon wiederum ihr eigenes Strafmaß abhängt (im Sinne einer Kronzeugenregelung).280 Jedoch wissen beide Gefangenen nicht, wie der andere sich entscheidet. Je nachdem, welche Wahl die Gefangenen unabhängig voneinander treffen, entstehen somit vier Entscheidungsalternativen, die in einer mathematischen Bimatrix dargestellt werden können (Abb. 11):281 Schweigen beide, kann ihnen der Raub zwar nicht nachgewiesen werden, jedoch erhalten sie eine verhältnismäßig geringe Strafe für unerlaubten Waffenbesitz (2 Jahre Gefängnis für jeden). Sagt nur einer von beiden aus, während der andere schweigt, wird der Geständige als Kronzeuge lediglich zu einer relativ kurzen Haftstrafe verurteilt (1 Jahr Gefängnis), wogegen

276

277 278

279 280 281

gebrochenen Versprechen und offensichtlichen Täuschungen, wie wir sie so häufig bei Streitereien zu Hause, unter Nachbarn, bei Disputen in der Industrie und Scheidungsfällen von Prominenten beobachten. Sie liefert auch Leitlinien, welche Strategie in Konkurrenzsituationen und bei Konflikten die beste ist.« Fisher (2010: XIII) Vgl. dazu auch die Einführungen zur Spieltheorie bei Bartholomae; Wiens (2016); Diekmann (2016); Holler; Illing (2009); Rieck (2007). Vgl. Neumann; Morgenstern (1944/1990); Selten (2001). Frühere spieltheoretische Ansätze gehen dabei mitunter auf De Montmort (1713), Bernoulli (1738) oder Cournot (1883) zurück, welche diverse Prinzipien des Nutzenmaximierens – im Sinne des homo oeconomicus – früh vorweggenommen haben. Vgl. dazu die Schilderungen bei Rieck (2007: 21, Anm. 3). So etwa die Kombinatorische Spieltheorie (vgl. Conway (1983)), die Algorithmische Spieltheorie (vgl. Nisan (2008)) oder die Evolutionäre Spieltheorie (vgl. Maynard Smith (1982/2009)). Etwa Herbert Simon 1978; John C. Harsanyi, John F. Nash Jr. und Reinhard Selten 1994; James A. Mirrlees und William Vickrey 1996; Robert J. Aumann und Thomas C. Schelling 2005; Alvin E. Roth und Lloyd S. Shapley 2012. Vgl. https://www.nobelprize.org/prizes/economic-sciences/, abgerufen am 24.02.2020. Vgl. dazu die jeweiligen und teilweise im Strafmaß variierenden Formen bei Holler; Illing (2009: 2ff); Rieck (2007: 44ff). Vgl. das Beispiel bei Rieck (2007: 44ff) als etwa auch bei Kirsch (1998: 96ff). Eine solche Bimatrix bildet entsprechend die ›Minimalausstattung‹ eines spieltheoretischen Modells, in welchem zwei Spieler jeweils zwei Handlungsmöglichkeiten haben, woraus sich entsprechend der Aufbau ergibt.

231

232

Prozess als Gestalt

der Schweigende die Höchststrafe erhält (10 Jahre Gefängnis). Gestehen beide, erhalten sie unter Berücksichtigung mildernder Umstände gleichermaßen eine verminderte Strafe (5 Jahre Gefängnis für jeden).282 Wie sollten sich die beiden Gefangenen nun jeweils unabhängig voneinander entscheiden? Da beide nicht wissen, wie sich der jeweils andere entscheidet, bleibt nur der Blick auf das eigene Schicksal, das jeweils von der Entscheidung des anderen abhängt, bzw. auf die Interdependenzen, die es zu bewerten gilt.283 Jedes Individuum stellt entsprechend eine eigene, rationale Analyse der Verhältnismäßigkeiten an, wodurch sich gemäß dem spieltheoretischen Vokabular eine dominante Strategie ausmachen lässt.284 Diese besteht für beide Gefangenen darin, in jedem Fall auszusagen: Wählt etwa der ›Gefangene 1‹, zu schweigen, droht ihm eine empfindliche Haftstrafe (-2, -10). Sagt er dagegen aus, erwartet ihn in jedem Fall eine geringere Haftstrafe (1, -5). Für den ›Gefangenen 2‹ gilt dies entsprechend ebenso. Die Strategie ›aussagen‹ ist demzufolge für jeden Gefangenen die gegenüber der Strategie ›schweigen‹ (streng) dominante Strategie.285 Es erscheint nun berechtigt zu fragen, worin denn das Dilemma besteht, wenn die Lösung der Situation gemäß der dominanten Strategie im beiderseitigen ›Aussagen‹ besteht. Die Haftstrafe könnte für beide Gefangenen niedriger ausfallen, würden sie beide zur Tat schweigen (-2, -2). Weil die Entscheidung des anderen jedoch nicht als 282 Für die hier diskutierte Fassung ist das Strafmaß vom Autor so festgelegt worden, dass die Argumentation weiter unten eindeutig und anschaulich wird. 283 Kirsch spricht in diesem Zusammenhang von zwei Formen der Entscheidungsinterdependenzen; der Schicksalskontrolle und der Verhaltenskontrolle: »Unter einer Entscheidungsinterdependenz versteht man die wechselseitige Abhängigkeit von Entscheidungen bzw. von Aktoren. Ein Aktor B hängt von einem Aktor A ab, wenn die Konsequenzen der Entscheidungen des B von den Entscheidungen des A beeinflußt werden. Die Abhängigkeit des Aktors B von dem Aktor A äußert sich in einer Art ›Kontrolle‹ (›Control‹) des B durch den A. Diese Kontrolle kann eine Schicksalskontrolle oder eine Verhaltenskontrolle sein.« Kirsch (1998: 93). Von einer Schicksalskontrolle spricht man nach Krisch entsprechend dann, wenn die Handlungen des einen Akteurs einzig von den Handlungen des anderen abhängen. Von einer Verhaltenskontrolle ist die Rede, wenn die Entscheidung des einen Akteurs vom anderen noch durch eine eigene Handlung des abhängigen Akteurs mitbestimmt werden kann. Vgl. Ebd. 284 Vgl. Rieck (2007: 24ff). 285 In diesem Fall handelt es sich in genauer Betrachtung um eine strenge/strikte Dominanz, da die eine Alternative (›gestehen‹) in jeder Konfiguration besser ist als die andere (›schweigen‹). Reziprok ist die Strategie ›schweigen‹ als dominierte Strategie zu bezeichnen. Von einer schwachen Dominanz wäre die Rede, wenn die eine Alternative mindestens gleich gut und in mindestens einer Konfiguration besser wäre. Vgl. Ebd. Ebenso bildet die dominante Strategie ein sog. Nash-Gleichgewicht (z.T. auch strategisches Gleichgewicht), das nach seinem Begründer, dem Mathematiker John Nash benannt ist und welcher damit im Jahr 1994 mit dem Nobelpreis ausgezeichnet wurde. Dabei handelt es sich um eine Entscheidungskonstellation eines Spiels, in welcher keiner der Spieler einen Anreiz hat, als einziger von der Gleichgewichtskombination abzuweichen. Das heißt: Die für den Einen beste Lösung ist auch die beste Lösung für den Anderen. Voraussetzung dafür ist, wie Rieck es formuliert, »dass die zu wählenden Strategien wechselseitig beste Antworten aufeinander sind.« Ebd.: 31. Nach Fisher stellt das Nash-Gleichgewicht in der Spieltheorie entsprechend einen »selbstverstärkender Mechanismus« dar, der eine externe Autorität überflüssig macht, indem er »keine Anreize gibt, bei einer Kooperation zu betrügen« Fisher (2010: 18). Eine ausführliche Darstellung des Nash-Gleichgewichtes in seinen verschiedenen Anwendungskontexten findet sich bei Holler; Illing (2009: 56ff).

7. Kreativität und Parametrie

sichere Kenntnis in den Entscheidungsprozess miteinbezogen werden kann, kann in diesem Fall resp. Spiel nicht kooperativ agiert werden. Rieck formuliert das Dilemma entsprechend wie folgt: »Obwohl beide wissen, dass es für die Gruppe besser wäre, gemeinsam zu leugnen, so sind die Rahmenbedingungen so geartet, dass es sich für jeden Einzelnen immer lohnt zu gestehen, weil ihn ›gestehen‹ individuell immer besser stellt als ›leugnen‹, unabhängig davon, was der andere macht […]. Oft findet man die Formulierung, das Dilemma bestehe darin, dass die individuelle Rationalität der kollektiven Rationalität widerspricht.«286 Mit dem Begriff der Rationalität erhält damit ein grundlegendes Wesensmerkmal der Spieltheorie Einzug in die Diskussion, das, wie im Zitat angeführt, (mindestens) zwei Deutungsrichtungen zulässt: eine, die wie im Beispiel auf die Gewinnmaximierung des Einzelnen abzielt (nicht-kooperative Spieltheorie) und eine weitere, welche die Interessen der Gemeinschaft im offenen Dialog bindend vereinbart (kooperative Spieltheorie).287 Die kooperative Spieltheorie versteht sich dabei jedoch allenfalls als Ausschnitt der nichtkooperativen Spieltheorie, eben dadurch, dass Vereinbarungen (Absprachen, Verträge etc.) geschlossen werden können, und diese die Handlungsentscheidungen wiederum durch engere Reglementierungen weiter einschränken. Ein kooperatives Spiel stellt dementsprechend eine Verkürzung der Spieltheorie dar, weshalb die klassische Spieltheorie von nicht-kooperativen Sachverhalten ausgeht, wodurch auch nicht zuletzt der Eindruck entstehen kann, dass die partizipierenden Spieler sich rein egoistisch verhielten.288 Auch wenn die Spieltheorie in dieser Hinsicht insofern ein egoistisches Verhalten voraussetzt, als dass die Spieler versuchen, den eigenen Gewinn

286 Rieck (2007: 48), Holler und Illing verorten das Dilemma in ähnlicher Weise in der fehlenden Möglichkeit, Verbindlichkeiten einzugehen: »Der Grund für das Gefangenendilemma liegt nicht in mangelnder Kommunikation, sondern in der fehlenden Möglichkeit, bindende Verträge einzugehen: Selbst wenn die Gefangenen sich gegenseitig verpflichtet hätten, nicht zu gestehen, würden sie sich nicht daran halten.« Holler; Illing (2009: 19). Das heißt: Auch wenn beide Gefangenen im Vorfeld die Abmachung treffen könnten, zu schweigen, würden sie sich nicht daran halten, weil das Strafmaß für den, der die Abmachung bricht – und als Kronzeuge aussagt – sich halbiert: von (-2, -2) auf (-1, -10). Da beide so denken könnten, handelt es sich um ein Dilemma. 287 Vgl. Rieck (2007: 34ff). Letzteres findet sein gesellschaftlich-philosophisches Äquivalent etwa in Habermas’ ›Theorie des kommunikativen Handelns‹, gemäß welcher die beteiligten Akteure vordergründig an der Verständigung und Konsensbildung über die Definition ihrer Situation interessiert sind. Vgl. Habermas (1981/2016). Entsprechend nimmt der Begriff der Rationalität bei Habermas eine wesentliche Stellung ein, insofern, als dass rationale Argumentationen in einem Dialog nicht etwa absolute Wahrheit und Repression ausdrücken, wie Habermas sie etwa in bürokratischen Verwaltungsapparaten oder der Ökonomie verwirklicht sieht, sondern vielmehr insofern, als dass sie immer wieder neu zu begründen und bei neuer Überzeugung auch entsprechend zu korrigieren sind. Vgl. König (2014: 24ff). Es geht Habermas entsprechend mehr um die Konsistenz der (eigenen) Argumentation für ein Handeln als um das praktische Handeln selbst. 288 In dieser Hinsicht unterstellt die Spieltheorie einen Begriff der Rationalität, der sich allein auf das beschränkt, was den einzelnen Spielern jeweils an Informationen über die Spielsituation zugänglich ist, nämlich, dass sie das gleiche Spiel spielen und dass ihre Gegenspieler die möglichen Spielausgänge bewerten. Vgl. Rieck (2007: 35).

233

234

Prozess als Gestalt

zu maximieren,289 so wäre es verfehlt, ein egoistisches mit einem rationalen Verhalten gleichzusetzen. Wie Rieck es als Entkräftung von Vorurteilen gegenüber diversen spieltheoretischen Prinzipien darlegt, »empfiehlt [die Spieltheorie] nicht, nach dem eigenen Vorteil zu streben, sondern sie untersucht, wie sich Entscheider verhalten, wenn sie nach ihrem eigenen Vorteil streben.«290 Damit sind zwei Bedingungen verknüpft: Zum einen muss der eigene Vorteil zunächst deutlich ansichtig werden, eben durch die Modellierung einer lebensweltlichen Situation als Spiel, als (rationale) Abstraktion, wie es in der Bimatrix des Gefangenendilemmas weiter oben anschaulich wird.291 Zweitens erfordert ein solches Spiel zum Vorteil des Spielers ein konsistentes Verhalten desselben, d.h., dass er sich darauf festlegt, »während eines Spiels bei einmal geäußerten Vorstellungen zu bleiben, also konsistent zu entscheiden«,292 d.h., sich an die Regeln zu halten. Erfolgt dies nicht konsistent, fällt das Spiel auseinander, da die Regeln und Verbindlichkeiten des Spielsystems, die bis dahin für alle beteiligten Spieler gleichsam galten, hinfällig geworden sind.293 Dadurch, dass alle Spieler sich konsistent verhalten, d.h., dass sie ihre Entscheidungen im Sinne der rational dargelegten Abhängigkeiten und Dynamiken der modellierten Spielsituation zu treffen vermögen, werden sie entsprechend in den Stand versetzt, zwischen besser und schlechter unterscheiden zu können. Diese rationale Nüchternheit der Entscheidungsfindung kann in der einen Perspektive schnell als Egoismus, in anderer als offene Bereitschaft eines argumentativ-rationalen Diskurses betrachtet werden, wie sie auch in Habermas’ ›Theorie des kommunikativen Handelns‹ ansichtig wird, gemäß welcher die beteiligten Akteure vordergründig an der Verständigung und

289 Wie Rieck es an einem anderen Beispiel knapp zusammenfasst: »Die Frage ist, wie wir unseren Gewinn maximieren; wie es dem anderen geht, interessiert uns nicht.« Ebd.: 30. Entsprechend setzt die klassische Spieltheorie in dieser Betrachtungsweise die »rein zweckrationale, egoistische Nutzenkalkulation der Spieler voraus« Gessmann (2009: 680), Spieltheorie. 290 Rieck (2007: 40). Diese eigenen Vorteile können ebenso altruistische, moralische, politische Motive sein, oder auch »beliebige andere Präferenz- und Wertvorstellungen«. Ebd. Entsprechend spricht Rieck im Weiteren sowohl von »eigenen Vorstellungen« als auch von »eigenen Vorteilen« und stellt weiter den rein anbietenden Charakter der Spieltheorie heraus, wenn er davon spricht, dass die Spieltheorie versucht, »an verhältnismäßig einfachen Problemen Vorschläge zu machen.« Ebd.: 40-41. 291 »Das Spiel ist dann die Abstraktion eines Sachverhalts auf seinen wesentlichen Gehalt.« Ebd.: 40. 292 Ebd. Der Fall etwa, dass sich beispielsweise der eine Gefangene nach der allgemeinen Offenlegung der Entscheidung des anderen Gefangenen umentscheidet, wird von der Spieltheorie ausgeschlossen. Ebenso weisen Holler und Illing gleich zu Beginn ihrer Einführung auf dieses grundlegende Funktionsprinzip der Spieltheorie hin. Holler; Illing (2009: 1). 293 Wie es etwa Huizinga formuliert: »Die geringste Abweichung von ihr [der Ordnung] verdirbt das Spiel, nimmt ihm seinen Charakter und macht es wertlos.« Huizinga (1938/2009: 19). Vgl. dazu a.a.O. die Differenzierung zwischen dem Falschspieler und dem Spielverderber bei Ebd.: 20: Während ersterer, der Falschspieler, die Sphäre des Spiels weiterhin anerkennt und im Rahmen des Spiels gegen etwaige Regeln verstößt, reißt der Spielverderber die Spielwelt gänzlich ein, indem er aus der modellierten Sphäre ausbricht und damit den konstruierten und fragilen Charakter derselben offenbar werden lässt. Bei Letzterem wäre nach Feige im Verweis auf Searle entsprechend vom Bruch konstitutiver Regeln zu sprechen, »deren Befolgen oder Nichtbefolgen darüber entscheidet, ob man das entsprechende Spiel spielt oder nicht« Feige (2015: 51). Da konstitutive Regeln ein Spiel in seiner jeweils eigenartigen Spielhaftigkeit definieren, spielt man ein Spiel bei Missachtung dessen Regeln auch nicht etwa anders, sondern überhaupt nicht. Vgl. dagegen die Möglichkeit eines kontrollierten Aussteigens aus einem spieltheoretischen Modell bei Fisher (2010: 89ff).

7. Kreativität und Parametrie

Konsensbildung über die Definition ihrer Situation interessiert sind.294 Die für die weitere Diskussion wesentlichen Aspekte lassen sich wie folgt zusammenfassen: Erstens stellt jeder Spielraum eine mathematisch resp. parametrisch modellierte Umgebung dar, die eine Situation resp. ein Entwurfsvorhaben auf seinen wesentlichen Gehalt abstrahiert, wie Rieck es für die Spieltheorie grundlegend definiert.295 Wer spielt, tut dies wie dargestellt im eingeschränkten Modell, und damit im wechselseitigen Verhältnis von Restriktion (Begrenzung von außen) und Kontingenz (Entfaltung nach innen). Sobald dabei nicht mehr von Tendenzen, sondern von numerischen Wahrscheinlichkeiten zu sprechen ist, erhalten die Dinge eine Beständigkeit, wie sie auch für die Gestaltung eines jeden Entwurfs notwendig wird. Zweitens erfordern diese numerischen und rationalen Entscheidungswege ein konsistentes Verhalten, das sich im gestalterischen Zusammenhang als konsequentes Denken verstehen lässt: Denkprozesse erfolgen dabei, wie weiter oben gezeigt wurde, linear und produktiv;296 sie bauen aufeinander auf, werden evaluiert, korrigiert, umstrukturiert, sie ändern ihre Richtung und wirken dabei stets auf die Gesamtheit des Entwurfs, seine Gestalt, zurück. Drittens, und darin erweitert die parametrische Perspektive die spieltheoretische, erhalten die Regeln des Spielraums resp. seine Bedingungen im Rahmen der Modellierung desselben eine Sichtbarkeit, die eine Reflexion auf die Gesamtheit der Geschehnisse ermöglicht: Nicht nur die einzelnen Bestandteile resp. die Entscheidungsoptionen sind nun ablesbar, wie es das Beispiel des Gefangenendilemmas veranschaulicht, sondern vor allem die Bedingungen, unter welchen sich die Bestandteile im (parametrischen) Spielraum arrangieren lassen. Dies vermag den Prozess als Gestalt nicht nur auf der Ebene seiner Komponenten zu erfassen, sondern vielmehr auf jener seiner Verhältnisse und Bedingungen, die im parametrischen Verständnis nicht nur ein Gegebenes, sondern ein Gestaltbares darstellen.

Spannungsverhältnisse Nachdem die Auseinandersetzung mit dem (spieltheoretischen) Spielraum aufgezeigt hat, wie Realsituationen zu abstrakten Modellen prozessiert werden können und letztere damit eine neue (numerische und parametrische) Anschaulichkeit der Verhältnisse offenlegen, so soll im Folgenden geklärt werden, wie im Spielraum gespielt wird. Dazu wird jene übergeordnete Ambivalenz des Spiels, die den Spielraum auf der Ebene der Restriktion (Regeln) und Kontingenz (Entscheidung) kennzeichnet, auf einer tieferliegenden Ebene anschaulich, sobald nicht mehr vom Innen und Außen eines Raumes, sondern vom Vor- und Zurück einer Spannung die Rede ist. Es gilt entsprechend, den Spielraum nicht mehr hinsichtlich seines äußerlichen Modellcharakters der Einschränkung, sondern mit dem Fokus auf seine innere Binnenstruktur zu betrachten, die sich vor allem als prozessuales Phänomen aus Spannungsverhältnissen erfassen lässt. Um sich diesen Spannungsverhältnissen anzunähern, muss zunächst geklärt werden, in welche Voraussetzungen sie eingebettet sind, da es gerade um jene wechselseitigen

294 Vgl. Habermas (1981/2016). 295 Rieck spricht im spieltheoretischen Verständnis von einer »Abstraktion eines Sachverhaltes auf seinen wesentlichen Gehalt.« Rieck (2007: 40). 296 Vgl. dazu weiter oben Kapitel 6.2 ›Reproduktives und Produktives Denken‹.

235

236

Prozess als Gestalt

Verhältnisse der Einzelphänomene zum Ganzen geht, die sich in einer isolierten Betrachtung nur bedingt erfassen ließen. Daher sei in knapper Form rekapituliert, durch welche Charakterzüge sich das Spiel als (kulturtheoretisches) Phänomen umschreiben lässt, wie es der niederländische Kulturhistoriker Johan Huizinga in seiner weitreichend bekannten Schrift ›Homo Ludens‹ von 1938 versuchte.297 Nach Huizinga versteht sich ein Spiel als freies Handeln; als abgeschlossene, räumlich und zeitlich begrenzte, wiederholbare Sphäre, die nicht das ›gewöhnliche Leben‹ und somit überflüssig ist.298 Wiederum besitzt und schafft es eine notwendige Ordnung, die aus dem ästhetischen Drang entsteht, eine Spannung resp. eine Ungewissheit aufzulösen und damit ein Gleichgewicht zu schaffen, das jedoch zwangsläufig nie zum Stillstand kommt299 – andernfalls wäre, sobald die Spannung erlischt, kein Anreiz mehr vorhanden, das Spiel weiter oder noch einmal zu spielen.300 Das Spiel stabilisiert sich entsprechend durch seinen eigenen Prozess des Spielens, in welchem sich einschränkende Regeln herausbilden, die einerseits ein konsistentes Verhalten erfordern, während sie einen spielerischen Umgang der Entfaltung fördern. Darüber hinaus ist weiter zu fragen, welche Ziele mit dem Spielen überhaupt verfolgt werden. Huizinga beantwortet dies mit nichts weniger als der Formung von Kultur selbst und spricht ihm entsprechend jene »sinnvolle Funktion« zu, welche »über den unmittelbaren Drang nach Lebensbehauptung hinausgeht und in die Lebensbetätigung einen Sinn hineinlegt.«301 Auch Hüther und Quarch heben diese besondere Qualität des menschlichen Spielens hervor, wenn sie konstatieren, dass es »Räume unbedingter Sinnhaftigkeit [öffnet], auch wenn kein Zweck dabei verfolgt und kein Nutzen avisiert wird.«302 Das Spiel stellt in dieser Hinsicht ein nicht unmittelbar Notwendiges, ein Überflüssiges – ein »Superabundans« – dar.303 Der Zweck seines Vollzuges liegt im Spiel selbst, wodurch es im aristotelischen Verständnis als Handlungsform der Praxis zu verstehen ist.304 Es verfolgt, nach Scheuerl, »keinen ausserhalb seiner selbst liegenden Zweck«,305 sondern definiert sich über eine Freiheit, die nach

297 Vgl. Huizinga (1938/2009: 15-22). 298 Vgl. ebenso eine neuere Rekapitulation der Wesensmerkmale des Spiels bei Warwitz; Rudolf (2014: 18ff). 299 Der Schweizer Psychiater und Psychoanalytiker Gustav Bally veranschaulicht dies im Ausdruck der stehenden Bewegung, welcher versinnbildlicht, dass sich ein Spiel eben nur dann im Gleichgewicht hält, wenn es von gegeneinander arbeitenden Kräften stabilisiert wird. Vgl. Bally (1945/1966). Scheuerl stellt in dieser Hinsicht den bildlichen Vergleich zu einem »ewigen Pendel« an. Scheuerl (1954/1973: 90). 300 Scheuerl beschreibt die Spannung im Spiel entsprechend als eine Sonderform: »Die Spannung des Spiels soll nicht beseitigt, sondern erhalten werden. Sie ist hierin von allen Spannungen, welche der Daseinskampf setzt, grundsätzlich unterschieden.« Ebd.: 74. Huizinga verortet das oszillierende Moment dabei in einer ästhetisch unsagbaren Sphäre harmonischer Wechselspiele, wenn er davon spricht, dass das Spiel »bindet und löst. Es fesselt. Es bannt, das heißt: es bezaubert. […] es ist erfüllt von Rhythmus und Harmonie.« Huizinga (1938/2009: 19). 301 Ebd.: 9. 302 Hüther; Quarch (2018: 17). 303 Huizinga (1938/2009: 12). 304 Vgl. die Unterscheidung von Poiesis und Praxis bei Aristoteles (2013: 1139a ff). 305 Scheuerl (1954/1973: 69).

7. Kreativität und Parametrie

außen hin abgrenzt, um einen Spielraum im Inneren darzubieten.306 Im Spiel schränkt sie ein, während sie von etwas befreit; dort markiert sie das »Frei-sein von etwas« Äußerem –307 in neurobiologischer Betrachtung vor allem von einer die Gehirnaktivität hemmenden Angst, wie Hüther und Quarch es darlegen.308 Bally spricht dabei in seiner spielewissenschaftlichen Erörterung von 1945 vom ›Spielraum der Freiheit‹, der auf »eine das Wesen der Freiheit erst offenbarende und auszeugende Weise begrenzt [ist] in einer Ordnung, die die freien Möglichkeiten des Verhaltens zügelt.«309 In jenem Spielraum finden sich entsprechend Geregeltheit und Freiwilligkeit vereint, in einem spannungsvollen Verhältnis, das sich als das eigentliche Spiel offenbart. Das Spiel bildet sich entsprechend nicht durch den einen oder anderen Pol, sondern durch das Spannungsverhältnis dazwischen.310 Diese paradoxe Form spielerischer Freiheit verschafft entsprechend jene von der Wirklichkeit abgeschiedene Form eines Möglichkeitsraumes, in welchem die Dinge erst insofern gänzlich neu verhandelt werden können, als dass darin alle etablierten Verhältnisse der Wirklichkeit aufgelöst und für eine Neusetzung und Neugewichtung zugänglich sind.311 Entsprechend entsteht ein Überfluss an Möglichkeiten neuer Verbindungen, unter denen es neu zu sondieren gibt, welche davon mehr oder weniger Sinn machen.312

306 Wie Scheuerl es a.a.O. formuliert: »Das Kind, das einen Kreisel treibt, der Jugendliche auf der Laienbühne oder am Schachbrett, der Fußballer, der Briefmarkensammler, – sie alle sind nach außen hin frei, mögen sie innerhalb ihres Spiels auch noch so sehr an Regeln und Vorschriften gebunden sein.« Ebd.: 70. Die Freiheit von Zwecken findet sich dabei auch in Kants Definition des Spiels wieder, in welchen man sich mit etwas beschäftige, »ohne weiter irgend einen Zweck dabei zu beabsichtigen« Kant zitiert nach Ebd. Arnold Gehlen führt in dieser Hinsicht das anthropologische Prinzip der Entlastung an, das den »›Spielraum‹ für das Eintreten des denkenden Bewußtseins« umgrenzt resp. die »intellektuellen und motorischen Funktionen« erst freisetzt. Gehlen (1997: 67). 307 »Spiel ist frei vom Zwang ungebärdig drängender Triebe, frei von den gebieterischen Nötigungen des Instinkts. Es ist frei von den Bedürfnissen des Daseinskampfes, von der Not des Sich-Wehrens.« Scheuerl (1954/1973: 71). Wie Huizinga es an anderer Stelle formuliert: »[Das Spiel] steht außerhalb des Prozesses der unmittelbaren Befriedigung von Notwendigkeiten und Begierden, ja es unterbricht diesen Prozeß. […] Es hat seinen Platz in einer Sphäre, die über der des rein biologischen Prozesses des Sichnährens, Sichpaarens und Sichschützens liegt.« Huizinga (1938/2009: 17). 308 Das menschliche Gefühl von Angst wird dabei in der Amygdala gebildet. Bildgebende Verfahren der Neurowissenschaften konnten festhalten, dass der Bereich dieser Hirnregion beim Spielen weniger aktiv und der Sauerstoffverbrauch entsprechend geringer ist. Vgl. Hüther; Quarch (2018: 19). »Im Spiel verlieren wir also unsere Angst.« Ebd. In gleichem Zusammenhang stellt Vester in einer Darlegung der biochemischen Prozesse im Gehirn heraus, dass die Fähigkeit zur Assoziation bzw. die Gehirnaktivität zur freien Verbindung von Synapsen eingeschränkt ist, wenn Menschen Stresssituationen ausgesetzt sind. Vgl. Vester (1975/2016: 142ff). 309 Bally (1945/1966: 8). 310 Entsprechend benennen Berg und von Sass den Spielraum auch als »Raum des Dazwischen«. Berg; Sass (2014a: 25). 311 »Die Spiele transzendieren die gewöhnlichen Gegensätze, die im alltäglichen Leben unlösbar sind, und stellen sie auf einer neuen Ebene als einen neuen Gegensatz und dessen Lösungsmöglichkeiten dar«, wie Adamowsky es im Verweis auf Sutton-Smith anführt. Adamowsky (2000: 31-32). 312 Der Umstand des Überflusses findet sich dabei auch auf neurobiologischer Ebene wieder: Hüther und Quarch verorten diesen in der physiologischen Entwicklung von Lebewesen, welche mit einem »Überangebot an neuronalen Kontakten« auf die Welt kommen und welche durch »diejenigen Vernet-

237

238

Prozess als Gestalt

Neben dieser Bedeutungsdimension von Freiheit ist das Spiel nach Huizinga wie oben angeführt vor allem ein freies Handeln, das freiwillige Einsteigen in die abgegrenzte, überflüssige Sphäre des Spiels.313 Diese Dimension versteht sich entsprechend als Form einer Bereitschaft, sich freiwillig durch die Rahmung des Spiels einzuschränken. Sowohl die Nicht-Notwendigkeit als auch die Freiheitsdimension des Spiels lassen damit erst die Möglichkeit entstehen, einen Spielraum zu modellieren, der seine ganz eigene Sphäre der Sinnhaftigkeit herausbildet, gemäß welcher die Dinge – und Spieler – sich zueinander verhalten. Huizinga beschreibt dies als »das Heraustreten aus ihm [dem gewöhnlichen Leben] in eine zeitweilige Sphäre von Aktivität mit einer eigenen Tendenz.«314 Die vage Umschreibung der Zielausrichtung als Tendenz deutet dabei darauf hin, dass der Sinn des Spiels weniger von statischen Definitionen, als vielmehr von dynamischen Kräften und Relationen abzuhängen vermag, die darin bestehen. An anderer Stelle spricht Huizinga entsprechend von einem antithetischen Charakter des Spiels,315 welcher vor allem in einer das Spiel auszeichnenden Spannung offenbar wird, die es als Phänomen für ein tieferes Verständnis der Prozesse noch differenzierter zu betrachten gilt. Eine Spannung definiert sich zuallererst und allgemeiner verstanden als aus mindestens zwei Polen bestehend, die von unterschiedlicher Beschaffenheit sind und in wechselseitiger Verbundenheit zueinander stehen.316 Dies evoziert ein Gefälle, das nach einem Ausgleich strebt. Huizinga definiert Spannung in Bezug auf seine Bedeutung im Spiel – aus der Sicht eines Spielers – demnach als ein »Streben nach Entspannung«,317 das nicht zuletzt dem Wunsch nach einer Auflösung von Unsicherheit entspringt. Nach ihm ist es jene »ungewisse Aussicht auf Gelingen«,318 welche Spannung erzeugt; nicht die Frage, wie ein Ziel prinzipiell erreicht werden kann – wie es im Feld des klassischen Problemlösens thematisiert wurde –,319 sondern, ob der eingeschlagene Lösungsweg ein guter

313

314 315 316

317 318 319

zungsangebote, die sich als brauchbar erweisen«, stabilisiert werden, während die restlichen wieder abgebaut werden. Hüther; Quarch (2018: 38ff). Vgl. Huizinga (1938/2009: 16). Ebenso spricht Börchers (2018: 117) im Zusammenhang einer Handlungstheorie des Computerspiels sowohl von einem »Gang in das Spiel hinein« als auch von jenen Handlungen, die sich innerhalb des Spielgeschehens verwirklichen. Vgl. Ebd.: 111ff. Huizinga (1938/2009: 16). Ebd.: 58ff. In dieser Bedeutung ist die physikalische Definition von Spannung aussagekräftiger als die allgemeine: Während letztere im Duden lediglich auf Spannung als die »auf etw. Zukünftiges gerichtete erregte Erwartung« verweist, beschreibt die physikalische Definition die »Differenz der elektrischen Potenziale zweier Punkte, aufgrund deren zwischen diesen beiden Punkten ein elektrischer Strom fließen kann […].« Duden (2011: 1633), Spannung. Huizinga (1938/2009: 19). Ebd.: 58. Vgl. dazu weiter oben Kapitel 6.1 ›Problem und Lösung‹.

7. Kreativität und Parametrie

resp. sinnvoller ist.320 »Wird es glücken?«, fragt Huizinga.321 Das Spiel ist entsprechend geprägt von einer stetigen Ungewissheit, die es nicht zu fassen, sondern allenfalls in eine Richtung zu lenken gilt. Abb. 12: Darstellung nach Scheuerl (1954/1973: 78): Während (a) einen kontinuierlichen, linearen Prozess veranschaulicht, der an einem bestimmten Punkt anfängt und mit Erreichen eines Zielpunktes endet, vollzieht sich (b) im ewigen Kreislauf, da jedes Erreichen eines Zielpunktes gleichzeitig einen neuen Anfangspunk markiert. Entsprechend stellt jener bipolare Kreislauf ein bewegtes Gleichgewicht dar, das den (Spiel-)Prozess stabilisiert.

(a)

(b)

Zweck- und Bedürfnishandlung

Spiel

Scheuerl (1954/1973: 78)

Adamowsky spricht hinsichtlich der spielerischen Spannung von den »ludischen Basisantipoden von Ordnung und Unordnung«,322 wodurch Spiele einerseits Ausdruck gesellschaftsordnender Phänomene sind – etwa Macht, Interaktion, ökonomische Faktoren, Aggression –, andererseits jedoch auch Unordnung, Unsicherheit und den Wunsch nach Wandel auf sich vereinen.323 Eine erweiterte Ausdifferenzierung spielerischer Spannungsverhältnisse stellen Berg und von Sass an, indem sie zwischen fünf (bipolaren) Spannungsverhältnissen unterscheiden, die den Spielraum in seiner Eigenart prägen: Freiwilligkeit und Verpflichtung (1), Regelhaftigkeit und Offenheit (2), Reproduktion und Variation (3), Separierung und Beziehung (4) und Müßiggang und Ernst (5).324 So konkret und definiert die Begriffe dieser Gegensatzpaare erscheinen, so wesentlich offenbart sich das spielerische Moment nicht an, sondern jeweils zwischen ihnen: Indem das Spiel sich nicht festlegt, behält es stets seine Spannung. Es macht jene zwischen den Polen oszillierende Bewegung aus, die in der Sphäre des Spielraums 320 Wie es auch im Exkurs in die Spieltheorie anschaulich geworden ist, steht dort nicht die generelle Ordnung des Spiels zur Debatte, sondern vielmehr die (rationale) Befähigung, zwischen besseren oder schlechteren Entscheidungen abwägen zu können. Auch die Gestalttheorie hat bereits früh von der Transformation einer schlechten (mangelhaften) in eine gute (geschlossene) Gestalt gesprochen, durch welche sich eine vorherrschende Spannung letztlich auflöst. S. dazu auch Michael: »Die Ausgangssituation des Prozesses ist stets gekennzeichnet durch Spannungen, durch ungeschlossene und unausgeglichene Strukturen. Diese Spannungen drängen den Denkenden unwillkürlich zum Ausgleich und zur Überwindung. Aus der offenen, mangelhaften ›Gestalt‹ soll eine geschlossene Gestalt werden, d.h., die einzelnen nicht zueinander passenden Teile sollen zu einem sinnvollen Ganzen umstrukturiert werden.« Michael (1973: 33). Vgl. ebenso Hussy (1984: 167-168). 321 Huizinga (1938/2009: 58). 322 Adamowsky (2000: 32). 323 Vgl. Ebd. 324 Vgl. Berg; Sass (2014a: 26-30).

239

240

Prozess als Gestalt

miteinander verbindet, was außerhalb seiner Sphäre unvereinbar erscheint.325 Dies bildet übergeordnet jene Eigenart einer spielerischen Spannung aus, wie sie in der hier geführten Diskussion um Parametrie Anwendung finden soll. Dabei versteht sich jene Spannung weiter auf die Besonderheit, dass sie im Spiel nicht etwa in einer letzten Instanz aufgehoben wird, sondern sich als rekursives, prozesshaftes Phänomen selbst stetig weiter antreibt. Während Huizinga diese Eigenschaft spielerischer Spannung lediglich grob umreißt,326 bringt Scheuerl sie mit dem Ausdruck des »Moments der inneren Unendlichkeit« auf den Begriff.327 Darunter versteht er jene Eigenart des Spiels, gemäß welcher die Spannung des Spiels nicht etwa beseitigt, sondern fortwährend erhalten werden soll.328 Im Verweis auf die psychoanalytische Perspektive Freuds stellt Scheuerl dem Trieb nach biologischer Bedürfnisbefriedigung (Hunger, Schlaf, Fortpflanzung etc.) den Spieltrieb gegenüber, welcher zwar eine ebenso zwanghafte, menschliche Notwendigkeit darstelle,329 jedoch die Besonderheit aufweist, dass »da nichts [ist], was auf ein Ende drängt, nichts, was den Zustand des Spielens aufheben möchte.«330 Spielen vollzieht sich entsprechend als »Bewegung, die in sich selbst zurückkehrt«, wie es der Psychologie und Mitbegründer der Spielewissenschaft Moritz Lazarus einst formulierte;331 als eine »Handlung, die immer neue Handlungen in Gang« setzt.332 Diese prozessuale, rekursive Geschlossenheit sei in Abb. 12 veranschaulicht: Während (a) einen eindimensionalen Prozess verfolgt, der an einem bestimmten Punkt anfängt und bei Erreichen eines ebenso bestimmten Ziels abgeschlossen ist – im Sinne einer Hin-Sicht,333 vollzieht sich (b) als geschlossener, kontinuierlicher Kreislauf, dessen Anfangspunkte zugleich Zielpunkte darstellen und umgekehrt, indem buchstäblich – und

325 Bally spricht in diesem Zusammenhang auch vom Spiel als »Bewegung der Freiheit«. Bally (1945/1966: 8). 326 »Solange es [das Spiel] im Gange ist, herrscht Bewegung, ein Auf und Nieder, ein Abwechseln, eine bestimmte Reihenfolge, Verknüpfung und Lösung.« Huizinga (1938/2009: 18). Huizinga verknüpft den Begriff der Spannung in seiner Bedeutung verstärkt mit einem Zustand der körperlichen und geistigen Anspannung und Anstrengung, wie er etwa im kompetitiven Wettkampf sein höchstes Niveau erreicht. Vgl. Ebd.: 19, 51ff, 58ff. 327 Scheuerl (1954/1973: 72ff). 328 Vgl. Ebd.: 74. 329 »Es gibt zweifellos einen Zwang zum Spiel. Kinder und Tiere müssen in bestimmten Situationen spielen, wenn sie nicht neurotisch werden sollen.« Ebd.: 73. 330 Ebd. Scheuerl weiter: »So ist mit dem ›Spieltrieb‹ das merkwürdige Faktum eines ›Triebes‹ gegeben, der aus sich heraus keine Be-friedigung will. Er kann nicht »gesättigt« werden.« Ebd.: 76. Auch Bally (1945/1966) stellt die Spielhandlung der Instinkthaltung gegenüber. Ersteres unterscheidet sich von Letzterem insofern, als »daß die Umwelt dem Spielenden Fragen stellt, die durch die Bewegung des Spiels nicht nur nicht ausgelöscht, sondern vertieft und bereichert werden« Ebd.: 42. Gernot Böhme hat diese Dichotomie in ähnlicher Weise auf die Konsumgesellschaften der Gegenwart übertragen, wenn er von einer ästhetischen Ökonomie spricht, dessen kapitalistische Triebkräfte nicht etwa auf die Befriedigung von (Grund-)Bedürfnissen abzielen, sondern auf die Inszenierung sog. Begehrnisse, dessen Eigenart darin besteht, dass sie »durch ihre Befriedigung nicht zur Ruhe kommen, sondern vielmehr gesteigert werden« Böhme (1995/2006: 56-57). 331 Lazarus (1883: 36). 332 Scheuerl (1954/1973: 74). 333 Vgl. dazu auch weiter oben Kapitel 7.2 ›Hin-Sicht und Ab-Sicht‹.

7. Kreativität und Parametrie

immer wieder neu – von ihnen ab-gesehen wird.334 Die Ziele im Spiel bilden darin entsprechend zwar anzusteuernde Orientierungspunkte, doch sind sie nach Scheuerl »nicht eigentlich Ziele, sondern nur Anlässe der Bewegung« und entsprechend »Scheinziele«.335 Auch Bally sieht den Mehrwert dieser spielerischen Dynamik in der »relativen Unabhängigkeit vom Ziel« gegeben,336 die sich nur im »gelockerten« resp. »entspannten Feld« eines Spielraums offenbart:337 »In dem Maße, in dem die selbst zu Zielen gewordenen Felddinge ihren Charakter als Wegmarken, als zielbestimmte Vektoren verlieren, verlieren sie auch ihre zielbestimmte ›Einseitigkeit‹. Immer neue und andere Bezüge entstehen; […].«338 Erst dadurch, dass sich Ziele im Spielraum nicht mehr als fixierte Punkte, sondern als Richtungen verstehen, dehnen sie den Spielraum aus, der sodann in explorativer Art und Weise von einer Bewegung durchstreift werden kann. Auf diesen Umwegen stellen sich entsprechend neue Beziehungsmöglichkeiten dar, welche die spielerische Spannung weiter antreiben, indem ein altes Ziel verlassen wird, um sich einem neuen anzunähern. Entsprechend ist darin »jedes Sich-Entfernen […] zugleich ein Sich-Nähern«;339 eine infinite Bewegung, die ein Inneres antreibt, während sie gegen ein Äußeres abgrenzt und entsprechend eine räumliche wie zeitliche Autarkie für sich beansprucht.340 In dieser Hinsicht, in welcher das Spiel in philosophischer Betrachtung eine Übersetzung des Unendlichen ins Endliche verkörpert,341 versteht sich der eigentliche Spieler des Spiels,

334 Der Mathematiker Karl Sigmund spricht in einem solchen Zusammenhang der Selbstreferenzialität auch von einem »Kreislauf des Widerspruchs«, den er sowohl an Gödels Unvollständigkeitssatz als auch an Gregor Mendels Experimenten zum Vererbungsvorgang von Pflanzen-Hybriden anschaulich macht. Vgl. Sigmund (1995: 7ff). Scheuerl beschreibt jenen Kreislauf auch als Bewegung, die nicht etwa auf die jeweiligen Pole seines Ursprungs bzw. Ziels zusteuert, sondern »schwebend an ihnen vorüber [gleitet]« Scheuerl (1954/1973: 79). Dementsprechend bilden sich im Spiel allenfalls »Scheinziele« heraus. Ebd. 335 Ebd. 336 Bally (1945/1966: 25). 337 »Im entspannten Felde dagegen sehen wir anderes. Hier, wo die Dinge im Annäherungsfeld immer von neuem angegangen werden, entwickelt das Lebewesen eine vielgestaltige Beziehung zu ihnen […].« Ebd.: 29. 338 Ebd. 339 Scheuerl (1954/1973: 79). 340 »Sie [die Kreisbewegung] ist abgeschlossen gegenüber allem Äußeren und zugleich in sich selbst unabschließbar. Sie ist gegenüber Vergangenheit und Zukunft indifferent, zugleich augenblicksverhaftet und zeitlos.« Ebd. Vgl. dazu ebenso die neurobiologische Betrachtung bei Monyer; Gessmann (2017), welche das Phänomen einer zyklischen Selbstreferenz für das menschliche Gedächtnis als Zusammenkunft von Vergangenem und Zukünftigem nachzeichnen. 341 Diese Anschauung findet sich dabei bereits in der Vorstellung der kosmischen Ordnung des antiken Griechenlands, in welcher das Spiel der feierlichen Möglichkeit entsprach, dem göttlichen Ideal, seiner Vollkommenheit und Lebendigkeit so nahe wie möglich zu kommen, als »Teilhaben am Fest der Götter« Hüther; Quarch (2018: 50). »Im Spiel – und nirgends so wie dort – lässt sich das Unendliche ins Endliche übersetzen, das Göttliche ins Menschliche, das Ewige ins Zeitliche, das Ideale ins Unvollkommene«, wie Hüther und Quarch es weiter anschaulich zusammenfassen. Ebd.: 52. Auch Warwitz und Rudolf sprechen von einer Unendlichkeits- und Wiederholungstendenz im Spiel: »Lustvolles Spielen will ›Ewigkeit‹.« Warwitz; Rudolf (2014: 22).

241

242

Prozess als Gestalt

der homo ludens, als einer, »der niemals das Ende will«, obwohl er »faktisch doch immer auf Schranken« stößt.342 So entfernt die Praxis des Entwerfens zunächst von einer solchen Dichotomie aus Unendlichkeit und Endlichkeit, Festhalten und Loslassen und anderen diametralen Wechselwirkungen entfernt scheint, so evident erscheinen die Parallelen, wenn der Designer in dieser Hinsicht als Spieler gedacht wird, der in einem spannungsvollen Prozess stets aufs Neue zwischen besser und schlechter, mehr und weniger, länger und kürzer etc. abwägt, indem er die entsprechenden Parameter variiert. Ein solches Abwägen vollzieht sich als sequenzielles Stoßen (›trial-and-error‹), das Bally im spielewissenschaftlichen Kontext als Stutzen beschreibt, durch welches der »Fluß der Bewegung […] mit einem Ruck angehalten« wird und die »Bewegung […] sich vor dem Hindernis in Spannung [verwandelt].«343 Die Spannung staut sich entsprechend auf, sobald der Prozess an einer Stelle ins Stocken kommt. Gleichsam entsteht dadurch erst die »Möglichkeit des Umwegs«,344 als notwendig gewordene Ab-Sicht von den naheliegendsten Möglichkeiten (denn diese bilden ja nun ein Hindernis). Es gilt dann entsprechend, die Spannung umzuleiten und neu zu kanalisieren resp. einen neuen Weg einzuschlagen, der wiederum in einer erneuten Prozessschleife des Abwägens erkundet wird usw. Ein solches Stutzen ist dabei »ganz… mögliche Bewegung«, wie Bally es anschaulich (stutzend) formuliert.345 Und eine mögliche Bewegung (resp. mögliche Alternativlösungen) zu antizipieren, vermag dabei jene gestalterische Qualität auszumachen, die es bedarf, um nachhaltig richtige, d.h. an die sich stetig verändernde Lebenswelt angepasste Produkte zu entwerfen. Ein Parameter versteht sich in dieser Hinsicht ganz als… mögliche Veränderung, die grundlegend in ihm angelegt ist: Während er für einen Fall konstant ist, kann er für einen anderen unmittelbar verändert werden. Die Frage nach der Qualität stellt sich dabei jedoch nicht allein mit Hinsicht auf den Prozessablauf des Stutzens an sich – jeder Mensch stutzt, wenn er denkt –, sondern nicht weniger auf seine Dauer: Stellen sich die Zyklen des Stutzens als relativ lang dar, womöglich dadurch, dass viele Wege ausprobiert, jedoch keine signifikanten Einsichten daraus gewonnen werden können, erscheint der Prozess schnell frustrierend und droht, einzufrieren. Dies mag nicht selten auf einen noch ausbaufähigen Erfahrungsschatz und damit mitunter auf die mangelhafte Fähigkeit zurückzuführen zu sein, Erfolgswahrscheinlichkeiten angemessen einschätzen zu können. Kurze Zyklen des Stutzens vermögen dagegen von der Fähigkeit zu zeugen, Wahrscheinlichkeiten für Erfolg und Misserfolg mit einer relativ hohen Treffsicherheit für Lösungsalternativen anlegen zu können: Sofern der Gestalter etwa einschätzen kann, welche Produktionsverfahren für den Entwurf infrage kommen, kürzt sich der Prozess des Suchens nach einem passenden Entwurf womöglich stark ab. Kann er diese Einschätzung aus seinem Erfahrungswissen nicht auf Anhieb herleiten, dauert der Prozess entsprechend länger, da entsprechende Kenntnisse erst iterativ erworben werden müssen. Ebenso wie ein guter Schachspieler ein vor allem geübter und mit Tausenden Reaktionsmustern

342 343 344 345

Scheuerl (1954/1973: 76). Bally (1945/1966: 36). Ebd. Ebd.: 37.

7. Kreativität und Parametrie

auf bestimmte Spielsituationen ausgestatteter Experte ist,346 muss auch ein geübter Gestalter bestenfalls nur kurz stutzen, bis er eine taugliche Lösung für ein Problem gefunden hat. Im besten Fall, so kann man vermuten, werden die Zyklen des Stutzens derartig kurz, sodass der (Denk-/Handlungs-/Gestaltungs-)Prozess nicht als unterbrochene, sondern als fortlaufende Bewegung erfolgt.347 Nun vermag das Stutzen als mehr oder weniger lang andauerndes Phänomen in ein Wechselspiel von Spannungen eingebunden zu sein, welches das Spiel im bewegten Gleichgewicht hält. Dadurch ist weiter zu fragen, wie jenes Gleichgewicht in seiner Struktur beschaffen ist. Scheuerl spricht in diesem Zusammenhang davon, dass das Spiel sich entsprechend »nur so lange im Gleichgewicht halten [kann], wie das unentschiedene Zugleich entgegengesetzter Tendenzen herrscht.«348 Bally beschreibt dies in ähnlicher Hinsicht als einen Antagonismus, der das »Ergebnis zweier einander entgegengesetzter Strebungen« ist.349 Entgegengesetzte Tendenzen resp. Strebungen vermögen dabei in erster Linie auf Kontroversen, Konflikte und Widersprüche zu verweisen; auf die Kontingenz von Entscheidungen, welche so, oder auch ganz anders getroffen werden könnten und entsprechend unentschieden sind. Dennoch sind sie im Spiel gleichzeitig präsent. Mihaly Csikszentmihalyi beschreibt diesen unfassbaren Übergang im Zugleich der Geschehnisse als Qualität eines Fließens, eines flow-Erlebnisses,350 in welchem der Spieler resp. Handelnde »kaum eine Trennung zwischen sich und der Umwelt, zwischen Stimulus und Reaktion, oder zwischen Vergangenheit, Gegenwart und Zukunft verspürt« –351 ein Zustand, in dem der Spieler sich beim Spielen selbst vergisst.352 Weniger als die darin anklingende ekstatische Wirksamkeit des Spielens sollen hier jedoch vielmehr jene kontroversen Polaritäten betont werden, die daran beteiligt sind: Ein sequenzieller Wechsel von »Furcht 346 Vgl. dazu die Studien von William Chase und Herbert Simon, welche die Vorgehensweise von Schachspielern in zahlreichen Partien beobachteten. Vgl. Chase; Simon (1973). Die Untersuchungen zeigten, dass ein herausragender Schachspieler etwa 50.000 Muster kennen muss, die aus jeweils vier oder fünf Elementen bestehen. Anhand dieser Muster resp. Schablonen analysiert der Schachspieler die Spielsituation heuristisch und zieht dabei jeweils diejenigen zu Rate, die ihm vielversprechend erscheinen bzw. eine Ähnlichkeit zu vergangenen Spielsituationen aufweisen. Schachspieler treffen ihre Entscheidung somit basierend auf einer möglichst hohen Erfolgswahrscheinlichkeit zukünftiger Spielzüge. 347 Im Bezugsfeld des Leistungssports stellen dies etwa herausragende Fußballer eindrucksvoll unter Beweis; immer dann, sobald sie vor einem plötzlich auftauchenden Gegenspieler nicht (lange) stutzen, sondern in fließender Bewegung auf ihn reagieren. Der unverzögerte Abruf eingeübter Handlungsroutinen und die angemessene Adaption auf neue Spielsituationen vermag dem Spieler dabei jene Souveränität über das Spielgeschehen zu verleihen, die ihn als herausragenden Spieler auszeichnet. Gleiches vermag auch für Designer zu gelten. 348 Scheuerl (1954/1973: 91). 349 Bally (1945/1966: 36). 350 Vgl. Csikszentmihalyi (2010). 351 Ebd.: 59. An anderer Stelle spricht Csikszentmihalyi auch vom »Verschmelzen von Handlung und Bewußtsein.« Ebd.: 61. Warwitz und Rudolf beschreiben den »Flowzustand« in dieser Hinsicht auch als »extensives Auskosten« und damit als drängendes »Verweilen im Spiel« Warwitz; Rudolf (2014: 22). 352 Csikszentmihalyi macht dies an einem Zitat des britischen Bergsteigers Chris Bonington anschaulich, welcher darin darlegt, dass er zu Beginn jedes größeren Kletteranstieges Angst verspüre, die sich auflöst, sobald er mit dem Klettern beginnt: »[…] sobald ich anfange zu klettern, sind alle meine Befürchtungen vergessen.« Bonington zitiert nach Csikszentmihalyi (2010: 71).

243

244

Prozess als Gestalt

vor Misserfolg, Triumph über die Umstände und erneuter Furcht vor möglichem Versagen – darauf wieder folgendem Triumph usw.«, wie Dörner es zusammenfasst.353 Eine flow-Situation besteht entsprechend aus einer Folge von Spannungserzeugungen und -lösungen, aus Sequenzen des Festhaltens und Loslassens, welche in zeitlicher und räumlicher Vereinigung des Spiels ein gemitteltes, bewegtes Gleichgewicht erwirken. Bally spricht dabei von einem »Distanznehmen und Neuaufnehmen in anderer Form«,354 Scheuerl gleichsam auch von der Polarität eines Lassens und Tuns, das für die Spieltätigkeit entscheidend sei: »Das, was am Spiele fasziniert, ist aber gerade die Tatsache, dass sich vom Tun ein in sich selbständiges Geschehen löst und alle Anstrengung unsichtbar macht.«355 Auch der deutsche Philosoph und Psychologe Karl Groos hat früh auf ein solches Moment hingewiesen: »Das Wesentliche besteht darin,…, daß auf die Momente des völligen Hingegebenseins und sich Verlierens immer wieder Augenblicke der Selbstbesinnung folgen.«356 Darin klingt ein Moment der Leichtgängigkeit an (im Vergessen/Verlieren), das im spielerischen Prozess wirksam wird. Ein solches stellt sich etwa in der Bewältigung von Aufgaben ein, sofern diese sich dem Handelnden resp. dem Spieler weder als zu schwierig und noch als zu einfach darstellen: Der Erfolg darf, nach Dörner, »weder zu gewiß, noch zu ungewiß sein. Wenn der Erfolg zu gewiß ist, macht die ganze Geschichte keinen Spaß. Und wenn der Erfolg überhaupt nicht eintritt, so ist das Ganze zu frustrierend.«357 Was Dörner mitunter pragmatisch in Kategorien entsprechender Gefühlslagen formuliert, kann in Bezug auf die Polarität von Spannungen als Ungleichgewicht verstanden werden: Wenn Misserfolg auf Misserfolg folgt, fehlt der Gegenpol des Erfolges, und entsprechend entsteht kein richtungsweisendes Gefälle, das eine Spannung evozieren könnte. Wenn Erfolg stets nur Erfolg nachfolgt, fehlt gleichsam der Gegenpol des Misserfolges, und die Spannung bleibt ebenfalls aus. Die Gegensätze müssen sich entsprechend im bewegten Gleichgewicht befinden, das sich einstellt, wenn die Erregungszustände weder zu hoch, noch zu niedrig sind. Nur dann ergeben sich jene eigenartigen Spielräume, die ein »spielerisches Suchen und Finden stabiler Beziehungen ihrer Komponenten« ermöglichen,358 wie Hüther und Quarch es ebenso auf biochemischer Ebene anschaulich machen.359 Die spannungsgetriebene Energie des bewegten Gleichgewichts wird entsprechend darauf verwendet, Querverweise zwischen den Komponenten anzustreben und sie in neue Verhältnisse zueinander zu setzen bzw. heterogene Einzelbestandteile zu einer stabilen Gestalt zu formen. Das Spiel/der Spielraum ermöglicht entsprechend die Herausbildung jener Toleranz, die den Spieler befähigt, multiple, teils widersprüchliche Einzelerscheinungen gleichzeitig

353 354 355 356 357 358 359

Dörner (2002: 92). Bally (1945/1966: 35). Scheuerl (1954/1973: 133). Groos zitiert nach Ebd.: 35. Dörner (2002: 91). Hüther; Quarch (2018: 27). Hüther und Quarch legen dar, dass etwa zum Entstehen einer Schneeflocke ein gemitteltes Maß an Energie bereitstehen muss, sodass das Wasser nicht gefriert, jedoch ebenso wenig taut. Ein Schneekristall bildet sich entsprechend nur dann, »[wenn] die Energie, die auf die Wassermoleküle wirkt, weder zu groß noch zu gering ist, sondern genau so, dass sie endlich genug Spielraum haben, um miteinander in Beziehung zu treten« Ebd.

7. Kreativität und Parametrie

und an einem Ort zu versammeln und sie dadurch in neue Sinnzusammenhänge zu integrieren. Integration versteht sich dabei als ein übergeordneter Prozess, der nicht nur mit Hinsicht auf das Spiel, sondern grundlegend an der Stabilisierung schöpferischer wie dynamischer Phänomenen beteiligt ist. Entsprechend sei nun im Folgenden untersucht, wie ein solcher Prozess der Integration als universeller Mechanismus verstanden und auf die gestalterische (parametrische) Praxis übertragen werden kann.

Sinnzusammenhänge Der Begriff der Integration versteht sich nun als ein weitreichend geläufiger. Allgemeinhin beschreibt er einen Prozess, der bestimmte Teile (wieder) in eine ganzheitliche Ordnung bringt.360 In erweiterten Kontexten ist der Begriff darüber hinaus an der Formung und Stabilisierung lebensweltlicher Prozessen beteiligt, wie es in besonderem Maße anhand der anthropologischen Forschung und der Ethnologie anschaulich wird, so etwa, wenn die Anthropologin Ruth Benedict vom Prozess einer »kulturellen Integration« spricht.361 Darunter ist jener Prozess zu verstehen, durch welchen eine Gesellschaft resp. Kultur durch die Verfolgung bestimmter Ziele Stabilisierung erfährt – ebendann, sobald die »bisher heterogenen Einzelerscheinungen mehr und mehr an Einheitlichkeit« und somit »immer mehr an Gestalt« gewinnen.362 Wiederholte Verhaltensformen einzelner Individuen werden entsprechend über einen andauernden Prozess kultureller Integration auf Dauer gestellt und bilden nach und nach jene kollektiven Leitlinien, durch welche sich Kulturen differenzieren.363 Benedict sucht in ihrer Erörterung jener integrativen Formungsprozesse von Kultur die Nähe zur gestaltpsychologischen Position und dem Gesetz der Übersummativität, wenn sie betont, dass »Kulturen mehr als nur die Summe ihrer Einzelelemente [sind]« und es sich dabei jeweils um eine »einzigartige Anordnung und Wechselwirkungen dieser Teile« handelt.364 Eine Kultur bildet entsprechend

360 So definiert der Duden den Begriff als »[Wieder]Herstellung einer Einheit [aus Differenziertem].« Duden (2007: 923), Integration. Die lateinische Wortherkunft (lat. ›integrare‹ = dt. ›wiederherstellen, ergänzen‹) versteht sich entsprechend auf die Wiederherstellung eines Ganzen. Vgl. Kluge; Seebold (2011: 447), integrieren. 361 Vgl. Benedict (1955: 39ff). 362 Vgl. Ebd.: 40, 41. 363 Im gegenwärtigen Zusammenhang digitaler Gesellschafts- und Kulturformen spricht Stalder auch von einer Form der Referentialität, durch welche kollektive Differenzierung und Stabilisierung entsteht: »Eine, wenn nicht die grundlegende Methode, mit der Menschen – alleine und in Gruppen – an der kollektiven Verhandlung von Bedeutung teilnehmen, besteht in der Kultur der Digitalität darin, Bezüge herzustellen.« Stalder (2016/2017: 96). Entsprechend versteht sich Referentialität als Methode, »mit der sich Einzelne in kulturelle Prozesse einschreiben und als Produzenten konstituieren können. Kultur, verstanden als geteilte soziale Bedeutung, heißt, dass sich ein solches Vorhaben nicht auf den Einzelnen beschränken kann. Vielmehr vollzieht es sich innerhalb eines größeren Rahmens, für dessen Existenz und Entwicklung gemeinschaftliche Formationen von zentraler Bedeutung sind.« Ebd.: 95. 364 Benedict (1955: 40).

245

246

Prozess als Gestalt

eigene Muster heraus,365 unter dessen Gesetzmäßigkeiten Verhaltens- und Artikulationsweisen einzelner Individuen – stets auf Neue – integriert werden.366 In gleicher Hinsicht lässt sich ein solcher Integrationsprozess nicht nur im Rahmen kultureller, sondern ebenso bzgl. evolutionärer Entwicklungen beobachten, wie es John Maynard Smith etwa anhand der evolutionären Spieltheorie anschaulich gemacht hat.367 In seiner Übertragung der klassischen Spieltheorie auf evolutionäre Entwicklungszyklen tierischer und menschlicher Populationen wird dabei deutlich, dass sich bestimmte Verhaltensformen in konfligierenden Situationen – gemäß dem darwinistischen Paradigma – besser durchsetzen als andere, d.h., es bilden sich stabile evolutionäre Strategien heraus (›evolutionary stable strategies‹, ›ESS‹), gemäß welcher sich Bevölkerungen entwickeln. Die Konsequenz daraus besteht entsprechend darin, dass jene Bevölkerungen, die diese Strategie vereinnahmt haben, annähernd immun gegenüber phänotypischer Variation werden, d.h. im umgekehrten Sinne, dass natürliche Mutationen keine Möglichkeit haben, dauerhaft in die Bevölkerung einzudringen bzw. sich dort zu etablieren.368 Sie würden stets aufs Neue von der ESS dominiert, da, sobald annähernd alle Mitglieder einer Bevölkerung die ESS einmal adaptiert haben, deren ›fitness‹ stets größer ist als die jener möglichen Eindringlinge, die durch natürliche Mutation andere Strategien verfolgen.369 Entsprechend zeichnet sich eine ESS vor allem durch dessen Dominanz im Sinne einer Uneinnehmbarkeit (›uninvadability”370 ) aus. Der Begriff der Integration versteht sich damit als ein solcher, der unmittelbar an der Formung von Kultur und Evolution beteiligt ist. Wie im Weiteren zu zeigen sein wird, lassen sich die Eigenarten dieses Vorgangs auch mit einem parametrischen Entwerfen und dabei insbesondere mit jenen spielerischen Charakteristika vereinbaren, die mit diesem verbunden sind. In der Zusammenführung der vorangegangenen Erörterung des Spielraums, der den äußeren als auch inneren Rahmen des Spiels bildet, und der Spannungsverhältnisse, die das prozessuale Spiel darin an- und vorantreiben, sei der Fokus nun entsprechend auf die Artikulation jener Zusammenhänge gelegt, die dem Ganzen resp. dem Spiel einen Sinn abverlangen und es somit zur (übersummativen) Gestalt avancieren lassen. An Letzterem offenbart sich ebendann erst ein Sinn, sofern nicht nur die

365 Der englische Titel von Benedicts Untersuchung lautet entsprechend ›Patterns of Culture‹. Vgl. dazu auch die sozialwissenschaftliche Abhandlung ›Muster‹ von Armin Nassehi, der Gesellschaften hinsichtlich ihrer digitalen Äquivalenz und Sichtbarmachung untersucht. Vgl. Nassehi (2019). 366 Da dieser Prozess sich permanent weiterentwickelt und stabilisiert, spricht Benedict in ihrer ethnologischen Betrachtung entsprechend auch vom Studium »lebendiger Kulturen«. Benedict (1955: 42). 367 Vgl. Maynard Smith (1982/2009). 368 »An ESS is a strategy such that, if all the members of a population adopt it, then no mutant strategy could invade the population under the influence of natural selection.« Ebd.: 10. 369 Maynard Smith macht dies im mathematischen Verweis anschaulich, wenn ›I‹ in einer Gleichung für die ESS steht: »If ›I‹ is a stable strategy, it must have the property that, if almost all members of the population adopt ›I‹, then the fitness of these typical members is greater than that of any possible mutant; otherwise, the mutant could invade the population, and ›I‹ would not be stable.« Ebd.: 14. 370 Ebd.: 10.

7. Kreativität und Parametrie

richtigen Einzelbestandteile und Komponenten vorhanden sind – die Pole der Spannung –, sondern ebenso die richtigen Verhältnisse und Bedingungen etabliert sind – die (Um-)Wege der Spannung –, durch welche sich die Gestalt im bewegten Gleichgewicht stabilisiert. In Bezug auf den Begriff der Integration versteht sich in dieser Hinsicht genau dies darunter: Einzelbestandteile in einer Art und Weise in ein Ganzes zu integrieren, sodass sie sich stabilisieren bzw. Sinn machen und einen Charakter der Uneinnehmbarkeit erhalten, ebendann, wenn sich der Prozess als geschlossene Gestalt offenbart, die kaum mehr Ansatzpunkte bietet, sie infrage stellen zu können; eine Gestalt, die so stabil ist, dass sie nicht aufgebrochen und eingenommen werden kann. Im gestalterischen Anwendungsbezug kann dies etwa eine Argumentation sein, die stichhaltig ist; ein Produkt, an dem es nichts auszusetzen gibt, weil es für jedes mögliche Gegenargument eine passende (bzw. dominante) Lösung hat; oder ein grafisches Poster, das mit seiner politischen Aussage einfach zur richtigen Zeit am richtigen Ort den richtigen Ausdruck findet. Daran zeigt sich nicht zuletzt, dass jede Gestalt ihre eigene Sphäre der Richtigkeit ausbildet; eine Ordnung, in der die Dinge allesamt miteinander in Verbindung stehen und ein ausgewogenes Gleichgewicht erzeugen, wodurch sich die Gestalt stetig weiter stabilisiert. Gegenargumente prallen nur noch an ihr ab – sie können (im Sinne einer ESS) nicht mehr in sie eindringen, da ihre eigene Argumentation eine in sich geschlossene ist, die durch ihre stabilisierende Verbundenheit nach innen nunmehr keine Angriffspunkte nach außen ausbildet.371 Letztendlich vermag es genau diese (Gestalt-)Qualität zu sein, die einen guten Entwurf, eine gute Entscheidung und gutes Verhalten auszeichnet. Wie lässt sich der Artikulation von Sinnzusammenhängen nun näher kommen? Wie weiter oben bereits gezeigt wurde, stellt sich das Spiel vor allem als Handlungsform einer freiwilligen Einschränkung dar, sobald eine Realsituation als Spielsituation modelliert wird: So wird es zu einem Spiel, vorbeifahrende Autos zu zählen, eine Rolle mit bestimmten Charakterzügen anzunehmen oder einen Stein mit den Füßen vor sich her zu bewegen – in jeder Form wird etwas ein- und damit gleichsam alles andere ausgeschlossen. Spielen bedarf entsprechend der Einschränkung. Jede Einschränkung gibt dabei einen unmittelbaren Anreiz, ein Ziel über einen anderen als den direkten Weg zu erreichen: Nimmt man sich etwa vor, ein Marmeladenglas ausschließlich mit den Füßen zu öffnen, schränkt dies die Handlungsmöglichkeiten einerseits – je nach Geschick – mehr oder weniger stark ein, andererseits offenbaren sich dadurch womöglich viele derivative Möglichkeiten, nicht nur das Glas zu öffnen, sondern auch die eigenen Füße auf mitunter neue Weise einzusetzen und somit neue Beziehungsmöglichkeiten zu entdecken. Eine solche explorative Motivation, die durch wie auch immer geartete Einschränkungen hervorgerufen wird, findet sich dabei nicht nur in so manch lebensweltlichen Handlungen, sondern gleichsam im praktischen Gestaltungskontext: In jeder Skizze auf Papier, an jedem Schaummodell, jedem 3D-Druck, in jedem CAD-Programm usw. werden die jeweiligen Einschränkungen spürbar, sobald man an ihre Grenzen resp. begrenzten Funktionen stößt. Und gleichsam besitzen alle Artikulationsformen ihre ganz 371

Gemäß dieser Vorstellung versinnbildlicht eine Kreisform eben jene geschlossenen Stärke und Qualität einer Gestalt, wie sie auch weiter unten zur Veranschaulichung verwendet wird. Vgl. dazu die Abbildungen in Kapitel 7.4 ›Spiel und Integration‹.

247

248

Prozess als Gestalt

eigenen Sphären der Richtigkeit, die darüber hinaus erst dann so richtig interessant werden, sobald sie wiederum in umfangreicheren Spielräumen zusammengeführt resp. in diese integriert werden – wenn etablierte Verhältnisse aufgehoben und übergreifend neu gesetzt, d.h. Techniken kombiniert, überlagert und verbunden werden, sodass sich wiederum neue, sinnvolle Ganzheiten resp. Gestalten formieren. Während beispielsweise einige CAD-Programme diese und andere jene Funktionen anbieten, obliegt es dem Gestalter, sie zu einer sinnvollen Prozesskette zusammenzufügen. Er versucht, aus den heterogenen Einzelerscheinungen resp. den unterschiedlichen Programmen eine ganzheitliche Einheit zu formen; die Bestandteile auf eine solche Art und Weise in ein Ganzes zu integrieren, sodass der Prozess als Gestalt handhabbar wird, in welcher dessen eigene Ordnung, seine Dynamik und seine eigenen Maßstäbe der Richtigkeit auf Dauer gestellt sind und sich fortwährend als bewegtes Gleichgewicht stabilisieren.372 Entsprechend kristallisiert sich – durch den Prozess der Integration – innerhalb der mitunter langjährigen Praxis eines Gestalters eine eigene Herangehensweise an die Entwurfsgegenstände heraus, ein Prozess als Gestalt, der genau deshalb sinnvoll ist, weil er für den jeweiligen Gestalter – zu einem bestimmten Zeitpunkt seiner Entwicklung – am besten funktioniert und seine Tätigkeit gleichsam dynamisch stabilisiert. Eben derart differenziert, wie sich Kulturen durch Integration verfestigen, indem »das Gesamtbild der bisher heterogenen Einzelerscheinungen mehr und mehr an Einheitlichkeit« gewinnt,373 formen sich entsprechend auch (Gestalter-)Persönlichkeiten, deren Haltungen und jene Werkzeuge, mit denen Sie den Dingen stets wieder aufs Neue begegnen. Entsprechend ist der Prozess Integration als solcher einer fortlaufenden Stabilisierung zu verstehen, der nicht nur auf Personen, Haltungen und Werkzeuge, sondern gar auf annähernd jede Form der schöpferischen Artikulation zutrifft, auf jeweils unterschiedlichen Ebenen: Ein Buchautor integriert Einzelbestandteile (Gedanken, Charaktere, Handlungen etc.) so in ein Ganzes, dass sie bestenfalls eine konsistente Geschichte ergeben. Ein Koch integriert Zutaten vorzugsweise in einer Art und Weise in ein Gericht, sodass dieses letztlich in seiner Gesamtheit geschmacklich überzeugt. Ein Markenentwickler integriert verschiedenste Bedeutungsdimensionen in eine Marke und fügt sie so zusammen, dass diese ein in sich konsistentes Markenbild samt eigenen Markenwerten verkörpert. Sogar ein Sportler integriert die Einzelphänomene seines Trainings- und Spielprozesses bestenfalls so gezielt und sinnvoll, dass seine sportlichen Eigenarten dadurch gestärkt und Defizite ausgeglichen werden. Und ein Designer vermag, nicht nur seine eigenen Fähigkeiten immer wieder aufs Neue durch 372 Ein anschauliches Beispiel der Praxis bieten darüber hinaus sog. Plug-Ins, die sich als Programmexterne Instanzen verstehen, die zwischen zwei oder mehreren Programmen vermitteln, indem sie etwa Programm-Inhalte in von einem anderen Programm benötigte Dateiformate konvertieren, Funktionen erschließen und erweitern etc. Die meisten Programme, im Design etwa die Adobe Suite oder Maxon Cinema 4D, bieten mittlerweile Schnittstellen, um solche Plug-Ins – die von externen Parteien programmiert werden – in den Arbeitsablauf zu integrieren. In dieser Hinsicht ermöglichen Plug-Ins einen reibungsloseren Arbeits- und Entwurfsprozess, indem sie Schwachstellen eines bestehenden Prozesses ausgleichen; sie runden ihn ab, indem sie ein ausgewogeneres Verhältnis der Prozess-Bestandteile zueinander herstellen, indem sie sich selbst als integrativen Bestandteil ergänzen. 373 Benedict (1955: 40).

7. Kreativität und Parametrie

die Integration neuer Kenntnisse weiterzuentwickeln, sondern sie auch immer wieder auf unterschiedlichste Art und Weise in sinnvolle Anwendung zu bringen, durch die Erschaffung jeweils neuer Spielräume, welche Disparitäten, Kontroversen, Widersprüchlichkeiten an einem Ort versammeln und im Modus spannungsvoller Gleichzeitigkeit zur Disposition stellen. Spielräume erscheinen entsprechend charakterisiert durch jene Möglichkeit zur Umwandlung von Heterogenität in Homogenität, von Inkohärentem zu Kohärentem, von unverbundenen Einzelphänomenen zu einer ganzheitlichen Gestalt, die nach außen wie innen eine in sich stimmige Ganzheit verkörpert. Klappt dies mit Erfolg, stellt sich entsprechend jene Form von Freude und Begeisterung ein, die ein Spiel nicht aufhören lassen, sondern vielmehr weiter treiben möchte.374 So geht es dem Buchautor, dem Koch, dem Manager, dem Sportler, dem Designer – als auch jedem anderen handelnden Menschen – immer dann, wenn jene Leistung vollbracht wird, Einzelphänomene in eine Gestalt zu integrieren. Dabei ist der Prozess der Integration (in eine Gestalt) klar von einer bloßen Addition (zu einer Summe) zu unterscheiden: Eine Gestalt, wie sie weiter oben bereits ausführlich auf den Begriff gebracht wurde,375 charakterisiert sich dabei nicht nur durch die bloße Summierung seiner Einzelbestandteile, sondern vielmehr dadurch, dass an ihr eine besondere Qualität resp. eine Höhe der Gestalt ansichtig wird, sobald eine bestimmte Konfiguration der Verhältnisse resp. eine bestimmte Ordnung in der Gestalt gegeben ist, die nicht nur ein bewegtes Gleichgewicht im Inneren (Spannung), sondern ebenso eine gesteigerte Widerstandsfähigkeit (Uneinnehmbarkeit) nach Außen ausbildet. Diese gleichgewichtigen Verhältnisse gilt es entsprechend proaktiv und sorgsam herzustellen: Der Autor addiert keine Buchstaben, sondern verfasst eine Geschichte und entwickelt einen eigenen Schreibstil, der mitunter den besonderen Mehrwert ausmacht; der Koch vermengt nicht lediglich Zutaten in einem Topf, sondern beachtet die Verhältnisse der Zutaten zueinander und dessen Auswirkung auf das gesamte Gericht; der Markenentwickler schärft Begriffe und entwirft Bildwelten, die auf eine eigene Art und Weise miteinander kompatibel sind; der Sportler strebt eine Ausgewogenheit des Trainings an, sodass aus trainierten Stärken keine Schwächen werden;376 und ebenso versteht der Gestalter es bestenfalls, ein Gleichgewicht der entwurfsrelevanten Komponenten herzustellen; so fügt etwa der Produktdesigner nicht nur einen neuen Kipp374 Was Huizinga noch vage als »gewisse Anspannung« beschreibt, mit der »etwas ›glücken‹« müsse (Huizinga (1938/2009: 19)), findet sich aus neurobiologischer Sicht in den Belohnungszentren des Gehirns wieder, welche immer dann aktiviert werden und Freude hervorrufen, »wenn es durch eine eigene Leistung gelingt, einen im Gehirn entstandenen Zustand von Inkohärenz wieder kohärenter zu machen« Hüther; Quarch (2018: 37). Ebenso verweist Holm-Hadulla in dieser Hinsicht auf die Neuriobiologie: »Es wird davon ausgegangen, dass die neue und brauchbare Kohärenz in einem dialektischen Prozess zwischen Ordnung und Chaos entsteht. Dies deckt sich mit dem neurobiologischen und psychologischen Befund, dass im kreativen Prozess kognitive und emotionale Inkohärenz in neue Kohärenz, d.h. kreative Produkte transformiert wird.« Holm-Hadulla (2020: 72). Gleichsam haben die bei Erreichen einer solchen Kohärenz ausgeschütteten chemischen Botenstoffe (Katecholamine, endogene Opiate und andere Peptide) einen »wachstumsstimulierenden Effekt auf neuronale Vernetzungen« (Hüther; Quarch (2018: 37)), d.h., sie fördern die Fähigkeit zur Vernetzung der Synapsen untereinander und damit auch den spielerischen Umgang mit neuen Wahrnehmungsinhalten. 375 S. dazu weiter oben Kapitel 5.1 ›Das Ganze und seine Teile‹. 376 So etwa ein Fußballer, der lediglich seine Ausdauer, nicht aber seine Balltechnik trainiert.

249

250

Prozess als Gestalt

schalter additiv zum Produkt hinzu, sondern stimmt neue Funktionen ebenso auf alle anderen Funktionen des Produktes ab, sodass sich durch die ganzheitliche Betrachtung ein sinnvoller Gebrauch und eine praktikable Handhabung eröffnen. Diese Geschlossenheit der Gestalt betrifft dabei nicht nur den Endverbraucher, sondern schließt ebenso etwa die Produzenten, die Vertriebskanäle, die Kommunikation und das Marketing etc. gleichermaßen mit ein – alle streben einen Prozess als Gestalt an, der sich auf jeder Ebene und in jeder Verwendungsart als der möglichst leichtgängigste, reibungsloseste, effizienteste und stabilste Ablauf darstellt.377 In allen Fällen gilt es entsprechend, nicht etwa die naheliegendste Möglichkeit des Zusammenfügens zu wählen (Addition), sondern einen Umgang mit dem gegebenen Material anzustreben, der dieses sorgsam unter Berücksichtigung der relevanten Aspekte aus mehreren Blickwinkeln resp. von allen Seiten in die Gesamtgestalt einfügt (Integration), wie es in Abb. 13 (a) und (b) als Grundschema veranschaulicht ist. Erst dadurch gewinnen Gestaltung, Gestalten und Prozesse in jeglicher Hinsicht ihre jeweils eigene, übersummative Qualität, die sie (vorerst) uneinnehmbar macht. Integration meint in dieser Hinsicht entsprechend nicht, einem Produkt lediglich etwas anzuhaften resp. ihm etwas additiv hinzuzufügen oder seine akzidentiellen Eigenschaften zu verändern, sondern es bedeutet vielmehr, den zu integrierenden Inhalt mit dem bereits im Ganzen Enthaltenem in ein wechselseitiges Verhältnis zu setzen und die Bestandteile zu transformieren (d.h. zu erweitern, zu reduzieren, zu verzerren, zu skalieren etc.), sodass die Gesamtheit des Entwurfs sich als ausgewogene Gestalt offenbart. Die Erzeugung einer solchen ausgewogenen Gestalt, die schon Max Bill einst als »harmonische[n] ausdruck der summe aller funktionen« bezeichnete,378 vermag dem Gestalter dabei jene Anstrengung und Energie abzuverlangen, die in der Diskussion um Kreativität als kreatives Denken bezeichnet wurde. Dazu bedarf es der andauernden Bereitschaft, nicht nach der naheliegendsten, sondern nach einer das Feld erweiternden Möglichkeit Ausschau halten zu wollen;379 nicht in Hin-Sicht nach einer allenfalls hinreichenden Lösung zu suchen, sondern in Ab-Sicht von derselben an den punktuellen Zielen »schwebend […] vorüber zu gleiten«, wie Scheuerl es formuliert hat;380 das Produkt, 377

Nicht selten ist innerhalb von Unternehmensprozessen auch davon zu sprechen, dass Prozesse sich über eine bestimmte Zeit hinweg erst »einschleifen« müssen, wie es der Oliver Grabes (Chefdesigner bei Braun) etwa formuliert hat. Vgl. Rat für Formgebung (2019: 100). 378 Bill (1958/2008: 135). 379 »Sich einer Frage spielerisch zu nähern, heißt also in diesem Zusammenhang, nicht gleich die scheinbar naheliegendste Möglichkeit zu ergreifen, um ein beobachtetes Phänomen zu erklären.« Hüther; Quarch (2018: 24). In gleicher Hinsicht formuliert es Edward de Bono noch ausführlicher: »Die Entwicklung von Alternativen geschieht um ihrer selbst willen und nicht als Suche nach der besten Art und Weise, Dinge zu betrachten. Sie kann sich natürlich im Laufe der Suche ergeben, aber man bemüht sich nicht ausdrücklich darum, optimale Betrachtungsweisen zu finden. Würde man nur nach der besten Annäherung an ein Problem suchen, dann würde man die Suche einstellen, sobald man die anscheinend beste gefunden hat. Aber statt die Suche einzustellen, entwickelt man um ihrer selbst willen weitere Alternativen. Diese Methode verfolgt den Zweck, starre Anschauungen von Dingen zu lockern und zu demonstrieren, daß Alternativen immer vorhanden sind, wenn man sich nur der Mühe unterzieht, nach ihnen zu suchen. Außerdem soll sie die Gewohnheit verankern, Muster umzustrukturieren.« de Bono (1992: 98). 380 Scheuerl (1954/1973: 79). Ebenso spricht Bally von einem Maß der Überwindung, das es zu erreichen gilt und die Form eines Stutzens annimmt: »Jede Verlegung des direkten Weges zum Ziel fordert

7. Kreativität und Parametrie

Abb. 13: Eigene Darstellung. Schematisierung der Phänomene anhand einer Kreisform (Gestalt): (a) beschreibt das bloße Hinzufügen eines Inhaltes zu einem Ausgangs-Ganzen, wodurch nicht etwa eine geschlossene, ausgewogene Gestalt entsteht, sondern genau das Gegenteil: Einem reibungslosen Ablauf resp. Funktionieren wird durch blinde Addition gar entgegengearbeitet. Anders in (b), wo durch die Einarbeitung resp. Integration neuer Inhalte von allen Seiten ein stabiles Ganzes, eine Gestalt, entsteht, die in ihrer Funktionsweise/ihrem sinnvollen Gebrauch/ihrem Prozess abgesichert ist und daher als stabile Einheit in jeder äußeren Betrachtungsweise widerspruchsfrei erscheint. (c) stellt dagegen den umgekehrten Weg dar, in Form einer Exklusion, etwa, wenn von einem Ausgangs-Ganzen nur Teilaspekte übernommen werden sollen, die es jedoch daran anschließend erforderlich machen, sie wiederum in eine neu geordnete Gestalt zu integrieren (e). Letzteres ist notwendig, da die exkludierten Teilaspekte alleinstehend immer nur eine isolierte Reduktion einiger Merkmale des Ausgangs-Ganzen darstellen würden, eine Summierung von Einzelbestandteilen, und keine Gestalt. Daher wird einerseits ein Prozess der Extraktion notwendig (d), der die Bestandteile für die Einbettung in eine neue Gestalt vorbereitet, indem er sie aus dem Ausgangs-Ganzen herauslöst und dabei auf ihren wesentlichen Gehalt abstrahiert, und andererseits ein Prozess der Integration (e), der die extrahierten Bestandteile in einem neuen Ganzen zusammenfügt. Bei Letzterem vermag nicht nur die Neuanordnung von Bedeutung zu sein, sondern ebenso die Möglichkeit, die extrahierten Bestandteile zu transformieren (sie zu beschneiden, zu erweitern, zu skalieren, zu verzerren, zu spiegeln etc.), sodass sie für das gesamte Gefüge und alle bereits vorhandenen Bestandteile – aus anderen Extraktionen (weiße Konturlinien) – anschlussfähig werden und vice versa. Dabei verläuft die proaktive Integration stufenlos: Während an manchen Stellen eine gewisse Passgenauigkeit naheliegt, müssen Bestandteile an anderen stärker adjustiert resp. transformiert werden, um eine sinnvolle Ordnung resp. eine Gestalt zu erzeugen. (a)

(b)

(c)

(d)

(e)

Addition

Integration

Exklusion

Extraktion

Integration

(Grundschema)

(Grundschema)

(in versch. Auflösungsgraden)

(in versch. Auflösungsgraden)

(zu neuer Gestalt)

den Prozess, den Gedanken von allen Seiten sorgsam zu betrachten und die Bestandteile in eine Ordnung zu bringen, die ihre ganz eigene Sphäre der Richtigkeit – und damit einen Spielraum – ausbildet, worin die Dinge erst deshalb Sinn machen, weil

Aufmerksamkeit zu ihrer Überwindung, und gewiß bereichert sich auf diese Weise das Verhältnis zu den Umweltdingen.« Bally (1945/1966: 37-38).

251

252

Prozess als Gestalt

sie in jeglicher Betrachtung widerstandsfrei erscheinen (dies sei in Abb. 13 durch die geschlossene Form des Kreises versinnbildlicht).381 Wie weiter oben gezeigt wurde, versteht sich der Spielraum dabei als Phänomen, das durch diverse bipolare Spannungsverhältnisse charakterisiert ist, welche das Spiel im dialogischen Wechsel der Polaritäten stetig weiter an- und vorantreiben. So verhält es sich entsprechend auch für das Phänomen der Integration, wenn Einzelbestandteile nicht nur sorgsam hinzugefügt, sondern ebenso aus einem bestehenden Ganzen herausgelöst resp. exkludiert und extrahiert werden. Demgemäß findet Integration im zyklischen Wechsel-Spiel mit einem Prozess der Exklusion/Extraktion statt, in welchem die bestehende Ordnung einer Ganzheit zunächst aufgebrochen wird, um bestimmte Teilaspekte/Einzelbestandteile von anderen abzugrenzen (Exklusion), bevor sie aus dem alten Gefüge herausgenommen, auf ihren wesentlichen Gehalt reduziert (Extraktion) und schließlich in einen neuen Gestalt-Komplex eingebettet werden (Integration), wie es in Abb. 13 (c) bis (e) veranschaulicht ist.382 Die Exklusion versteht sich entsprechend darauf, Wahrnehmungsinhalte durch dessen Abgrenzung verfügbar zu machen und damit gleichsam die Ordnung des bestehenden Gefüges aufzubrechen.383 Dies wird sowohl im gestalterischen Kontext als auch im Rahmen des Problemlösens nicht zuletzt dort anschaulich, wo als selbstverständlich angenommene Bedingungen hinterfragt und neu verhandelt werden. Pricken bezeichnet letztere mitunter als »stille Vorannahmen«,384 dessen Durchbrechung er an einer (kreativ gedachten) Neuauflage des Neun-Punkte-Problems anschaulich macht: Dabei dürfen, gemäß der klassischen Aufgabenstellung, die in einem 3x3 Raster angeordneten NeunPunkte auf einem Blatt Papier allesamt mit nur einem einzigen Pinselstrich verbunden werden.385 Dabei werden nach Pricken zumeist diverse Vorannahmen getroffen, die das Finden einer Lösung erschweren, etwa, anzunehmen, dass die Striche nicht über das Punkte-Raster hinausragen dürfen, dass die Linie eine gerade sein und durch die Mittelpunkte der Punkte verlaufen müsse, dass der Strich eine dünne Linie sein müsse, dass das Blatt Papier nicht gefaltet/geknickt oder beschädigt werden dürfe etc. Umgeht

381

382

383

384 385

Im übertragenen Sinne spricht Bally (1945/1966: 22ff, 26, 29) entsprechend auch von einem »entspannten« oder »gelockerten« Feld, von dem anzunehmen ist, dass es gerade deshalb entspannt ist, weil die Verhältnisse im Spielraum so angelegt sind, dass die Elemente sich gegenseitig ausbalancieren, indem die Kräfte sich gleichmäßig verteilen können und daher das entsteht, was weiter oben mit dem Begriff des bewegten Gleichgewichts umschrieben wurde. Für die Soziologie hat Luhmann – aufbauend auf den Überlegungen Parsons – das komplementäre Begriffspaar aus Inklusion und Exklusion als Bestandteil der Systemtheorie weiterentwickelt, welches dem hier beschriebenen Vorgang zwar nahesteht, im soziologischen Zusammenhang jedoch eine andere Fokusausrichtung aufweist. Vgl. Luhmann (2005/2018: 239-266), ebenso Nassehi (2006). Wie Guilford es auch im Zusammenhang mit dem Begriff der Kreativität herausstellte: »Symbolische Strukturen müssen oft zerlegt werden, bevor neue gebaut werden können.« Guilford (1950/1973: 40). Pricken (2004: 164). Perkins spricht bei derartigen Problemen auch von Kopfzerbrechern, »bei denen das stillschweigend Akzeptierte hinterfragt werden muss« Perkins (2003: 139). Vgl. dazu weiter oben die Darstellung des Neun-Punkte-Problems in Kapitel 6.3 ›Umstrukturierung und Einsicht‹.

7. Kreativität und Parametrie

man diese Vorannahmen resp. durchbricht man die Ordnung resp. exkludiert man bestimmte Bedingungen, so eröffnen sich neue und mitunter unkonventionelle Räume der Gestaltung; etwa, die neun Punkte mit nur einem einzigen, dicken Strich zu verbinden oder die Punkte auf dem Papier einzeln auszuschneiden und mit einem Stift aufzuspießen.386 Es zeigen sich daran Prozesse der Exklusion, die durch den Ausschluss bestimmter (Vor-)Annahmen gleichsam jene etablierten Verhältnisse aufbrechen, die eine Lösungsfindung bis dahin erschwerten oder gar verhinderten. Sie beschreiben das, was allgemeinsprachlich als ein In-Frage-Stellen der Dinge gebräuchlich ist.387 Für das Design heißt das, nicht mehr oder weniger blind den x-ten Toaster zu entwerfen, sondern zu hinterfragen, ob Heizdrähte noch eine angemessene Lösung zur nachhaltigen Lebensmittelaufbereitung darstellen, ob zwei Schlitze, ein Druckhebel und ein StoppKnopf notwendige unabänderliche Funktionselemente sind, ob sich der Gebrauch im Zuge stetiger städtischer Mobilisierung und Wohnraumverknappung verändert etc.388 Wie daran anschaulich wird, erfolgt dieses In-Frage-Stellen resp. die Exklusion der stillen Vorannahmen nicht nur auf einer einzigen Ebene, sondern auf mehreren. Wie es weiter oben anhand der Begrifflichkeiten der Situation und Improvisation entwickelt wurde,389 vollzieht sich die (kreative) Betrachtung der Situation bestenfalls in mehreren Auflösungsgraden: Ein Toaster kann in einem sehr niedrigen Auflösungsgrad als Materieklumpen mit bestimmter Ausdehnung betrachtet werden, in einem höheren etwa als ein technisches Gerät, das einen Stecker hat und Lebensmittel erhitzt, in einem anderen Auflösungsgrad wiederum als hochwertiges Markenprodukt in limitierter Auflage und in einem mitunter höchsten Auflösungsgrad als Anordnung atomarer Molekülketten.390 In jedem Auflösungsgrad wird eine eigene Sphäre der Richtigkeit resp. eine Ordnung ansichtig, in der bestimmte Verhältnisse etabliert und im Gleichgewicht sind.391 Was im Prozess der Exklusion passiert, ist folglich das Aufbrechen jener Ver-

386 Vgl. Pricken (2004: 166-167); Perkins (2003: 138ff). 387 Horst Rittel ermutigte im gestalterischen Zusammenhang bereits früh zu einem solchen In-FrageStellen: »Es sollte ermutigt werden, übliche Lösungsmuster immer wieder systematisch in Frage zu stellen.« Rittel (1970: 17). Ein solches In-Frage-Stellen korrespondiert mit Rittels Ansatz der »Erzeugung und Reduktion von Varietät« (Ebd.) und in der Diskussion um Kreativität mit einem freien, kreativen Denken, wie es etwa Guilford als divergentes oder de Bono als laterales Denken beschrieben haben. Vgl. Guilford (1967); de Bono (1992). 388 Ob eine neue Richtung auch umgesetzt wird, ist eine andere und nicht selten eine ökonomisch ausgerichtete Frage. Jedoch erscheint der Wert des Gestalters gerade darin zu liegen, stets eine kritische Distanz zu den Dingen zu bewahren, die Bestandteile nicht als isolierte, feststehende Tatsachen zu verstehen, sondern ihre Veränderbarkeit in Wechselwirkung zur Ganzheit zu begreifen. 389 Vgl. dazu Kapitel 7.3 ›Situation und Improvisation‹. 390 Vgl. dazu auch Dörner (1976: 18ff). 391 Der Philosoph Markus Gabriel spricht im weiter gefassten Zusammenhang solcher Ordnungen von kontingenten, unendlichen Wirklichkeiten, von »Sinnfeldern«, die durch das menschliche Denken jeweils hinsichtlich bestimmter Faktoren (Parameter) zu einer endlichen Sphäre vereinfacht werden. Vgl. Gabriel (2020: 35ff). Diese Sinnfelder sind entsprechend das Resultat kontingenter Komplexitätsreduktionen, in denen jeweils eine bestimmte und andere Ordnung herrscht, wie sie auch in den hier diskutierten Phänomenen des Sinns und der Gestalt wesentlich ist, wenn sie in verschiedenen Auflösungsgraden betrachtet werden.

253

254

Prozess als Gestalt

hältnisse resp. der Ordnung in jedem Auflösungsgrad, sodass die Bestandteile aus ihren etablierten Gebundenheiten befreit und in eine neue Ordnung übertragen werden können. Sofern die einzelnen Wahrnehmungsinhalte umrissen und die etablierten Verhältnisse aufgebrochen worden sind, schließt sich ein Prozess der Verarbeitung an, der sie mit Hinsicht auf dessen Integration zur Gestalt auf seine wesentlichen Gehalte reduziert. Der Begriff der Extraktion beschreibt dabei allgemeinhin das Herausziehen (lat. ›extractio‹) eines Bestandteils aus einer umfassenderen Ganzheit; einen Prozess des Filterns, wie er etwa in der Chemie Anwendung findet.392 Dabei werden die Bestandteile zwangsläufig transformiert, da jene (übersummative) Qualität, die sie durch die Verbundenheit zum Ganzen bis dahin evozierten, erlischt, sobald die Bestandteile aus dem Ausgangs-Ganzen heraustreten. Die Ganzheit wird dabei nicht etwa zerstört, sondern vielmehr auf seine wesentlichen resp. relevanten Gehalte reduziert, die nun in isolierter Form ein Abstraktum des jeweiligen Wahrnehmungsinhaltes darstellen. Es werden entsprechend nur jene Stellen und Bestandteile prozessiert, die für eine derivative (Neu-)Verwendung – gemäß welchen Kriterien auch immer – vielversprechend erscheinen.393 Da die Extraktion unmittelbar an die Exklusion angeschlossen ist, werden Wahrnehmungsinhalte ebenfalls nicht nur auf einer, sondern auf mehreren Ebenen extrahiert, innerhalb unterschiedlicher Auflösungsgrade: So vermag etwa der Buchautor in einem bestimmten Auflösungsgrad gewisse Charakterzüge von Personen zu extrahieren, in einem anderen den Verlauf einer spezifischen Handlung, in einem nochmals anderen betrachtet er seine Tätigkeit bezüglich der Frage, ob dem Verleger wohl gefallen wird, was er da schreibt etc. Der Koch extrahiert einerseits die Geschmackswirkung bestimmter Gewürze im Auflösungsgrad des Geschmacks, in einem anderen betrachtet er das Gewürz womöglich hinsichtlich seines Preises, der logistischen Lieferbarkeit, seiner Haltbarkeit usw. Der Markenentwickler extrahiert in einem Auflösungsgrad Bedeutungen aus Bildelementen, in einem anderen betrachtet er die Frage, ob sich eine Anpassung der Markenwerte ökonomisch rentiert, in einem wiederum anderen, ob die Käuferschicht die Neuausrichtung wohl akzeptieren wird etc. Aus allen Bereichen resp. Auflösungsgraden werden Erkenntnisse extrahiert, die für die ausstehende Handlung relevant sein könnten. Der Sportler extrahiert einerseits neue Trainingsmethoden und erörtert andererseits, welche Ernährung dazu passt, wie und wo er diese beziehen kann und wie eine Diät womöglich seinen Alltagsrhythmus verändert. Und der (kreativ denkende) Designer vertraut bestenfalls darauf, aus allem etwas extrahieren und Sinnzusammenhänge in eine Gestalt integrieren zu können: aus dem flüchtigen Verlauf der Licht-Reflexion auf einem Gabelrücken, der wirbelnden Bewegung eines spielenden Kindes oder dem Wohnzimmerteppich des Nachbarn – Extrakte können in jedem Feld und in jedem Auflösungsgrad isoliert und in ein Entwurfsprojekt übertragen werden.394 Was zunächst romantisch-nostalgisch anmutet und schnell

392 Vgl. dazu Duden (2011: 562), Extraktion. 393 In dieser Hinsicht erhält der Prozess einen eklektizistischen Charakterzug. 394 Die (unbewusste) Übertragung bestimmter Wahrnehmungsinhalte in neue Kontexte differenziert damit weiter aus, was der Ingenieur und Technikhistoriker Eugene S. Ferguson als Visuelles Gedächtnis bezeichnet hat. Vgl. Ferguson (1993: 29ff). Ferguson konstatiert mit diesem Ausdruck, dass

7. Kreativität und Parametrie

mit dem verheißungsvollen Begriff der Inspiration missverstanden werden kann – dem vergänglichen Hauch einer Eingebung, der man sich lediglich aussetzen und hingeben muss –,395 offenbart sich in differenzierter Betrachtung als dreigliedriger Prozess aus Exklusion, Extraktion und Integration, der sich dabei nicht etwa nur einmalig, sondern iterativ vollzieht: Führt ein Zyklus nicht zur erhofften Gestalt resp. kommt der Prozess ins Stutzen, werden die Prozessschritte entsprechend angepasst: Der Auflösungsgrad der Betrachtung wird verändert und Betrachtungsbereiche verschoben (Exklusion/Extraktion), Bestandteile variiert, skaliert, reduziert, abstrahiert und in ganzheitlicher Betrachtung neu zusammengefügt (Integration), bis sich eine stabile Gestalt einstellt, welche zu allen Seiten hin ein abgeschlossenes Ganzes und nach innen hin eine dynamische Ordnung verkörpert, die nicht einengt, sondern im (spielerischen) Umgang mit ihr befreit. Der Gestalter befindet sich dabei in aufeinanderfolgenden Zyklen des iterativen Abgleichs; einem Sich-Entfernen von einer alten und einem Sich-Nähern an eine neue Lösung. Je kürzer diese Zyklen werden, jene aus einem Anhalten und Weitergehen, einem Festhalten und Loslassen, einer Hin-Sicht und Ab-Sicht, umso schneller und zielgerichteter können Entwurfsentscheidungen getroffen und Entwürfe an die sich verändernden Lebenswelten und -Bedingungen angepasst werden.396

Parametrie des Spiels Welche Anschlusspunkte ergeben sich nun aus der Diskussion um das Spiel, Spielräume, Spannungsverhältnisse und Sinnzusammenhänge für die gestalterische und parametrische Praxis? Zunächst wurde anhand der Spieltheorie aufgezeigt, wie Realsituationen zu Spielsituationen resp. zu Spielräumen abstrahiert und modelliert werden. Die Phänomene erhalten dadurch eine Messbarkeit, die sich einerseits in den Rahmenbedingungen des Spiels (wie viele Spieler, wie viele Handlungsmöglichkeiten etc.) als auch in den Gewichtungen, etwa der Spielgewinne, ausdrückt (Strafmaß, Gewinn etc.). Zwei parametrische Wesensmerkmale lassen sich daran anschaulich machen: Erstens gehen im parametrischen Verständnis beide Sphären der Gestaltbarkeit fließend ineinander über: Der Gestalter variiert nicht nur die einzelnen Parameter, sondern gestaltet gleichsam die Rahmenbedingungen resp. die Verhältnisse, die zwischen den Parameter bestehen. Dies eröffnet sich aus Sicht des Spielers (des Gestalters) als prozessuale Handlungsform auf zwei Ebenen: Auf einer ersten Ebene findet sich der Spieler im Spiel wieder und nutzt die Möglichkeiten desselben, um darin zu agieren

»[a]lle erfolgreichen Entwürfe […] Vorläufer [haben]« (Ebd.: 31), und dass Entwerfer/Ingenieure/Erfinder in der Tätigkeit des Entwerfens unvermeidlich auf ein ihnen eigenes Repertoire an bekannten Formen, Strukturen und Konzeptionen zurückgreifen und diese mitunter unbewusst in Entwürfen in Anwendung bringen. Demnach bestünde nach Ferguson im Entwerfen eine »Unvermeidbarkeit des Alten im Neuen« (Ebd.), welche in der vorliegenden Diskussion auf Prozesse der Exklusion, Extraktion und Integration zurückgeführt werden kann. 395 Vgl. dazu auch die Auseinandersetzung mit »Inspirationsmythen« im gestalterischen Zusammenhang bei Kurz (2014). 396 Dies stellt den Ausgangspunkt der Diskussion in Kapitel 7.6 ›Kontinuität und Disruption‹ dar, in welchem u.a. mit Bruno Latour erörtert wird, wie gestalterisch auf die lebensweltlichen Entwicklungen resp. die höheren Auflösungsgrade und die damit verbundene Komplexität reagiert werden kann bzw. muss.

255

256

Prozess als Gestalt

– gemäß den Regeln, Verhältnissen und Begrenzungen, die das Spielsystem ihm vorgibt. Auf einer zweiten, darüberliegenden Ebene findet sich der Spieler im Modus des Konstrukteurs des Spielsystems wieder, in welchem er sich nicht lediglich innerhalb bestimmter Einschränkungen bewegt, sondern diese selbst artikuliert, als Metagestalter von Spiel-Modellen.397 Dies heißt nichts anderes, als dass der Spieler/Gestalter nicht nur die einzelnen Parameter setzt, die im Spiel verhandelbar werden, sondern gleichsam die Bedingungen resp. die Spielregeln, die dem gesamten Prozess des Spiels seine Ausrichtung geben. Während beide Ebenen im klassischen spieltheoretischen Verständnis noch eine klare Trennung erfahren (der Spieler ordnet sich den Spielbedingungen unter und versteht sich gemäß einem konsistenten Verhalten darauf, sich an diese zu halten), verschmelzen sie im parametrischen Anwendungsfall zu einer Einheit: zu einer prozessualen Handlungsform aus Festhalten und Loslassen – als Einschränkung und Auflösung der Einschränkung, als Anpassung der Parameter und Anpassung der Regeln – im Sinne einer Umstrukturierung der jeweils vorherrschenden Ordnung. In dieser Hinsicht schließt die parametrische Perspektive an die spieltheoretische an und erweitert sie insofern, als dass Ordnung darin kein statisch-objektives und einmal definiertes, sondern ein dynamisch-relationales Phänomen in zwei Richtungen darstellt, das auf die Parameter einerseits als auch auf die Bedingungen andererseits blickt, beides stets aufs Neue verhandelt und dadurch eine ganzheitliche Reflexion des Entwurfsprozesses erst möglich macht. Zweitens ergibt sich dadurch eine erweiterte Funktion von Parametrie, die sich auf die Sichtbarmachung der Phänomene per se versteht: Dadurch, dass nicht nur einzelne Parameter, sondern ebenso Verhältnisse, etwa durch die Darstellung von Abhängigkeiten, numerischen Wichtungsfaktoren oder grafischen Dichteverteilungen, eine unmittelbare Sichtbarkeit erhalten, können diese überhaupt erst präzise modelliert resp. gestaltet werden. Dies heißt nicht, dass die Verhältnisse vorher nicht präsent sind; es werden lediglich die Auflösungsgrade erhöht, sodass sie nunmehr sichtbar und damit auch gestaltbar werden. Die Veränderung der Auflösungsgrade bewirkt in der Tiefe zwar eine präzisere Beschreibbarkeit der Phänomene, gleichsam steigt damit jedoch auch das Ausmaß der ansichtigen Komplexität: Es wäre vermessen, ein Auto durch das Verschieben einzelner Molekülketten reparieren oder eine Website im Binärcode programmieren zu wollen. Die Phänomene werden mit einer Erhöhung der Auflösungsgrade zwar sichtbarer, jedoch gleichsam auch weniger handhabbar. Es bedarf entsprechend wiederum einer Medialität, die zwischen den Auflösungsgraden vermittelt, indem sie die jeweils neu gewonnene Komplexität handhabbar macht, ohne sie aufzulösen. Ein solches Medium stellt Parametrie bereit, ebendann, wenn die Messbarkeit der Lebenswelt neue Sphären erreicht resp. durch technologischen Fortschritt ausgedehnt wird, dadurch neue Parameter und Verhältnisse ansichtig werden (extensionale Funktion) und diese wiederum – in umgekehrter Richtung – zu größeren, handhabbaren Ganzheiten gruppiert werden (komprimierende Funktion).398 Parametrische Sichtbarkeit geht ent-

397 Wie Natascha Adamowsky es für Formen der Spielentwicklung formuliert: »In diesem Kontext zeigt sich das Entwerfen von Spielen, respektive die Praxis des Herstellens eines Spiels, als ein prototypischer Vorgang, Modelle zu entwickeln.« Adamowsky (2018b: 39). 398 Vgl. dazu auch die Herleitung in Kapitel 7.3 ›Situation und Improvisation‹.

7. Kreativität und Parametrie

sprechend stets auch mit einer parametrischen Handhabbarkeit einher. Anders ausgedrückt: Wo Daten erhoben werden, müssen Daten handhabbar gemacht resp. gestaltet werden. Je mehr Daten ansichtig werden, desto mehr bedarf es einer angemessenen (gestalteten) Handhabbarkeit derselben. Entsprechend lässt sich für die parametrische Diskussion um Spielräume festhalten, dass sich die Ebenen aus (Spiel-)Inhalt und (Spiel-)Regeln im parametrischen Verständnis einerseits vereinen und andererseits aus neuen, hochaufgelösten Sichtbarkeiten der Phänomene gleichsam die Notwendigkeit neuer Umgangsformen erwächst. In diesem Wechselspiel findet sich der Gestalter wieder, sofern für neue Projekte/Probleme/Ideen stets neue Formen der Handhabbarkeit notwendig werden: neue Spielräume, die ein Äußeres ausgrenzen, um die Dinge im Inneren neu zu verhandeln. Wie ein solches Verhandeln im spielerischen Verständnis aussieht, wurde anhand der bipolaren Spannungsverhältnisse diskutiert, die im Spielraum Entfaltung finden. Dabei wurde anschaulich, dass es einer Spannung bedarf, die das (gestalterische) Spiel stets weiter antreibt und dass diese Spannung, mit Scheuerl, erst im »unentschiedenen Zugleich entgegengesetzter Tendenzen« ihre volle Wirkkraft erreicht.399 Die Unentschiedenheit einerseits als auch das Zugleich entgegengesetzter Tendenzen andererseits finden sich dabei ebenso im parametrischen Kontext wieder: Während ein Parameter für einen Fall konstant gehalten und für einen anderen wiederum variiert werden kann, befindet er sich erstens stets im Modus einer Unentschiedenheit, und zweitens versteht er sich insofern als Sammelplatz entgegengesetzter Tendenzen, als dass immer eine Bandbreite mehrerer unterschiedlicher Werte in ihm angelegt ist. Eine gestalterische Spannung aufrechtzuerhalten bedeutet entsprechend schlichtweg nichts anderes, als die Parameter und Auflösungsgrade zu variieren. Diese Variation vollzieht sich dabei in Iterationen, d.h. in Zyklen aus Variation und Evaluation, aus Festhalten und Loslassen, aus einem Sich-Nähern und Sich-Entfernen. Diese Dialektik ist entsprechend ein grundlegendes Wesensmerkmal des Parameters, an dem weniger seine Struktur, als vielmehr seine Dauer den bedeutsamen Mehrwert darstellt. Wie weiter oben mit Gustav Bally und dem Phänomen des Stutzens anschaulich gemacht wurde, offenbart sich ein solches immer dann, wenn Entscheidungen anstehen, deren Gehalt resp. Erfolgswahrscheinlichkeit zunächst überprüft werden muss. Der Prozess gerät ins Stocken, wenn zunächst mühsam und lange abgewägt werden muss, welcher Weg womöglich bessere Erfolgsaussichten verspricht als ein anderer. Diese vergleichende Evaluation verdichtet und beschleunigt sich in der parametrischen Praxis ebendann, wenn Parameter variiert und deren Wirksamkeit unmittelbar visualisiert werden kann. Die Zyklen des Stutzens werden dabei letztlich so kurz gehalten, dass sie nicht mehr als Einzelheiten, sondern als sequenzielle Ganzheiten wahrgenommen werden. Sie verdichten sich entsprechend zu einer fließenden Bewegung, die wiederum als Interpolation berechnet bzw. als Animation wahrgenommen wird; als unmittelbare Reaktion auf eine vorangegangene Veränderung. An dieser sind entsprechend nicht nur dessen Einzelbestandteile zu einem bestimmten Zeitpunkt, sondern darüber hinaus auch dessen übersummative Qualitäten im Ganzen abzulesen: der Verlauf einer Bewegung, seine Veränderung und seine Übergänge; Qualitäten der Beschleunigung, des Wachstums, des Zerfalls etc., die sich 399 Vgl. Scheuerl (1954/1973: 91).

257

258

Prozess als Gestalt

als Verdichtungen, Intensitäten, Zentrierungen, Grenzwerte usw. nicht nur beschreiben, sondern vor allem visualisieren und visuell manipulieren lassen. Durch die im Parameter angelegte Messbarkeit von Bandbreiten werden die Zyklen seiner Veränderung entsprechend so eng gehalten, dass sie als flüssige Bewegung erscheinen, und dadurch nicht nur traditionelle Entwurfsentscheidungen schneller verhandelbar machen, sondern darüber hinaus neue, prozessuale Qualitätsdimensionen hinzugewinnen. Diese gilt es nicht mehr nur wahrzunehmen, sondern entsprechend parametrisch – als Prozessgestalt – zu gestalten. Diese parametrische Verdichtung der Iterationszyklen macht entsprechend weiter anschaulich, dass Parameter nicht nur einzelne Bestandteile des Prozesses beschreiben, sondern gleichsam das Regelwerk sichtbar werden lassen, gemäß welchem sie verändert werden können: Jene Abhängigkeiten, Relationen, Wichtungen sind es, die im parametrischen Raum nun keine unsichtbaren Gegebenheiten mehr darstellen, sondern gestaltbare Größen, die umso sichtbarer werden, je mehr der Entwurf parametrisch gedacht wird. Was sich im Spiel als abstraktes Modell der Wirklichkeit –400 als Spielraum – verdoppelt, wird zur Bühne parametrischer Beziehungen, die nun nicht mehr nur eine greifbare Reflexion der reinen Gestaltungsinhalte, sondern ebenso eine der übergeordneten Bedingungen ermöglichen. Nicht mehr die Frage, wie der Entwurf nun konkret aussieht, ist die interessante, sondern jene, unter welchen Bedingungen er bestimmte Anforderungen des Kontextes (des Spielraumes) besser oder schlechter erfüllt. Parametrie transzendiert die gestalterische Handlungsfähigkeit in dieser Hinsicht insofern, als dass der parametrische Gestalter sich als Gestalter auf zwei Ebenen versteht: eine innere, die in zyklischer Iteration zwischen den Komparativen (besser oder schlechter, mehr oder weniger etc.) abwägt, durch die Variation der Parameter, und eine äußere, auf welcher der Gestalter Einfluss auf die Bedingungen nehmen kann, denen der gesamte Entwurf unterliegt (wie verhält sich jenes, wenn dieses sich verändert). Durch Letzteres vermag der Gestalter den Spielraum entsprechend bei Bedarf zu erweitern oder ebenso einzuschränken, indem er neue Parameter miteinander verknüpft und sich die Möglichkeiten der Artikulation dadurch abermals multiplizieren (extensionale Funktion) oder in bestimmte Richtungen verdichten (komprimierende Funktion). Parametrisch zu gestalten heißt entsprechend auch, das richtige Maß für den Umfang des Spielraumes abzuwägen: Ist er zu groß bzw. sind keine Parameter und Bedingungen vorhanden, die dem Prozess eine Richtung geben können, fällt es dem gestalterischen Spiel aufgrund der fehlenden Polaritäten schwer, in Gang zu kommen.401 Ist das Gegenteil der Fall und der Spielraum ist zu klein gewählt bzw. durch Parameter und Bedingungen überdefiniert, wird der Prozess unübersichtlich, vorsichtig und langsam, wodurch sich ebenso wenig eine hinreichende Spannung aufbaut, die das parametrische Wechselspiel weiter antreiben könnte. Es bedarf entsprechend eines Spielraums,

400 Vgl. Vester (1975/2016: 181). 401 Anschaulich wird dies etwa an einem leeren Blatt Papier oder dem leeren, unendlichen cartesischen Raum eines CAD-Programms. Diese Medien bieten zwar einen schier unendlichen Möglichkeitsraum an – ohne richtungsweisende Ideen des Gestalters (Einschränkungen durch Parameter und parametrische Bedingungen) evozieren sie jedoch keinen spielerischen Umgang im bewegten Gleichgewicht, sondern vielmehr das Gegenteil: Stillstand.

7. Kreativität und Parametrie

der nicht zu groß und nicht zu klein gewählt ist, sodass sich stets neue Spannungen darin entwickeln können, die das gestalterische Spiel im bewegten Gleichgewicht halten und somit den Prozess als Gestalt stabilisieren. Dabei arbeitet der Parameter grundlegend und wesenseigen von je her gegen sich selbst (gr. ›para‹ = dt. ›neben/gegen‹): So schnell wie ein Wert angenommen werden kann, kann er auch wieder durch einen anderen ersetzt werden. Als unentschiedenes Zugleich entgegengesetzter Tendenzen verkörpern Parameter in ihrer grundlegenden Beschaffenheit daher bereits immer einen Spielraum, in dem die Verhältnisse einerseits reglementiert und andererseits frei zu verhandeln sind. Aus dieser Eigenart beziehen Parameter jene Leichtgängigkeit, die im Umgang mit ihnen so spielerisch anmutet und welche weiter dazu motiviert, das gestalterische Spiel nicht aufhören lassen zu wollen; indem Auflösungsgrade variiert, neue Parameter gesetzt und Bandbreiten durchgespielt werden – alles noch einmal wiederholt werden und unter variierten Bedingungen auch ganz anders ausgehen kann. Was feststeht, ist dabei immer die konsistente Gestalt des parametrischen Systems und dessen transzendentale Funktion – die Variation einzelner Parameter einerseits und die dynamisch-reflexive Gestaltung der Bedingungen andererseits. Was nicht feststeht, ist die Art der Qualität resp. der Sinn, der mit der Gestalt eine Verkörperung erhält. Entsprechend obliegt es dem (parametrischen) Gestalter, einerseits die Bedingungen und Regelsysteme seines Spielraumes zu definieren, sodass sich darin eine Spannung ausbilden kann, und andererseits im spannungsvollen Spiel mit den Parametern stets aufs Neue auszuloten, welche Form der Qualität (Sinn) an ihr, der Gestalt, ansichtig werden soll. Ob die Dinge Sinn machen ist dabei jedoch nur in erster Betrachtung eine Frage guten Designs. Vielmehr entsteht Sinn in Relation zu den Bedingungen, die in die Entwurfsüberlegungen mit einbezogen werden – etwa sowohl Aspekte der Nachhaltigkeit, der Langlebigkeit, der günstigen Produzierbarkeit als auch die Form und Semantik betreffende Parameter. Design und Designer müssen sich entsprechend darauf verstehen, jene Bedingungen nicht nur als Gegebenes hin-, sondern als Gestaltbares anzunehmen, und sie gezielt in einen Spielraum zu integrieren, d.h. Parameter zu setzen und Verhältnisse und Abhängigkeiten zu modellieren. Der Gestalter wägt dabei ab, welche Bedingungen für den Entwurf relevant sind, und welche nicht.402 In differenzierter Betrachtung eröffnet sich dieses Abwägen, wie gezeigt wurde, als prozessuales Wechselspiel aus Exklusion, Extraktion und Integration, wodurch die Wahrnehmungsinhalte und Verhältnisse im parametrischen Zusammenhang nunmehr eine fassbare, da sichtbare Form erhalten: Wenn Verhältnisse und Abhängigkeiten nachvollziehbar kommuniziert und anschaulich gemacht werden können, wirkt dies unmittelbar auf das gestalterische

402 Wie Rittel es bereits früh an anderer Stelle im Zusammenhang mit der Planbarkeit von Prozessen formuliert hat: »Die Entscheidung, welcher Kontext, welche Design-Variablen und welche Constraints in die Planung einfließen sollen, muß jeder Planer selbst und bei jedem Planungsobjekt von neuem fällen. Nicht ›Sachzwänge‹ oder ›objektive‹ Tatbestände sind für die Planung bestimmend, sondern allein individuelle Entscheidungen.« Rittel (1970: 30). Auch wenn der Begriff der Planung für das parametrische Verständnis zu kurz greift, bleibt der wesentliche Kern jedoch insofern erhalten, als dass Parameter bewusst gesetzt und die Bedingungen des Entwurfs damit sorgsam gestaltet werden.

259

260

Prozess als Gestalt

Bewusstsein zurück – es wird unmittelbar anschaulich, welche Handlungen welche Folgen haben, und warum. Dem, was Dörner für das allgemeine Problemlösen noch als ›Logik des Misslingens‹ betitelte, welche immer dann spürbar wird, wenn Menschen die Neben- und Fernwirkungen ihrer Handlungen unbeachtet lassen,403 wird im parametrischen Verständnis a priori entgegengearbeitet, da Parameter eine Messbarkeit von Größen und damit auch immer eine Sichtbarkeit auf sich vereinen. Verhältnisse und Abhängigkeiten können entsprechend unmittelbar visualisiert und verstanden werden, sodass sie eine ganzheitliche Reflexion des Prozesses als Gestalt möglich machen und der Gestalter buchstäblich weiß, was er tut, weil er sieht, wie die Dinge zusammenhängen: Wo passt es gut, wo noch nicht? Wo müssen Parameter variiert, wo Verhältnisse neu gewichtet werden, bis im Prozess/im Produkt/im Design, eine Ordnung »stabiler Beziehungen ihrer Komponenten« entsteht,404 welche die Gestalt von innen nach außen stets aufs Neue stabilisiert, dadurch Sinnzusammenhänge schließt und letztlich kaum mehr eine Anfechtung ihrer Ordnung resp. ihres Sinns zulässt, weil sie ihre eigene Sphäre der Richtigkeit ausgebildet hat. Dies vermag Parametrie entsprechend als jenes Phänomen auszuzeichnen, das dem Prozess als Gestalt eine Fassbarkeit und damit gleichsam auch Gestaltbarkeit verleiht.

7.5

Simulation und Computation

In der Auseinandersetzung mit dem Begriff des Spiels konnte aufgezeigt werden, inwieweit die gestalterische Praxis als eine spielerische gedacht werden kann. Parametrische Mechanismen nehmen dabei insofern eine bedeutsame Stellung ein, als dass durch sie vor allem jene Verhältnisse und Wechselwirkungen im Entwurfsprozess anschaulich werden, die eine eigene Ordnung und Sinnhaftigkeit stabilisieren. Eine Sinnartikulation soll entsprechend, ohne die philologischen und philosophischen Dimensionen des Begriffs aufzufächern,405 vorerst als eine Ordnung verstanden werden, die, wie gezeigt wurde, sich fortwährend selbst (als Gestalt) stabilisiert. Gabriel spricht in dieser Hinsicht auch von Sinnfeldern als eine »Anordnung von Gegenständen, in der diese auf eine bestimmte Weise zusammenhängen«,406 wobei er die Art und Weise des Zusammenhangs entsprechend als Sinn benennt.407 Ein solches Sinnfeld versteht sich demnach als endliche Sphäre einer menschlichen Betrachtung; als Wirklichkeit mit eigenen Gesetzen, Maßstäben und Verhältnissen, d.h. als Ordnung, die mit anderen Schwerpunkten

403 Vgl. Dörner (2002: 52ff). 404 Hüther; Quarch (2018: 27). 405 Neben seinem Verständnis als physiologische Wahrnehmungsfähigkeit, als Sinnlichkeit (Sehen, Hören, Fühlen etc.), lässt ich der Begriff in ästhetischer, phänomenologischer, naturwissenschaftlicher, hermeneutischer und semiotischer Bedeutungsdimension für die entsprechenden Disziplinen verwerten. Vgl. dazu Gessmann (2009: 665) als auch Trebeß (2006: 350ff). Hier sei sich jedoch darauf beschränkt, Sinn als eine Ordnung zu verstehen, die nicht nur wahrgenommen, sondern vor allem gestaltet werden kann. 406 Gabriel (2020: 37). 407 »Die Art und Weise des Zusammenhangs von Gegenständen nenne ich einen Sinn.« Ebd.

260

Prozess als Gestalt

Bewusstsein zurück – es wird unmittelbar anschaulich, welche Handlungen welche Folgen haben, und warum. Dem, was Dörner für das allgemeine Problemlösen noch als ›Logik des Misslingens‹ betitelte, welche immer dann spürbar wird, wenn Menschen die Neben- und Fernwirkungen ihrer Handlungen unbeachtet lassen,403 wird im parametrischen Verständnis a priori entgegengearbeitet, da Parameter eine Messbarkeit von Größen und damit auch immer eine Sichtbarkeit auf sich vereinen. Verhältnisse und Abhängigkeiten können entsprechend unmittelbar visualisiert und verstanden werden, sodass sie eine ganzheitliche Reflexion des Prozesses als Gestalt möglich machen und der Gestalter buchstäblich weiß, was er tut, weil er sieht, wie die Dinge zusammenhängen: Wo passt es gut, wo noch nicht? Wo müssen Parameter variiert, wo Verhältnisse neu gewichtet werden, bis im Prozess/im Produkt/im Design, eine Ordnung »stabiler Beziehungen ihrer Komponenten« entsteht,404 welche die Gestalt von innen nach außen stets aufs Neue stabilisiert, dadurch Sinnzusammenhänge schließt und letztlich kaum mehr eine Anfechtung ihrer Ordnung resp. ihres Sinns zulässt, weil sie ihre eigene Sphäre der Richtigkeit ausgebildet hat. Dies vermag Parametrie entsprechend als jenes Phänomen auszuzeichnen, das dem Prozess als Gestalt eine Fassbarkeit und damit gleichsam auch Gestaltbarkeit verleiht.

7.5

Simulation und Computation

In der Auseinandersetzung mit dem Begriff des Spiels konnte aufgezeigt werden, inwieweit die gestalterische Praxis als eine spielerische gedacht werden kann. Parametrische Mechanismen nehmen dabei insofern eine bedeutsame Stellung ein, als dass durch sie vor allem jene Verhältnisse und Wechselwirkungen im Entwurfsprozess anschaulich werden, die eine eigene Ordnung und Sinnhaftigkeit stabilisieren. Eine Sinnartikulation soll entsprechend, ohne die philologischen und philosophischen Dimensionen des Begriffs aufzufächern,405 vorerst als eine Ordnung verstanden werden, die, wie gezeigt wurde, sich fortwährend selbst (als Gestalt) stabilisiert. Gabriel spricht in dieser Hinsicht auch von Sinnfeldern als eine »Anordnung von Gegenständen, in der diese auf eine bestimmte Weise zusammenhängen«,406 wobei er die Art und Weise des Zusammenhangs entsprechend als Sinn benennt.407 Ein solches Sinnfeld versteht sich demnach als endliche Sphäre einer menschlichen Betrachtung; als Wirklichkeit mit eigenen Gesetzen, Maßstäben und Verhältnissen, d.h. als Ordnung, die mit anderen Schwerpunkten

403 Vgl. Dörner (2002: 52ff). 404 Hüther; Quarch (2018: 27). 405 Neben seinem Verständnis als physiologische Wahrnehmungsfähigkeit, als Sinnlichkeit (Sehen, Hören, Fühlen etc.), lässt ich der Begriff in ästhetischer, phänomenologischer, naturwissenschaftlicher, hermeneutischer und semiotischer Bedeutungsdimension für die entsprechenden Disziplinen verwerten. Vgl. dazu Gessmann (2009: 665) als auch Trebeß (2006: 350ff). Hier sei sich jedoch darauf beschränkt, Sinn als eine Ordnung zu verstehen, die nicht nur wahrgenommen, sondern vor allem gestaltet werden kann. 406 Gabriel (2020: 37). 407 »Die Art und Weise des Zusammenhangs von Gegenständen nenne ich einen Sinn.« Ebd.

7. Kreativität und Parametrie

wiederum auch ganz anders aussehen könnte.408 Sinn kann demnach als hochgradig relationales Phänomen verstanden werden, das notwendigerweise immer auf jene bestimmten (endlichen) Bedingungen und Parameter zu beziehen ist, die seine Struktur bilden. Diese Vorwegnahme ist insofern bedeutsam, als dass die folgende Diskussion nicht mehr nur nach den menschlichen Möglichkeiten der Sinnherstellung fragt, sondern nach den technischen: Wie ist es möglich, technische Systeme resp. künstliche Intelligenzen so in den Entwurfsprozess einzubinden, dass sie Sinn machen, und kann ihnen dabei eine Autarkie zugesprochen werden, die für die gestalterische Praxis tauglich wäre? Dass KI aus empirischen Daten Ordnungen und Muster gewinnen kann, wurde anhand der Funktionsweise eines Convolutional Neural Networks (CNN) weiter oben bereits anschaulich gemacht.409 Dabei handelt es sich um das Erkennen von Regelmäßigkeiten in großen Datenmengen, die erst deshalb durch KI sichtbar werden, weil sie in einem bislang für den Menschen unerreichbaren Auflösungsgrad gegeneinander abgeglichen werden können: Verkehrsströme, Produktionszyklen, Konsumverhalten usw. – jene in der Welt gegebenen Phänomene (lat. ›Datum‹, dt. ›das Gegebene‹), die dermaßen hohe Speicherungs- und Verarbeitungs-Kapazitäten erforderlich machen, welche nicht mehr mit menschlich-biologischen, sondern nur noch mit technisch-computationalen Mitteln zu bewältigen sind.410 Die hohen Auflösungsgrade, in der die Welt technisch erfasst werden kann, übersteigen die menschlichen Fähigkeiten der Komplexitätsbewältigung dabei schon lange.411 Und sie erhöhen sich stets weiter, wenn auch

408 Als Beispiel beschreibt Gabriel die Gesamtszene eines ›Montagmorgen im Hauptbahnhof‹ aus mehreren Perspektiven, um die kontingenten Betrachtungsweisen anschaulich zu machen, die alle gleichermaßen wirklich sind, wodurch Gabriel die Vorstellung einer absoluten, objektiven Wirklichkeit auszuschließen sucht. Vgl. Ebd.: 36ff. 409 Vgl. dazu Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹. 410 Wie Flusser es etwa darlegt: »Kein menschliches Gedächtnis kann die Information speichern, welche durch diesen Diskurs verteilt wird, denn kein menschliches Gedächtnis kann für die Unzahl der wissenschaftlichen Codes programmiert sein, geschweige denn die beinahe zahllosen Informationsbrocken synthetisieren.« Flusser (2007: 44). Stalder spricht für die digitale Lebenswelt entsprechend von der Eigenschaft und Notwendigkeit einer Algorithmizität, welche den »Informationsüberfluss« reduziert und formt, »so dass sich aus den von Maschinen produzierten Datenmengen Informationen gewinnen lassen, die der menschlichen Wahrnehmung zugänglich sind […]« Stalder (2016/2017: 13). Küster spricht indes allgemeinhin vom »Dilemma des Entwerfens«, das darin besteht, »dass die Komplexität der zu entwerfenden Systeme immer mehr ansteigt, während die Intelligenz des Menschen stagniert« Küster (2000: 139). 411 »As technology became more powerful and complex, we became less able to understand how it worked, less able to predict its actions. Once computers and microprocessors entered the scene, we often found ourselves lost and confused, annoyed and angered.« Norman (2007: 10). Dabei ist weniger ein bestimmter Zeitpunkt festzulegen als vielmehr auf ein Prinzip der Anschaulichkeit (Nachvollziehbarkeit der Prozesse) zu verweisen, das im Umgang mit technischen Gegenständen in der menschlichen Entwicklungsgeschichte stets aufs Neue verloren geht und entsprechend gleichsam auch immer wieder neu ›eingefangen‹ werden muss: Was im industriell-mechanischen Zeitalter als ZahnradKomplexe und Bedienhebel in Erscheinung trat, offenbart sich in der digitalen Gegenwart als binäre Codierungen, die durch Wischgesten gesteuert werden. Gessmann fasst es im Verweis auf Arnold Gehlen übergreifend für die Technikphilosophie zusammen, wenn er darlegt: »Nicht mehr ist die Natur die große Reduktorin von Komplexität […]. Vielmehr ist umgekehrt jetzt die Natur selbst der

261

262

Prozess als Gestalt

nicht mehr verstärkt in die Tiefe (die subatomare Ebene der Bestandteile ist erreicht), dann doch in die Breite: durch die Messbarkeit von Verhältnissen und Abhängigkeiten, wie sie für den Menschen schlichtweg unsichtbar blieben, würden sie nicht durch technische Medien (vor allem durch KI) wiederum menschlich zugänglich resp. handhabbar gemacht werden.412 Mittels einer KI ist es entsprechend möglich, komplexe weltliche Regelmäßigkeiten innerhalb technischer Prozesse und Berechnungen in einem hohen Auflösungsgrad zu erfassen und sie entsprechend in einem niedrigeren, für den Menschen handhabbaren Auflösungsgrad, aufzubereiten. Mit einer KI zu entwerfen, vermag entsprechend zu bedeuten – durch Prozesse der Exklusion, Extraktion und Integration –, jene Auflösungsgrade zu gestalten, die einerseits die Komplexität der technischen Sphäre als auch andererseits die Handhabbarkeit für eine menschliche Weiterverwendung auf sich vereinen, wie es etwa an Formen von Interfaces anschaulich wird.413 Im übertragenen Sinne meint dies, sorgsam jene Parameter auszuwählen, die auf technischer als auch auf menschlicher Ebene relevant erscheinen, sie zu abstrahieren, Brücken zwischen ihnen zu bauen und sie sorgsam in neue Gestalten zu integrieren, so, dass sie für die menschliche Bedeutungszuweisung (Sinnherstellung) anschlussfähig werden.414 Algorithmische digitale Entwurfsprogramme binden dabei

Grund für eine prinzipielle Überforderung des Menschen und die Technik die Antwort auf diese Überforderung. […] Technik […] verschafft uns einen Überblick, indem ihre Apparatur wie ein Reizfilter wirkt und bestimmte Eindrücke zuläßt, andere blockiert […].« Gessmann (2010: 40). 412 Wie Stalder es anschaulich formuliert: »Angesichts der von Menschen und Maschinen generierten riesigen Datenmengen wären wir ohne Algorithmen blind.« Stalder (2016/2017: 13). Ebenso Lenzen: »Intelligente Programme steuern Systeme, die so komplex sind, dass wir sie ›von Hand‹ niemals steuern könnten.« Lenzen (2018: 238). Schulze spricht dabei im allgemeineren Zusammenhang von einer Entwicklungsgeschichte der Überkomplexität, welche sich als zyklischer Abgleich aus Nutzbarkeit und Optimierung darstellt, wodurch die menschliche Lebenswelt sich notwendigerweise stets aufs Neue vereinfacht: »Überkomplexität bedeutet Mangel an Übersicht. Mit einem Mangel jedoch befinden wir uns immer am Anfang eines neuen Steigerungspfades, nie an seinem Ende. Mit Überkomplexität beginnt der Weg in eine raffinierte, auf den Bedürfnishorizont des Subjekts bezogene Vereinfachung der Welt.« Schulze (2004: 149). In dieser Hinsicht schlägt der Interaction-Designer John Maeda einen angemessenen Umgang mit der Lebenswelt vor, der dem Paradigma von Einfachheit (simplicity) folgt, die man anhand von zehn Gesetzen in den lebenspraktischen Alltag integriert werden könne. Vgl. Maeda (2007). Vgl. dazu die Auseinandersetzung bei Utterback, James M. et al. (2007: 13ff), in der die Bedeutsamkeit von Einfachheit für das gestalterische Feld anhand exemplarischer Beispiele anschaulich gemacht wird. 413 Ein Interface verkörpert entsprechend einen Artefakt der Schnittstelle »zwischen einer ,inneren‹ Umgebung, der Substanz und inneren Gliederung des Artefakts selbst, und einer ›äußeren‹ Umgebung, der Umwelt in der es operiert, […]« Simon (1968/1994: 6). Vgl. dazu weiter als prototypische Vertreter eines Interface-Designs vor allem Negroponte (1995: 111ff); Bonsiepe (1999) als auch, für die gegenwärtige Praxis, Preim; Dachselt (2015). Eine rezeptionsästhetische Verortung des Phänomens findet sich darüber hinaus in den Beiträgen bei Grabbe; Rupert-Kruse; Schmitz (2015). Norbert Bolz weitet den Begriff des Interfaces insofern aus, als dass er ihn gar mit dem Begriff des Designs gleichstellt: »Es geht für den Designer […] nicht darum, in die Tiefe vorzudringen, sondern die Oberfläche zu entdecken. Design ist gar nichts anderes als wirkende Oberfläche, Interface – insofern ist der Begriff Interface-Design ein Pleonasmus.« Bolz (2000: 14). 414 Norbert Bolz spricht entsprechend vom »Design als Sensemaking« und in spezifischerer Auslegung der Praxis des Designs von derselben als die »Hermeneutik der Technik«, gemäß welcher sich die

7. Kreativität und Parametrie

technisch an den Menschen zurück, was andernfalls menschlich nicht mehr fassbar wäre,415 mittels einer Berechenbarkeit, die wiederum einer Gestalt bedarf. Entsprechend handelt es sich um eine Berechenbarkeit der Phänomene, die einerseits technische Kapazitäten nutzt, um sie andererseits in menschlicher Kapazität erfahrbar zu machen – durch Visualisierungen in Form von Verdichtungen, Wichtungen, Animationen etc. Dabei verstehen sich computationale Systeme spätestens seit den 2010er-Jahren, der »zweiten digitalen Wende« (›second digital turn‹), wie Carpo es nennt,416 nicht mehr darauf, lediglich zwischen 0 und 1, Ja und Nein oder Richtig und Falsch zu unterscheiden, sondern die binären Berechnungen in multiplen Tiefendimensionen durchzuführen (›deep learning‹), sodass mehrschichtige Verhältnisse zwischen vielen (Tausenden, Millionen) Einzelphänomenen als Daten erfasst, verortet und gewichtet werden können; was nichts anderes heißt, als dass ihnen auf technischer Seite Bedeutung zugewiesen wird. Vor diesem Wendepunkt waren technische und menschliche Bedeutungen lange Zeit nicht in Deckungsgleichheit zu bringen, da die Auflösung der technischen Systeme schlichtweg nicht hoch genug war, um die komplexen, variationsreichen und teils kontroversen Phänomene und Verhältnisse der menschlichen Lebenswelt zu erfassen. Was menschlich Sinn machte, konnte technisch nicht angemessen erfasst und prozessiert werden. Fehlermeldungen, die der Computer auszugeben vermochte, verstanden sich daher allenfalls in menschlicher Betrachtung als Fehler – technisch waren es vielmehr Lücken; Fragen, auf die der Computer keine Antwort wusste.417 Durch selbstlernende KI-Systeme können diese Lücken entsprechend gefüllt werden, wodurch menschliche Bedeutung in ihrer technischen Repräsentation nicht verloren geht, sondern (erstmals) auf menschlicher Ebene technisch erschlossen und erweitert werden kann; dadurch, dass eine KI weltliche Phänomene buchstäblich ›als‹ menschliche – technisch – erkennen kann. Holger van den Boom hat darin bereits 1987 den Kern der künstlichen Intelligenz verortet; in der »Aufgabe, dem Computer das kleine Wörtchen ›als‹ beizubringen«,418 und weiter konstatiert, dass, sofern dies gelänge, der »erste Schritt zur Sinnlichkeit des Computers« resp. zu einem »Erkennen des Sinnes auf Seiten des Computers« getan wäre.419 Das ›als‹ markiert in dieser Hinsicht einen Brückenschlag zwischen der Tätigkeit des Entwerfens nicht mehr auf das technische Objekt, sondern auf den Anwender richtet. Ebd.: 13-14. 415 In dieser Hinsicht sprechen Brynjolfsson und McAfee von der Digitalisierung entsprechend als »wesentliche gestalterische Triebkraft des zweiten Maschinenzeitalters, weil sie ein tieferes Verständnis ermöglicht« Brynjolfsson; McAfee (2014/2018: 84). Die unsichtbaren Sphären der allgegenwärtigen, digitalen Berechnungen im Hintergrund der menschlichen Lebenswelt, des ›ubiquitous computing‹, wie Marc Weiser es nennt, bedürfen dabei entsprechend wieder einer wahrnehmbaren Sichtbarkeit, die es umso dringlicher zu gestalten gilt, je undurchsichtiger die technischen Prozesse werden. Vgl. Weiser; Brown (2015). 416 Vgl. Carpo (2017). Während die erste digitale Wende sich in den 1990er-Jahren als Form der Implementierung neuer digitaler Werkzeuge und Herangehensweisen vollzog (CAD, digitale Unternehmensführung etc.), erweitert sich das Feld in der zweiten digitalen Wende um selbstlernende Systeme, die dazu im Stande sind, weltliche Gegebenheiten weitestgehend eigenständig zu erfassen, zu verarbeiten und zu evaluieren. 417 Vgl. van den Boom (1987: 141). 418 Ebd.: 132. 419 Ebd.: 133.

263

264

Prozess als Gestalt

technischen Sphäre der computationalen Datenprozessierung und der menschlichen Sphäre der Wahrnehmung; die Zusammenführung zweier Sinnordnungen, die nun annähernd kongruent zueinander sind und durch selbstlernende Systeme stetig besser in Übereinstimmung gebracht werden können. Die Frage stellt sich entsprechend nicht (mehr) danach, ob technische Systeme innerhalb ihrer technischen Ordnung Sinn machen – das tun sie natürlich, vom Hammer bis zum Düsenjet – sondern wie technische Systeme ihre jeweiligen Sinnordnungen den menschlichen zugänglich machen können. Die Spracheingabe gegenwärtiger Systeme zeigt dabei etwa anschaulich, wie klein die Lücken zwischen den technischen und menschlichen Sinnordnungen geworden sind und dass der technische Umgang dabei unverkennbar menschliche Züge angenommen hat. Wie ist diese Entwicklung nun in ihrer Gesamtheit zu betrachten und welche Phänomene können dabei als wesentliche herausgestellt werden? Um sich möglichen Antworten anzunähern, sei im Folgenden zunächst, ausgehend von der Betrachtung des Spielphänomens, von einer Erweiterung desselben zu sprechen, die vor allem seine Berechenbarkeit und Vorhersage betrifft. Ein Spiel, das in seiner eigenartigen Ambivalenz zwar durch restriktive Regeln und Strukturen auf der einen und eine performative Unentschiedenheit auf der anderen Seite gekennzeichnet ist, gewinnt in klassischer Form nicht zuletzt dann einen erkenntnisbringenden Gehalt, wenn es vorbei ist.420 Die Unentschiedenheit des Spiels avanciert erst im ›Danach‹ zu sicheren Aussagen – im ›Davor‹ sind es allenfalls Wahrscheinlichkeiten, die eine Prognose erlauben. Wahrscheinlichkeiten gründen dabei entsprechend auf mathematischen Berechnungen, die unter Berücksichtigung bestimmter Parameter angestellt werden. Entsprechend ist dann nicht mehr von Unentschiedenheiten im Spiel, sondern von Wahrscheinlichkeiten einer Simulation zu sprechen. Wo von Simulationen die Rede ist, verstehen sich die Dinge – analog zum Spiel und zum Spielraum – auf eine eigene Sphäre, die nicht die Real-Wirklichkeit ist, sondern diese modellhaft nachbildet.421 Phänomene werden übersetzt und sind dem, was sie repräsentieren und neu verkörpern, allenfalls – und gemäß dem lateinischen Wortursprung – ähnlich (lat. ›simulis‹).422 Entsprechend vereint der Begriff der Simulation einen grundlegenden Wesenszug der Täuschung auf sich (lat. ›simulatio‹ = dt. ›Täuschung, Nachahmung‹),423 der vor allem von Jean Baudrillard in der medientheoretischen Diskussion ab den 1970er-Jahren diskutiert und der realen Wirklichkeit als repressive Hyperrealität (Virtuelle Realität) gegenübergestellt wurde.424 Simulation ver420 Man kann bspw. und sinnbildlich erst nach Beendigung des Fußballspiels mit Sicherheit sagen, wie viele Tore geschossen wurden, nicht davor. 421 Vester spricht entsprechend von Spielen als »Simulationen der Wirklichkeit« Vester (1975/2016: 181). 422 Kluge; Seebold (2011: 850), simulieren. 423 PONS (2020), Simulation, abgerufen am 21.04.2020. 424 Vgl. Baudrillard (1976/1982: 112-119). Dabei beschreibt Baudrillard mit dem Begriff des Hyperrealen nicht nur eine Repräsentationsform des Realen, sondern eine fiktionale Sphäre, die vollständig in der Simulation angelegt ist: »Die wirkliche Definition des Realen lautet: das, wovon man eine äquivalente Reproduktion herstellen kann. […] Am Ende […] ist das Reale nicht nur das, was reproduziert werden kann, sondern das, was immer schon reproduziert ist. Hyperreal. […] Das Hyperreale ist nicht jenseits der Repräsentation, weil es vollständig in der Simulation ist.« Ebd.: 116. Gabriel spricht ferner im Verweis

7. Kreativität und Parametrie

kommt darin zum medialen, selbstreferenziellen Gegenpol einer realen Wirklichkeit und verkörpert gleichsam den möglichen Verlust derselben, wenn sie nicht mehr nur nachahmende und repräsentative Funktionen übernimmt, wie es in den Auseinandersetzungen überwiegend bestärkt wird,425 sondern produktive, die unmittelbar auf die Tiefenwahrnehmung der menschlichen Lebenswelten Einfluss nehmen, wie Wolfgang Welsch es etwa anführt.426 Simulation versteht sich dann als vorrangig ästhetisches Phänomen, das zwar einerseits als reduktionistisches (mathematisches) Modell eine prognostizierende und produktive Funktion verkörpert, andererseits die Bindung zur real-physischen Welt umso mehr lockert, je höher seine Auflösung wird. Kittler differenziert diese Beobachtung aus, indem er der Simulation den begrifflichen Gegensatz der Dissimulation hinzufügt: »Wenn simulieren besagt, zu bejahen, was nicht ist, und dissimulieren besagt, zu verneinen, was ist, dann hat die Computerdarstellung komplexer, zum Teil also imaginärer Zahlen eine sogenannte Wirklichkeit buchstäblich dissimuliert, nämlich auf Algorithmen gebracht.«427 Eine Simulation vermag entsprechend beide Funktionen untrennbar auf sich zu vereinen: eine simulierende, die etwas produziert, was noch nicht ist, und eine dissimulierende, die auflöst, was bis dahin Bestand hatte. Demgemäß lässt sich eine Simulation – und in Bezug auf das vorangegangene Kapitel – als Spielraum verstehen, der bestehende Verhältnisse und Ordnungen auflöst (Exklusion/Extraktion) und sie innerhalb einer neuen Gestalt verhandelbar macht (Integration).428 Die Simulation bestärkt dabei ihren Bezug zum Artifiziellen insofern, als dass sie Bestehendes innerhalb ihrer formalisierten Sphäre nicht nur möglichst detailgetreu nachbilden, sondern gleichsam über die etablierten Gegebenheiten einer Real-Wirklichkeit hinausgehen kann; wenn physikalische Gesetzmäßigkeiten, geografische Topologien oder verhaltensabhängige Prognosen nicht mehr nur in hohen Auflösungsgraden nachgeahmt, sondern in einer

425

426

427 428

auf die Computersimulation The Sims von einer perfekten Simulation als eine solche, »die man als Sim [Partizipant] nicht mehr von der Wirklichkeit unterscheiden kann« Gabriel (2020: 249). So etwa Flusser: »Eine Simulation ist eine Nachahmung, bei welcher einige Aspekte des Imitierten übertrieben und andere verachtet werden.« Flusser (1989: 49). Ebenso Willim: »Als Simulation bezeichnet man die rechnerische Nachbildung eines Geschehens oder eines Problems zum Beispiel wirtschaftlicher oder gesellschaftlicher Art.« Willim (1986: 26). Für das Feld des Designs formuliert es Goldschmidt wie folgt: »The ultimate objective of the process of designing is the production of visual representations of the designed entity with enough completion and coherence to allow its construction or the construction of a visual simulation of it, physically or mentally.« Goldschmidt (1991: 125). Ebenso Lynn: »Simulation, […], is […] a visual substitute.« Lynn (1999: 10). »Die Simulation – ein ästhetischer Vorgang, der sich auf der Bildfläche des Monitors abspielt – hat nicht mehr nachahmende, sondern produktive Funktion.« Welsch (1996: 14). Demgemäß lassen sich virtuelle Welten nicht etwa als Abspaltung, sondern als Bestandteil der Real-Wirklichkeit begreifen, wie Adamowsky es im Verweis auf Winkler anführt: »Eine virtuelle Welt steht somit der Welt nicht abgespalten als etwas Anderes, Nichtweltliches oder Externalisiertes gegenüber, sondern ist als ihr Bestandteil, wie die Sprache, die Medien, die Technik immer schon da, wenn der Einzelne die Bühne betritt.« Adamowsky (2000: 17). Kittler (1989: 67). Entsprechend spricht etwa Dörner auch von Simulationsspielen. Vgl. Dörner (2002: 308).

265

266

Prozess als Gestalt

Simulation erweitert, variiert oder ganz aufgelöst werden. Lambert Wiesing fasst dies anschaulich zusammen, wenn er im bildwissenschaftlichen Diskurs von Formen artifizieller Präsenz spricht, die sich zwar an den realweltlichen Gegebenheiten (etwa der Physik) orientieren, denen jedoch auch völlig andere Bezugsmaßstäbe zugrunde liegen können: »Es lassen sich Realitäten simulieren, die nicht existieren. Die Physik der realen Welt ist – konfrontiert mit virtuellen Realitäten – nur noch ein Sonderfall. Denn die virtuellen Dinge verhalten sich nach Gesetzen, die nicht unbedingt die sind, die aus der Wirklichkeit bekannt sind.«429 Simulationen vermögen es entsprechend, über bestehende Realitäten hinweg resp. von ihnen abzusehen und etablierte Bedingungen durch gänzlich neue zu ersetzen.430 Während die realwirklichen Gegebenheiten dabei nicht nur in einer naturgesetzmäßigen, sondern ebenso in einer zeitlichen Dimension verhaftet sind, ist beides in der Simulation grundsätzlich verhandelbar. Insbesondere dem Parameter der Zeit kommt dabei eine übergeordnete Bedeutung zu, insofern, als dass sich – vor allem computationale – Simulationsprozesse in dessen zeitlichen Intervallen stark verdichten lassen, wodurch sie zu unmittelbaren Bewertungen von Entscheidungsmöglichkeiten herangezogen werden können.431 Dörner spricht in dieser Hinsicht von Computersimulationen als Zeitraffer, welche die Neben- und Fernwirkungen von Handlungsentscheidungen unmittelbar erfahrbar machen, wodurch Erkenntnisse vor allem schnell gewonnen werden können.432 Die ›natürlichen‹ Zyklen des ›trial-and-error‹-Prinzips, die vor allem durch evolutionäre Langsamkeit und ein abwartendes Stutzen gekennzeichnet sind,433 verdichten sich zu fließenden, reversiblen Prozessabläufen, an denen nicht nur epistemische Erkenntnisse, sondern ebenso topologische Formen und wechselwirksame Dynamiken abgelesen werden können, wie Gregg Lynn es etwa mit dem Ausdruck der Animate Form für die gestalterische (architektonische) Praxis umschreibt.434 Eine Animation beschreibt dabei nach Lynn die Evolution einer Form und ihre »formenden Kräfte«.435 Demgemäß versteht sich der Prozess als einer des (evolutionären) Wachstums, mit der Erweiterung, dass jenes Wachstum durch angelegte Parameter (dt. ›formende Kräfte‹ = engl. ›shaping forces‹) in multiple Richtungen gelenkt werden kann. Die ausführende Arbeit am konkreten Einzelbestandteil im Kleinen weicht einer

429 430 431 432

433 434 435

Wiesing (2008: 28). Ebenso Terzidis: »Anything that is associated with the real world can be codified and re-enacted in a computer-simulated world.« Terzidis (2015: 3). »Simulations allow to see beyond the reality.« Ebd.: 7. Die einzige zeitliche, unauflösbare Gebundenheit resultiert entsprechend lediglich aus der Rechenkapazität, die für die Simulation zur Verfügung steht. »Die Zeit in einem computersimulierten System läuft schnell. Ein computersimuliertes System ist ein Zeitraffer. […] Ein Simulationssystem führt uns die Neben- und Fernwirkungen von Planungen und Entscheidungen schnell vor Augen. Und so gewinnen wir Sensibilität für die Realität.« Dörner (2002: 308). Vgl. dazu weiter oben sowohl Kapitel 3.1 ›Langsamkeit und Evolution‹ als auch Kapitel 7.4 ›Spiel und Integration‹. Vgl. Lynn (1999). »[…], animation implies the evolution of a form and its shaping forces; it suggests animalism, animism, growth, actuation, vitality and virtuality.« Ebd.: 9.

7. Kreativität und Parametrie

Steuerung des bewegten, animierten Prozesses im Ganzen, der, wie Kirsten Maar es darlegt, sich auch als »verformbares Kontinuum« begreifen lässt.436 Die Delegation des eigentlichen schöpferischen Moments verschiebt den Blick entsprechend von den dazwischenliegenden Konkretionen auf die Ergebnisse ihrer Berechnung an den Anfangsund Endpunkten.437 Angenommen, eine Animation bestünde beispielsweise aus 100 Einzelbildern, bestimmen dabei jedoch nur zwei, Anfangs- und Endpunkt, ihren eigentlichen Sequenzablauf. Dazwischen werden die Daten lediglich interpoliert bzw. dessen Differentiale berechnet. Eine Animation macht dabei exemplarisch anschaulich, wie sich Prozesse im technisch-computationalen Medium verdichten: aus 100 Bildern werden zwei. Alle 100 Bilder einzeln bearbeiten zu wollen, würde nicht nur viel Akribie, sondern gleichsam einen hohen Zeitaufwand erfordern.438 Durch Simulationen und Animationen kann beides in eine kontrollierbare, medial abgeschlossene Sphäre übersetzt werden, die gleichsam – so abrupt dieser Verweis auch zunächst anmuten mag – weniger der eigenen biologischen Lebenszeit in Anspruch nimmt. Die eigene Lebenszeit sei damit nicht ausschließlich hinsichtlich ihrer effizienten Verwertung zu betrachten, jedoch versteht sie sich als einzige Konstante, die es umso bewusster zu dosieren gilt, je komplexer die Lebenswelten resp. je größer die Datenmengen werden, in denen sich bewegt bzw. mit welchen umgegangen wird.439 Während die eigene Lebenszeit entsprechend biologisch beschränkt ist, haben sich die Datenmengen seit Anbeginn des digitalen Zeitalters der Computation stetig potenziert,440 weshalb es mediale (computationale) Mechanismen erforderlich machte, um »die Datenflut (Big Data) auf eine Menge [zu] reduzieren und in jene Formate [zu] übersetzen, die Menschen verstehen können (Small Data)«, wie Felix Stalder es formuliert.441 Es bedurfte und bedarf stetig mehr, so Stalder weiter, einer »Validierung des im Übermaß Vorhandenen durch die

436 Maar (2012: 88). 437 Diese verstehen sich im gestalterischen Zusammenhang als ›keyframes‹ (dt. = ›Schlüsselbilder‹), zwischen welchen die Differentiale berechnet und in eine lineare Sequenz übersetzt werden. Vgl. Lynn (1999: 23ff) als auch weiter oben Kapitel 4.10 ›Zeit und Animation‹. 438 So etwa in klassischen Zeichentrickfilmen, die bis in die 1990er-Jahre vorwiegend als analoge Zeichnungen angefertigt wurden: Der Animations-Zeichner gleicht dabei das aktuelle Bild mit einem vorangehenden zumeist durch einen Leuchttisch ab und zeichnet es daraufhin komplett neu. Im übertragenen Sinne ›berechnet‹ er die Differentiale noch selbst und übersetzt die Ergebnisse entsprechend für das nächste Bild in eine neue Handlungsanweisung (Algorithmus). Vgl. zur Einführung in die historische Entwicklung und Herstellung von Zeichentrickfilmen auch Maltin (1987). 439 Felix Stalder bestimmt die »eigene Lebenszeit« entsprechend als jene »Ressource, die sich nicht vervielfältigen lässt, die außerhalb der Welt der Informationen steht und die für jeden Einzelnen unabänderlich beschränkt ist« Stalder (2016/2017: 118). 440 Alpaydin spricht von einer Konvertierung des Lebens zu Daten, die auf der massenhaften Zugänglichkeit zu Computern gründet, wie sie mit dem Aufkommen des Personal Computers (PC) einsetzte: »The personal computer was the first step in making computers accessible to the masses; it […] allowed more of our lives to be recorded digitally. As such, it was a significant steppingstone in this process of converting our lives to data, data that we can then analyze and learn from.« Alpaydin (2016: 5). Mayer-Schönberger und Cukier sprechen in dieser Hinsicht auch von Prozessen der »Datafication« Mayer-Schönberger; Cukier (2013: 73ff). 441 Stalder (2016/2017: 96).

267

268

Prozess als Gestalt

Verbindung mit dem ultimativ Knappen, der eigenen Lebenszeit, dem eigenen Körper.«442 Daten müssen validiert, vorsortiert und anschaulich gemacht werden, so, dass sie für den Menschen (wieder) handhabbar werden; im parametrischen Verständnis hieße dies, die technischen Prozesse in ihren hohen und für den Menschen nicht mehr fassbaren Auflösungsgraden wieder in menschlich handhabbare Auflösungsgrade zurückzuführen. Ein solches Paradigma, die Notwendigkeit der Aufbereitung und Vorsortierung von Datenmengen, damit diese der menschlichen Wahrnehmung (wieder) zugänglich werden, benennt Stalder entsprechend als die Algorithmizität digitaler Kulturen.443 Dabei handelt es sich um algorithmische Prozesse, die der »vernetzten Kulturproduktion […] vorgeschaltet sind […], [und] welche die unermesslich großen Datenmengen vorsortieren und in ein Format bringen, in dem sie überhaupt durch Einzelne erfasst, in Gemeinschaften beurteilt und mit Bedeutung versehen werden können.«444 Es zeigt sich daran anschaulich, dass die menschliche Sphäre der Wahrnehmung und die technische Sphäre der Computation jeweils innerhalb grundverschiedener Ordnungsstrukturen operieren, wodurch ein Gefälle entsteht, das ausgeglichen werden will. Seit Anbeginn der differenzierten Erforschung künstlich intelligenter Systeme verstanden sich die Anstrengungen dementsprechend darauf, Möglichkeiten zu erproben, wie die menschlichen Sinnordnungen in technische Formalismen übersetzt werden könnten.445 Nun dreht sich dieses Verhältnis jedoch allmählich um: Der Mensch versteht die computationalen Ordnungen nicht mehr, wenn Algorithmen von Algorithmen programmiert werden und sich selbstlernende Systeme im Lebensalltag etablieren (›deep learning‹),446 dessen Strukturen und Prozesse in den Kategorien der menschlichen Wahrnehmung nicht mehr nachvollziehbar sind.447 Das heißt nicht, dass ein Computer etwa versteht, 442 Ebd.: 118. 443 Vgl. Ebd.: 13ff, 95ff, 164ff. 444 Ebd.: 166. Ähnlich beschreibt es Lenzen: »In vielen Bereichen könnten wir uns ohne solche Algorithmen gar nicht orientieren, die zur Verfügung stehenden Datenmengen sind so groß, dass sie für uns nutzlos wären, würden sie nicht vorsortiert.« Lenzen (2018: 163). 445 Dabei etablierten sich vor allem drei Forschungsschwerpunkte: Ein anwendungsorientierter Ansatz, der Lösungen hervorbringt, die nicht zwangsläufig den menschlichen oder anderen biologischen/evolutionären Maßstäben entsprechen müssen (bspw. das Flugzeug), ein Kognitions-basierter Ansatz, der versucht, das menschliche Gehirn in seiner Funktionsweise nachzubilden und es besser zu verstehen (auch ›brain emulation‹) und ein dritter Ansatz, der versucht, KI nicht allein für spezialisierte Expertengebiete zu verwenden, sondern eine künstliche allgemeine Intelligenz zu entwickeln (›Artificial General Intelligence‹, AGI oder auch ›human-level machine intelligence‹, HLMI), die auf jedem (Fach-)Gebiet zu gebrauchen wäre. Vgl. Bostrom (2014: 27ff) als auch Lenzen (2018: 31-34). 446 »Kurz: man setzt Algorithmen ein, um neue Algorithmen zu schreiben beziehungsweise deren Variablen zu bestimmen.« Stalder (2016/2017: 178). Auch Lenzen: »Warum ist die Aktivität der Algorithmen schwer nachzuvollziehen? Das eine Problem ist die pure Größe der Programme. […] Tatsächlich ist der Mensch bei einer Rechenleistung der Computer von Billiarden Rechenoperationen in der Sekunde hoffnungslos abgehängt. Und was nicht in angemessener Zeit verstanden werden kann, kann gar nicht verstanden werden, konstatierte der Mathematiker und Informatik-Pionier Norbert Wiener schon Anfang der 1960er Jahre.« Lenzen (2018: 76). Vgl. ebenso Alpaydin (2016: 104ff) sowie Kapitel 5.2.2 ›Gesetze des technischen Erkennens‹. 447 Faktisch bleiben sie formal zumindest immer – egal wie komplex sie sein mögen – rückführbar, wie Gabriel es für die digitale Wirklichkeit anführt, dessen »Struktur […] aufgrund ihrer technischem

7. Kreativität und Parametrie

was er tut, wie John Searle es etwa prominent machte,448 jedoch sind die Prozesse seiner Hervorbringungen nicht zuletzt deshalb für den Menschen schier unfassbar, weil sie auf fehlerfreier, formaler Logik und nicht auf menschlicher, d.h. teils auch widersprüchlicher Bedeutung und der Antizipation derselben beruhen.449 Entsprechend vermag es auch nicht das Ziel der Entwicklung darzustellen, das menschliche Gehirn in all seinen Zusammenhängen formal-logisch zu rekonstruieren, sondern die technischen Prozesse für die menschlichen Lebensbedingungen anschlussfähig zu machen.450 Die besondere Leistung, die dementsprechend im technischen (KI-)System vollbracht werden muss, besteht nun darin, möglichst nah an die Vorstellungen und Bedeutungen der menschlichen Lebenswelt ›heranzurechnen‹. Dieser Ausdruck vermag dabei zweierlei Feststellungen anschaulich zu machen: Erstens beschreibt er die Berechenbarkeit der Lebenswelt als Abstraktion, die grundlegend nicht die eigentliche menschliche Welt und Wirklichkeit ist,451 und zweitens führt er vor Augen, dass diese auch nie erreicht werden kann. Es lassen sich lediglich die mathematischen Integrale berechnen, die durch höhere Auflösungsgrade ein immer höheres Maß der Exaktheit erreichen, wodurch sich menschliche Anschlusshandlungen stetig besser auf diese abstimmen lassen: Der Satz »Ich möchte Pizza« ließe sich entsprechend dermaßen exakt mit sensorischen Systemen und künstlich neuronalen Netzwerken ausdifferenzieren – etwa durch die Messung des lebenslangen Essverhaltens, der aktuellen Körpertemperatur, der Stimmlage, der kontextuellen Situation, des Wetters, und

Verfassung vollständig überwachbar [ist]« Gabriel (2020: 132). »Die digitale Wirklichkeit«, so Gabriel weiter, »unterscheidet sich von der guten alten analogen Wirklichkeit insofern, als dass sie durch und durch mathematisch ist« Ebd. 448 Das mitunter bekannteste Beispiel dafür stellt Searls Gedankenexperiment des Chinesischen Zimmers dar. In diesem befindet sich eine Person, die kein chinesisch spricht, allein in einem abgeschlossenen Raum und beantwortet, mithilfe eines in seiner Muttersprache im Raum vorhandenen Regelwerks für chinesische Sprache, diverse auf Chinesisch gestellte Fragen. Für Personen, die sich außerhalb des Raumes befinden, entsteht dadurch der Eindruck, dass die Person im Raum chinesisch spreche, obwohl sie nur ›blind‹ ein formales Regelsystem befolgt und die Ergebnisse kommuniziert. Vgl. Searle (1980). Eine KI könne dementsprechend nicht als intelligent gelten, weil sie nicht verstehe, was sie tue. 449 Die Operationen eines Computers lassen sich demnach als Anwendung »reiner Logik« begreifen, wodurch das digitale Zeitalter nach Gabriel auch das »Zeitalter der Herrschaft der Logik über das menschliche Denken« markiert. Gabriel (2020: 145). Die menschliche Unfassbarkeit formuliert etwa Lenzen: »Die Fähigkeit des Menschen, mit Komplexität umzugehen, ist begrenzt.« Lenzen (2018: 237). Ebenso Norman: »The human mind is limited in capability. […] But among our abilities is that of devising artificial devices – artifacts – that expand our capabilities.« Norman (2003: 3). Entsprechend bedarf es technischer Systeme, die diese Komplexität handhabbar machen: »KI ist ein mächtiges Werkzeug, um Komplexität zu reduzieren und handhabbar zu machen.« Lenzen (2018: 238). 450 Entsprechend plädiert der Software- und Informatikwissenschaftler Alan Shapiro für eine ›Software der Zukunft‹, welche sich weniger daran versucht, eine künstliche Intelligenz nachzubilden, als vielmehr eine künstliche Lebendigkeit in den technologischen Artefakten anzulegen, die eine Ko-Existenz des Menschen und der technischen Objekte nebeneinander möglich macht. Vgl. Shapiro (2014). 451 Wie Gabriel es formuliert: »Die digitale Wirklichkeit unterscheidet sich dadurch prinzipiell von der Natur, dass wir wissen können, wie sie aufgebaut ist. Denn sie operiert innerhalb der Parameter der Mathematik und Logik und kann diesen nichts entgegensetzen.« Gabriel (2020: 177).

269

270

Prozess als Gestalt

unendlich vieler anderer Parameter –, dass ein technisches KI-System womöglich eine hohe Wahrscheinlichkeit für das Ergebnis ›Salami-Pizza‹ berechnen könnte.452 Und dennoch weiß eine KI nicht, was eine Salami-Pizza ist und was sie für jeden einzelnen Menschen bedeutet, weil dessen »qualitatives Erleben […] so feinkörnig und individuell ist‹ dass es in jedem Moment mit unendlich vielen Bedingungen vernetzt ist, die wir niemals vollständig durchschauen werden«, wie Gabriel es formuliert.453 Diese Undurchsichtigkeit der eigenen Ordnung vermag dabei jene unüberwindbare Hürde auszumachen, die Maschinen resp. künstliche Intelligenzen davon abhält, menschlich zu werden,454 da eine Maschine, aufgrund ihrer formal-logischen Ordnung und im Gegensatz zum Menschen, sich nie in sich selbst verlieren könne, wie Lenzen es in Anlehnung an Searle im Diskurs um computationale Kreativität anführt.455 Es bleibt mit Hinsicht auf technische Systeme entsprechend bei formalen, näherungsweisen Beschreibungen, bei Heranrechnungen, die in ihrer formal-logischen Wesensform ihre selbst gesetzten Grenzen haben, und auch nur innerhalb diesen zu Ergebnissen kommen können.456 Ein Algorithmus versteht entsprechend nicht die qualitative Bedeutung weltlicher Phänomene für den Menschen, in der Art, wie sie Menschen verstehen und zuord-

452 Dies bildet dabei die wesentliche Eigenart sowohl des menschlichen als auch technischen Lernens, wie Lenzen es knapp formuliert: »Maschinelles Lernen besteht, ebenso wie menschliches Lernen, im Kern darin, aus Erfahrungen der Vergangenheit etwas zu erschließen, mit dem man sich in der Gegenwart orientieren kann.« Lenzen (2018: 50). 453 Gabriel (2020: 117-118). An anderer Stelle begründet Gabriel die Unmöglichkeit der Abbildung und Berechnung lebensweltlicher Verhältnisse mit der Unendlichkeit des Universums: Es bräuchte einen »unendlich großen Bildschirm sowie unendlich viel Speicherplatz, um wirklich alles, was im Universum geschieht, simulieren zu können« Ebd.: 155. 454 Norman führt diese Unmöglichkeit maschineller Systeme darauf zurück, menschliche Kontexte, Geschichtlichkeit, persönliche und individuelle Ziele und Motive nicht vollständig formal übersetzen zu können und so nie in einen echten Dialog mit dem Menschen treten zu können: »Instead, we have two monologues. We issue commands to the machine, and it, in turn, commands us. Two monologues do not make a dialogue.« Norman (2007: 4). 455 »Das kreative Reservoir des Menschen liegt auch darin, dass er sich selbst nie völlig durchsichtig ist. Das Argument sollte deshalb lauten: Künstliche Systeme können nicht kreativ sein, weil ihnen die unauslotbare Tiefe der menschlichen Erfahrung fehlt.« Lenzen (2018: 123). Gabriel führt diesen Umstand dagegen auf die Unfehlbarkeit der Logik des Computers zurück: »Künstliche Intelligenz ist eine vom menschlichen Denken abgekoppelte reine Logik. […] Eine K.I. kann deswegen keine Fehler machen. Sie kann zwar kaputtgehen, von Viren befallen werden […]. Aber wenn mein Computer abstürzt, begeht er keinen Fehler. Die Operationen meines Computers sind reine Logik. Es gibt keine Computerpsychologie.« Gabriel (2020: 145). 456 Entsprechend sprechen Sprenger und Engmann im Verweis auf das Internet der Dinge auch von einem Raum (›Environment‹) mit eigener Ontologie: »Das Environment des Internets der Dinge ist entsprechend ein berechneter und berechnender Raum, in dem jedes Objekt eine eindeutige Adresse hat, mit der es lokalisiert und positioniert werden kann.« Engemann; Sprenger (2015a: 55). Dieser Raum ist dabei nicht auf eine zentrale Lokation beschränkt, sondern dehnt sich vielmehr durch die dezentrale Verteilung der Daten erhebenden Geräte stetig weiter aus, sodass »dessen Innen kein Außen mehr kennt« Ebd. Stalder spricht indessen von einer »Infosphäre«, die als eine »selbstreferentielle, geschlossene Welt« aufgefasst wird, und in welcher »Dokumente […] nur noch in Bezug auf ihre Position innerhalb dieser Welt bewertet [werden], und zwar anhand quantitativer Kriterien wie ›zentral‹/'peripher‹.« Stalder (2016/2017: 186).

7. Kreativität und Parametrie

nen – das muss er auch gar nicht –,457 jedoch erkennt er »zuverlässig eine Klasse von Formen«, wie Stalder es formuliert, die Menschen als bestimmte Dinge (etwa Pizza) bezeichnen.458 Die technische Messbarkeit reicht dabei, im Zuge der »Datafizierung« (›datafication‹), wie Mayer-Schönberger und Cukier das Phänomen auf den Begriff gebracht haben,459 durch quantitative Messungen immer näher an die qualitativen Bedeutungen der menschlichen Lebenswelt heran, ohne sie jedoch je erreichen bzw. überholen zu können. Vielmehr werden die Dinge besser, d.h. präziser und dynamischer, formal beschreibbar, weil die technologischen Auflösungsgrade der Messbarkeit stetig ansteigen, d.h. sich in Tiefe und Breite ausdehnen.460 Würde ein Mensch etwa vor die Frage gestellt werden, was denn unter dem Adjektiv ›mediterran‹ zu verstehen sei, so würde sich womöglich eine gewisse Unschärfe in den Beschreibungen offenbaren, die sich, in Hinsicht auf Wittgensteins Konzept der Familienähnlichkeit, weniger auf formal-abstrakte Charakteristika, als vielmehr auf die vage Umschreibung emotionaler Bedeutungen versteht: »Eine Szenerie am Meer, Strand, Landschaft, Olivenbäume, Freiheit, Ursprünglichkeit, Gelassenheit, Entspannung etc.« Der befragte Mensch bedient sich dabei in einem mehr oder weniger großen Akt der Anstrengung seines deklarativen Gedächtnisses, das durch sein semantisches Gedächtnis (Sprachund Symbolgebrauch) verbalisiert wird.461 Während die Grenzen der menschlichen Gehirnfunktionen dabei früher oder später deutlich werden (ebendann, wenn keine differenzierten Beschreibungen mehr einfallen wollen),462 können sie in künstlich intelligenten resp. ›deep learning‹-Systemen ad infinitum getrieben werden; durch Taxonomien, die Wissen hierarchisch anordnen und ebenso semantisch verknüpfen: Unter ›mediterran‹ lassen sich dann nicht nur Zusammenhänge in einer bestimmten 457 Wie der KI-Pionier John McCarthy es bereits 1983 anschaulich formulierte: »While we will probably be able, in the future, to make machines with mental qualities more like our own, we’ll probably never want to deal with machines that are too much like us. Who wants to deal with a computer that loses its temper, or an automatic teller that falls in love?« McCarthy (1983: 9). In gleicher Hinsicht führt Kersting an, dass es in der technischen Entwicklung künstlich intelligenter Systeme nicht vorwiegend darum gehe, mittels technischer Systeme menschliches Verhalten nachzubilden, sondern vielmehr um die Frage, wie dieselben sich intelligent verhalten können. Vgl. Kersting (2019). Eine Maschine, die den Menschen allenfalls gut kopiert, erscheint gerade deshalb wenig zielführend, weil sie den menschlichen Möglichkeitsraum nicht erweitert, sondern allenfalls mit ihm gleichzieht, wie Kersting es am Beispiel des selbstfahrenden Autos veranschaulicht: »Es wäre gerade beim autonomen Fahren ein bisschen schade, wenn es die KI nur schaffen würde, wie der Mensch zu fahren. Dann hätten wir die gleiche Häufung von Verkehrstoten wie vorher auch.« Ebd. 458 Stalder macht dies am Beispiel der Gesichtserkennung anschaulich: »Der Algorithmus ›weiß‹ natürlich nicht, was ein Gesicht ist, aber er erkennt zuverlässig eine Klasse von Formen, die Menschen als Gesicht bezeichnen.« Stalder (2016/2017: 180). Allgemeiner formuliert es Breidbach: »Eine solche Maschine muß nichts begreifen, sie muß allerdings den Ordnungszusammenlang der aufgenommenen Daten erfassen können.« Breidbach (2008: 87). 459 Vgl. Mayer-Schönberger; Cukier (2013: 73ff). 460 Lenzen spricht in diesem Zusammenhang auch von einem »Netz aus Begriffen, das sie [künstliche Intelligenzen] über die Welt legen. Und dieses Netz kann sehr dicht sein.« Lenzen (2018: 137). 461 Vgl. dazu Pethes; Ruchatz (2001: 115, 533ff). 462 Wie Norman es für das menschliche Gedächtnis beschreibt: »The human mind, for all its powers, is limited in its ability to think deeply about a topic, primarily because of the restricted capacity of working memory.« Norman (2003: 246).

271

272

Prozess als Gestalt

Richtung ausfindig machen (etwa lokal: dem Mittelmeer angehörig > Europa > Region > Portugal, Spanien, Andorra, Frankreich, Monaco, Italien etc.), sondern gleichsam numerische Wichtungen herstellen, die eine semantische Zuordnung zu verschiedenen menschlichen Kategorien zulassen (›mediterran‹ steht Kochen, Malerei und Architektur näher als etwa Sport, Biologie, oder Elektrizität).463 Weiter würde ein dafür trainiertes künstliches neuronales Netzwerk (KNN) relevante Verweisungszusammenhänge in der Tiefe erkennen, wenn ›mediterran‹ etwa für die architektonische Gestaltung einer Dachterrasse bedeutete, auf einem niedrigeren Auflösungsgrad weitläufige, helle Flächen anzulegen und warm-tonale Erdfarben zu verwenden, auf einem mittleren, die Innenräume mit offenen Durchgängen, Rundbögen und sichtbaren Dachbalken zu versehen und auf einem höheren, mit Steinmosaiken, Massivholzmöbeln und warmweißen Vorhängen zu arbeiten. Die Übergänge zwischen den Auflösungsgraden verstehen sich dabei als fließend und bedürfen ebenso wenig einer begrifflichen (menschlichen) Einteilung: Die Kategorien, in denen KI-Systeme die menschliche Lebenswelt »datafizieren« (›to datafy‹),464 sind von einer Ordnung geprägt, dessen formaltechnische Logik in ihrer Komplexität über die Sphäre der unmittelbaren menschlichen Nachvollziehbarkeit hinausgeht.465 Entscheidend ist dabei allein, was ihnen am Ende (durch den Menschen) zugeordnet wird: Ist das Ergebnis im menschlichen Verständnis ›mediterran‹, oder nicht, und kann ein Mensch mit der dargelegten Form etwas anfangen, oder nicht. Falls ja, ist der Nutzen erfüllt, falls nicht, schließt sich eine neue Trainingsphase des KNN an.466 Was für den Menschen entsprechend als Unschärfe zumeist nur vage Umschreibungen zulässt,467 wird im technischen System der KI vollends (formal) konkretisiert, in Auflösungsgraden, die sowohl in ihrer Tiefe als auch in ihrer Breite für den Menschen schier unerreichbar sind.468

463 Vgl. auch die Auseinandersetzung bei Lenzen (2018: 46ff). 464 Mayer-Schönberger; Cukier (2013: 73ff). 465 Dennoch bauen die technischen Systeme auf einer geschlossenen Ordnung auf, die jedoch das Maß an menschlich fassbarer Komplexität derartig weit übersteigt, sodass sie – etwa durch die Programmierung selbstreferenzieller Algorithmen, Programme und Interfaces (mitunter mehrmals) – an eine menschliche Handhabbarkeit zurückgebunden werden muss. 466 Dies wird vor allem in sog. Generative Adversarial Networks (GAN) anschaulich, in welchen ein programmierter Generator stetig neue Inhalte hervorbringt, die von einem Discriminator gemäß der Zielvorgabe als angemessen oder unangemessen bewertet werden (›mediterran‹ oder ›nicht mediterran‹). Das Ziel, das ›mediterran‹-Haftige, wird dabei aus mitunter Tausenden Bildern durch die KI extrahiert, welche die Inhalte nach Gemeinsamkeiten und Mustern durchsucht, um Unterscheidungskriterien daraus abzuleiten. Vgl. dazu etwa Goodfellow; Pouget-Abadie; Mirza; Xu; WardeFarley; Ozair; Courville; Bengio (2014). 467 Ludwig Wittgenstein hat den Begriff der Unschärfe (auch Vagheit) dazu bekannterweise für die Sprachphilosophie ausdifferenziert und auch dessen Notwendigkeit für die menschliche Lebenswelt festgestellt. Vgl. Wittgenstein (1953/2008: PU 71, 88, 124). Als übergreifendes Konzept der Fassbarkeit entwickelt Wittgenstein jenes der Familienähnlichkeit, das weiter oben bereits im Zusammenhang mit dem Spielbegriff knapp ausgeführt wurde. Vgl. Kapitel 7.4 ›Spiel und Integration‹. 468 Es handelt sich entsprechend um Phänomene, die nur aus entfernter (menschlicher) Distanz ›unscharf‹ wirken, in technischer Hinsicht jedoch hochgradig aufgelöst sind.

7. Kreativität und Parametrie

Wenn KI-Systeme die Phänomene demnach einerseits derart präzise beschreiben und andererseits zuverlässig semantische Zuordnungen ableiten können, lässt dies umso dringlicher fragen, wie dieses technische Wissen wieder an den Menschen zurückgebunden werden resp. in einen handhabbaren Auflösungsgrad übersetzt werden kann. Unmittelbar anschaulich werden derartige Prozesse dort, wo in hochaufgelöster Art und Weise mit digitalen Inhalten umgegangen wird, etwa in der 3D-Animations- und Spieleentwicklung. Jene (Spiele-)Welten, die es dort zu modellieren gilt,469 können mitunter noch nur bedingt von Seheindrücken der Real-Wirklichkeit unterschieden werden und erfordern zumeist ein hohes Maß an feinsinniger Detailarbeit, um diese Auflösung zu erreichen. Eine städtische Straße beispielsweise, die etwa Gebäude, Autos, Personen, Himmel und diverse andere Objekte umfasst, bedarf dabei mehrerer Tage bis Wochen, um sie in digitaler Handarbeit zu modellieren, zu texturieren und stets aufs Neue zu reevaluieren. Die anfallende Arbeit schlägt sich entsprechend nicht nur in einem hohen Zeitaufwand, sondern auch in enormen Kosten der Produktion nieder.470 Eine Alternative bilden gegenwärtig mitunter etwa vorgefertigte 3D-Modelle, die auf diversen Plattformen zum Erwerb stehen,471 als auch die Möglichkeit, Modellierprozesse an eine KI auszulagern und die Arbeitsprozesse damit teilweise zu automatisieren. Letztere Möglichkeit versteht sich dabei als sog. prozedurale Modellierung (›procedural modeling‹), die vor allem seit den 2000er-Jahren verstärkt in der Industrie Anwendung findet.472 Dabei basiert die Entwurfsarbeit eines 3D-Modells zunächst auf der Festlegung simpler Regeln und Abhängigkeiten für geometrische Grundkörper, bevor diese auf mehreren Detaillierungsebenen ausdifferenziert werden können. Ein zu modellierendes Haus wird dabei beispielsweise in seiner groben Form zunächst durch geometrische Grundkörper definiert, auf einer nächsten Ebene werden in seiner Binnenstruktur etwa Türen, Fenstern und Treppen festgelegt, daraufhin mitunter Türrahmen, Geländer und strukturelle Muster, bevor auf einer wiederum höheren Ebene die Material-Texturen angelegt werden, auf die das prozedurale System zurückgreifen kann. Alle Ebenen sind dabei auf eine solche Weise miteinander verknüpft, dass eine Veränderung der Grundkörper auf der untersten Ebene eine unmittelbare Anpassung der Inhalte auf allen weiteren Detailebenen bewirkt.473

469 Vgl. dazu auch die interdisziplinäre Diskussion um die ›Modellwelten‹ einer digitalen Moderne von Matthias Zimmermann bei Adamowsky (2018a). In Zimmermanns Arbeiten paaren sich technokulturelle Bezugsfelder mit einer grafischen Plastizität spielerischen Charakters, die einerseits sowohl auf die Virtualität und Modellierbarkeit der Dinge resp. Welten verweist als auch gleichsam eine ironische Kritik an bestehenden technologisch geprägten Weltverhältnissen darstellt. 470 Die Produktionskosten für Computerspiele verstehen sich derweil mitunter auf dreistellige Millionenbeträge. So wurde für die Entwicklung des Spiels GTA V (Rockstar Games) ein Betrag von rund 265 Millionen US-Dollar aufgewendet. Vgl. Villapaz (2013). 471 So etwa auf den Plattformen turbosquid oder grabcad. Vgl. https://www.turbosquid.com/ bzw. http s://grabcad.com/, abgerufen am 28.04.2020. 472 Seit den 1990er-Jahren ist das Software-Unternehmen SideFX dabei ein Vorreiter dieser Entwicklung, insbesondere sowohl durch das hauseigene Programm Houdini als auch durch die Houdini Engine. Vgl. https://www.sidefx.com/industries/games/, abgerufen am 28.04.2020. 473 Vgl. dazu auch Opara (2017), die das Vorgehen anhand eines prozedural modellierten See-Hauses anschaulich macht.

273

274

Prozess als Gestalt

Der Designer agiert dabei vorwiegend in den niedrigeren Auflösungsgraden und beschäftigt sich entsprechend nur noch bedingt mit der zumeist mühsamen und zeitaufwendigen Ausarbeitung der Details in den höheren Auflösungsgraden. Letztere werden durch das technische System zuverlässig ausgearbeitet, sodass die menschliche Entwurfstätigkeit weniger dem ausführenden (digitalen) Handwerk als vielmehr dem konzeptionellen (kreativen) Denken gewidmet werden kann.474 Entsprechend geht der Designer nicht mehr mit singulären Gestaltungsinhalten um, die es für jeden Fall neu zu definieren gilt, sondern mit gestalterischen Ökosystemen, die sich konsistent nach den vom Gestalter gesetzten Bedingungen entwickeln. Die Festlegung eines Pfades, dem etwa ein Fluss durch eine Landschaft folgen soll, lässt entsprechend weitere Bedingungen in Kraft treten, die unmittelbar mit dem Terrain des Flusses und dessen Umgebung verbunden sind: Buchten, Steinansammlungen, Sandflächen oder SchilfGewächse können im Vorhinein so innerhalb der prozeduralen Hauptgruppe ›Fluss‹ angelegt werden, dass sie durch verschiedene Zufallsmodifikatoren und Unschärfeverteilungen für jeden Anwendungsfall in einer ›natürlich‹ anmutenden Abweichung erscheinen und damit jenes Maß an Varianz ausbilden, das die modellierte resp. simulierte Welt nur noch bedingt vom Wesen und der Erscheinung einer möglichen RealWirklichkeit unterscheidbar macht. Die Anpassung als auch die ›natürliche‹ Variation der Parameter kann entsprechend an das technische System ausgelagert werden, weil dieses die Dinge ab einem bestimmten Grad der Komplexität wesentlich konsistenter und effizienter ausarbeitet als ein Gestalter es in diesen Auflösungsgraden jemals zu leisten vermöge. Das Beispiel der prozeduralen Modellierung von Spielwelten zeigt entsprechend anschaulich, wie die technische Prozessierung in hohen Auflösungsgraden an den Gestalter zurückgeführt werden kann; durch parametrische Mechanismen, die in zwei Richtungen prozessieren: in die Tiefe (extensionale Funktion, hohe Auflösungsgrade), und in die Breite (komprimierende Funktion, niedrige Auflösungsgrade). In der gestalterischen (parametrischen) Entwurfsarbeit kommt entsprechend beides zusammen: Während die Anzahl der Parameter mit der Erhöhung der Auflösungsgrade steigt, bleiben sie dennoch stets mit den darunterliegenden Auflösungsgraden verbunden. Der Gestalter versteht sich entsprechend als Gestalter auf multiplen Ebenen, zwischen denen er sich frei bewegen und die Wirksamkeit der jeweiligen Veränderung für die gesamte Entwurfsgestalt unmittelbar evaluieren kann. Die Kontrolle über die (Teil-)Prozesse wird dabei nicht etwa an das technische System abgegeben, sondern vielmehr auf die gestalteten Bedingungen verlagert, unter denen es sich entwickelt. Demgemäß sichert Parametrie die Entwurfsgestalt als konsistentes Gesamtsystem resp. als gestalterisches Ökosystem ab und schafft dadurch erst jenen Spielraum, der ein freies, spannungsvolles Spiel mit den Variablen zulässt. In den Grundzügen ist diese parametrische Mechanik dabei annähernd in jedem digitalen Programm zu finden, durch welche ein Gestalter

474 Wie der Spieleentwickler Étienne Carrier es für die Entwicklung des Computerspiels Far Cry 5 erläutert: »Procedural solutions that we implemented on Far Cry 5 really helped reduce the workload of the level artists and give them more time to focus on what really mattered.« Carrier (2018).

7. Kreativität und Parametrie

seine Entwürfe artikuliert.475 Es stellt sich entsprechend nicht mehr die Frage danach, wie die technischen Prozesse in minutiöser Art und Weise im Einzelnen zu bearbeiten sind, sondern vielmehr, wie jene Anschlusspunkte gestaltet sein können, um sie bestmöglich an den Menschen zurückzubinden.476 Donald A. Norman sprach in dieser Hinsicht bereits früh davon, dass Technologie sich durch eine gewisse Flexibilität und Anpassungsfähigkeit auszeichnen müsse, die dem Menschen die Kontrolle über die Dinge nicht entzieht, sondern die technischen Vorteile unaufdringlich (›undemanding‹) nutzbar macht.477 Norman unterschied entsprechend zwischen einer ›soft technology‹, die diese Anforderungen erfüllt, und einer ›hard technology‹, die den Menschen zwingt, sich ihr anzupassen.478 Während sich Letzteres als technologisches Maschinen-zentriertes Weltbild versteht, plädierte Norman für ein Mensch-zentriertes Weltbild, dessen fassbarsten Ausdruck er jedoch lediglich im Taschenrechner bzw. im Buch verwirklicht sah.479 Angemessene technologische, kognitive Werkzeuge zu erschaffen schätze Norman im Jahr 2003 noch als herausfordernd ein.480 In Anbetracht künstlich intelligenter resp. prozeduraler resp. parametrischer Systeme, die es ermöglichen, Gestaltungsinhalte in verschiedenen Auflösungsgraden zu gestalten und somit Kontrolle bei gleichzeitiger Flexibilität der Anwendung zu gewährleisten, vermag die Erfüllung von Normans Anspruch an eine technologische, Menschzentrierte Welt in nicht mehr allzu weiter Ferne zu liegen. Wenn die technischen Prozesse besser als der Mensch erfassen, visualisieren und evaluieren, wie es um die weltlichen Dinge und Phänomene steht, welche Routen an ein Ziel die schnellsten sind, wie Produkte in Hochregallagern effizienter zu sortieren sind, wo Notausgänge in öffentlichen Gebäuden bei einer Panik am besten zu erreichen sind etc., versteht sich der Mensch an einem Sattelpunkt seiner Entwicklung, welche sich zukünftig nicht mehr vorwiegend auf die technische Messung und Nachbildung der Dinge versteht, im Sinne einer nachahmenden Simulation, sondern auf die Anwendung und Interpretation des technischen Wissens, mittels prozeduraler Computation. So wie der aufrechte Gang des Menschen die Hand evolutionsgeschichtlich befreite und sie somit neuen Verwendungsformen zugänglich machte,481 zeichnet sich eine Befreiung des Menschen auf 475 So etwa durch als sog. ›Smartobjekte‹ in Adobe Photoshop, ›Symbolinstanzen‹ in Adobe Illustrator, ›Musteranordnungen‹ in SolidWorks, ›Deformer‹ in Maxon Cinema 4D usw. 476 Sakamoto und Ferré haben für ihre Zusammenstellung architektonischer Beispiele parametrischen Designs in dieser Hinsicht den treffenden Titel ›From control to design‹ gewählt, der diesen Paradigmenwechsel auf den Punkt bringt. Vgl. Sakamoto; Ferré (2008). 477 Vgl. Norman (2003). Er machte dies etwa am Beispiel des elektronischen Taschenrechners anschaulich: »The nice thing about this technology is that it is unobtrusive, undemanding. We control when and how it is to be used, we control the pace. The calculator is an excellent example of a complementary technology, one that supports our abilities but does not get in the way.« Ebd.: 251. 478 »Hard technology remains unheedful of the real needs and desires of the users. It is a technology that, rather than conforming to our needs, forces us to conform to its needs.« Ebd.: 232. 479 »Tools such as the calculator or book allow people to be in control. When they are needed, they perform their functions efficiently and smoothly, otherwise, they stay quietly in their storage place.« Ebd.: 251. 480 »There is no folk design for cognitive artifacts as there is for so many band tools, no equivalent of tools for the garden or for sports. Cognitive tools are simply harder to get right.« Ebd.: 252. 481 Arnold Gehlen spricht entsprechend von einer entwicklungsgeschichtlichen Entlastung: »Die Bewegungen der Arme und Hände sind zuerst noch mit den Aufgaben der Ortsbewegung belastet und verlieren

275

276

Prozess als Gestalt

kognitiver Ebene ab, wenn planerische, ausführende und zu evaluierende Aufgaben an 482 technische Systeme zuverlässig ausgelagert werden können.

Abb. 14: Eigene Darstellung. Während die technische Entwicklung sich bisher darauf verstand, die menschliche Lebenswelt bestmöglich in stetig höherer Auflösung nachzubilden, setzt mit Erreichen bestimmter Auflösungsgrade der technischen Systeme ein Umschwung ein, der den Menschen nur noch über sorgsam gestaltete Anschlusspunkte mit ihnen interagieren lässt, ohne jedoch die Verbundenheit und Kontrolle dabei je ganz aufzugeben.

Menschlicher Umgang mit Technik

Technische Entwicklung

diese mit der Aufrichtung […].« Gehlen (1997: 65). Erst mit dieser gewonnenen ›Freiheit‹ können »alle Variationen und Kombinationen neu entworfen werden, und die reale Bewegung wird selbst zur geführten, zur einsetzbaren Arbeitsbewegung« Ebd. Gleichsam weist Childe im evolutionsbiologischen Zusammenhang auf diesen Umstand hin: »If the forelegs and forefeet have normally to carry the weight of the body, whether in walking or climbing, the fine and delicate movements of human fingers in grasping and making things would be impossible.« Childe (1951: 27). Hans Dieter Huber zieht diese Entwicklung im Verweis auf den Paläanthropologen Leroi-Gourhan für die Handzeichnung nach: Erst mit der »Befreiung der Hand von der Funktion der Fortbewegung« eröffneten sich in anthropologischer Hinsicht neue Spielräume, in denen sich Sprache, Schrift und Zeichnung weiterentwickeln konnten. Huber (1996: 15). 482 Nigel Cross hat entsprechende Vorstufen dieser Entwicklung bereits früh (1967) für die gestalterische Praxis antizipiert: »We should be moving towards giving the machine a sufficient degree of intelligent behaviour, and a corresponding increase in participation in the design process, to liberate the designer from routine procedures and to enhance his decision-making role.« Cross zitiert nach Cross (2007: 60).

7. Kreativität und Parametrie

Eine solche Entwicklung vermag dabei in Abb. 14 eine abstrakte Anschaulichkeit erhalten: Während die technische Entwicklung lange Zeit der Bestrebung folgte, die qualitativen Phänomene der menschlichen und natürlichen Lebenswelt quantitativ nachzubilden und es dabei stetig besser verstand, die Dynamiken und Eigenarten dieser Lebenswelt in hohen Auflösungsgraden zu erfassen, muss nun aus Sicht des Menschen verstanden werden, dass eine menschlich-qualitative Verwertung technischer Prozesse nur noch über sorgsam gestaltete Anschlusspunkte in niedrigeren Auflösungsgraden möglich ist. Je komplexer und autonomer technische Prozesse werden, desto einfacher müssen die Umgangsformen sein, durch welche sie in die menschliche Lebenswelt eingebunden werden können.483 Das Navigationsgerät macht dies ebenso anschaulich wie das Smartphone oder die Sprachsteuerung multimedialer Assistenzsysteme zu Hause: Nicht mehr der Mensch passt sich der Technik an, sondern umgekehrt. Interaktionen erfolgen nicht mehr numerisch oder textlich (aktiv), sondern visuell und sprachlich (passiv).484 Die technischen Auflösungsgrade haben entsprechend ein Maß erreicht, das es nicht mehr notwendig macht, sich technisch mit Technik auseinanderzusetzen, sondern allein über den menschlichen Nutzen nachzudenken, der aus ihr erwachsen kann. Es gilt, wie Abb. 14 es veranschaulicht, die Technik buchstäblich loszulassen, sich von ihr zu entfernen und sie durch sorgsam gestaltete Anschlusspunkte in menschlichen Auflösungsgraden wieder an die Lebenswelt zurückzubinden. Dies heißt gleichsam jedoch nicht, die Kontrolle über die Entwicklungen etwa abzugeben, sondern genau das Gegenteil: Es wird nun umso notwendiger, die Bedingungen der technischen Systeme zu gestalten, gemäß welcher sie die Welt berechnen und simulieren. Es gilt, sie, die technischen Systeme, zwar loszulassen, sie aber nicht entkommen zu lassen; sie nicht unreflektiert einfach machen zu lassen, was sie gemäß ihrer formal-logischen technischen Rationalität am besten könn(t)en, sondern sie sorgsam in kontrollierte Bahnen der Verwertung zu lenken, sodass sie den ethischen, moralischen, politischen und ökologischen Maßstäben des Menschen in jeder Hinsicht dienlich sind.485 Die technischen Auflösungsgrade haben dabei längst ein Maß der Bere483 Wie Bürdek es bereits früh im Verweis auf Lewin und mit Hinsicht auf digitale Interfaces anschaulich formulierte: »Tiefenkomplexität benötigt Oberflächeneinfachheit.« Bürdek (1999b). 484 Nicolas Negroponte hat dies bereits früh als maßgebende Zielrichtung für die Entwicklung technischer Systeme erkannt: »Die große Herausforderung für das nächste Jahrzehnt besteht nicht in der Entwicklung größerer Bildschirme, besserer Klangqualität oder besonders einfacher grafischer Eingabegerate, sondern im Bau von Computern, die den Menschen erkennen, auf seine Bedürfnisse eingehen und zu verbaler und nonverbaler Kommunikation fähig sind.« Negroponte (1995: 115). Entsprechend stellt die zuverlässige Spracherkennung jenen Meilenstein der Entwicklung einer digitalen Wirklichkeit dar, sofern dadurch die »Schnittstelle zwischen Mensch und Computer so weit verbessert [wird], daß ein Gespräch mit dem eigenen Computer so einfach ist wie eine Unterhaltung mit einem anderen Menschen« Ebd.: 108. Eine ausführliche Auseinandersetzung mit dem Phänomen der Spracherkennung folgt entsprechend bei Ebd.: 171ff. 485 Daran richtet sich entsprechend die mitunter größte Kontroverse in den Diskussionen um künstliche Intelligenz und ihren Stellenwert aus, die hier nur angerissen werden kann: Sie formt sich einerseits, wenn die kognitive Entlastung einerseits eine Gefahr evoziert, sobald im Zuge der digitalen/medialen Globalisierung entleerte, selbstreferenzielle Zeichensysteme zum Maßstab der menschlichen Wirklichkeit werden, wie Baudrillard es etwa in seinem Simulationsbegriff auszudrücken suchte und es gegenwärtig in Social Media Plattformen wie Instagram und Facebook an-

277

278

Prozess als Gestalt

chenbarkeit erreicht, das die kognitiven Leistungskapazitäten des Menschen eingeholt und teilweise überschritten hat.486 Entsprechend kann ein Umgang mit Technik nicht mehr allein im Modus einer absoluten und aktiven, sondern vorwiegend in einem der relativen und passiven – und daher notwendigerweise auch einer sorgsam gestalteten – Kontrolle stattfinden. Dies wird umso notwendiger, je besser, d.h. zuverlässiger, die technischen Systeme die Prozesse und Bedingungen der menschlichen Lebenswelt erfassen und verarbeiten können: Ein Navigationssystem, das vor jedem Abbiegen nach dem ›OK‹ seines Besitzers fragt (zu starke aktive Kontrolle), vermag seinen lebensweltlichen Sinn und Zweck ebenso zu verfehlen wie eine Pizza, die ausschließlich auf Basis einer berechneten Wahrscheinlichkeit unaufgefordert geliefert wird (zu geringe passive Kontrolle). Technische Prozessualität allein reicht dementsprechend nicht aus – es bedarf des richtigen, d.h. eines menschlichen Auflösungsgrades, der die Vorteile der technischen Auflösungskapazitäten in angemessene Umgangsformen übersetzt und sie somit erst handhabbar macht. Während sich die Technik entsprechend bisher an den Menschen ›heranrechnete‹, vermag dieser sich nunmehr sukzessiv aus der technischen Sphäre ›herausziehen‹ zu müssen, um die Vorteile der technischen Systeme in seiner Lebenswelt verwerten zu können. Entsprechend versteht sich der menschliche Umgang mit Technik nicht mehr darauf, die Prozesse im Einzelnen anzuleiten, sondern vielmehr auf die Bestrebung, die Ergebnisse nutzbar zu machen. Dabei gilt es, wie Lenzen es formuliert, ›intelligente‹ Maschinen als Werkzeuge zu begreifen und es zur menschlichen Aufgabe zu machen, »das Heft in der Hand zu behalten«,487 die Kontrolle nicht abzugeben, sondern technische Systeme als konsistente, zuverlässige und schaulich wird (Vgl. dazu auch Gabriel (2020: 242ff)), und andererseits, sobald die Funktionsweisen der technischen Systeme in psychologischer Hinsicht fälschlicherweise als ›neutral‹ erachtet werden. Gemäß Letzterem »sind K.l.-Systeme tatsächlich eine Gefahr für die Menschheit, weil sie uns implizit die Wertesysteme ihrer menschlichen Schöpfer empfehlen, ohne diese Empfehlungen transparent zu machen.« Ebd.: 118. Ebenso Norman: »Because the ›intelligence‹ in our machines is not in the device but in the heads of the designers […].« Norman (2007: 13). Das Computerprogramm ›erbt‹ entsprechend die Psychologie seines Schöpfers, wie McCarthy es mahnend formuliert: »Computers will end up with the psychology that is convenient to their designers – (and they’ll be fascist bastards if those designers don’t think twice). Program designers have a tendency to think of the users as idiots who need to be controlled. They should rather think of their program as a servant, whose master, the user, should be able to control it.« McCarthy (1983: 9). Es gilt entsprechend, künstlich intelligente Systeme je nach Anwendungsgebiet auf ihre ethische, moralische, politische und ökologische Konformität mit den menschlich demokratischen Freiheitsmaßstäben zu überprüfen und angemessene Formen der Gestaltung dafür zu finden, denn, wie Gabriel es darlegt: »Computer lösen unsere moralischen Probleme nicht, sie verschärfen sie vielmehr.« Gabriel (2020: 22). Entsprechend bräuchte es, wie Norman konstatiert, technische Lösungen, die nicht auf ein ideales menschliches Verhalten im Umgang mit Technik abzielen, sondern vielmehr auf das eigentliche: »We must design our technologies for the way people actually behave, not the way we would like them to behave.« Norman (2007: 12). Vgl. dazu ebenso sowohl Lenzen (2018: 244ff) als auch im erweiterten Zusammenhang den Sammelband ›Technologischer Totalitarismus‹ bei Schirrmacher (2015), der durch seine Beiträge Stimmen aus der Politik, der Wirtschaft, dem Kulturbetrieb und den Naturwissenschaften zu besagtem Themenbestand auf sich vereint. 486 »While the human mind may be bounded to the limitations of quantitative complexity, its computational extension, the computer, allows those boundaries to be surpassed.« Terzidis (2006: 29). 487 Lenzen (2018: 146).

7. Kreativität und Parametrie

unterstützende Instanzen zu gestalten, die neue Einsichten in die Phänomene liefern, auf denen der Mensch aufbauen kann, ohne ihn repressiv einzuschränken.488 Gabriel spricht in dieser Hinsicht von künstlicher Intelligenz als »Denkmodell«, das »keine Kopie des menschlichen Denkens« sei, sondern vielmehr eine »logische Landkarte unseres Denkens unter Ausschaltung unseres Zeitdrucks und unserer Bedürfnisse als endliche Lebewesen, […].«489 Sie, die Algorithmen, künstlichen Intelligenzen und computationalen Systeme, nehmen entsprechend ausführende Arbeit ab und liefern berechnete Ergebnisse, die nur dann für den Menschen Sinn machen, wenn sie von ihm richtig gehandhabt resp. interpretiert werden.490 Eine Simulation wird demnach immer bloß eine höher oder niedriger aufgelöste Nachahmung, eine Abstraktion, eine Kopie sein, die, wie Gessmann und Monyer es in diesem Zusammenhang anschaulich gemacht haben, als solche jedoch noch

488 Wie Norman es knapp formuliert: »We need to reverse the machine-centered point of view and turn it into a person-centered point of view: Technology should serve us.« Norman (2003: XI). Weiser und Brown sprechen in dieser Hinsicht von einer Form der Gelassenheit (›calmness‹): »Wenn Computer allgegenwärtig sind, dann ist es ratsam, sie so unbemerkt wie möglich zum Einsatz kommen zu lassen, und das erfordert, sie so zu designen, dass die Personen, die von Computern geteilt werden, gelassen bleiben und die Kontrolle behalten. Hintergründigkeit oder Calmness ist eine neue Herausforderung des Ubiquitous Computings.« Weiser; Brown (2015: 63). Damit ist ein Zeitgewinn verbunden, der dazu dienlich ist – ganz im Sinne Normans –, menschlicher zu sein (»to be more fully human«). Ebd. Auch Lenzen bestärkt die Frage danach, »wie wir die klugen Maschinen nutzen können, um die Gesellschaft menschlicher zu machen, nicht nur effizienter« Lenzen (2018: 19). 489 Gabriel (2020: 146). In ähnlicher Hinsicht formuliert es Terzidis für die Gestaltungspraxis: »Rather than using algorithms to copy, simulate, or replace manual methods of design […], instead they can be studied as methodologies that operate in ways similar, parallel, or complementary to that of the human mind.« Terzidis (2006: 20). 490 Dazu müssen die technischen Grundlagen entsprechend so aufbereitet werden, dass sie (wieder) wahrnehmbar und damit handhabbar werden. Norman begegnet diesem Umstand mit dem von ihm entwickelten Prinzip der affordance, eine Form der Kommunikation im Modus der Selbsterklärung und Selbstverständlichkeit, welche in der Gestaltung der Dinge Berücksichtigung finden muss, damit sie auf unaufdringliche Art und Weise unmittelbare Orientierung befördern: »When devices are automatic, autonomous, and intelligent, we need perceivable affordances to show us how we might interact with them and, equally importantly, how they might interact with the world.« Norman (2007: 68). Eine visuelle und wahrnehmbare affordance leitet dabei menschliches Verhalten an, ohne ins menschliche Bewusstsein einzudringen: »it just feels natural.« Ebd.: 69. Ähnlich hat diesen Anspruch bereits Lucius Burckhardt formuliert, als er ein unsichtbares Design proklamierte, das anleitet und aufklärt, ohne sich dabei aufzudrängen. Vgl. Burckhardt (1980/2012). Norman fasst diesen Anspruch etwa in den von ihm aufgestellten Design-Regeln zusammen (»design rules«), die mitunter ein kontinuierliches Bewusstsein ohne Beeinträchtigung gewährleisten sollen (»Provide continual awareness without annoyance«). Norman (2007: 189). Die Notwendigkeit für einen Umgang auf Augenhöhe resp. eine Partnerschaft stellt auch Hannah Fry für ihren Buchtitel ›Hello World‹ heraus: »As computer algorithms increasingly control and decide our future, ›Hello world‹ is a reminder of a an instant where the boundary between controller and controlled is virtually imperceptible. It marks the start of a partnership – a shared journey of possibilities, where one cannot exist without the other.« Fry (2018: XIII).

279

280

Prozess als Gestalt

gar nichts erklärt.491 Erst das »interpretative Bezugsfeld«, wie Stalder es etwa nennt,492 vermag das Wichtige vom Unwichtigen resp. das Relevante vom Irrelevanten unterscheidbar zu machen.493 »Es geht«, wie Monyer und Gessmann es weiter ausführen, »nicht mehr nur darum, Wissen zusammenzutragen, sondern vielmehr darum, bereits vorliegendes Wissen zu interpretieren.«494 Nicht mehr die Funktion der Wissenshervorbringung steht im Fokus, sondern dessen Interpretation mit Hinsicht auf eine zweckdienliche Verwertung,495 d.h. die Bildung von Anschlusspunkten menschlicher Sinnhaftigkeit, die nicht zuletzt insofern einem kreativen Anspruch gerecht werden, als dass dieser, wie weiter oben dargelegt, sich darauf versteht, »aus dem Irrelevanten Bedeutung zu ziehen und Sinnzusammenhänge in Widersprüchen zu erkennen.«496 Norbert Bolz hat dies dabei für das Design umformuliert, wenn er anführte, dass die eigentliche Aufgabe des Designs letztlich in der Herstellung von Sinn zu begründen sei, im ›sensemaking‹:497 »Zwischen der hochkomplexen Welt und der knappen Aufmerksamkeit vermittelt die Konstruktion von Sinn.«498 Entsprechend stellt sich Design als jene Wirkkraft dar, die zwischen technisch-artifiziellen Möglichkeiten und menschlich-physiologischen Anforderungen vermittelt, indem sie sinnhafte Beziehungen in den Dingen darstellt und eben dadurch kollektive resp. gesellschaftliche Orientierung schafft.499 Diesem Anspruch gilt es entsprechend umso mehr gestalterisch gerecht zu werden, je differenzierter, unübersichtlicher und eigenständiger die technischen Prozesse werden, die für die menschliche Lebenswelt 491 »Eine Kopie erklärt eben gar nichts, denn sie stellt denselben Gegenstand einfach nur noch einmal hin. […], Selbst wenn es gelingen sollte, in einer Frist von knapp zehn Jahren eine komplette Computersimulation des menschlichen Gehirns zu erstellen, wären wir damit immer noch ganz am Anfang der eigentlichen Forschung.« Monyer; Gessmann (2017: 233). 492 Stalder (2016/2017: 115). 493 Ebenso plädiert Lenzen für eine menschliche Gewichtung der Verhältnisse: »KI nimmt die Theorien der Gegenwart und die Daten der Vergangenheit, extrahiert Muster und generiert daraus zukünftige Szenarien, die mit einer gewissen Wahrscheinlichkeit eintreten können. Doch wir müssen prüfen, ob die gefundenen Muster relevant sind, wir müssen entscheiden, worauf es uns ankommt und wohin sich die Gesellschaft entwickeln soll. Und das werden wir nie im Voraus mit ausreichender Präzision in Regeln festlegen können.« Lenzen (2018: 241-242). 494 Monyer; Gessmann (2017: 239-240). Wie auch Bürdek es für die Rolle des Gestalters mit Hinsicht auf die technologische Entwicklung festhält: »Im Übergang vom 20. zum 21. Jahrhundert sind die Designer jedoch kaum mehr die Erfinder von Welt (und Produkten), sondern zu deren Interpretanten geworden. Technik verlangt heute ein derart spezialisiertes und differenziertes Wissen, dass sich Designer nicht mehr anmaßen können, die besseren Erfinder sein zu wollen oder gar zu können. Vielmehr besteht ihre Rolle – insbesondere wenn sie in Bereichen von High Tech arbeiten – darin, deren Wirkungswissen für die Benutzer anschaulich und nachvollziehbar zu machen.« Bürdek (2012: 98). 495 Im übertragenen Sinne machen Monyer und Gessmann dies am Beispiel des Navigationssystems anschaulich: »In Sachen Navigation ist es nicht mehr so wichtig, dass wir uns daran erinnern, wie wir von A nach B kommen, wichtig ist vielmehr, was wir tun werden, wenn wir am Ort B angekommen sind.« Monyer; Gessmann (2017: 239). 496 Weisberg (1989: 16). 497 Vgl. Bolz (2000). 498 Ebd.: 11. 499 Wie Bolz es im Gegensatz zum Technikbegriff anführt: »Design dagegen stellt, wie gesagt, Sinn dar. Design verschafft und ist selbst Orientierung. Deshalb hat das Design niemals ein Sinnproblem, sondern ist seine Lösung.« Ebd.: 12. Ebenso Bürdek: »Design erzeugt Bedeutung (Sinn) und schafft damit Werte, für die Produzent wie für die Konsumenten.« Bürdek (1999a: 66).

7. Kreativität und Parametrie

Bedeutung erlangen. Dabei verlagern sich stetig die Schwerpunkte, hinsichtlich welcher diese Entwicklung gestalterisch zu fassen ist, wie Vilém Flusser es bereits früh mit Hinsicht auf das kreative Potenzial einer solchen Entwicklung formulierte, als er davon sprach, dass man zukünftig »nicht mehr Daten zu lernen [habe], sondern das zweckmäßige Speichern, Abberufen und Variieren von Daten. Nicht mehr das Repertoire, sondern die Struktur von Systemen.«500 Die exekutive Arbeit resp. die Notwendigkeit des Datenerwerbs obliegt nicht mehr ausschließlich dem Menschen, sondern vorwiegend den technischen Systemen – und ebendies kennzeichnet jenen gegenwärtigen und zukünftigen Umgang mit Technik, der den menschlichen Fokus nicht mehr auf die Erzeugung der Daten im Einzelnen, sondern auf die Anschlussverwendung der Ergebnisse im Ganzen richten lässt.501 Im Verweis auf Parametrie erscheint dies nicht als aussichtsloses Unterfangen, sofern, wie gezeigt wurde, Entwurfsprozesse sich vor allem auf die Gestaltung von Auflösungsgraden verstehen, durch welche die Prozesse sowohl technisch als auch menschlich handhabbar werden. Ein Weg, wie dieser Anspruch in die gestalterische Praxis einzubinden wäre, konnte dabei anhand der prozeduralen Modellierung von Spielwelten resp. Ökosystemen aufgezeigt werden. Der parametrische Gestalter befindet sich dabei in der souveränen Positionen, sich in Bezug auf die Entwurfsartikulation der Technik gleichzeitig verbunden und dennoch gestalterisch frei zu fühlen – ganz im Sinne eines spielerischen Umgangs, wie er weiter oben erörtert wurde –;502 wenn er sich nicht mit technisch-formalen Notwendigkeiten aufhalten muss, sondern sich vorwiegend der ganzheitlichen, konzeptionellen Gestaltung jener Verhältnisse und Bedingungen widmen kann, die dem Entwurf seine Ausrichtung geben.

7.6

Kontinuität und Disruption

Die Auseinandersetzung mit technischen Systemen und menschlichen Umgangsformen erfolgte bislang nah am technischen Medium. Eine Simulation vermag in diesem Zusammenhang nicht nur eine technische Prozessualität anzubieten, sondern gleichsam auch den menschlichen Umgang mit ihr zu formen. Wie gezeigt wurde, bezieht sich die gestalterische Praxis dabei vor allem auf jene Auflösungsgrade, die zwischen technischer Komplexität und menschlicher Handhabung vermitteln. Es gilt nun weiter

500 Flusser (1989: 50). In gleichem Zusammenhang verweist Carpo auf das von Google etablierte digitale Dogma des ›Search, don’t sort‹, das zweckmäßige Suchen, das ein mühsames Sortieren ersetzt, wodurch die menschliche Kategorisierung von Dateninhalten obsolet wird. Vgl. Carpo (2017: 23ff). 501 Wie Flusser es an anderer Stelle für den Begriff der Kreativität formuliert: »Dieses Prozessieren von Daten, das bisher von der Notwendigkeit der Datenerwerbung gebremst war, heißt »Kreativität«, und es ist daher mit einer wahren Explosion der menschlichen Kreativität zu rechnen.« Flusser (1989: 50). Entsprechend wird der Mensch »nicht mehr ein Arbeiter sein (›homo faber‹), sondern ein Spieler mit Informationen (›homo ludens‹)« Ebd. 502 Hüther und Quarch sprechen im Zusammenhang vom Spielraum als Ort, in dem es möglich sei, sich »gleichzeitig verbunden und frei zu fühlen« und in dem »wir frei und unbekümmert denken und handeln, wahrnehmen und erkennen und dabei Neues entdecken und das Spektrum unserer Möglichkeiten erkunden können« Hüther; Quarch (2018: 22, 19).

281

7. Kreativität und Parametrie

Bedeutung erlangen. Dabei verlagern sich stetig die Schwerpunkte, hinsichtlich welcher diese Entwicklung gestalterisch zu fassen ist, wie Vilém Flusser es bereits früh mit Hinsicht auf das kreative Potenzial einer solchen Entwicklung formulierte, als er davon sprach, dass man zukünftig »nicht mehr Daten zu lernen [habe], sondern das zweckmäßige Speichern, Abberufen und Variieren von Daten. Nicht mehr das Repertoire, sondern die Struktur von Systemen.«500 Die exekutive Arbeit resp. die Notwendigkeit des Datenerwerbs obliegt nicht mehr ausschließlich dem Menschen, sondern vorwiegend den technischen Systemen – und ebendies kennzeichnet jenen gegenwärtigen und zukünftigen Umgang mit Technik, der den menschlichen Fokus nicht mehr auf die Erzeugung der Daten im Einzelnen, sondern auf die Anschlussverwendung der Ergebnisse im Ganzen richten lässt.501 Im Verweis auf Parametrie erscheint dies nicht als aussichtsloses Unterfangen, sofern, wie gezeigt wurde, Entwurfsprozesse sich vor allem auf die Gestaltung von Auflösungsgraden verstehen, durch welche die Prozesse sowohl technisch als auch menschlich handhabbar werden. Ein Weg, wie dieser Anspruch in die gestalterische Praxis einzubinden wäre, konnte dabei anhand der prozeduralen Modellierung von Spielwelten resp. Ökosystemen aufgezeigt werden. Der parametrische Gestalter befindet sich dabei in der souveränen Positionen, sich in Bezug auf die Entwurfsartikulation der Technik gleichzeitig verbunden und dennoch gestalterisch frei zu fühlen – ganz im Sinne eines spielerischen Umgangs, wie er weiter oben erörtert wurde –;502 wenn er sich nicht mit technisch-formalen Notwendigkeiten aufhalten muss, sondern sich vorwiegend der ganzheitlichen, konzeptionellen Gestaltung jener Verhältnisse und Bedingungen widmen kann, die dem Entwurf seine Ausrichtung geben.

7.6

Kontinuität und Disruption

Die Auseinandersetzung mit technischen Systemen und menschlichen Umgangsformen erfolgte bislang nah am technischen Medium. Eine Simulation vermag in diesem Zusammenhang nicht nur eine technische Prozessualität anzubieten, sondern gleichsam auch den menschlichen Umgang mit ihr zu formen. Wie gezeigt wurde, bezieht sich die gestalterische Praxis dabei vor allem auf jene Auflösungsgrade, die zwischen technischer Komplexität und menschlicher Handhabung vermitteln. Es gilt nun weiter

500 Flusser (1989: 50). In gleichem Zusammenhang verweist Carpo auf das von Google etablierte digitale Dogma des ›Search, don’t sort‹, das zweckmäßige Suchen, das ein mühsames Sortieren ersetzt, wodurch die menschliche Kategorisierung von Dateninhalten obsolet wird. Vgl. Carpo (2017: 23ff). 501 Wie Flusser es an anderer Stelle für den Begriff der Kreativität formuliert: »Dieses Prozessieren von Daten, das bisher von der Notwendigkeit der Datenerwerbung gebremst war, heißt »Kreativität«, und es ist daher mit einer wahren Explosion der menschlichen Kreativität zu rechnen.« Flusser (1989: 50). Entsprechend wird der Mensch »nicht mehr ein Arbeiter sein (›homo faber‹), sondern ein Spieler mit Informationen (›homo ludens‹)« Ebd. 502 Hüther und Quarch sprechen im Zusammenhang vom Spielraum als Ort, in dem es möglich sei, sich »gleichzeitig verbunden und frei zu fühlen« und in dem »wir frei und unbekümmert denken und handeln, wahrnehmen und erkennen und dabei Neues entdecken und das Spektrum unserer Möglichkeiten erkunden können« Hüther; Quarch (2018: 22, 19).

281

282

Prozess als Gestalt

zu fragen, wie diese Betrachtungsweise mit Hinsicht auf den Begriff der Kreativität in den größeren Zusammenhang gestellt werden kann, welche Entwicklungen daran abzulesen sind und wie Kreativität im gegenwärtigen Diskurs – parametrisch – gedacht werden kann. Bisher konnte dafür mit den vorangegangenen Erörterungen eine erste Grundlage geschaffen werden, um Kreativität als Phänomen und Begriff für den parametrischen Diskurs zugänglich zu machen. Versuchte die Kreativitätsforschung seit den 1950erJahren vorwiegend analytisch zu ergründen, welche Produkte, Personen, Situationen und Prozesse mit Kreativität verbunden sind, so findet sich der Begriff in gegenwärtigen Zusammenhängen nicht selten in ubiquitärer Verwendung und Mannigfaltigkeit.503 Damit geht nicht nur eine inflationäre Verwendung, sondern auch der Eindruck einer schier grenzenlosen Gestaltbarkeit von Welt einher, die – nicht zuletzt durch Design – zwischen Kategorien von neu und alt, gut und schlecht oder richtig und falsch oszilliert. Mit der Möglichkeit, Welt zu gestalten, geht entsprechend auch immer die Kontingenz einer Andersartigkeit einher, die als Referenz zur Bewertung herangezogen werden kann: ›Durch das neue Tür-Scharnier schließt die Tür leiser; der neue Fingerabdruck-Sensor macht das Smartphone sicherer‹ usw. Design vollzieht sich im Komparativ – als Steigerung, die an ein Vorangegangenes resp. ein Nebenstehendes anschließt, um sich sogleich wieder davon abzustoßen.504 Die Frage nach Kreativität für das gestalterische Feld kann in ähnlicher Weise verhandelt werden. Sie trägt zunächst einen zwiegespaltenen, jedoch nicht minder absoluten Charakter: Gemäß seiner etymologischen Begriffsherkunft (lat. ›creare‹ = dt. ›erschaffen‹) vermag der Begriff der Kreativität in seinen Grundzügen einerseits auf ein Zukünftiges zu verweisen, das noch nicht ist und gleichsam auf ein Vergangenes, an welches angeknüpft wird. In dieser hypothetischen Verweisungslogik und mit Hinsicht auf die Entwicklungsgeschichte des Designs wäre Kreativität als verbindendes Unverbundenes zu bezeichnen, indem es zwar neue Entwicklungen im Gegensatz zum Bestehenden beschreibt, sich somit mit Vorhergehendem verbindet, jedoch gleichsam einen Anspruch an Neuartigkeit und eine erweiterte Nutzbarkeit behauptet, welcher nur in der bewussten Loslösung von Bestehendem, in Unverbundenheit, Erfüllung zu finden scheint. Insofern wäre eine solche Auslegung von Kreativität eine typisch moderne, welche als stufenförmiger Prozess einen Fortschritt bestärkt, der Altes ablöst, indem er Neues erschafft. Wenn Kreativität jedoch, wie es weiter oben bereits erörtert wurde, ebenso meint, von etablierten Hin-Sichten abzusehen, Spielräume zu schaffen, eine Breite anzulegen und damit das Nebenstehende in den Blick zu nehmen, so ist ebenso zu fragen, ob überhaupt noch zwischen Haupt- und Nebensachen unterschieden werden kann und ebenso, ob dadurch gestalterische Freiheit gewonnen wird oder Orientierung verloren geht.

503 Vgl. dazu etwa die Publikationen zum Themenfeld der Kreativität in diversen Wissens- und Lebensgebieten in den Anm. 10-18 in Kapitel 7.1 ›Phänomen und Begriff‹. 504 Vgl. dazu auch die Auseinandersetzung bei van den Boom; Romero-Tejedor (2017: 26ff), welche die entwicklungsgeschichtliche Steigerungslogik mit Hinsicht auf den Begriff der Optimierung nachzeichnen und in diesem Zusammenhang von Design als »Methodologie artefaktischer Optimierung« sprechen. Ebd.: 32.

7. Kreativität und Parametrie

Im Kontext der parametrischen Diskussion kann dies anders formuliert werden: Wenn durch Parameter verhandelbar wird, was einst nie verhandelbar schien, entstehen neue Räume der Gestaltbarkeit, die mitunter einen neuen Umgang, neue Maßstäbe und neue Richtigkeiten erforderlich machen. Diese erfolgen nicht mehr im Schema eines Nacheinanders, sondern parallel und vernetzt, im Modus eines gleichzeitigen Nebeneinanders, wodurch etablierte Maßstäbe der Funktionalität und der objektiven Richtigkeit an Gültigkeit einbüßen. Früh hat Otl Kicher in seinem Aufsatz über ›die welt als entwurf‹ dieser Beobachtung Platz eingeräumt und konstatiert, dass es »kein objektives reservoir« und keine »ewigen wahrheiten« mehr gäbe, aus denen Gesetze und Ordnungen abzuleiten wären.505 Vielmehr »müssen wir die kriterien unserer tuns aus dem tun selbst ableiten, aus der wirkung unseres machens, aus dem faktum des resultats.«506 In der parametrischen Übertragung hieße dies: Ob die Parameter richtig gesetzt und eingestellt sind, zeigt sich erst, während sie sich einstellen.507 Erst im unmittelbaren, zeitlich zusammenhängenden, evolutionären Zusammenspiel der Wirkfaktoren, d.h. in der Veränderung, lassen sich die Kategorien und Maßstäbe erkennen, nach denen die Veränderung – und letztlich der Entwurf – zu beurteilen und zu gebrauchen ist.508

505 Aicher (1992: 189). 506 Ebd. Aicher gründet diese Besinnung auf ein selbstbestimmtes Machen dabei nicht zuletzt auf der Feststellung, dass der Mensch seine Selbstbestimmung im Zuge einer ausweitenden Gestaltbarkeit von Welt zusehends zu verlieren droht, wenn alles bereits bestimmbar und bestimmt ist und menschliche Freiheit nur noch in der ästhetischen Peripherie des Lebens, als Belanglosigkeit, stattfinden kann: »was aber will er [der Mensch] bestimmen, wenn es nichts mehr zu bestimmen gibt? das, was nicht bestimmt ist. das ist die ästhetische erscheinung. […] das reich der freiheit ist immer mehr reduziert auf das reich der ästhetik, und da ist alle freiheit erlaubt.« Ebd.: 35. Damit beschreibt Aicher einen Prozess, der etwa von Wolfgang Welsch und Gernot Böhme als Phänomen der Ästhetisierung verhandelt wird. Vgl. Böhme (2008: 52-58); Böhme (2016); Welsch (1996). Eine ähnliche Beobachtung, die aus heutiger Sicht eine neue Anschaulichkeit offenbart, hält Arnold Schürer bereits 1969 für die technische Produktentwicklung fest, wenn er darlegt, dass die größtmögliche Freiheit der Gestaltung ebendann gegeben ist, wenn keine funktionalen Bedingungen mehr eingehalten werden müssen: »Die freien Gestaltungsmöglichkeiten werden mit Abnahme der rationalen Faktoren größer.« Schürer (1969: 16). Als Beispiel für eine 100 %ige Freiheit benennt Schürer entsprechend den Produktbereich des Schmucks, welcher, im Sinne Aichers, Welschs und Böhmes, als Sinnbild dafür fungieren könnte, womit der Mensch sich gegenwärtig größtenteils umgibt, im Modus einer Ausschmückung von Lebenswelt, auf dessen Tiefendimension er kaum noch Einfluss hat und darum stetig weniger darum bemüht scheint, überhaupt noch welchen auf diese auszuüben zu wollen. 507 Wittgenstein hat dies für die Sprachphilosophie in seinem berühmten Ausspruch anschaulich gemacht, der besagt, dass Regeln erst innerhalb ihres Vollzuges zu stabilen und stabilisierenden Größen werden: »And is there not also the case where we play and-make up the rules as we go along?« Wittgenstein (1953/2008: PU 83). 508 Bis dahin »verwaltet der Entwurf Potenziale«, wie Friedrich Weltzien es anführt, die einer permanenten Aktualisierung unterliegen, wenn ein Entwurfszyklus zu Ende geht: »Das Mögliche des Entwurfs kann sich erst zukünftig aktualisieren, wenn das Entwerfen an sein Ende gekommen ist.« Weltzien (2003: 173). Ebenso stellt es Feige dar, wenn er die Entwurfstätigkeit als prozessuale Handlungsform der Improvisation versteht: »Jede meiner späteren Handlungen bestimmt neu und weiter, was der Sinn meiner vorangehenden Handlungen war. Erst am Ende einer Improvisation kann man sagen, ob sie sinnvoll gewesen ist, weil mit jedem weiteren Zug der Improvisation diese als Ganze zur Disposition steht.« Feige (2018: 159).

283

284

Prozess als Gestalt

Es stehen sich mithin zwei Perspektiven gegenüber, anhand welcher das Verhältnis von Kreativität, Design und Parametrie im Folgenden diskutiert werden soll: eine disruptive, die – in modernistischer Tradition – durch wie auch immer geartete Brüche stets ein Altes durch ein Neues zu ersetzen sucht, und eine kontinuierliche, welche Zusammenhänge notwendigerweise aufrechterhält, um nächste Schritte und Maßstäbe daraus ableiten zu können. Einen nachhaltigen Versuch, die genannten Perspektiven in Bezug auf das Feld des Designs gegeneinander abzugrenzen, unternimmt Bruno Latour in seinem bekannten Aufsatz ›Ein vorsichtiger Prometheus?‹. Latour entwirft darin, in Anlehnung an Peter Sloterdijk, eine erweiterte Auffassung dessen, was gegenwärtig (damals 2009) unter dem Begriff des Designs zu verstehen sei und welche erweiterten Anforderungen diese neue Perspektive mit sich bringe. Zunächst bezieht sich Latour dabei auf das traditionelle Verständnis dessen, was Design im Produktentwicklungsprozess ausmache; eine dichotome Auffassung von funktionaler Materialität auf der einen und von ästhetischsymbolischer Qualität auf der anderen Seite, die jedoch nicht mehr aufrechtzuerhalten sei: »Auch wenn man Design sehr bewundern konnte, wurde es stets nur als ein Bestandteil einer Alternative verstanden: nicht nur auf die Funktion zu achten, sondern auch auf das Design. […] Es war, als gäbe es in Wirklichkeit zwei sehr unterschiedliche Weisen, einen Gegenstand zu erfassen: zum einen über seine innere, wesenhafte Materialität, zum anderen über seine äußeren, eher ästhetischen oder ›symbolischen‹ Eigenschaften.«509 Latour entgegnet dieser Betrachtungsweise mit einer Erweiterung des Design-Begriffs in zwei Dimensionen; eine erste, die den Begriffsumfang betrifft und nahegelegt, dass etwas zu designen gleichsam ein Programmieren, Planen, Zusammenfassen etc. mit einschließt, und eine zweite, die das Spektrum der Anwendungsbereiche betrifft, das sich nicht mehr nur auf Gebrauchs- und Konsumgüter, sondern vielmehr auf annähernd alle Bereiche des menschlichen Lebens auswirkt.510 Design hat entsprechend eine qualitative als auch quantitative Ausweitung erfahren. Unter diesen Prämissen sei die modernistische Perspektive, die auf Produktebene zwischen funktionaler Materialität und ästhetischem Design unterscheidet und auf historischer Ebene einen sich stetig emanzipierenden Fortschritt und dessen Beherrschung proklamiert, nicht mehr aufrechtzuerhalten: An die Stelle des »alten Weges«, der die Entwicklung in »bauen, konstruieren, zerstören, radikal überholen« zergliederte,511 stellt Latour das übergeordnete Prinzip eines ReDesigns, welches nicht etwa bei null anfängt, sondern das Gegebene stets in seine Betrachtungen miteinbezieht und sich sorgsam daran abarbeitet. Das Vorhaben, etwas neu zu gestalten, offenbart sich entsprechend

509 Latour (2009: 356). 510 Vgl. Ebd.: 357. 511 Ebd.: 359.

7. Kreativität und Parametrie

darin, etwas erneut zu gestalten,512 in seiner dynamischen Abhängigkeit zu einer sich stetig verändernden Umwelt: »Alles, worin man früher harte, objektive, unabänderliche materielle Dynamiken gesehen hatte […], hat sich inzwischen in Luft aufgelöst. Ja, alles, was während der vier oder fünf bisherigen industriellen Revolutionen designt wurde, muss nun redesignt werden. Es ist die gleiche materielle Welt, aber sie muss nun neu gemacht, überarbeitet werden mit einer vollständig anderen Vorstellung von dem, was es heißt, etwas zu machen.«513 Letzteres, die neue Vorstellung eines Machens, ergibt sich für Latour aus einer erweiterten Wahrnehmung der Welt als eine verhandelbare und in der Tiefe gestaltbare Welt, in welcher keine neutralen Objekte als unabänderliche Tatsachen (›matters of fact‹) vorausgesetzt, sondern vielmehr interpretierbare Dinge zum Gegenstand von Design, zu uns angehenden Sachen (›matters of concern‹), geworden sind.514 Design vereint dabei »alle Werkzeuge, Kenntnisse und Kunstfertigkeiten der Interpretation«515 und wird zum ubiquitären Begriff für eine planvolle, umsichtige, aufmerksame, letztlich vorsichtige Haltung, mit der die Welt in ihrer veränderbaren Dinglichkeit erfasst und umfassend gestaltet resp. zusammengezogen wird. Latour verweist darin auf eine Doppeldeutigkeit dessen, was er in englischer Sprache mit dem Ausdruck »drawing things together« beschreibt:516 Es bedarf dazu, nach Latour, neuer Werkzeuge, welche einerseits die Komplexität der Dinge in all ihren Dimensionen und ihrer verschachtelten Verbundenheit zur Welt erkennen und berücksichtigen517 und welche andererseits eine an512

513

514

515 516 517

In dieser Hinsicht hat der Ökonom Peter Drucker bereits 1958 in seinem ›Fundament für Morgen‹ den Begriff der Neuerung umrissen: »Neuerung fügt etwas hinzu, aber ersetzt nicht. Sie kann und will den schöpferischen Akt, das ›Heureka‹ der plötzlichen Erkenntnis des Genies nicht ersetzen. […] Im Gegenteil: Neuerung soll eigentlich die Kraft des ›Genieblitzes‹ und der soliden Arbeit an ständiger Verbesserung, Anpassung und Anwendung vervielfachen.« Drucker (1958: 46). Drucker spricht sich damit – ebenso wie Latour – gegen eine modernistische Betrachtung aus, indem er dem Bild eines »FortschrittsMythos« das »neue Bild des Menschen als Gestalter von Ordnung« entgegensetzt (Ebd.: 36, 37), in welchem Neuerung nichts Grundsätzliches, sondern grundsätzlich Veränderndes darstellt. Vgl. Ebd.: 36. Latour (2009: 363). In ähnlicher Weise spricht Aicher im Rahmen der »krise der moderne« von einem Design-Begriff, der zwar noch tiefer in der funktionalistischen Auffassung einer modernen Perspektive verhaftet ist, den dynamischen Umstände und Anforderungen seiner Umwelt jedoch nicht weniger gerecht werden will: »design besteht darin, produkte ihrem sachverhalt entsprechend auszubilden, und das heißt vor allem, sie neuen sachverhalten anzupassen, in einer sich ändernden weit müssen auch produkte sich ändern.« Aicher (1992: 19). »Je mehr Objekte zu Dingen gemacht werden – das heißt, je mehr neutrale Tatsachen in uns angehende Sachen umgewandelt werden – desto mehr werden aus ihnen Design-Objekte durch und durch.« Latour (2009: 357). Vgl. dazu auch Gert Selles Auseinandersetzung mit dem Ding-Begriff, welchen er mit Hinsicht auf eine »schwindende Dinglichkeit« erörtert, »die vom Raum abstrakter Dienstleistungen im digitalen Zeitalter aufgesogen zu werden scheint […]« Selle (2014: 63). Nichtsdestoweniger verweist Selle a.a.O. auf die Bedeutung der Dinge als »Spiegelobjekte unseres Daseins in der Kultur der Gegenwart« Selle (2015: 11). Latour (2009: 360). Vgl. dazu den gleichnamigen Aufsatz bei Latour (1990). Wie Latour es im Verweis auf die damaligen Werkzeuge beschreibt: »[…] und doch sind wir, […], fünfzig Jahre nach der Entwicklung von CAD-Programmen noch immer ziemlich unfähig, das, was ein Ding in

285

286

Prozess als Gestalt

gemessene Visualisierung darbieten, sodass die lebensweltlichen Komplexitäten »leicht handhabbar« und »adäquat repräsentiert« werden können.518 Latour geht es entsprechend um eine Einbeziehung und Verdichtung der Verhältnismäßigkeiten der weltlichen Dynamiken, für welche er allerdings noch keine angemessene, d.h. visuelle und handhabbare Repräsentationsform benennen kann. Er fordert dabei nicht etwa ein neues CAD-Design, das Objekte schneller und einfacher zeichnen lässt, sondern vielmehr ein Mittel, um ›Dinge‹ zu visualisieren und diese ebenso im »originalgetreuen Maßstab zu modellieren«.519 Kritisch bemerkt Latour weiter: »Wir wissen, wie wir einen Gegenstand zeichnen können, aber wir haben keine Ahnung, wie es ist, ein Ding zu zeichnen.«520 Den Begriff des Dings übernimmt Latour aus der Lesart Heideggers mit Hinsicht auf seine etymologische Wortbedeutung aus dem althochdeutschen ›thing‹, welches ein Moment des »Übereinkommens« und »Versammelns« auf sich vereint.521 Im Ding versammeln sich alle Phänomene einer »widersprüchlichen und kontroversen Natur von uns angehenden Sachen«,522 womit Latour diejenigen Widerstandskräfte benennt, die in der menschlichen Lebenswelt seit jeher bestehen; als Pluralität der Lebens- und Gestaltungsmöglichkeiten, als Kontingenzen; als Entscheidungen, die immer wieder neu getroffen und als Veränderungen, die immer wieder aufs Neue berücksichtigt werden müssen – nicht in HinSicht auf die Beherrschung der Tatsachen, sondern mit Ab-Sicht von denselben. Diese Ab-Sichten, die letztlich durch Design hervorgebracht werden, stellen dabei nicht etwa disruptive Brüche, sondern kontinuierliche Veränderungen dar, indem sie scheinbar Gegensätzliches miteinander vereinbaren, »in einer seltsamen Kombination von Bewahrung und Erneuerung, die es bislang in der kurzen Geschichte des Modernismus nicht gab.«523 Entsprechend nachhaltig konstatiert Latour, dass der Mensch nie modern gewesen sei,524 und der Glaube an einen Modernismus, der auf Grundlegendem, auf unabänderlichen Tatsachen, auf Brüchen und Revolutionen aufbaute, nun einem Design-Begriff weichen muss, der durch seine Relativität und Verbundenheit zur Lebenswelt zwischen jeglichen Formen von Veränderung als Bindeglied fungiert. Kurz: Das Bild stufiger, disruptiver Neuanfänge weicht dem eines zusammenhängenden, kontinuierlichen Prozesses. Eine Erweiterung erfährt Latours Erörterung durch einen Verweis auf Peter Sloterdijk und den von ihm geprägten Begriff der Sphären.525 Als Sphären verstehen sich dabei im gestalterischen Zusammenhang jene (Lebens-)Umgebungen – Latour nennt sie auch Lebenserhaltungssysteme oder Hüllen –, die notwendigerweise so gestaltet

518 519 520 521 522 523 524 525

all seiner Komplexität ist, an einem Ort zusammenzuziehen, zu simulieren, zu materialisieren, annähernd wiederzugeben, vollständig im originalgetreuen Maßstab zu modellieren.« Latour (2009: 371). Ebd.: 372. Ebd.: 371 . Ebd. Kluge; Seebold (2011: 202): Ding. Latour (2009: 372). Ebd.: 370. Vgl. Ebd.: 372. Vgl. Ebd.: 364ff.

7. Kreativität und Parametrie

sind, dass der Mensch darin, d.h. in diesen leben kann.526 Wie ein Kosmonaut, der ohne Raumanzug im Weltall nicht überlebensfähig ist,527 ist auch der Mensch ein von Hüllen umgebendes, fragiles Wesen, das sich stets von der einen, sorgsam designten Hülle in die nächste und wieder zurück bewegt; sich von alten Bindungen emanzipiert und sich gleichsam neuen unterwirft.528 Eine Hülle trennt dabei stets zwischen einem Innen und Außen. Diese Dichotomie ist so lange aufrechtzuerhalten, bis auch das Außen der Hülle wiederum als ein Innen betrachtet wird, ebendann, wenn die Verweisungslogik des Innen und Außen nicht mehr nur auf eine, sondern auf mehrere Hüllen ausgeweitet bzw. »expliziert« wird.529 Den Begriff der Explikation sieht Latour in diesem Zusammenhang insofern als einen Schlüsselbegriff an, als dass er die modernistische Trennung in ein veränderbares Innen und ein unabänderliches Außen aufzulösen scheint, indem er die gestaltbaren Hüllen sichtbar macht: »Wir sind umhüllt, eingewickelt, umgeben; wir sind nie draußen, […]. In der zweiten Hälfte des letzten Jahrhunderts ist nun der Modernismus genau in dem Maße verschwunden, in dem die Lebenserhaltungssysteme expliziter gemacht worden sind, eines nach dem anderen. Nach einer solchen Sichtweise bestehen ökologische Krisen in der langsamen und schmerzlichen Realisierung, dass es kein Außen mehr gibt. Das bedeutet, dass keines der für die Lebenserhaltung notwendigen Elemente für unabänderlich gegeben erachtet werden kann.«530 Design wird damit von Latour zur Lebenserhaltungsmaßnahme erklärt, zur einzigen, die dem Menschen sein Überleben sichern kann. Entsprechend ist auch »die Natur als das große Außen des menschlichen Handelns verschwunden […].«531 Der Begriff des Natürlichen verbindet sich vielmehr mit der durchdachten Gestaltung multipler Lebenswelten, wird Synonym für »›sorgsam gehandhabt‹, ›geschickt inszeniert‹, ›künstlich aufrechterhalten‹, ›clever designt‹«.532 Menschliches Leben offenbart sich dementsprechend als »nachhaltig artifi-

526 Latour bezieht sich dabei auf die Heidegger’sche Philospohie des Daseins als ›in-der-Welt-Sein‹, wobei Sloterdijk vor allem die Präposition ›in‹ betont, wodurch er für die Beachtung eines Innen und Außen sensibilisieren will. Vgl. Ebd.: 365. 527 Diese Metapher greift Latour von Sloterdijk auf. Vgl. Ebd. 528 Wie Latour es am Beispiel des Kosmonauten anschaulich macht: »Der Kosmonaut oder die Kosmonautin sind von der Schwerkraft emanzipiert, weil sie niemals auch nur für den Bruchteil einer Sekunde außerhalb ihrer Lebenserhaltungssysteme leben. Emanzipiert und gebunden zu sein, sind zwei Verkörperungen desselben Ereignisses, sofern man die Aufmerksamkeit darauf lenkt, wie gut oder schlecht artifizielle Atmosphären designt sein können.« Ebd.: 366. 529 Ebd. 530 Ebd.: 366-367. Gernot Böhme verweist in dieser Hinsicht weiter auf die Rationalisierungsfunktion der Explikation in modernen Gesellschaften: »Die moderne Gesellschaft ist durch die Ausdifferenzierung von Handlungsregeln und ihre Explikation gekennzeichnet. Diese Ausdifferenzierung und Explikation dient der Rationalisierung, der Sachlichkeit und Effizienzsteigerung von Verhalten.« Böhme (2008: 79). 531 Latour (2009: 368). Gleiches macht auch Gabriel anschaulich, wenn er statt von multiplen Lebenswelten von unendlichen Wirklichkeiten resp. Sinnfeldern spricht: »Die Pointe dieser ganzen Überlegung zum unendlichen Szenenwechsel besteht darin, dass es keine privilegierte Wirklichkeit gibt, kein Sinnfeld, von dem aus man sinnvollerweise alle Sinnfelder erfassen und erkennen könnte. […] An die Stelle der einen Welt oder der einen Wirklichkeit tritt eine Unendlichkeit von Sinnfeldern.« Gabriel (2020: 38). 532 Latour (2009: 368).

287

288

Prozess als Gestalt

zielles Leben«,533 in welchem gleichsam »Artifizialität unser Schicksal« ist.534 Explikation benennt in diesem Zusammenhang eine Form des geistigen Sichtbarmachens, welche ein Licht resp. das prometheische Feuer ins Dunkel des Daseins trägt und damit immer wieder aufs Neue erhellend aufzeigt, wo Design ansetzen kann, um die Dinge sorgsam (›vorsichtig‹) zusammenzuziehen. Wie sind Latours Ausführungen nun auf die Diskussion um Design, Kreativität und Parametrie zu beziehen? Latour nimmt die Welt, ihre ›Designtheit‹ und ihre Produkte in den Blick, mit einem Anspruch, neue Werkzeuge zu entwickeln, die der vernetzten Dynamik der Lebenswelten gerecht werden. Er leitet jene Entwicklung des Designs, die gegen eine modernistische Betrachtung spricht, daraus ab, dass der Design-Begriff in seinem begrifflichen Umfang als auch in seinem Anwendungsgebiet eine immense Ausweitung erfahren hat, welche die Trennung zwischen einem Innen und Außen, zwischen kontingenter Veränderbarkeit und unabänderlicher Gegebenheit, aufgelöst hat. Diese Entwicklung wirkt nicht nur auf die Produkte und dessen Betrachtungsweisen, sondern auch auf die menschliche Beschaffenheit, die bei Latour mit dem Ausdruck der Fragilität umschrieben wird.535 Offen bleibt jedoch, ob die ›redesignten‹ Produkte, die es in immer größerer Zahl zu entwerfen gilt, diese Fragilität zu vermeiden suchen oder gar stetig fördern. Während bei Latour der Eindruck gestärkt wird, dass jede neu geschaffene, technologisch ausdifferenzierte und sorgsam designte Hülle den Menschen in behagliche Sicherheit bettet und ihm als lebensweltlicher Zugewinn erscheint, so wäre etwa mit Otl Aicher zu argumentieren, dass der Mensch im Zuge einer solchen Entwicklung große Teile seiner Selbstbestimmtheit einbüßt, weil die Hüllen den Menschen nun gar einengen bzw. ihn bis zur komfortablen Bewegungslosigkeit an sich binden.536 Eine Emanzipation, die nach Latour zusammen mit der Bindung als Dualismus auftritt, findet nach Aicher nur im »reich der ästhetik« statt, in welchem »alle freiheit erlaubt« ist.537 Damit weitet Aicher die Diskussion auf eine ästhetische Betrachtungsweise aus, die bei Latour weitestgehend unberücksichtigt bleibt538 und welche für die folgende Betrachtung ebenso eine neue Perspektive darstellen soll. Design degeneriert dabei, so Aicher in seinem Aufsatz über die ›krise der moderne‹, »zur verkaufsförderung […], zum elixier des konsums einer informationsgesellschaft«,539 welche den ästhetischen Genuss und das kurzweilige Erlebnis über die wirklichen Probleme stellt, die Design durch

533 Ebd.: 367. 534 Ebd.: 369. 535 Vgl. Ebd.: 365, 366. An anderer Stelle spricht Latour auch vom »sanfteren Leib menschlicher Zerbrechlichkeit«. Ebd.: 369. 536 »was aber will er [der mensch] bestimmen, wenn es nichts mehr zu bestimmen gibt? […] alles kommt aus dem kühlschrank, aus dem fernseher, aus dem selbstbedienungsladen, damit hat der mensch wohl die schwierigste aller schwierigen existenzen erreicht. er braucht nicht mehr zu arbeiten, er braucht nicht mehr zu denken, er braucht nichts mehr zu machen. er ist frei, er muß nur noch programme einschalten.« Aicher (1992: 35). 537 Ebd. 538 Latour spricht an einer Stelle lediglich vom »modernen Stil«, der sich als »historisch situierte Ästhetik, eine Weise, Gegenstände zu beleuchten, zu rahmen, zu präsentieren […]« offenbarte und nun als ein solcher erscheint, »der vor unseren Augen dabei ist, sich zu verändern« Latour (2009: 367). 539 Aicher (1992: 25-26).

7. Kreativität und Parametrie

kritisches Fragen und analytische Beobachtung behandeln sollte. Damit überträgt Aicher auf das Design, was seit der Soziologie der 1990er-Jahre mit Protagonisten wie Gerhard Schulze, Wolfgang Welsch oder Gernot Böhme weitverbreiteter Diskurs war, wenn diese die Phänomene unter den Stichworten der Erlebnisgesellschaft, der Ästhetisierung von Lebenswelt oder der ästhetischen Ökonomie verhandelten.540 Wie Gernot Böhme es zusammenfasst: »Wir leben in einer Konsumgesellschaft, wir leben in einer Erlebnisgesellschaft und deshalb ist die angemessene Lebensform die ästhetische.«541 Ähnlich formuliert es auch Baudrillard, wenn er in seiner bekannten Auseinandersetzung mit dem Phänomen des Hyperrealismus von einer »ästhetischen Halluzination der Realität« spricht.542 Die Ästhetik erscheint in dieser Hinsicht tief in die gestaltbare Wirklichkeit, dessen Hüllen und menschliche Betrachtungsweisen eingedrungen; in einem Maß, das nunmehr keine Trennung zwischen Ästhetik, Funktion und Materie zulässt. Wie auch Latour es darstellt, müsse Design als die Auflösung der Trennung zwischen der funktionellen Materie und der ästhetischen Formbarkeit angesehen werden; als Vereinigung beider Sphären, die jede Form von Gestaltbarkeit, d.h. nicht nur an der Oberfläche, sondern ebenso in den Tiefendimensionen, zusammenführt. Wolfgang Welsch spricht in diesem Zusammenhang von einer Tiefenästhetisierung resp. einer Ästhetisierung des Materiellen: »Ästhetische Prozesse überformen nicht erst fertig vorgegebene Materien, sondern bestimmen schon deren Struktur, betreffen nicht erst die Hülle, sondern bereits den Kern. Ästhetik gehört also nicht mehr bloß zum Überbau, sondern zur Basis. Die heutige Ästhetisierung ist keineswegs bloß eine Sache von Schöngeistern oder der postmodernen Muse des Amüsements oder ökonomischer Oberflächenstrategien, sondern sie resultiert ebensosehr aus grundlegenden technologischen Veränderungen, aus harten Fakten des Produktionsprozesses.«543 Welsch beschreibt damit die tiefe ästhetische Durchdringung der Lebenswelt auf materieller Ebene, welche nicht zuletzt durch die stetigen technologischen Veränderungen und die Gesetzmäßigkeiten der Produktionsprozesse bedingt ist. Wenn die Technik ein immer tieferes Eindringen in die Materie ermöglicht und die Gegebenheiten dadurch verhandelbar macht, so schlägt sich dies nicht nur in einer feingliedrigeren Auflösung auf Seiten der Produkte, sondern ebenso auf Seiten der menschlichen Wahrnehmung der Produkt- und Lebenswelten nieder. Entsprechend beeinflussen die genannten Ästhetisierungsprozesse nicht nur die Sphäre des Materiellen, sondern ebenso des Immateriellen:

540 Vgl. dazu Schulze (1993/2005); Welsch (1996); Böhme (1995/2006); Böhme (2008) als auch, mit Schwerpunkt auf die Kunstproduktion und -Rezeption, Schweppenhäuser (2007: 301-309). 541 Böhme (2008: 56). 542 »Tatsächlich muß man den Hyperrealismus gerade umgekehrt interpretieren: die Realität selbst ist heute hyperrealistisch. […] von nun an verkörpert die ganze alltägliche, politische, soziale, historische und ökonomische Realität die simulierende Dimension des Hyperrealismus: überall leben wir schon in der ›ästhetischen‹ Halluzination der Realität.« Baudrillard (1976/1982: 116). 543 Welsch (1996: 15).

289

290

Prozess als Gestalt

»Tiefer als jene vordergründige, materielle Ästhetisierung reicht diese immaterielle Ästhetisierung. Sie betrifft nicht bloß einzelne Bestände der Wirklichkeit, sondern die Seinsweise der Wirklichkeit und unsere Auffassung von ihr im Ganzen.«544 Die immaterielle Ästhetisierung betrifft demnach die Auffassung des Menschen von der Wirklichkeit, die ihn umgibt und welche dementsprechend in tiefster Sphäre als verhandelbar resp. gestaltbar angenommen wird. Das Moment des Ästhetischen verschiebt dabei seine Bedeutung aus der Sphäre einer passiven Wahrnehmung (bspw. des Schönen) hin zu einem Bewusstsein für die Modellierbarkeit von Welt, das Welsch mit dem Begriff der Virtualität zusammenfasst.545 Dieses Bewusstsein wird nicht zuletzt dadurch gestärkt, dass die technologischen Möglichkeiten, die Welsch erwähnt, – im Sinne Latours – explizieren resp. sichtbar machen, dass nunmehr kein Zustand der Welt als gegeben resp. als unabänderliche Tatsache mehr hingenommen werden muss. Es werden nunmehr – nicht zuletzt durch die bildgebenden (digitalen) Verfahren der Wissenschaft – virtuelle Räume der Wirklichkeitswahrnehmung offenbar, in welchen es nicht nur möglich wird, Realität nach- und abzubilden, sondern sie »in jeder Faser« ihrer »Mikrostruktur« zu gestalten.546 Diese Formen der Sichtbarkeit, die (virtuellen) Explikationen, heben somit an die Oberfläche, was bis dahin als Grundgegebenes in der Tiefe der menschlichen Lebenswelt unberührt blieb547 und bedingen ein neues Bewusstsein ebendieser als eine verhandelbare Welt, in welcher Wirklichkeit eine »Verfassung des Produziertseins, der Veränderbarkeit, der Unverbindlichkeit, des Schwebens usw.« annimmt.548 Die weltliche Ordnung eines Gegebenen weicht multiplen Ordnungen des Gemachten, welche nicht mehr in ihren statischen, sondern vielmehr in ihren dynamischen Strukturen permanenter Veränderung gefasst werden müssen.549

544 Ebd.: 17. 545 Vgl. Ebd.: 15, 17, 34. Vgl. den Begriff der Virtualität auch bei Nassehi (2019: 24), der an Welsch’s Ausführungen anschließt und den Begriff auf die Digitalisierung von Technik bezieht, wie er es etwa am Beispiel des Computers anschaulich macht: »Der Computer als Schreibgerät hat das Schreiben entstofflicht. Bevor Text auf analoge Weise aufs Papier kommt, lebt er in einem virtuellen Zustand. Seine Virtualität besteht darin, dass er permanent veränderbar bleibt, ohne als Ganzes verändert werden zu müssen. […] Bis zum Ende ist alles revisionsfähig – und zugleich sehen bereits vorläufige Versionen ästhetisch aus.« Ebd.: 24-25. 546 »Die einst für hart gehaltene Wirklichkeit erweist sich als veränderbar, neu kombinierbar und offen für die Realisierung beliebiger ästhetisch konturierter Wünsche. […] Durch intelligente Eingriffe in ihre Mikrostruktur ist sie in jeder Faser veränderbar. Die Wirklichkeit ist – von heutiger technologischer Warte aus gesehen – aus formbarstem, leichtestem Stoff.« Welsch (1996: 15-16). 547 Im weiter gefassten, gesellschaftstheoretischen Zusammenhang verweist Nassehi dabei auf die digitalen Verfahren der Mustererkennung, welche die Regelmäßigkeiten gesellschaftlichen Verhaltens »nur sichtbar [machen], ohne sie erfunden zu haben« Nassehi (2019: 44). Es werde dabei durch das Digitale sichtbar gemacht, was bisher im Analogen verborgen blieb: »[Es] wird deutlich, dass mit der Komplexität der modernen Gesellschaft diese ihrer selbst kaum mehr mit analogen, sondern nur noch mit digitalen Mitteln ansichtig werden kann. Es müssen Abstraktionen, und zwar Abstraktionen von analoger Sichtbarkeit erzeugt werden.« Ebd.: 49. Dementsprechend spricht Nassehi auch von einer »Verdopplung der Welt in Datenform.« Vgl. Ebd.: 33-34, 81. 548 Welsch (1996: 21). 549 So weist Drucker bereits 1958 auf eine solche Sichtweise hin, wenn er davon spricht, dass die »einzige Ordnung, die wir heute überhaupt begreifen können, […] dynamisch, beweglich und veränderlich [ist].«

7. Kreativität und Parametrie

Es schließt sich daran die Frage an, wie sich der Mensch in einer solchen Welt bewegt und sich in ihr zurechtfindet. Wolfgang Jean Stock etwa fasst dazu Otl Aichers Haltung zu den Dingen in der Einleitung zu ›die welt als entwurf‹ wie folgt zusammen: »Im gleichen Maße, wie der Mensch die Welt zu einem Artefakt gemacht hat, ist seine Unfähigkeit gewachsen, die Entwicklung zu beherrschen. Weil die Produktion der Dinge abstrakten Gesetzen folgt, unterwerfen sie die Lebenswelt.«550 Die abstrakten Gesetze bezeichnen in dieser Lesart konstruierte Gesetze, die sich durch die Ausbreitung der technischen Medien und Werkzeuge, durch welche der Mensch die Welt wahrnimmt, als neue Orientierungspunkte etablieren. »Der Mensch hat sich selbst zum Schöpfer gemacht«, wie der Neurologe Gerald Hüther konstatiert, »[a]ber was er zu erschaffen imstande war, blieb auf seltsame Weise hohl und leblos.«551 Damit benennt Hüther den Kern dessen, was Latour an der modernistischen Perspektive kritisiert, wenn er davon spricht, dass wir zwar »wissen, wie wir Objekte zeichnen, simulieren, materialisieren, wie wir sie heranzoomen und wegzoomen können; […], wie wir sie im dreidimensionalen Raum sich bewegen lassen können, wie wir sie durch die computerisierte, virtuelle ›res extensa‹ schweben lassen können, wie wir sie mit einer großen Zahl von Datenpunkten markieren können etc.«,552 und es trotz fortschreitender Wissenschaft und Technologie bisher noch nicht geschafft haben, »das, was ein Ding ist, an einem Ort zusammenzuziehen […]«,553 d.h., die in der Realität verbundenen Wirkkräfte, etwa Kontroversen der Akteure und Interessenvertreter, anleitende Instanzen für die Herstellung in der Fabrik etc., miteinzubeziehen und adäquat zu visualisieren.554 In ähnlicher Hinsicht verortet Welsch den Begriff der Virtualität, wenn er ihn als »ästhetische Weltsicht« bezeichnet,555 die den Blick nicht mehr auf die Dinge, sondern lediglich auf die Phänomene richtet. Letzteren fehlt der Unterbau, der große Zusammenhang weltlicher Heterogenität, die Kontingenz des Andersartigen, der Widerstand des Gegensätzlichen,556 und es ist fraglich, ob ein solcher in einem befriedigenden Maß überhaupt zu erzeugen ist. Bereits Lucius Burckhardt forderte ein ›unsichtbares Design‹,557 Holger van den Boom ein »Cognition Design des unmarkierten Falles«,558 worunter gleichsam ein Design dessen zu verstehen ist, was in menschlichen

550 551 552 553 554 555 556 557 558

Drucker (1958: 36). Entsprechend ist auch das dazugehörige Menschenbild eines des »Gestalters der Ordnung«, der nicht an den statischen Dingen, sondern an den Veränderungen ansetzt: »[…] durch Vorwegnahme, Vorhersage, Beherrschung und Richtungbestimmung der Veränderung.« Ebd. Aicher (1992: 11). Hüther (2011: 42). Latour (2009: 371). Ebd. Vgl. Ebd. Vgl. Welsch (1996: 34). Entsprechend spricht Welsch davon, dass die Welt, wie wir sie in ihrer materiellen Tiefe begreifen, »so wenig Widerstand« biete, da sie aus »formbarstem, leichtestem Stoff « bestünde. Ebd.: 15. Vgl. Burckhardt (1980/2012: 16ff). Vgl. van den Boom (2011: 37ff).

291

292

Prozess als Gestalt

Lebenswelten und Gesellschaften als selbstverständlich bzw. als angemessen und richtig aufgefasst wird. Es müssten diejenigen (unsichtbaren) Zusammenhänge in Betracht gezogen werden, die sich nicht auf vorderster Ebene offenbaren, sondern vielmehr diejenigen, welche sich in den tieferliegenden Schichten der Designaufgabe verbergen; die Neben- und Fernwirkungen von Handlungsentscheidungen, wie Dietrich Dörner es im Zusammenhang mit komplexem Problemlösen beschreibt.559 Die technischen Mittel, die dies zu leisten vermögen, erweitern dabei stetig den Einzugsbereich derjenigen Daten, die für solche Aufgaben – im Sinne eines Latour’schen Ding-Designs – von hohem Nutzen sein könnten. Algorithmen, künstliche neuronale Netzwerke und Quantencomputer arbeiten daran, die Welt in ihrer »datenförmigen Verdoppelung«, wie Armin Nassehi es nennt,560 so detailgetreu wie möglich abzubilden – nicht nur in ihrer reinen Oberflächlichkeit, wie es durch bildgebende CAD-Verfahren bereits längst in realistischem Maßstab herzustellen ist,561 sondern in ihrer Tiefenqualität, welche die Verhältnisse und Zusammenhänge miteinschließt, die zwischen den Einzelphänomenen bestehen. Damit decken etwa künstliche neuronale Netzwerke durch die Erfassung von Regelmäßigkeiten und Mustern jene Zusammenhänge auf, welche ohne sie nicht zu erfassen und ebenso wenig wahrzunehmen wären. Gleichsam sind sie dazu imstande, diese weltlichen Zusammenhänge in einem Maßstab zu visualisieren, der für Menschen (und Designer) handhabbar resp. gestaltbar ist. Es wäre nun jedoch vermessen, anzunehmen, dass die sich stetig erhöhende Rechenleistung der computationalen Mittel als Allheilmittel für ein zukünftiges DingDesign zu gebrauchen wäre, sobald sie erst einmal einen Punkt erreicht hat, an dem sie, im Sinne einer ubiquitären Virtualität, dazu imstande ist, alles zu erfassen und ebenso alles gestalterisch verhandelbar zu machen. Eine rein quantitative Ansammlung von Einzeldaten lässt es lediglich bedingt zu, eine Aussage über die Bedeutsamkeit des Ganzen bzw. über Teilaspekte desselben zu treffen. Welsch weist in dieser Hinsicht und in Erweiterung des Begriffs der Virtualität darauf hin, dass »weder die Einzeldinge noch die singulären ästhetischen Erscheinungen ausschlaggebend [sind], sondern deren Zusammenhang, ihr Verhältnis, ihre Konstellation im Ganzen.«562 Ebenso versuchte bereits die Gestaltpsychologie, das Phänomen mit dem Begriff der Übersummativität für die Wahrnehmungsforschung in eine fassbare Form zu bringen, indem sie vor allem auf die Bedeutsamkeit der Verhältnisse zwischen den Einzelbestandteilen hinwies.563 Es fehlte beiden Betrachtungen allerdings an einer aussagekräftigen Anschauungsform resp. an angemessenen »Visualisierungswerkzeugen«, wie Latour sie einfordert,564 welche nicht 559 Vgl. Dörner (2002: 59ff). 560 Nassehi (2019: 33ff). 561 Vgl. dazu etwa gegenwärtige Bildgenerierungssoftware (›render-engines‹) wie Redshift, Arnold, Octane, VRay oder Nvidia Iray. Eine pessimistische Form dieser Verdopplung, die sich an der blinden Reproduktion und nicht an den Tiefenverhältnissen orientiert, findet sich dabei bereits bei Baudrillard, der von einer Verdopplung des Realen spricht, die Letzteres im Hyperrealismus der elektronischen Bildmedien aufzulösen vermag. Vgl. Baudrillard (1976/1982 : 112ff). 562 Welsch (1996: 34). 563 Vgl. dazu weiter oben Kapitel 5 ›Gestalt und Parametrie‹. 564 »Wo sind die Visualisierungswerkzeuge, mit denen sich die widersprüchliche und kontroverse Natur von uns angehenden Sachen repräsentieren lässt?« Latour (2009: 372).

7. Kreativität und Parametrie

die Bestandteile, sondern die Verhältnisse sichtbar und begreifbar machen, ohne sie dabei festzuschreiben. Einen Schritt in diese Richtung vermögen neuere technische KI-Systeme vorzubereiten, etwa wenn sie Verkehrsströme in Intensitäten, Bevölkerungsaufkommen in Verdichtungen oder Handlungsentscheidungen als sequenzielle Animationen darstellen und sich damit eine neue Dimension der Lesbarkeit von Informationen offenbart, die sich nicht am konkreten Einzelnen, sondern am gewichteten Ganzen orientiert. Die entsprechenden technischen Systeme sammeln dabei Datensätze und filtern sie gemäß einer erwünschten/designten Art und Weise, sodass daraus Informationen und aus diesen wiederum neue Erkenntnisse abzuleiten sind. Eine grundlegende Notwendigkeit besteht dabei nicht zuletzt darin, den Datensätzen eine Richtung voranzustellen, sodass sie keine isolierten Einzelbestandteile, sondern in sich verbundene Ganzheiten herausbilden können, die zu einer erkenntnisbringenden Aussage resp. zu Information avancieren, d.h. zu Unterschieden, die wirklich einen Unterschied machen.565 Wäre alles mit allem verbunden, wäre das Relevante nicht vom Irrelevanten zu trennen und umgekehrt.566 Es bedarf einer Einschränkung bzw. einer Richtung, die erst aufgrund ihrer einschränkenden Funktion eine Vergleichbarkeit und Bedeutungszuweisung zulässt.567 Für die technischen Medien der Mustererkennung gilt es entsprechend, zwischen dem Wichtigen (dem Relevantem) und dem Unwichtigen (dem Irrelevanten) Verhältnisse anzulegen, aus denen sich durch einen quantitativen Abgleich mit Referenzdaten wiederum Wichtungen ergeben, die sich zuerst als Wahrscheinlichkeiten numerisch artikulieren und sich sodann als Intensitäten, Verdichtungen oder Animationen gleichsam visualisieren lassen. Auf diese Weise etablieren sich nicht nur neue Beziehungen, sondern auch Räume für neue Bedeutungen, die diesen zugewiesen werden können. Was für die computationale Mustererkennung eine ausschließlich technische Angelegenheit ist, kann für den Menschen nicht zuletzt als eine kreative betrachtet werden: Was die Daten für den Computer sind, sind für den Menschen – im ursprünglichen Sinne des Begriffs der ›Daten‹ (lat. ›datum‹ = dt. ›das Gegebene‹)568 – die Gegebenheiten; die Situationen, die Werkzeuge, die Anwendungsmöglichkeiten etc. Innerhalb dieser Gegebenheiten gilt es nun im Sinne der obigen Ausführungen, (neue) Verhältnisse anzulegen und Wichtungen vorzunehmen, dabei jedoch nicht allein das Relevante vom Irrelevanten abzusondern, sondern darüber hinaus – und gemäß der weiter oben angeführten Definition Weisbergs – »aus dem Irrelevanten Bedeutung zu ziehen und Sinnzusammenhänge in Widersprüchen zu erkennen.«569 Die kreative Leistung vermag entspre565 Wie Gregory Bateson es einst formulierte: »Was wir tatsächlich mit Information meinen – die elementare Informationseinheit –, ist ein Unterschied, der einen Unterschied ausmacht, […].« Bateson (1981: 582). 566 Vgl. Nassehi (2019: 45). 567 Diese Einschränkung stellt auch ein wesentliches Charakteristikum der gestalterischen Spielräume dar, die weiter oben ausführlich diskutiert wurden. Vgl. dazu Kapitel 7.4 ›Spiel und Integration‹. 568 Kluge; Seebold (2011: 182): Daten. 569 Weisberg (1989: 16). Vgl. ebenso die einleitenden Ausführungen zum Begriff und Phänomen der Kreativität in Kapitel 7.1, insbesondere zu den Eigenschaften der kreativen Person, welche in der Kreativitätsforschung nicht zuletzt dadurch charakterisiert wird, dass sie Widersprüche, Spannungen und Unsicherheiten aushält und gleichsam an der Auflösung derselben arbeitet.

293

294

Prozess als Gestalt

chend nicht darin zu bestehen, das Relevante vom Irrelevanten zu trennen, sondern vielmehr, das eine im anderen zu integrieren, wie es weiter oben am Phänomen des Spiels und dem Prozess der Integration gezeigt wurde.570 Die (kreative) Leistung besteht entsprechend darin, dem Widerspruch entgegenzuarbeiten, indem Wichtungen und Verhältnisse zunächst aufgebrochen und anschließend neu verteilt, verhandelt und in neue Sinn- und Bedeutungszusammenhänge gebracht werden. Es gilt, wie Hans Ulrich Gumbrecht es für eine gegenwärtige Perspektive auf Kreativität im Verweis auf Heideggers Begriff der Zuhandenheit auf den Begriff gebracht hat, »lebenswerte Verhältnisse zwischen einer den Körper einschließenden Existenz und der Welt der Dinge zu finden und zu entfalten« und in dieser Hinsicht jeweils ganz »eigene Sphäre[n] der Richtigkeit« zu etablieren.571 Wenn dem Irrelevanten demnach eine Wichtung und gleichsam damit Wichtigkeit zugesprochen werden kann, so kann daraus – durch Kreativität – reziprok eine eigene Sphäre der Richtigkeit erwachsen. Gumbrecht nennt als markantes Beispiel den Apple Gründer Steve Jobs, der »unser Verhältnis zur Welt der Dinge verwandelt hat – ohne auch nur eine einzige naturwissenschaftliche Entdeckung oder ingenieurwissenschaftliche Erfindung für sich beanspruchen zu können.«572 Damit bestärkt Gumbrecht Latours Argumente dafür, dass eine modernistische Betrachtung der Entwicklungen in den gegenwärtigen, multiplen Sphären von Lebenswelten keinen Bestand mehr haben kann, eben weil es keine Wahrheiten mehr sind, die aufgedeckt resp. erfunden, sondern Richtigkeiten, die gestaltet resp. redesignt werden.573 Eben jene Richtigkeiten verstehen sich im erweiterten Diskurs um Kreativität dabei nicht etwa als scharf trennbare Sphären bzw. als geschlossene Systeme (wie sie Apple und andere Hersteller etwa in Produktform anbieten), sondern als integrative Wichtungen, welche die Verhältnisse der Lebenswelt im Ganzen sukzessiv verändern. Entsprechend können sie nicht isoliert, sondern nur in der jeweiligen Verbindung zu ihrem Umfeld erfasst werden, indem sie dieses mehr oder weniger stark verändern; sowohl durch ein vorsichtiges (Re)Design als auch durch ein widerspenstiges, kreatives Denken, welche sich gleichsam immer wieder neu und in einem kontinuierlichen Prozess an ihrem Umfeld ausrichten. 570 Vgl. dazu Kapitel 7.4 ›Spiel und Integration‹. 571 Gumbrecht (2015). Vgl. in gleichem Zusammenhang ebenso Gumbrechts Vortrag an der HfG Offenbach unter dem Titel ›Wie veraltet ist der Glaube an Kreativität?‹. Gumbrecht (07.12.2015). In verallgemeinerter Hinsicht formuliert es auch Küster für die gestalterische Disziplin, wenn er darlegt, dass »Design […] der Beziehung des Menschen zur Welt überhaupt [dient].« Küster (2000: 138). 572 Gumbrecht (2015). Hier sei auf die Unterscheidung von Erfindung und Innovation hingewiesen, wie sie etwa bei David Nye im Verweis auf James Utterback zu finden ist. Vgl. Nye (2007: 33ff). Demnach generieren Erfindungen Konzepte für neue Produkte und Prozesse, während Innovationen als Verbesserung bestehender Systeme zu verstehen sind, die aus Erfindungen hervorgehen. Vgl. Ebd. Entsprechend wären es Innovationen, die, mit Hinsicht auf die bisherige Diskussion, als ReDesign zu verstehen wären. Wenn Gumbrecht also davon spricht, dass Steve Jobs keine Erfindungen gemacht, d.h. kein Altes durch ein radikales Neues ersetzt habe, so wäre Jobs im Latour’schen Sinne kein Modernisierer, sondern ein Designer: »Je mehr wir uns selbst als Designer verstehen, desto weniger verstehen wir uns als Modernisierer.« Latour (2009: 358). Ebenso spricht Latour dem Design jeglichen Erfindungs-Charakter ab, wenn er konstatiert, dass in Design »nichts Grundlegendes« steckt. Ebd. 573 Wie Gumbrecht es in Bezug auf die Apple-Produkte darlegt: »Jene Produkte decken keine Wahrheiten auf, sondern entfalten ihre eigene Sphäre der Richtigkeit, indem – und solange – sie laufen.« Gumbrecht (2015).

7. Kreativität und Parametrie

Wie steht es dabei nun um die parametrische Perspektive? Die Erörterung hat nun einiges zusammengetragen, was zur besseren Einordnung knapp rekapituliert werden soll: Latour stellt der traditionellen modernistischen Betrachtung eine erweiterte Auffassung eines Designs gegenüber, das sich einerseits durch eine qualitative Ausdehnung des Begriffsumfangs als auch andererseits durch eine quantitative Ausweitung der Anwendungsfelder – auf die gesamte menschliche Lebenswelt – kennzeichnet. Dadurch löse sich die »typisch modernistische Wasserscheide zwischen Materialität auf der einen und Design auf der anderen Seite […] langsam auf.«574 Mit Sloterdijk und seinem Begriff der Sphären argumentiert Latour entsprechend, dass es kein Außen, keine unabänderlichen Tatsachen mehr gäbe, die nicht dem Einzugsbereich von Design unterlägen. Vielmehr liegt in dieser ubiquitären Gestaltbarkeit der Welt »nicht die große Geste eines radikalen Abschieds […]«, sondern es »bleibt immer die Notwendigkeit, alles noch einmal neu zu machen, […]«,575 im Sinne eines ReDesigns. Design sei somit »einer der Begriffe […], die das Wort ›Revolution‹ ersetzt haben!«576 In dieser Hinsicht ist es nicht der radikale, disruptive Bruch, sondern der kontinuierliche Prozess, der Design als solches auszeichnet.577 Was Latour dabei jedoch fehlt, ist ein adäquates Werkzeug, um die Veränderungen der Lebenswelt für das Design in eine handhabbare und gestaltbare Form zu bringen. Er fordert »Visualisierungswerkzeuge, mit denen sich die widersprüchliche und kontroverse Natur von uns angehenden Sachen« repräsentieren lässt;578 »ein Mittel, um ›Dinge‹ zusammenzuziehen«.579 Ausgehend von dieser Forderung konnte in der Diskussion ein Querverweis zur ästhetischen Betrachtung der Phänomene angestellt werden, welche mit Welsch und dem Begriff der ›Virtualität‹ eben dort ansetzte, wo Latours Erörterungen endeten. Welsch umschreibt mit dem Begriff der Virtualität jene Form einer Ästhetisierung, die sich nicht nur auf die materielle Lebenswelt, sondern ebenso auf die immateriellen Wirkkräfte bezieht, die aus dieser entstehen.580 In dieser Hinsicht versteht sich jene Virtualität nur noch bedingt auf die ästhetische Ausstaffierung von Welt, sondern vielmehr auf das Bewusstsein der Modellierbarkeit derselben.581 Sie bestärkt die Tendenz einer Abschottung gegenüber der Sphäre des Realen, der »Auflösung der Wirklichkeit, der Abgehobenheit und tendenziellen Unwirklichkeit […].«582 Damit kann Welschs ästhetischer Begriff im übertragenen Sinn für eine Form der artifiziellen Neubildung von Welt herangezogen werden, wie sie auch in Prozessen der Digitalisierung vorherrschend ist, 574 Latour (2009: 357). 575 Ebd.: 370. 576 Ebd.: 358. A.a.O.: »In diesem Sinne verstehe ich das Wort Design als einen klaren Ersatz für Revolution und Modernisierung.« Ebd.: 361. 577 Van den Boom hat dies ebenfalls und bereits früh im allgemeineren Diskurs über eine ›Digitale Ästhetik‹ herausgestellt: »Die Mikrokosmen der Kunst, der Kultur und der Wissenschaft benötigen zur Aneignung stete Umarbeitung; die Schatzkammern der Werte wollen immer neu geordnet sein. Neues kann man nur aus Altem machen. […] Das Neue, als Ursprünglichkeit, als Originalität, erscheint verbraucht. Was uns interessiert, entsteht aus Akkumulation.« van den Boom (1987: 63-64). 578 Latour (2009: 372). 579 Ebd.: 373. 580 Vgl. Welsch (1996: 17, 34ff). 581 In dieser Hinsicht spricht er der Moderne ihren modernistischen Charakter ab, weil »Wahrheit sich in der Moderne selbst als ästhetische Kategorie entpuppt hat, […]« Ebd.: 53. 582 Ebd.: 35.

295

296

Prozess als Gestalt

etwa wenn der Soziologe Armin Nassehi von einer »Verdopplung der Welt in Datenform« spricht.583 Computationale Werkzeuge – etwa künstliche neuronale Netzwerke – lassen dabei auf dieser verdoppelten Ebene Regelmäßigkeiten als Sichtbarkeiten entstehen, die ohne sie nicht erfassbar und ebenso wenig zu visualisieren gewesen wären. Sie machen somit sichtbar – und damit verhandelbar –, was zwar vorher bereits in der Welt vorhanden war, aber als unsichtbar und entsprechend unabänderlich – als Außen – hingenommen wurde. Dieses Außen verschwindet in dieser Betrachtungsweise einerseits in der Wahrnehmung der Welt als ganzheitlich modellierbare, als auch innerhalb der technischen Sphäre selbst, wie Nassehi konstatiert: »Für die vernetzten Daten gibt es kein Außen, sie sind nur Rückkopplungen im Medium ihrer selbst.«584 In dieser virtuellen Neubildung resp. der datenförmigen Verdopplung der Welt bleiben nun jedoch nicht die Inhalte, sondern lediglich die Verhältnisse konstant. Die analogen Phänomene weltlicher Wirklichkeit werden durch die digitale Binärlogik zwar in stetig höherer Auflösung übersetzt, doch bilden sie in isolierter Form nur blinde Repräsentanten ohne eigenen Mehrwert. Latour kritisiert diesen (modernistischen) Umstand, wenn er darlegt, dass wir zwar »wissen, wie wir einen Gegenstand zeichnen können, aber wir haben keine Ahnung, wie es ist, ein Ding zu zeichnen.«585 Zu einem Ding werden Daten in dieser Lesart nur, sofern die Verbundenheit zur Lebenswelt, sprich die Verhältnisse, mit in die Prozessierung eingebunden werden. Künstliche neuronale Netzwerke und ›deep learning‹Algorithmen arbeiten entsprechend mit netzartigen Strukturen, in denen Verhältnisse – je nach Art und Intensität des Trainings – jeweils stärker und schwächer gewichtet werden können, woraus sich eine Wahrscheinlichkeit und letztlich eine Richtigkeit ergeben (etwa im Erkennen eines Hundes, der in einem digitalen Bild vor einem Haus liegt oder einer Person, die aus mehreren Blickwinkeln erkannt werden kann).586 Im Verweis auf Hans Ulrich Gumbrecht konnte daraufhin für den Begriff der Kreativität anschaulich gemacht werden, dass jene Richtigkeit entsprechend nicht in alter Tradition als absolutes, sondern vielmehr als dynamisches und relationales Phänomen zu betrachten ist, sofern es sich nicht an objektiven Wahrheiten und disruptiven Brüchen, sondern sich stets aufs Neue an sich kontinuierlich verändernden Umständen orientiert; als ReDesign, das nicht bloß neue Produkte, sondern neue Verhältnisse zur Welt etabliert und diese gleichsam sichtbar macht. Die parametrische Perspektive versteht sich nun nicht als Befürworter der einen (disruptiven) oder der anderen (kontinuierlichen) Auffassung, sondern vielmehr als Vermittler zwischen beiden. In parametrischer Hinsicht schließen sich beide Betrachtungsweisen nicht aus, sondern offenbaren sich lediglich in unterschiedlichen Auflösungsgraden. Der Begriff der Auflösungsgrade ist dabei dem Feld des Problemlösens entnommen und fand bereits weiter oben im Zusammenhang mit Kreativität und

583 584 585 586

Nassehi (2019: 33). Ebd.: 101. Latour (2009: 371). Die Erfolgsquote dieser Richtigkeits-Wahrscheinlichkeiten von künstlichen neuronaler Netzwerken übersteigt seit dem Jahr 2015 bereits die menschliche. Vgl. McAfee; Brynjolfsson (2019: 21).

7. Kreativität und Parametrie

dem Begriff der Improvisation eine erste Anwendung.587 Auflösungsgrade bestimmen in der menschlichen Wahrnehmung, so Dörner, den Einzugsbereich derjenigen Wahrnehmungsinhalte, die für eine angestrebte Problemlösung relevant sein könnten.588 Springt beispielsweise das Auto nicht an, kann das Problem – irgendwo – am Auto liegen, in näherer Betrachtung womöglich im Motorraum, dort ggf. an der Batterie, den Kontaktstellen, weiter an den von diesen abgehenden Kabeln, wiederum an deren Isolierung, den darunterliegenden Kontakten usw. Mit jeder Iteration, welche die Ursache für das Problem einzuschränken versucht, erhöht sich der Auflösungsgrad des Realitätsbereiches, wie Dörner es benennt, sodass der Einzugsbereich neuer, konkreter Einzelinformationen sich in die Tiefe hin ausweitet und differenzierte(re)s Handeln somit erst möglich macht. Der Auflösungsgrad ist dabei für jede neue (Problem-)Situation frei wählbar – das Auto beispielsweise kann bei geringem Auflösungsgrad als Materieklumpen mit bestimmter Höhe, Breite und Tiefe betrachtet werden, bei hohem Auflösungsgrad als aus Atomen bestehende Molekülansammlung in bestimmter Anordung.589 Beide Betrachtungsweisen sind gleichsam nur bedingt zielführend – die eine zu grob, die andere zu fein – weshalb Dörner betont, dass für die Problemlösung die Wahl des richtigen Auflösungsgrades entscheidend ist. Entsprechend schlägt er vor, dass man ihn »zunächst möglichst niedrig hält und ihn erst bei Mißerfolg des Problemlöseversuchs steigert«, sodass sich durch die »Erhöhung des Auflösungsgrades […] die Möglichkeit für differenziertes Handeln [bietet].«590 Es wird nun offensichtlich, wie der Begriff der Auflösungsgrade auf die angestellte Diskussion übertragen werden kann: Mit Hinsicht auf Latours Schilderungen der modernistischen Tradition von unabänderlichen Tatsachen resp. Wahrheiten, Brüchen, Revolutionen, sprich Disruptionen, sind diese aus parametrischer Perspektive als Betrachtungen mit geringem Auflösungsgrad zu verstehen. Die Gegebenheiten und Zusammenhänge werden dabei in grober Auflösung und wenig differenziert betrachtet, da einerseits die Mittel und Werkzeuge fehlen, sie in tieferen Ebenen zu ergründen, als auch andererseits die Notwendigkeit bzw. Motivation, überhaupt in diese vorzudringen. Wie das Auto, das als Materieklumpen betrachtet wird, offenbart die Lebenswelt in geringen Auflösungsgraden wenig Ansetzungspunkte für differenziertes Handeln. Im Gegensatz dazu fordert Latour mit der qualitativen und quantitativen Ausweitung des Design-Begriffs als auch der technologischen resp. artifiziellen Durchdringung der Welt (wie auch Welsch es mit dem Begriff der Virtualität darlegt) eine sensibilisierte Haltung dafür ein, die Welt in ihrer ubiquitären Gestaltbarkeit zu betrachten, in dessen höchsten Auflösungsgraden, als Kontinuität. Durch die Erhöhung der Auflösung offenbaren sich dabei neue gestalterische Räume, wie es etwa an Beispielen aus der Raumfahrt, der Mikroelektronik, oder der Genforschung anschaulich wird.591 Diese Räume sind jedoch keine gänzlich neuen im Sinne disruptiver Erfindungen, die sich

587 Vgl. dazu weiter oben Kapitel 6 ›Problemlösen und Parametrie‹ und 7.3 ›Situation und Improvisation‹. 588 Vgl. Dörner (1976: 18ff). 589 Vgl. Ebd.: 19. 590 Ebd. 591 Vgl. dazu etwa eine anschauliche Zusammenstellung der Entwicklungen bei Hart-Davis (2018).

297

298

Prozess als Gestalt

plötzlich und aus dem Nichts heraus auftun, sondern vielmehr kontinuierliche Neuerungen im Sinne von Innovationen,592 ReDesigns, die an ein Vorhandenes anschließen, das vorher lediglich noch nicht in hinreichender Auflösung erfassbar war und nun in höherer Auflösung neue gestalterische Ansatzpunkte erkennen lässt.593 In diesem Verständnis ist Latours Feststellung damit zu vereinbaren, wenn er von der Notwendigkeit spricht, »alles noch einmal neu zu machen«.594 Es muss nun – und immer wieder – alles neu gemacht resp. gestaltet werden, weil die Auflösung der Erfassbarkeit weltlicher Zusammenhänge fortwährend ansteigt und damit die Möglichkeiten zu differenzierterem Handeln – durch das Setzen und Variieren neuer Parameter – stetig umfangreicher und feingliedriger werden. Mit erhöhter Auflösung steigt jedoch nicht nur die Anzahl neu zu verhandelnder Einzelphänomene, sondern ebenso die Möglichkeit zur Erfassung der Verhältnismäßigkeiten, die zwischen ihnen bestehen. Je höher etwa der Realitätsbereich ›Auto‹ aufgelöst und durchdrungen wird, desto mehr Beziehungen und Verhältnisse tauchen auf neuen Ebenen auf; etwa, wenn die Lichtmaschine Energie in elektrischen Strom umwandelt, dieser in der Batterie gespeichert und über die Zündspule und den Verteiler zu den Zündkerzen im Motorblock geleitet wird. Auf atomarer Ebene sind die positiven und negativen Ladungen der Atome entsprechend ausschlaggebend für ein Verständnis der Verhältnisse, mit denen dann etwa ein geschlossener Stromkreis gestaltet werden kann. Wie es bereits im vorangegangenen Kapitel für das Phänomen des Spiels resümiert wurde, werden durch Parameter nicht nur die Einzelbestandteile, sondern vor allem die Regelsysteme dazwischen sichtbar. Einen Parameter zu verändern heißt entsprechend, seine Wirksamkeit in den angelegten Verhältnissen unmittelbar wahrzunehmen, wodurch sich die (spannungsvollen) Zyklen der Entwurfsiteration zeitlich und somit vor allem qualitativ verdichten, da unmittelbar zu beurteilen ist, welche Veränderung am zielführendsten erscheint resp. an welchen Stellen Wichtungen entstehen. Die Erhöhung der Auflösung lässt dabei nicht nur eine Offenlegung der Verhältnisse im kleinsten Maßstab, auf einer Mikro-Ebene, zu, sondern ebenso im anderen Extrem, auf einer Makro-Ebene. Dies macht Nassehi etwa anhand der digitalen Messbarkeit von Regelmäßigkeiten innerhalb von Gesellschaften anschaulich, wenn er davon spricht, dass Gesellschaften sich »mit Hilfe eines digitalen Blicks« selbst entdecken.595 Digitale Mustererkennungstechniken (etwa künstliche neuronale Netzwerke) decken dabei auf einer (verdoppelten) Makro-Ebene auf, was analog – auf der menschlich-physischen Meso-Ebene – lange unsichtbar geblieben ist. Wenn Messbarkeit sich auf eine

592 Zur spezifischen Unterscheidung von Erfindung und Innovation s. auch Anm. 556 in diesem Kapitel. 593 In ähnlicher Hinsicht formuliert es auch Arnold, wenn er den Begriff der Kreativität im digitalen Zusammenhang mit Hinsicht auf eine dialektische Emergenz diskutiert: »Kreativität in diesem Sinne bedeutet selbst bei aller Disruptivität nicht voraussetzungslose Neuschöpfung, sondern Neugestaltung, nicht Neuschöpfung, sondern Wissensschaffung. So gibt es nicht nur einen Gesichtspunkt, aber es gibt immer wieder einen Gesichtspunkt, durch den sich uns etwas zu erkennen gibt – sei es nun ein anderer, etwas anderes oder wir selbst.« Arnold (2020: 68). 594 Latour (2009: 370). 595 Nassehi (2019: 59).

7. Kreativität und Parametrie

Abb. 15: Eigene Darstellung. Die Abbildungen zeigen drei Zustände einer fiktiven Topologie. Der Auflösungsgrad steigt von (a)=5, über (b)=10 zu (c)=n.

012

032

042

empirisch erfassbare Quantität im großen Maßstab bezieht, wie etwa auf das Verhalten, die Routinen oder die Prozessabläufe des menschlichen Lebens im Allgemeinen, so ist dies eine neue Form der Erfassbarkeit, welche zwar rein faktisch an den Einzelphänomenen und Teilschritten festhält, jedoch nunmehr die Verhältnisse und Zusammenhänge dazwischen anschaulich macht: Viele Autos auf der Straße werden etwa nicht mehr als eine finite Zahl einzelner Autos mit bestimmten Abständen zueinander, sondern als Verdichtung beschreibbar, als kontinuierliche, temporäre, lokale, graduelle Intensitätsdarstellung einer quantitativ messbaren Dimension. Der Verdichtung resp. Wichtung geht es entsprechend weniger um eine exakte Wahrheit im Einzelnen, sondern vielmehr um eine temporäre und lokale Richtigkeit im Zusammenhang: Die modernistische Scheide zwischen 0 und 1, schwarz und weiß, richtig und falsch (geringer Auflösungsgrad) wird aufgehoben zugunsten einer Maßgabe von Verhältnismäßigkeiten, die zwischen den Extremen interpolieren und welche erst dann ansichtig werden, sobald sich die Auflösungsgrade der Betrachtung erhöhen. In dieser Hinsicht kann die Diskussion nun mit einem Verweis auf Abb. 15 zusammengefasst und vorerst abgeschlossen werden. Die Abbildung veranschaulicht drei Zustände einer fiktiven Topologie, die in jeweils verschiedenen Auflösungsgraden (a), (b) und (c) dargestellt ist. Während Zustand (a) aus klar trennbaren Quadern mit jeweils unterschiedlicher Höhe besteht, die in ihrer Gesamtheit nur bedingt aufeinander verweisen und kaum eine Verbundenheit erkennen lassen, so tritt letztere in Zustand (b) durch die verdoppelte Auflösung bereits deutlicher hervor. In Zustand (c) hat der Auflösungsgrad seine höchste Form erreicht, wodurch durch die Topologie nun nicht mehr als Verbund stufiger Einzelbestandteile, sondern als gewichtetes Ganzes wahrgenommen werden kann; als kontinuierlicher Prozess. In diesem Zustand dominieren geschlossene Verbundenheit und wechselseitige Dynamik – alles verändert sich im gegenseitigen Einfluss; alles hängt – in verschiedenen Wichtungen und Verhältnissen – miteinander zusammen.596 So kann eine bestimmte Veränderung einzelner Parameter an einer Stelle mal eine stärkere, an anderer Stelle mal eine schwächere Veränderung

596 Wie Gabriel es im allgemeineren Zusammenhang mit Hinsicht auf die Digitalisierung formuliert: »Die Digitalisierung erzeugt nicht nur neue Produkte, sondern zugleich eine neue Einstellung ihnen ge-

299

300

Prozess als Gestalt

des Ganzen bewirken. Dies heißt jedoch nicht, dass sich die Verhältnisse erst in Zustand (c) etablieren – sie sind bereits in den Topologien vorhanden,597 allerdings werden sie in Zustand (c) erst unmittelbar sichtbar und damit auch erst gestalterisch handhabbar.598 In diesem Zusammenhang erfüllen Parameter eine Doppelfunktion, indem sie einerseits konstitutiv an der Erhöhung der Auflösung der Gegebenheiten beteiligt sind, ebendann, sobald sie immer tiefer in die Sphäre des Gestaltbaren, in die Mikro-Ebene, eindringen und damit neue Inhalte und Verhältnisse offenlegen (extensionale Funktion), andererseits, indem sie auf der Makro-Ebene eine neue Handhabbarkeit erzeugen, etwa durch Funktionen, welche die Verhältnisse der Einzelbestandteile über wenige Parameter steuern lassen (komprimierende Funktion).599 Zustand (c) vermag zwar aus einer n-Anzahl von Einzelpunkten bestehen, doch wird davon nicht jeder auch einzeln verändert. Vielmehr etabliert sich durch Parametrisierung eine übergeordnete Form der Handhabbarkeit, welche die Einzelpunkte über Wichtungen zusammenfasst und anhand welcher das Gegebene in seiner Gesamtheit verändert werden kann.600 Dabei werden die Entwicklungen nicht unterbrochen, sondern vielmehr dynamisch und kontinuierlich aktualisiert, sodass nicht mehr von absoluten Wahrheiten, Brüchen und Neuanfängen, sondern vielmehr von Richtigkeiten, Übergängen und Kontinuitäten gesprochen werden muss.601 In dieser Hinsicht könnte Latours Forderung nach jenen

597

598

599

600

601

genüber. Sie liefert nicht nur neue Dinge, sondern Ideen davon, wie Produkte zusammenhängen.« Gabriel (2020: 131). ›natura non facit saltus‹ – die Natur macht keine Sprünge, hieß es seit der griechischen Antike bis zum Ende des 19. Jahrhunderts und dem Beginn der Quantenforschung, die abermals die Auflösung erhöhte und den Satz widerlegte. Vgl. van den Boom (1987: 102); Gessmann (2009: 401), Kontinuität. Dennoch kann der Ausdruck die Entwicklungen für den menschlichen Auflösungsgrad und die Diskussion um die gestalterische Praxis weiterhin anschaulich abgrenzen, wie Dehlinger es etwa darlegt: »Der Entwerfer entwickelt Lösungen, die Natur kennt eigentlich keine Lösungen, sie kennt nur Entwicklung.« Dehlinger (2000: 27). In dieser Hinsicht bestünde das übergeordnete Ziel des Entwerfens darin, Lösungen als prozessuale Entwicklungen zu verstehen, als Evolutionen auf Basis künstlich-genetischer Selektionen (etwa durch genetische Algorithmen), die nicht anders können, als sich als Anpassungen an ihre Umwelt zu entwickeln. Wie Gabriel es im allgemeineren Zusammenhang mit Hinsicht auf die Digitalisierung formuliert: »Die Digitalisierung erzeugt nicht nur neue Produkte, sondern zugleich eine neue Einstellung ihnen gegenüber. Sie liefert nicht nur neue Dinge, sondern Ideen davon, wie Produkte zusammenhängen.« Gabriel (2020: 131). Damit benennt Gabriel für die Digitalisierung, was Gumbrecht als Grundlage für eine gegenwärtige Kreativitätsauslegung angeführt hat, wenn er davon spricht, »lebenswerte Verhältnisse zwischen einer den Körper einschließenden Existenz und der Welt der Dinge zu finden und zu entfalten« Gumbrecht (2015). Vgl. dazu sowohl Kapitel 4.2 ›Distanz und Interaktion‹ als auch Kapitel 4.7 ›Komplexität und Einfachheit‹, welche diese Dualität des Parametrischen (Komplexitätsbildung und Handhabbarmachung von Komplexität) anschaulich machen. Anschaulich wird dies etwa in CAD-Programmen, wenn geometrische und grafische Inhalte nicht einzeln, sondern etwa über neue Repräsentationsformen als Gruppierungen und Wichtungen gestaltet werden können. Vgl. dazu etwa die Bearbeitung von Zeitverlaufskurven in Adobe After Effects oder die parametrischen Deformer-Elemente in Maxon Cinema 4D. Wie Bernhard von Mutius es als Anspruch einer ›anderen Intelligenz‹ im Sinne eines InBeziehungen-Denkens formuliert: »Wir müßten beginnen, unsere Wahrnehmung zu verschieben: von den harten Tatsachen, isolierten Gegenstandsbereichen, feststehenden konkreten Objekten – und damit unverrückbaren objektiven Gegebenheiten – hin zu den beweglichen Verhältnissen, Wechselwirkungen und

7. Kreativität und Parametrie

Visualisierungswerkzeugen, welche die Dinge zusammenziehen, anstatt sie gegeneinander abzugrenzen, einen Schritt näher gekommen werden, wenn diese im parametrischen Zusammenhang in ihren verschiedenen Auflösungsgraden betrachtet werden. Parametrie verschreibt sich entsprechend nicht der einen oder anderen Anschauung, sondern stellt vielmehr eine dynamische Betrachtungsweise dar, die zwischen den Auflösungen vermittelt. Bezogen auf das Feld des Designs als auch auf das Phänomen der Kreativität versteht sich die Betrachtung in höchster Auflösung dabei jedoch nicht immer als die beste: Im Zusammenhang mit kreativem Denken können zu hohe Auflösungsgrade, wie weiter oben gezeigt wurde, einer Umstrukturierung des Gegebenen gar im Weg stehen, insofern, als dass mitunter alle hochaufgelösten Wahrnehmungsinhalte – fälschlicherweise – als relevant betrachtet werden können.602 Dies kann ebenso auf Designprojekte zutreffen, eben wenn das, was in hoher Auflösung ansichtig ist, etwa durch ein überdefiniertes Briefing oder hohe technische Bestimmungen und Anforderungen an ein Produkt, gleichsam als unabdingbare Notwendigkeit für den Entwurf aufgefasst wird. Es gilt dann, weniger die Gestaltungsinhalte, sondern vielmehr die Auflösungsgrade zu verändern; weniger am Konkreten, sondern vielmehr am Konzept zu arbeiten; solange vor- und zurückzutreten, festzuhalten und loszulassen, bis es gelingt, stabile Verhältnisse in den Entwurfsgestalten zu verfestigen, Wichtungen zu etablieren und dadurch, im Sinne der obigen Kreativitätsdefinition, vermeintlich Irrelevantes in Relevantes und vice versa umzudeuten und somit fortwährend neue Zyklen der Gestalt-Bildung anzustoßen; als ReDesign, das die menschlichen Weltverhältnisse kontinuierlich stabilisiert und erweitert.

Kraftfeldern zwischen ihnen.« Mutius (2004b: 274). Eben jene »Kraftfelder« erhalten im parametrischen, digitalen Raum eine unmittelbare Sichtbarkeit, an der sich gleichsam ihre Gestaltbarkeit offenbart. 602 Auch Dörner spricht in diesem Fall von einer Übergeneralisierung, etwa, wenn zu viele Merkmale als relevant eingestuft werden und entsprechend keine Sortierung mehr vorgenommen werden kann. Vgl. Dörner (2002: 138). Im technisch-medialen Bezugsfeld der Datenprozessierung versteht sich eine solche Übergeneralisierung als ›Overfitting‹: Wird ein selbstlernendes System resp. ein künstliches neuronales Netzwerk (KNN) etwa mit nur bestimmten, eindimensionalen Referenzdaten trainiert, bildet es kaum noch Toleranzen für Abweichungen aus, sodass es Muster in zu fremdartigen Bildern nicht mehr zuverlässig erkennt. Vgl. Davies (2012: 709ff).

301

8. Prozess, Gestalt und Parametrie

Die Auseinandersetzung mit dem Begriff der Kreativität und seiner Bedeutung für die gestalterische Praxis der Gegenwart markiert vorerst den Abschluss der vorliegenden Erörterung. Während der eigentliche Begriff der Kreativität dabei weniger im Fokus der Betrachtung stand, waren es vielmehr dessen phänomenologische Merkmale, die in der Diskussion neue Anschlusspunkte aufzeigten: Ein kreativer Entwurfsprozess vermag sich dabei zunächst davon anleiten zu lassen, nicht etwa lediglich nach einer grundlegend korrekten Lösung zu suchen, sondern das Feld der Möglichkeiten weiter aufzuspannen – die Dinge nicht in eindimensionaler Hin-Sicht, sondern als Ab-Sicht vom unmittelbar Naheliegenden zu begreifen und somit eine Breite von mitunter widersprüchlichen und kontroversen Lösungen in den Blick zu nehmen, die wiederum neue gestalterische Anschlusspunkte und Betrachtungsweisen darzubieten vermögen. Dabei spielen, wie gezeigt wurde, vor allem die situativen Gegebenheiten eine maßgebende Rolle als auch die Art und Weise, wie mit diesen umgegangen wird: Eine improvisierte Lösung erscheint dabei gerade nicht als ›creatio ex nihilo‹, als Schöpfung aus dem Nichts, sondern baut vielmehr immer – und immer wieder neu – auf dem Gegebenen auf, als ›creatio ex aliquo‹, der »Schöpfung aus etwas«, wie Großmann es als Charakteristikum kreativer Prozesse benennt.1 Der Begriff der Improvisation konturiert dabei jene Prozesse, die ein Unvorhergesehenes in eine neue Ordnung überführen (lat. ›inpro- videre‹ = dt. ›un- vor- (ge)sehen‹). Neue Ansetzungspunkte und Querverweise ergeben sich im gestalterischen Wechselspiel entsprechend und gerade dann, wenn jene Ordnungen weiter ausdifferenziert, d.h. in verschiedenen Auflösungsgraden betrachtet werden: Wenn ein Kaffeebecher nicht nur als Kaffeebecher (niedriger Auflösungsgrad), sondern als zylinderförmiger Hohlkörper mit Bodenfläche betrachtet wird (höherer Auflösungsgrad), ergeben sich mitunter neue gestalterische Anschlusspunkte und Querverweise (etwa Partyhut, Blumentopf, Gehörschutz etc.). Es wird von der einzelnen Erstverwendung abgesehen, um den Blick auf die derivativen Verwendungsarten in

1

»Kreativität im Zeichen endlicher Verhältnisse gibt es, wo sie sich zeigt, nicht als creatio ex nihilo, sondern lediglich und stets als creatio ex aliquo – als Schöpfung aus etwas. Kreative Prozesse setzen nicht im Nirgendwo an, sie beginnen nicht mit nichts, sie setzen vielmehr etwas voraus, knüpfen an etwas an, das sie transformieren, reformieren oder gar radikal revolutionieren.« Großmann (2020: 3).

304

Prozess als Gestalt

der Breite zu richten. Die Veränderung der Auflösungsgrade bewirkt entsprechend eine Distanzierung der Wahrnehmung zu den Dingen samt den etablierten Verhältnissen, die sie oberflächlich zusammenhalten. Und eben durch diese geschaffene Distanz wird erst ein Spielraum ansichtig, in welchem jene Verhältnisse neu verhandelt und Sinnzusammenhänge neu artikuliert werden können. Die Entfaltung eines entsprechenden, spielerischen Umgangs mit Gestaltungsinhalten wird dabei von einer übergeordneten Ambivalenz begleitet, welche, als Wesensmerkmal des Spiels, die Grenzen zwischen einem strukturellen Innen und Außen (Spielraum), dem performativen Vor und Zurück (Spannungsverhältnisse) und dem daraus resultierendem Sinn und Unsinn (Sinnzusammenhänge) aufweicht und verhandelbar macht. In spielewissenschaftlicher Betrachtung kann die gestalterische Praxis entsprechend als eine des Spielens verstanden werden, die, in Erweiterung der Handlungsform der Improvisation, den Geschehnissen eine sichtbare Kontur gibt, die Prozesse auf Dauer stellt, sie nachvollziehbar macht und zu ganzheitlichen (Sinn-)Gestalten zusammenfügt, wodurch sie jeweils ganz eigene Maßstäbe der Richtigkeit herausbilden. Jedes gestalterische Spiel prozessiert seine Entwurfsartikulation entsprechend nach jeweils eigenen Regeln und Bedingungen, die sich erst dann verfestigen, wenn sie in Anwendung und Vollzug gebracht werden: durch das iterative Wechselspiel aus Festhalten und Loslassen, aus Hin-Sicht und Ab-Sicht, aus einem Sich-Nähern und Sich-Entfernen; durch die Iteration von Varianten, durch das Aushandeln von Richtungen und das Abwägen von Wahrscheinlichkeiten. Das Spiel gibt all jenen Prozessen eine Fassbarkeit, die sich im parametrischen Medium handhaben lässt – durch die Sichtbarkeit relationaler Abhängigkeiten, Bandbreiten, Wichtungen, Auflösungsgraden, Interpolationen, Animationen etc. Daran offenbart sich nicht zuletzt die Bedeutsamkeit der technischen Medialität, in welcher jene Prozesse erfasst, verarbeitet und visualisiert werden, um sie überhaupt gestalterisch anschlussfähig zu machen. Der Fokus verschiebt sich dabei von der reinen Messbarkeit auf die Anwendbarkeit der Phänomene, welche sorgsam gestaltete Anschlusspunkte an die Technik umso notwendiger macht, je undurchsichtiger und komplexer resp. je höher die Auflösungsgrade der technischen Prozesse werden, in denen die menschliche Lebenswelt vermessen werden kann: Wenn unendlich viele Szenarien computational berechnet und als Simulationen erfahrbar gemacht werden können, bedarf es umso dringlicher gestalteter Orientierungspunkte, welche den Umgang mit Technik nicht gemäß technischer, sondern hinsichtlich menschlicher Maßstäbe verhandeln. Dies betrifft dabei nicht nur den vernünftigen Gebrauch der Dinge, sondern gleichsam ökonomische, ökologische, politische, ethische und moralische Maßstäbe, welchen die technische Erhebung, Prozessierung und Evaluation von Daten gerecht werden muss, damit sie die menschliche Lebenswelt tatsächlich sinnvoll erweitern statt sie repressiv einzuschränken. Entsprechend bedarf es einer kontinuierlichen, gestalterischen Achtsamkeit, eines stetigen und sorgsamen ReDesigns, damit menschlich nicht verloren geht, was technisch – gegenwärtig und zukünftig – möglich ist. Parametrie leistet dabei, wie gezeigt wurde, sowohl durch mediale Mechanismen (parametrische Entwurfsprogramme) als auch durch kognitive Betrachtungsweisen (parametrische AbSicht von etablierten Verhältnissen) einen maßgeblichen Beitrag dazu, diese Entwicklung an- und stetig weiter voranzutreiben.

8. Prozess, Gestalt und Parametrie

Im folgenden letzten Kapitel soll daher rekapituliert werden, inwieweit und mittels welcher Phänomene Parametrie einerseits an ebendieser Entwicklung beteiligt ist und andererseits, welche zukünftigen Perspektiven sich daran anschließen lassen. Dazu seien die charakteristischen Wesensmerkmale und Attribute in knapper Übersichtlichkeit ausgeführt, wobei die Darlegung sich vor allem darauf verstehen soll, stets die Anbindung an die gegenwärtige Praxis der Gestaltung zu halten und die entsprechenden Wirksamkeiten daran anschaulich zu machen. Dabei gilt es, Parametrie nicht nur als isoliertes Phänomen darzustellen, sondern vor allem, dessen Bedeutung für jenes prozessuale Geschehen aufzuzeigen, das einem Entwurf seine Gestalt verleiht und entsprechend auch als solche bzw. als Prozess als Gestalt gedacht werden muss.

8.1

Phänomene und Attribute

Wovon ist nun auszugehen, wenn im Kontext des Entwerfens von Prozessen, Gestalten und Parametrie zu sprechen ist? Wie es mit Hinsicht auf ein parametrisches Verständnis nahezuliegen vermag, sind die Dinge nicht klar trennbar, sondern vielmehr im wechselseitigen Diskurs mit einer Gewichtung zu versehen, die die Wirkkraft gegenüber allen anderen Phänomenen anschaulich macht. Entsprechend verstehen sich die folgenden Begriffspaare der Kapitelüberschriften einerseits als übergeordnete Merkmale von Parametrie und einem Verständnis des Design- und Entwurfsprozesses als Gestalt, gleichsam sollen sie jedoch auch für ein parametrisches Bewusstsein der menschlichen Lebenswelt sensibilisieren, das, wie in den obigen Ausführungen deutlich wurde, vor allem in engem Bezug zu den technologischen Bedingungen der digitalen Gegenwart und zu dessen Medien steht. Demnach gilt es jeweils sowohl aufzuzeigen, welche menschlichen Herangehensweisen an die Phänomene damit auf einer Makro-Ebene einhergehen, als auch, die Beobachtungen exemplarisch anhand eines Bezuges zur gestalterischen Praxis auf der Mikro-Ebene anschaulich zu machen. Dabei werden Erkenntnisse aus der gesamten Arbeit herangezogen und stellenweise durch Querverweise erweitert, sodass die Gesamtgestalt eine in sich abgeschlossene Struktur erhält.

8.1.1

Messbarkeit und (Un-)Entscheidbarkeit

Eines der mitunter wesentlichen Merkmale von Parametrie liegt in dessen Begriff selbst begründet, im Wortbestandteil ›-metrie‹ (gr. ›metron‹ = dt. ›das Maß‹). Das Suffix verweist dabei allgemeinhin auf eine Wissenschaft, in der Praktiken der Messung resp. der Vermessung eine übergeordnete Bedeutung einnehmen.2 Dass Parametrie dieser Bedeutung gerecht wird, konnte dabei innerhalb der obigen Auseinandersetzung in mehrfacher Hinsicht anschaulich gemacht werden: Bezog sich die Diskussion zunächst auf die Messbarkeit manuell-handwerklicher Prozesse im Handwerk und produktionstechnischer Prozesse in der frühen Industriedomäne, verschob sie sich im weiteren Verlauf

2

Vgl. Kluge; Seebold (2011: 619), -metrie.

305

306

Prozess als Gestalt

auf die kognitive Sphäre, innerhalb welcher es um Gestaltgesetze, produktives Denken, Problemlösen und nicht zuletzt um Maßstäbe von Kreativität ging, die wiederum hinsichtlich ihrer technischen Bedingungen und Potenziale untersucht wurden. Messbarkeit war – nicht zuletzt durch den technisch-medialen Bezug – immer zugegen, obgleich auf unterschiedlichen Ebenen und in verschiedenen Auflösungsgraden; dabei zumeist nicht als zentrales, sondern vielmehr als randstehendes Phänomen, das die jeweilige Grundlage der Diskussion bildete. Messbarkeit entwickelte sich dabei von einem zentralen Bestandteil des planerischen Handelns (wie in Handwerk und Industrie dargestellt) hin zu einer Domäne, die stetig weiter in die Peripherie der menschlichen Aufmerksamkeit abdriftete (Computation und Vernetzung technischer Systeme) und entsprechend neue, d.h. handhabbare Formen des Umgangs notwendig machte (parametrische Mechanismen). In dieser Entwicklung verlagerte sich Messbarkeit zusehends in den Hintergrund der menschlichen Lebenswelt, wenn nunmehr von Phänomenen der ›Datafication‹, des ›ubiquitous computing‹ und des ›technological unconscious‹ die Rede ist3 – allesamt Prozesse, welche die Verlagerung der technischen Vermessung der menschlichen Lebenswelten in die Randbereiche der menschlichen Wahrnehmung beschreiben;4 vom sichtbaren Vordergrund in den unsichtbaren Hintergrund, wodurch Messbarkeit nicht etwa verschwindet, sondern vielmehr das digitale Netz verdichtet, das den Menschen umspannt.5 Quantitative Messbarkeit erscheint in dieser Hinsicht einerseits durch die Digitalisierung, d.h. die Übertagung analoger Inhalte in binäre/digitale Daten, andererseits durch die Datafizierung, d.h. die computationale Aufbereitung der Daten zur Anschlussverwendung,6 einen Stand erreicht zu haben, der sie als selbstverständliches Phänomen in die menschliche Lebenserfahrung einbettet: Das Smartphone etwa navigiert seinen Besitzer zuverlässig durch die Analyse von Verkehrsdaten, verkürzt Wartezeiten auf Basis des durchschnittlichen Besucheraufkommens, zeichnet das Konsumverhalten nach und macht dazugehörige Vorschläge, die zum erfassten Nutzerprofil passen könnten. Durch immer unaufdringlichere Formen des Umgangs, d.h. zuverlässigere Sprach-, Gesten- und Verhaltenserkennung, lösen sich die Schranken zur technischen Sphäre und damit auch zu den Formen ihrer Messbarkeit sukzessiv weiter auf – die Dinge werden nicht mehr auf technischer, sondern annähernd ausschließlich auf menschlicher Ebene verhandelt; nicht mehr im technischen, sondern im menschlichen

3 4

5

6

Vgl. in gleicher Reihenfolge Mayer-Schönberger; Cukier (2013); Weiser (1991); Thrift (2004). Wie Kittler es etwa für das Medium der Schrift formuliert: »Schriften und Texte existieren mithin nicht mehr in wahrnehmbaren Zeiten und Räumen, sondern in den Transistorzellen von Computern.« Kittler (2013: 285). Auf die Bedeutsamkeit dieser Entwicklung hat Mark Weiser bereits früh hingewiesen: »The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.« Weiser (1991: 94). Mayer-Schönberger und Cukier machen den Unterschied zwischen Digitalisierung und Datafizierung dabei am Beispiel des Text-Dokumentes anschaulich: Während die Digitalisierung in der Umformung der analogen Inhalte zu Pixeln resp. Bits (›binary digits‹) besteht, versteht sich der Begriff der Datafizierung auf das Erkennen der digitalisierten Daten ›als‹ eigentliche Buchstaben (›Optical Character Recognition‹, OCR), die als solche im digitalen Medium gleichsam weiterverwendet (durchsucht, kopiert, variiert etc.) werden können. Vgl. Mayer-Schönberger; Cukier (2013: 83ff).

8. Prozess, Gestalt und Parametrie

Auflösungsgrad.7 An diesen hat sich die Technik buchstäblich ›herangerechnet‹, indem sie, spätestens seit den 2010er-Jahren durch die zuverlässige Einbeziehung künstlich neuronaler Netzwerke in die digitale Datenverarbeitung,8 dazu imstande ist, quantitativ zu ermitteln, wo die qualitativen Mehrwerte des menschlichen Lebens ihre Schwerpunkte haben. Durch Prozesse der Mustererkennung und des selbstständigen, rekursiven Lernens (›unsupervised learning‹) verstehen sich künstlich intelligente Systeme mittlerweile als sehr zuverlässig darin, nicht nur Unterschiede quantitativ zu erfassen, sondern gleichsam die relevanten, d.h. nicht die technischen, sondern die menschlichen Unterscheidungskriterien (wiederum technisch) nachzubilden, nach denen gleichwertige Daten zu gewichteten Informationen prozessiert werden können. Die Unterscheidung geht dabei dem Unterschied voraus, denn »[ü]berall, wo wir einen Unterschied erkennen, haben wir schon eine Unterscheidung gemacht« wie van den Boom es einst konstatierte.9 Eine Unterscheidung ermöglicht es dabei, innerhalb einer zunächst formal gleichwertigen Datenmenge Schwerpunkte anzulegen, die einen Unterschied nicht mehr auf formallogischer, sondern auf inhaltlicher bzw. semantischer Ebene erkennen lassen,10 als Betrachtung der Dateninhalte ›als‹ etwas anderes.11 In dieser Hinsicht lassen sich Daten zu Informationen gewichten, d.h., frei nach Gregory Bateson, zu Unterschieden, die den Unterschied ausmachen.12 Informationen verstehen sich entsprechend als höherwertige, d.h. nicht mehr nur quantitative, sondern qualitative Unterschiede, weil sie

7

8

9

10

11

12

Frei nach dem Credo größtmöglicher Einfachheit: »Mensch fragt, Maschine antwortet.« Ramge (2018: 55-56). Dabei bestärkt der stetig reibungslosere Umgang mit technischen Systemen, etwa durch zuverlässige Sprachsteuerung, die Erwartung, »immer präzisere Antworten auf immer komplexere Problemstellungen« zu erhalten. Ebd.: 56. Auch wenn die Künstliche Intelligenzforschung bereits seit den 1940er-Jahren darum bemüht ist, künstlich neuronale Netze für praktische Anwendungen zugänglich zu machen, sind doch erst seit den 2010er-Jahren die notwendigen Hardware-Ressourcen verfügbar, mittels welcher die Berechnungen schnell genug durchgeführt werden können. Vgl. Ramge (2018: 46); Carpo (2017: 18ff). van den Boom (1987: 85). S. a.a.O.: »Ein Unterschied ist vorgegeben, eine Unterscheidung machen wir.« Ebd.: 50. Daten (lat. ›datum‹ = dt. ›das Gegebene‹) verstehen sich in dieser Hinsicht gleichsam als Vorgegebenes. Die technische ›Erkennbarkeit‹ semantischer Zusammenhänge wurde dabei erstmals im Jahr 2011 vom IBMs künstlicher Intelligenz Watson prominent unter Beweis gestellt, indem diese die Spielshow Jeopardy, ein Quizshow-Format, in welchem die Fragen auf mitunter humoristisch verklausulierte vorgegebene Antworten gesucht werden, gegen seine menschlichen Mitstreiter gewann. Vgl. Ramge (2018: 40). Ein technisches resp. künstlich intelligentes Erkennen der Dinge ›als‹ etwas markiert dabei nach van den Boom das »Erkennen des Sinnes auf Seiten des Computers« van den Boom (1987: 133). Entsprechend könne dem Computer eine Form von Kreativität zugesprochen werden, wenn er nicht nur Dinge ›als‹ etwas erkennt, sondern gleichsam neue ›als‹-Beziehungen erfindet. Vgl. Ebd.: 142. Vgl. Bateson (1981: 582). In gleicher Hinsicht beschreibt es Terzidis für die digitale Datenverarbeitung: »Information should be understood not as a passive enumeration of data but rather as an active process of filtering data, not in the trivial sense of awareness, but in the strict sense of logical proof.« Terzidis (2006: 31).

307

308

Prozess als Gestalt

durch die unmittelbare Reaktion auf ihre Wahrnehmung den Übergang in ein Handeln, d.h. zu einer Entscheidung, bereitzustellen vermögen.13 Sofern technische Systeme entsprechend dazu fähig sind, Daten zu Informationen zu verdichten und somit die Grundlage für eine Entscheidungsfindung darzulegen, drängt sich nicht zuletzt die Frage nach dem Verhältnis von technischer und menschlicher Entscheidbarkeit auf: Kann der Computer für den Menschen entscheiden, und sollte er es? Während Holger van den Boom vor mehr als 30 Jahren noch konstatierte, dass der Computer innerhalb seiner formal-logischen Binärität zwar entscheiden, nicht jedoch unterscheiden könne,14 könnten künstliche Intelligenzen nach Bauer »uns schon bald alle Entscheidungen abnehmen«,15 gerade weil sie durch zuverlässige Mustererkennung, maschinelles Lernen resp. ›deep learning‹ und die daraus resultierende Bemessung der Ding-Verhältnisse ›als‹ menschliche Sinnzusammenhänge dazu in der Lage sind, eigene Entscheidungskriterien aus bloßen Datenmengen herzuleiten und somit Relevantes von Irrelevantem zu trennen, d.h. nicht mehr nur formal-logisch, auf technischer Ebene, sondern inhaltlich und semantisch, auf menschlicher Ebene, zu unterscheiden.16 Verläuft diese Entwicklung konsequent, könne man, so Bauer mit zynischem Unterton, »ein völlig ambiguitätsfreies Leben führen werden – sofern man ein solches Dasein noch Leben nennen will.«17 Den Begriff der Ambiguität verhandelt Bauer dabei im Zusammenhang mit der Diskussion um eine globale Tendenz zu einer Vereindeutigung der Welt, die nicht zuletzt auf der ubiquitären Messbarkeit der Phänomene als auch auf der medialen Verfügbarkeit von Informationen begründet ist: Wenn alles berechenbar und folglich alles technisch entscheidbar ist, »kein Zweifel, keine Unentschiedenheit mehr den reibungslosen Gang der Maschine beeinträchtigt«,18 würde das, was menschliches Leben ausmacht, zu konformistischen Formalismen degradiert und zu (Maschinen-)Men-

13

14

15 16 17

18

Entsprechend definiert etwa Weisberg Prozesse der kreativen Sinnstiftung als Reaktionen auf neu erworbene Informationen: »Neuartige Lösungen werden dann hervorgebracht, wenn der Problemlöser während der Bearbeitung des Problems Informationen erwirbt, die ihn in eine neue Richtung lenken.« Weisberg (1989: 27). »Der Computer kann nicht unterscheiden in der strengen Bedeutung des Wortes; er kann nur entscheiden […]. van den Boom (1987: 129). In der Gegenüberstellung braucht der Mensch entsprechend »für alle seine Entscheidungen ein Unterscheidungskriterium, der Computer für alle seine Unterscheidungen ein Entscheidungskriterium.« Ebd.: 78. Bauer (2018: 92). Dies lässt sich allgemeinhin nach Küster auch als wesentliches Merkmal für das Entwerfen festhalten: »Entwerfen bedeutet […], die Arbeit der Unterscheidung zu leisten.« Küster (2000: 138). Bauer (2018: 92). Die Lebensumstände eines jeden Menschen wären demnach in jeglicher Hinsicht determiniert, gesichert und bedürften, nach van den Boom, entsprechend keiner (eigenen) Entscheidungen mehr: »Unter sicheren Umständen – in denen wir [oder hier: die technischen Systeme] also allwissend wären – würden wir gar nicht zu Wählen brauchen, die Entscheidungen fielen uns überhaupt nicht schwer, denn sie wären gar nicht vonnöten […].« van den Boom (1987: 73). Bauer (2018: 96). In Bauers zugespitzter Darstellung wird deutlich, dass der Mensch in einem solchen Szenario vielmehr einen Störfaktor darstellt, der einem reibungslosen Funktionieren der optimierten, berechneten Welt entgegenwirkt. Entsprechend plädiert Bauer dafür, dieses Entgegenwirken nicht aufzugeben, indem der Mensch (wieder) eine »Ambiguitätslust« entwickelt, die den Austausch, den Widerspruch und die Mehrdeutigkeit der Dinge fördert und stabilisiert. Vgl. Ebd.: 96ff.

8. Prozess, Gestalt und Parametrie

schen führen, die »ambiguitätsfrei in Gleichgültigkeit dahinleben«,19 und welche gleichsam von jeder Verantwortung entbunden sind.20 Die Verantwortung an ein Ergebnis abzugeben, hieße entsprechend – und buchstäblich –, sich der formalen Gleichgültigkeit und der technischen Berechenbarkeit des eigenen Lebens zu ›ergeben‹.21 In einem solchen Szenario wäre »Entscheidbarkeit«, wie der Kybernetiker Heinz von Foerster es anschaulich dargelegt hat, »dadurch gesichert ist, daß man die Spielregeln eines Formalismus akzeptiert hat, der einem erlaubt, wie auf einem komplexen kristallartigen Riesengerüst, längs der Verbindungen von jedem Gelenk jedes beliebige andere Gelenk zu erreichen.«22 Und so weitreichend, komplex und engmaschig dieses Gerüst bzw. so hoch sein Auflösungsgrad auch sein mag, müssen einige Fragen, wie Kurt Gödel es im Jahr 1931 in seinem Unvollständigkeitssatz für die Mathematik manifestiert hat,23 zwangsläufig unentscheidbar bleiben, da »jedes Formalsystem von Bedeutung einige Aussagen enthält, deren Wahrheit oder Falschheit mit den formalen Mitteln des Systems allein nicht entschieden werden kann, […].«24 In der strengen, selbstreferenziellen Logik formaler Systeme ist ein Drittes nicht gegeben – ›tertium non datur‹:25 im Gerüst sind die Gelenke lediglich über die entsprechenden Verbindungen erreichbar, nicht durch die Räume des unbestimmten Dazwischen. In der binären Logik des Computers sind die Phänomene allein in der Codierung von 0 und 1 abbildbar, und auf keine andere Weise. Darauf aufbauend entwirft von Foerster das von ihm sog. ›Foerster’sche Theorem‹, welches besagt, dass lediglich jene Fragen, die »prinzipiell unentscheidbar« sind, vom Menschen entschieden werden können.26 Für entscheidbare Fragen stehen die Spielregeln der formalen Logik, der Arithmetik, der Syntax usw. ja bereits vollständig fest – sie sind bereits entschieden und müssen nur noch durchgerechnet werden.27 Bei unentscheidbaren Fragen lassen sich keine absoluten Kriterien definieren, gemäß welcher

19

20

21

22 23 24 25 26 27

Ebd.: 93. Auch Weizenbaum hat diese Tendenz bereits früh artikuliert, als er davon sprach, dass der Mensch durch »die Einführung des Computers […] zu einer immer rationalistischeren Auffassung seiner Gesellschaft und zu einem immer mechanistischeren Bild von sich selbst« getrieben wurde. Weizenbaum (1978/2008: 25). Dies insofern, als dass der Mensch zum reinen Beobachter, zum »passive[n] Registrator eines Abbildungsprozesses« wird. Foerster (1989: 32). Rittel begründet die Entbindung des Designers von seiner Verantwortung auf der rhetorischen Figur des ›Sachzwangs‹: »Diese […] macht glauben, dass Fakten und die Gesetzmäßigkeiten ihres Zusammenhangs dem Designer eine bestimmte Handlung aufzwingen. […] Nichtsdestoweniger ist der ›Sachzwang‹ sehr beliebt bei Politikern und Planern, da er die epistemische Freiheit beseitigt und den Designer von seiner Verantwortung entbindet. Wenn man keine Wahl hat, muss man auch keine Rechenschaft ablegen.« Rittel (1987/2012: 33-34). In diesem Sinne wird dies auch im Titel von Weizenbaums weitverbreiteter Erörterung ansichtig, der die technische ›Macht der Computer‹ der menschlichen ›Ohnmacht der Vernunft‹ gegenüberstellt. Vgl. Weizenbaum (1978/2008). Foerster (1989: 28). Vgl. Gödel (1931). Weizenbaum (1978/2008: 292). Vgl. Gloy (2014: 104ff). »Nur die Fragen, die prinzipiell unentscheidbar sind, können wir entscheiden.« Foerster (1989: 30). »Die Frage: ›Ist die Zahl 137.689.392 durch 2 (restlos) teilbar?‹ gehört zu den entscheidbaren Fragen. Diese Frage ist nicht um ein Jota schwieriger zu entscheiden, auch wenn die zu teilende Zahl nicht nur wie hier 9 Stellen, sondern eine Million, eine Milliarde oder eine Trillion Stellen hätte.« Ebd.: 28.

309

310

Prozess als Gestalt

eine Entscheidung getroffen werden könnte, da sie einerseits mitunter mehrere Antworten zulassen,28 andererseits den Standpunkt des Betrachters mit einschließen29 und erst in der Zukunft durch ein Handeln (im Vollzug) entschieden werden können, wie van den Boom es etwa zur Grundlage der menschlichen Entscheidung macht.30 Im Umgang mit unentscheidbaren Fragen »haben wir jeden Zwang – sogar den der Logik – abgeschüttelt, und haben mit der gewonnenen Freiheit auch die Verantwortung der Entscheidung übernommen.«31 Unentscheidbare Fragen lassen sich entsprechend als solche beschreiben, die im Hier und Jetzt der Gegenwart eben deshalb nicht entschieden werden können, weil ihre Klärung eines eigenen Handelns bedarf, das – als performativer, prozessualer, individueller Akt – in der Zukunft liegt und damit zwangsläufig immer unbestimmt ist. Demnach umfassen unentscheidbare Fragen immer die Möglichkeit des Dritten, die Ergebnisoffenheit des Zukünftigen, wie es einst auch schon Aristoteles in seiner Schrift ›De Interpretatione‹ darlegte.32 In der Übertragung auf die Diskussion um Gestaltung und Parametrie erscheint der wesentliche Aspekt nun evident: Je besser, d.h. hochaufgelöster und schneller, die Dinge technisch berechenbar und systemisch formalisierbar werden, desto dringlicher bedarf es eines Bewusstseins für die Prozesse, die außerhalb der jeweiligen, selbstreferenziellen Logiken ablaufen: Machen die gesetzten Parameter – in ethischer, moralischer, ökologischer, politischer, d.h. zusammenfassend, in menschlicher Hinsicht Sinn, oder bedarf es neuer Herangehensweisen, welche die Dinge in neuem Licht resp. aus der Sicht eines Dritten erscheinen lassen? Dafür gilt es, etablierte Prozesse nicht als entscheidbar, sondern als unentscheidbar anzunehmen, und im Sinne des ›Para-Meters‹ gegen (gr. ›para‹ = dt. ›gegen/neben‹) Formen ubiquitärer Messbarkeit (gr. ›metron‹ = dt. ›das Maß‹) anzuarbeiten, d.h. aus ihnen herauszutreten und sie stets aufs Neue infrage zu stellen. Technische Systeme können, aufgrund ihrer geschlossenen, selbstreferenziellen Struktur, zu ihrem ›metron‹ nicht das ›para‹ bilden; sie können nicht aus ihrer eigenen Logik aussteigen, sich nicht selbst als Teil eines Größeren betrachten und sich umgekehrt auch nicht in sich selbst verlieren. Sie können Unschärfe nur durch höchste Präzision beschreiben, vermeintliche Unsicherheit nur durch exakte Wahrscheinlichkeiten ausdrücken und Kontroversen, Widersprüche und Mehrdeutigkeiten allenfalls in formal gleichgeschalteter Form verhandelbar machen. In dieser Hinsicht und Funktion 28 29

30

31 32

Von Foerster nennt etwa die Frage ›Wie ist das Universum entstanden?‹ und verweist darauf, dass es keine Antworten mit absolutem Wahrheitsanspruch dazu geben kann. Vgl. Ebd.: 29. Dies veranschaulicht von Foerster an einer kybernetischen Kernfrage, die zwischen der Beobachtung erster und zweiter Ordnung zu unterscheiden sucht: »Bin ich vom Universum getrennt oder [bin] ich Teil des Universums?« Ebd.: 30. Seine persönliche Entscheidung, Teil des Universums zu sein, torpediert dabei jede Form der Berechenbarkeit und der formalen Beschreibbarkeit der Entwicklungen, da sie eine zukunftsoffene und daher undefinierbare Variable im System darstellt. Entsprechend, so auch Gloy (2014: 107), erscheint die dialektische (binäre) Logik ein »ungeeigneter Kandidat zur Erfassung und rationalen Erklärung der komplexen Wirklichkeit zu sein«, da sie stets nur von außen, als geschlossene, selbstreferenzielle Struktur, betrachtet werden kann. Vgl. Ebd.: 107ff. »Die Entscheidung ist hier keineswegs [computationales] Schalten, sondern Walten, nämlich Handeln. Das geradehin sich vollziehende Handeln denkt nur episodisch an Wahlmöglichkeiten; […].« van den Boom (1987: 83). Foerster (1989: 30). Vgl. Aristoteles (1974: Kap. 9).

8. Prozess, Gestalt und Parametrie

sind sie äußerst hilfreich dabei, Unterschiede sichtbar zu machen, Unterscheidungskriterien in Datenmengen zu erkennen und sie zu Informationen zu verdichten, sodass der Gestalter – durch ein in die Zukunft getragenes Handeln – bis dahin unentscheidbare Entscheidungen treffen kann. Die Veränderung von Parametern, etwa im digitalen Entwurfsprogramm, macht Unterschiede zwar entsprechend und unmittelbar sichtbar, bildet dabei jedoch nur die minimale Grundlage, um verantwortungsvolle Entscheidungen darauf aufzubauen. Dabei ersetzt die Berechnung der (Entwurfs-)Grundlage – so akkurat, präzise und hochaufgelöst sie auch sein mag – nicht die verantwortungsvolle Entscheidung für jene Dinge, die den Menschen angehen.33 Die bedeutsame Frage ist entsprechend nicht, ob der Entwurf so-oder-so sein kann, sondern ob er so-oder-so sein soll – gestalterische (menschliche) Souveränität gründet entsprechend auf der freien Entscheidung unentscheidbarer Fragen.34 Es gilt demnach, etwaige Regeln, Widerstände und Grenzen nicht als unveränderlich zu akzeptieren, sondern ein Bewusstsein für die uneingeschränkte Verhandelbarkeit der Dinge zu entwickeln;35 ein ›para-metrisches‹ Verständnis der Prozesse, das durch ein umtriebiges Ausprobieren der jeweils gegebenen Möglichkeiten, den Wechsel der Medien und Herangehensweisen und das Einnehmen neuer Standpunkte und Betrachtungsweisen stets gewährleistet, dass sich die Entwicklungen nicht nach vorne hin zuspitzen, zu technisch quantitativer Gleichförmigkeit, sondern sich vielmehr in die Breite ausweiten, zu menschlich qualitativer Ambiguität.

8.1.2

Prozessualität und Reversibilität

Es zeigt sich, dass unentscheidbare Fragen gerade dann eine qualitative Bedeutsamkeit erlangen, wenn sie in Bereiche vorstoßen, die sich jeglicher Messbarkeit entziehen. Was nicht gemessen werden kann (oder soll), kann (und sollte) trotzdem entschieden werden, von einem Standpunkt des Entgegengesetzten, des Nebenstehenden, des ›para‹. Die Möglichkeit – nicht nur als Gestalter –, gegen die Bedingungen seiner (technologischen) Umwelt anzuarbeiten, erscheint entsprechend als essenziell, um zu einer menschlich qualitativen Bestimmung der weltlichen Lebensverhältnisse zu gelangen. Es wäre jedoch unzureichend, anzunehmen, dass dies ein einmaliges Unterfangen sei: Vielmehr bedarf jene qualitative Bestimmung einer andauernden Erneuerung, eines andauernden Abgleichs, der umso dringlicher einer sorgsamen Rückbindung und Gestaltung bedarf, je mehr sich die Prozesse beschleunigen, d.h., je schneller und wirk-

33

34

35

Vgl. dazu etwa zahlreiche Beispiele bei Fry (2018), in denen dies nicht erfolgt ist; etwa im Fall autonom berechneter Budgetkürzungen für hilfsbedürftige Minderheiten, die aufgrund falsch gesetzter Parameter automatisiert vorgenommen wurden. Vgl. Ebd.: 18ff. Wie auch Adamowsky es für ein menschlich orientiertes Internet der Dinge herausstellt: »Ein an menschlicher Lebensqualität orientiertes Internet der Dinge wäre z.B. reparierbar, recycling-fähig, vor allem aber untrennbar mit Entscheidungsfreiheit verbunden, d.h. alle Anwendungen wären optional, und man hätte die Wahl, Dinge smart oder nicht-smart zu benutzen.« Adamowsky (2015: 133). »Nichts muss sein oder bleiben, wie es ist oder zu sein scheint, es gibt keine Grenzen des Denkbaren«, sagte Horst Rittel einst wirkmächtig in Berufung auf die epistemische Freiheit des Designers. Rittel (1987/2012: 33).

311

312

Prozess als Gestalt

mächtiger technische Systeme mit der menschlichen Lebenswelt verwoben werden.36 Entsprechend sind jene (un-)entscheidbaren Fragen, jene, die »uns angehen«,37 in größere Prozesse eingebunden, und damit auch in eine Zeitlichkeit, die als Dimension in der Gestaltung ebendieser Prozesse Berücksichtigung finden muss. Formen einer solchen Zeitlichkeit wurden dabei bisher sowohl innerhalb der handwerklichen Tradition diskutiert – als Formen des vernakulären Wachstums, mit Hinsicht auf Begriffe der Langsamkeit und der Evolution – als auch im Kontext industrietechnischer Prozesse, wenn etwa die Effizienz und Optimierung von Betriebsabläufen im Zentrum der Entwicklungen stand. Beide Perspektiven vereinen sich in der parametrischen Übertragung, wenn evolutionäre Prozesse des Wachstums zu kontrollierbaren Sequenzen und Animationen verdichtet und in Simulationen überprüfbar werden. Der Fokus des Interesses liegt dabei weniger auf der isolierten Einzelentscheidung, sondern auf der Entwicklung von Ökosystemen, die gemäß bestimmten Parametern in unterschiedlichen Szenarien ›heranwachsen‹. Der eigentliche Entwurf wächst in unendlich viele Zustände hinein – als zukunftsoffener Prozess, der erst im Vollzug seine eigenen Maßstäbe ausbildet und stabilisiert.38 »Erst im und durch den Prozess des Handelns selbst klärt sich die Designidee und erhält ihren spezifischen Sinn wie zugleich ihre spezifische Verkörperung, […]«,39 wie Feige es für das Entwerfen formuliert. Diese Prozessualität erhält im parametrischen und digitalen Entwurfsraum entsprechend eine anschauliche Fassbarkeit; durch die Leichtgängigkeit der Veränderbarkeit einzelner Parameter als auch durch die Möglichkeit zur Gestaltung der Verhältnisse, die zwischen ihnen bestehen. Parametrie hält dem Gestalter die Verhandelbarkeit der Dinge entsprechend buchstäblich vor Augen, wodurch sich ein Bewusstsein für die Prozessualität des Entwurfsprozesses fortwährend sensibilisiert. Ein solches Bewusstsein kann dabei insofern als mentales Fallnetz für den Gestalter verstanden werden, als dass er von absoluten zu relativen Maßstäben der Bewertung übergehen kann und getätigte (Fehl-)Entscheidungen dadurch nicht zwangsläufig das ganze Entwurfskonzept zusammenfallen lassen

36

37 38

39

Vgl. dazu auch Hartmut Rosas soziologische Auseinandersetzung mit dem Phänomen der Beschleunigung, welches er auf drei Ebenen ausdifferenziert: Eine der technischen Beschleunigung, welche durch die fortschreitende technologische Entwicklung eine »Veränderung des Raum- und Zeitbewusstseins« zur Folge hat, »die sich vor allem in der voranschreitenden Loslösung der Raumwahrnehmung vom Ort und der Zeitwahrnehmung vom Raum ausdrückt« (Rosa (2005: 162)), eine Ebene der Beschleunigung des sozialen Wandels, d.h. die Dynamisierung des sozialen Lebens mit Hinsicht auf die Kontingenz individueller Verhaltensformen und die «,Verflüssigung‹ sozialer und materialer Beziehungen« (Ebd.: 189), und die Ebene einer Beschleunigung des Lebenstempos, die das praktische »Handeln und Erleben verändert, indem sie die Handlungs- und Erlebnisraten pro Zeiteinheit steigert.« Ebd.: 236. Vgl. ebenso die kulturgeschichtliche Abhandlung zum Phänomen der Beschleunigung bei Borscheid (2004), in welcher er die technologisch-instrumentellen Entwicklungen mit Hinsicht auf ihre Geschwindigkeit und dessen gesellschaftliche Wirksamkeit nachzeichnet. Vgl. Latour (2009: 357). Feige hat jene Prozessualität des Entwerfens im Zusammenhang mit dem Begriff der Improvisation erörtert, welche sich dadurch charakterisieren lässt, dass Entwerfen »keine vorgängig gegebenen Regeln abspult, sondern sich auch dann, wenn es Regeln integriert, entsprechende Regeln selbst gibt« Feige (2018: 159). Vgl. dazu auch weiter oben Kapitel 7.3 ›Situation und Improvisation‹. Ebd.: 160.

8. Prozess, Gestalt und Parametrie

müssen. Dies begründet sich nicht zuletzt auf der visuellen Anschaulichkeit der technisch-medial aufbereiteten Entwurfsinhalte, durch welche die iterativen Zyklen der Bewertung stetig kürzer werden. Demgemäß zeichnet sich ab, dass sich die Kluft zwischen Entwurf und Produkt resp. Planung und Ausführung zusehends auflöst und in einem ganzheitlichen Prozess zusammenführt, was bis dahin, d.h. vor allem bevor digitale, algorithmifizierte Entwurfspraktiken in die Prozesse Einzug erhielten, getrennt war.40 Die Entwicklung von Produkten, sowohl physisch-materieller Gebrauchsgegenstände als auch immaterieller Dienstleistungen (Services), lässt sich gegenwärtig entsprechend nur noch bedingt als lineare Wegebnung von einem Start- zu einem Zielpunkt verstehen. Vielmehr offenbart sie sich im Sinne einer Ko-Kreation, in welcher sich Problem- und Zielstellung wechselseitig und sequenziell aufeinander beziehen und somit keinen singulären Zielpunkt, sondern vielmehr eine Zielrichtung verfolgen.41 Die Offenheit des Entwurfs ist entsprechend notwendig und kennzeichnend für die Dynamik der Bedingungen, unter denen er entsteht.42 Im parametrischen Verständnis versteht sich dies dabei nicht mehr nur als eine Offenheit nach vorne, sondern gleichsam in alle derivativen Gegenrichtungen (gr. ›para‹ = dt. ›gegen/neben‹). Entwurfsentscheidungen sind im digitalen Entwurfsraum reversibel, d.h., sie sind zu jedem Zeitpunkt des Prozesses umkehrbar bzw., gemäß dem lateinischen Wortursprung, umdreh-

40

41

42

Entsprechend sprechen van den Boom und Romero-Tejedor davon, dass der »gap zwischen Entwurf und Test« nunmehr aufgehoben wird: »Kurz, die Regel ›Erst Entwurf, dann Test‹ wird ersetzt durch ›Test im Entwurf ‹.« van den Boom; Romero-Tejedor (2017: 12). Gleichsam spricht Carpo von der »Schließung der Lücke zwischen Entwurf und Produktion« (Carpo (2012: 50)) und fügt hinzu: »Entwurf und Herstellung überlappen sich in einem einzigen, nahtlosen Prozess. […] Man kann gleichzeitig diskutieren, entwerfen und produzieren, […].« Ebd.: 95. Rheinberger hat diese Charakteristik für den experimentellen Forschungsprozess festgehalten: »Ein solcher Prozeß wird nicht etwa bloß durch endliche Zielgenauigkeit begrenzt, sondern ist von vornherein durch Mehrdeutigkeit charakterisiert: er ist nach vorne offen.« Rheinberger (2006: 25). Auch Walliser beschreibt diese Eigenart für den digitalen Entwurfsprozess: »Hier liegt nicht das Ziel am Beginn fest, sondern wird im Lauf seiner eigenen Mitbestimmung konkretisiert.« Walliser; Schroth (2014: 12). Vgl. dazu sowohl den Begriff der Co-Evolution bei Dorst; Cross (2001), welcher die gleichzeitige Entwicklung von Problem- und Lösungsraum beschreibt, als auch die Ausführungen Lawsons, in welchen er das Finden und Lösen von (Entwurfs-)Problemen als wechselseitige Tätigkeit im Entwurfsprozess anführt. Vgl. Lawson (2006: 48, 124). Mit Hinsicht auf die digitale Entwicklung von Services bezeichnet Schrader die Wechselseitigkeit der Prozesse ebenfalls als »Co-Creation«. Schrader (2017: 94ff). Jene (lebensweltlichen) Bedingungen sind dabei von hochgradig dynamischer Art, d.h. sie variieren durchgehend ihre Gewichtung und bilden entsprechend stets neue Richtlinien für menschliches Handeln aus, durch, wie Hartmut Rosa es beschrieben hat, eine »permanente Umgestaltung der ›Entscheidungslandschaft‹, die nicht nur Erfahrungen und Wissensbestände stets von Neuem entwertet, sondern es auch nahezu unmöglich macht vorherzusagen, welche Anschlussoptionen und Handlungschancen in Zukunft relevant und wichtig sein werden« Rosa (2005: 191). Entsprechend etabliert sich ein Anpassungs- resp. ein Aktualisierungszwang, welcher die gesellschaftlichen Individuen »zu einer permanenten Revidierung ihrer Erwartungen, zur Neuinterpretation von Erfahrungen, zur Neubestimmung von Relevanzen und zur Wiederholung von Koordinations- und Synchronisationsleistungen« zwingt. Ebd.: 189. Sowohl die prozessuale Offenheit als auch das permanente Redesign eines Entwurfs erscheinen in dieser Hinsicht als grundlegende Notwendigkeiten, um einer solchen Dynamik gerecht zu werden. Vgl. zum Ausdruck des ReDesigns auch Latour (2009).

313

314

Prozess als Gestalt

bar (lat. ›revertere (reversus)‹ = dt. ›umdrehen‹’43 ). Letzteres, die Analogie des Drehens, vermag in dieser Hinsicht nicht zuletzt deshalb eine passende Versinnbildlichung der prozessualen Mechanik darzustellen, als dass sie einen Dreh-Punkt voraussetzt, der im Entwurfsprozess eine selbstbewusste Entscheidung der Richtungsänderung markieren kann. Eine Entscheidung erscheint dementsprechend nicht mehr als absolut und auf Dauer fixiert, sondern durchgängig verhandelbar. Im digitalen Kontext versteht sich diese Reversibilität entsprechend als annähernd selbstverständlich – denn alles, was im digitalen Raum abbildbar ist, ist bereits vermessen, und damit zugänglich für die mediale Manipulation.44 Die medialen Voraussetzungen von Reversibilität stellen dabei einen Anschlusspunkt dar, der das Phänomen gleichsam im weiter gefassten Zusammenhang betrachten lässt; insofern, als dass eine (Entwurfs-)Handlung erst vollzogen und dann auf Sinnhaftigkeit geprüft werden kann. Die starren, linearen Strukturen der traditionellen Vorgehensweisen, wie sie etwa in der handwerklichen Diskussion anschaulich wurden, drehen sich entsprechend um: Die Entwurfs- und Produktionsschritte werden nicht mehr im Vorhinein erfasst und als planerische Handlung einmalig festgeschrieben, sondern vielmehr zu engen Zyklen der Sinnproduktion im Nachhinein verschmolzen. Jede (Form-)Artikulation verkörpert dabei Projektionsflächen für neue und derivative Bedeutungen: »Was könnte es (noch) sein?« Wer sich diese Frage im Entwurfsprozess stellt, ist nicht etwa an einem endgültigen Zielpunkt, sondern vielmehr an einem Mittelpunkt bzw. einem (reversiblen) Drehpunkt angekommen, an dem die Dinge neu zu verhandeln sind. Sie verweist auf den gedanklichen Vorgriff, der erfolgen muss, um von dessen Drehpunkt aus in rückwärtiger Richtung Sinn zu produzieren resp. zu gestalten.45 Entwerfen, so ließe es sich auf die verkürzte Formel bringen, hieße entsprechend: gedanklich vorgreifen, rückwärts gestalten – was nichts anderes bedeutet, als von einem bestimmten (Ziel-)Zustand aus zu denken und die Dinge rückwärtig zu ordnen,46 d.h. sie zu sinnvollen Gestalten zusammenzufügen, immer und immer wieder.47

43 44 45

46

47

Kluge; Seebold (2011: 764), Revers. Wie Carpo es umschreibt: »Jetzt besitzt alles, was digital entworfen wird, per definitionem und von Anfang an Maße. Es ist daher geometrisch definiert und realisierbar.« Carpo (2012: 50). Wie Bolz und Bürdek es darlegen, versteht sich die gestalterische Tätigkeit im wesentlichsten Verständnis darauf, Sinnhaftigkeit jeglicher Art herzuleiten, ob in ökologischen, ökonomischen, politischen, gesellschaftlichen oder ethisch-moralischen Fragen. Dieser Auffassung wird sich hier angeschlossen. Bolz spricht dabei vom Design als Sensemaking, Bürdek von der Zuweisung von sinnhafter Bedeutung. Vgl. Bolz (2000); Bürdek (1999a). Wie Apple-Gründer Steve Jobs seine Herangehensweise an Gestaltung einst (1997) anschaulich formulierte: »You’ve got to start with the customer experience and work backwards to the technology.« Jobs zitiert nach Schrader (2017: 91). Ein Konzept, das den genannten Überlegungen zu einem rückwärtigen Gestalten vorangeht, ist das des ›reverse-engineering‹ im Feld der industriellen Produktentwicklung. Dabei werden ›fertige‹ Objekte mit Hinsicht auf ihre Rekonstruktion untersucht und in einen neuen Entwicklungsplan überführt, mit dem Zweck, sie mittels neuer Produktionsverfahren (CAD, Rapid Prototyping etc.) zu replizieren. Vgl. Raja; Fernandes (2008) als auch Bredies (2012). Dieser Prozess der Sinnherstellung offenbart sich als zyklisches, mentales Wechselspiel aus einem performativen Vor- und Zurück, einem Sich-Nähern und Sich-Entfernen, einem Festhalten und Loslassen, wodurch sich ein bewegtes Gleichgewicht einstellt, dass die Zielrichtung des Entwurfs

8. Prozess, Gestalt und Parametrie

Eine solche rückwärtsgewandte Gestaltung resp. Gestalt-Bildung schafft entsprechend die Voraussetzungen für eine Sinnzuweisung in der Gegenrichtung: durch den Adressaten/Benutzer des Produktes, ebendann, wenn dieser die Sinnordnung nicht etwa selbst gestalten, sondern nur noch erkennen muss. Er fragt sich – sofern das Produkt sinnvoll gestaltet ist – nicht, wie das Produkt im Einzelnen funktioniert, sondern was er nun damit macht, wie es der Wirtschaftswissenschaftler Theodore Levitt einst anschaulich äußerte: »People don’t want to buy a quarter-inch drill. They want a quarter-inch hole!«48 Auch Konsumenten und Nutzer denken vom Drehpunkt her, vom (Zwischen-)Ziel, das sie erreichen wollen, um von diesem aus in eine Anschlussverwendung überzugehen. Der Weg dorthin erscheint nachrangig: Wie der Kopf des Hammers mit dessen Schaft verbunden ist, die Zahnräder der Maschine ineinandergreifen oder in welcher Programmiersprache die Website geschrieben ist – vordergründig bedeutsam ist die wie auch immer geartete Sinnhaftigkeit im jeweiligen Kontext, die ganzheitliche und ausgewogene Ordnung der Gestalt, die ihren Sinn umso unmittelbarer erkennen lässt, je sorgsamer sie – rückwärts – gestaltet worden ist.

8.1.3

Relationalität und Wichtung

Wenn von der Prozessualität und Reversibilität des Entwurfsprozesses zu sprechen ist, nimmt vor allem die zeitliche Dimension eine übergeordnete Stellung ein. Nun sind es jedoch nicht alleinig die lineare Tiefe und das performative Vor- und Zurückgehen im Prozess, welche dabei von Bedeutung sind, sondern gleichsam die strukturelle Ausdehnung in die Breite, d.h. die wechselseitige Verbundenheit der Entwurfsinhalte untereinander. Mit den grundlegenden Phänomenen der Prozessualität und der Reversibilität geht entsprechend jenes der Relationalität einher. Daran wird ferner deutlich, dass hier weniger scharf getrennt, als vielmehr nur in Schwerpunkten gewichtet werden kann, womit der wesentliche Kern der Thematik bereits benannt ist. Eine Relation versteht sich dabei zunächst und allgemeinhin als Phänomen des Dazwischen, als Verweis auf den Zusammenhang zweier Objekte oder Begriffe, die in wechselseitiger Abhängigkeit aufeinander bezogen sind.49 Dabei erscheinen Relationen weitestgehend als (unsichtbare) Randerscheinungen, die zwei (sichtbare) Inhalte miteinander verbinden. Mithin vermag dabei schnell übersehen werden, dass die menschliche Wahrnehmung und Wissensproduktion unmittelbar mit der Bildung von

48

49

fortwährend stabilisiert. Vgl. dazu Kapitel 7.4 ›Spiel und Integration‹, in welchem die Prozesse der Sinnherstellung ausführlich dargestellt werden. Levitt zitiert nach Schrader (2017: 63). Gleichsam umschreibt es Gessmann im Zusammenhang mit einer möglichst reibungslosen Interaktion der digitalen Menüführung, d.h. der Erwartung an einen intuitiven Umgang mit den Dingen, der eine vorangegangene, sorgsame Gestaltung voraussetzt: »Wir erwarten, daß wir bei einem bestimmten Wunsch nicht erst eine ganze Flucht von Möglichkeiten sukzessive abarbeiten müssen, bis es losgehen kann, sondern unmittelbar mit der Vorstellung des Wunsches schon der ganze prozedurale Weg dahin vorgeplant und eingeübt ist. Wir denken, wenn wir die Dinge intuitiv angehen, sozusagen vom Ziel her und verstehen nicht, wie man zuerst noch (und bei jeder Befragung immer wieder aufs Neue) an so viel anderes auch noch denken kann, wie es das Menü uns vorstellt.« Gessmann (2010: 142). Vgl. Gessmann (2009: 617), Relation.

315

316

Prozess als Gestalt

Relationen zusammenhängen, wenn nicht sogar auf ihr gründen, wie Breidbach es etwa darlegt: »Das, was wir erfahren, ist in einem fortlaufenden Fluß. Wir bestimmen unsere Positionen dabei dadurch, daß wir das, was wir wissen, aufeinander beziehen.«50 Dies lässt sich darin begründen, dass die strukturellen Ordnungen der menschlichen Lebenswelt hochgradig dynamisch sind, d.h., dass sie einem permanenten Wandel ihrer Bedingungen unterworfen sind. Stabilität und Orientierung formen sich darin entsprechend nicht durch absolute, feste Anker, sondern annähernd ausschließlich durch das Gewahrwerden relativer Zusammenhänge aus. Der Mensch operiert entsprechend in einem »offenen Bestimmungssystem, das zwar Phasen der Stabilität und Zonen der Bestimmtheit kennt, aber keine absolute Ruhe und Sicherheit.«51 Die Maßstäbe, gemäß welchen der Mensch sich in der Welt bewegt und ihr in handelt, lassen sich demnach nicht als absolute Wahrheiten einmalig fixieren, sondern nur als relative Maßstäbe stetig neu in kontinuierlicher Anpassung an ihre Veränderung, d.h. dynamisch, stabilisieren.52 Solche Zustände der dynamisch stabilisierten Sicherheit lassen sich dabei nicht nur auf gesellschaftlicher Makro-Ebene, sondern gleichsam auf der Mikro-Ebene der menschlichen Wahrnehmung ausmachen, anhand welcher die parametrische Pointe umso anschaulicher gemacht werden kann. Dazu sei ein vordergründig unscheinbares Beispiel angeführt, wie es der Gestaltpsychologe Wolfgang Köhler einst dargelegte.53 Dieses besteht in der Darstellung (hier genügt die Vorstellung) zweier senkrechter Linien, die parallel nebeneinanderstehen und unterschiedlich lang sind. Die Linien, so Köhler, sind dabei nicht lediglich als zwei getrennte visuelle Einheiten wahrzunehmen, sondern vor allem durch ihre Beziehung zueinander, durch welche die eine Linie als länger und die andere als kürzer erscheint.54 Was zunächst allzu selbstverständlich anmutet, erscheint in differenzierter Betrachtung als der möglich gewordene unmittelbare Vergleich zweier Komparative, die sich vom Gegenstand des gegebenen Materials, den beiden Linien, abgelöst und auf eine neue Ebene der Bedeutsamkeit erhoben haben. Sie markieren die Essenz der Darstellung (der Vorstellung) selbst, ihren wesentlichen Gehalt, die unmittelbare Einsicht in die Struktur ihrer Gestalt,55 indem sie das Gegebene zu einer Information verdichten, die, wie es weiter oben bereits dargelegt wurde,

50 51

52 53 54

55

Breidbach (2008: 85). Ebd. Das gleiche Phänomen beschreibt Hartmut Rosa mit Hinsicht auf die Veränderung gesellschaftlicher Temporalstrukturen unter den Prämissen der Beschleunigung mit der Metapher der rutschenden Abhänge (›slipping slopes‹), die einen individuellen Stillstand im gesellschaftlichen Gefüge annähernd unmöglich machen: »Die Akteure operieren unter Bedingungen permanenten multidimensionalen Wandels, die Stillstehen durch Nicht-Handeln oder Nicht-Entscheiden unmöglich machen. Wer sich den stetig wechselnden Handlungsbedingungen nicht immer wieder von Neuem anpasst […], verliert die Anschlussvoraussetzungen und -Optionen für die Zukunft. […] Die Handlungs- und Selektionsbedingungen selbst ändern sich multidimensional und beständig, sodass es keine Ruheposition mehr gibt, von der aus Optionen und Anschlüsse ›in Ruhe‹ sondiert werden könnten.« Rosa (2005: 190-191). Vgl. dazu auch Kapitel 7.6 ›Kontinuität und Disruption‹. Vgl. Köhler (1971: 106ff). »Wenn wir zwei parallele Linien wie in Abb. 24 sehen, so können wir diese Linien nicht nur als zwei visuelle Einheiten gewahr werden, sondern auch, daß die auf der linken Seite länger ist als die auf der rechten Seite. Dies ist das Wahrnehmen einer bestimmten Beziehung.« Ebd.: 106-107. Vgl. Ebd.: 112ff.

8. Prozess, Gestalt und Parametrie

als solche erst zu einer Entscheidung bzw. zu zukünftigem Handeln (im Vollzug) befähigt. Entsprechend interessiert weniger die exakte Länge der Linien im Einzelnen – im Sinne einer starren und absoluten Messbarkeit –, sondern vielmehr der anschauliche Vergleich; der Komparativ und die Information, die in ihrem Zusammenhang erkannt und auf dessen Grundlage eine nachvollziehbare Entscheidung getroffen werden kann. In dieser Hinsicht und in Betonung der Bedeutsamkeit dieses Verständnisses spricht Köhler entsprechend davon, »daß wahrscheinlich alle Probleme, vor die wir gestellt werden können, und auch die Lösung dieser Probleme, eine Frage der Beziehungen sind.«56 Während Beziehungen die Grundlage eines solchen Verständnisses bilden mögen, lassen sich aus ihnen erst jene Komparative ableiten, die den Entwurf über iterative Zyklen der Anpassung mehr und mehr zu einer stabilen Gestalt avancieren lassen: eckiger oder runder, heller oder dunkler, schneller oder langsamer; aggressiver oder weniger aggressiv, verspielter oder weniger verspielt, mediterraner oder weniger mediterran. Es zeigt sich, dass die jeweiligen Stellgrößen, die Parameter, nicht lediglich aus den technischen Werkzeugen der Entwurfsherstellung und der physischen (Produkt-)Struktur abzuleiten sind, sondern gleichsam aus unendlich vielen semantischen Kontexten. Menschliche bzw. gestalterische, d.h. u.a. formensprachliche, ästhetische, semiotische, kulturelle Bedeutungen etc. können entsprechend durch selbstlernende technische Systeme ›als‹ solche erkannt, in dynamische und anpassungsfähige Prozessierungen übersetzt und zu handhabbaren Parametern verdichtet werden.57 Als solche markieren sie entsprechend die fortwährend kontingenten Endpunkte einer komparativen Bandbreite,58 welche es erst ermöglicht, einen eigenen menschlichen, selbstbewussten Standpunkt zu beziehen, d.h. eine gestalterische Überzeugung zu etablieren, insofern, als dass durch den unmittelbar sichtbaren Vergleich der Komparative eine Unterscheidung erfolgen kann, gemäß welcher sich gar erst entschieden werden kann. Im unmittelbaren Abgleich der Komparative, in dessen prozessualer Visualisierung als interpolierte Bildsequenz (Animation) im kleinen oder als berechnetes Szenario eines ganzen Ökosystems (Simulation) im großen Maßstab, können Entwurfsentscheidungen erst selbstvergewissert, d.h. als gestalterische Entscheidungen resp. Handlung stabilisiert werden. Diese basieren entsprechend auf dem iterativen Abwägen des einen gegenüber dem anderen, dem Ausloten der assoziativen Wirksamkeiten gegeneinander (gr. ›para‹ = dt. ›gegen/neben‹), sodass jede Entwurfsentscheidung eine begründete, nachvollziehbare und argumentativ richtige Entscheidung sein kann. Entwerfen, so könnte man es in diesem (parametrischen) Verständnis abermals festhalten, kann in dieser Hinsicht als das sorgsame Abwägen von Komparativen verstanden werden. Dies stellt die mitunter mühevolle Anforderung, sich gestalterisch nicht mit nur wenigen Einzelaspekten, sondern multiplen, derivativen Möglichkeiten proaktiv, d.h. im Vollzug eines

56 57

58

Ebd.: 108. Die technische Prozessierung der Phänomene ›als‹ menschliche Bedeutungsträger ist entsprechend keine Frage der generellen Darstellbarkeit mehr, sondern allein eine der Auflösungsgrade, wie sie weiter unten noch resümiert werden. Vgl. zum Phänomen der Auflösungsgrade sowohl Kapitel 7.3 ›Situation und Improvisation‹ als auch Kapitel 7.5 ›Simulation und Computation‹. Die Endpunkte stellen zwar eine endliche Begrenzung dar, sind aber weiterhin in ihrer eigenen Definition und Position fortwährend verhandelbar.

317

318

Prozess als Gestalt

praktischen Machens, auseinanderzusetzen; nicht in singulärer Hin-Sicht, sondern in Ab-Sicht von naheliegenden Lösungen neue Räume abzustecken und sie abzutasten,59 d.h. die Bandbreite gegeneinander durchzuspielen, um den eigenen Standpunkt resp. die eigene gestalterische Argumentation und Haltung zu verfestigen und damit gleichsam den Entwurf als uneinnehmbare (›uninvadable‹) Gestalt zu stabilisieren.60 Parametrische Mechanismen und Strukturen stellen dabei die Rahmenbedingungen bereit, die ein solches Abwägen der Komparative im Entwurfsprozess durch ihre unmittelbare Visualität und Anschaulichkeit erst ermöglichen. Entsprechend lässt ein Spiel mit den Parametern schnell und nachvollziehbar erkennen, wo die Schwerpunkte des Prozesses und die Tendenzen seiner Ausgestaltung liegen können. Es bilden sich Gewichtungen heraus, die den Prozess als dynamisches Ganzes verhandeln, als Gestalt, ohne die Verbundenheit ihrer Struktur aufzulösen bzw. – und gar im Gegenteil – die strukturelle Beschaffenheit und Tragfähigkeit erst ansichtig werden zu lassen: »nur so weit, sonst bricht es«; »wenn hier mehr, dann dort weniger«; »wenn hier gedrückt wird, dann dort breiter«; »weniger rot, dafür mehr blau« usw. Durch das komparative Abwägen sensibilisiert sich das Bewusstsein für die Verbundenheit der Teile zueinander als auch für den eigenen – gewichteten – (gestalterischen) Standpunkt. Der Entwurfsprozess kann dementsprechend als verhandelbare Gestalt erfahren werden, die gerade durch ihre parametrische, d.h. fortwährend verhandelbare Dynamik ihrer Struktur, nicht nur den Entwurf (argumentativ) stabilisiert, sondern gleichsam die Haltung des Gestalters. Den Prozess als Gestalt zu verstehen heißt demgemäß, jeweils ganz eigene Maßstäbe der Richtigkeit herauszubilden, sowohl für den Entwurf, den Gestalter als auch das Weltverhältnis, dem sie angehören. In diesem Sinne lösen multiple Formen individueller, dynamischer und formbarer Richtigkeiten die Idee absoluter, starrer und unabänderlichen Wahrheiten ab, wie Hans Ulrich Gumbrecht es treffend für eine Neubestimmung des Kreativität-Begriffs dargestellt hat.61 Die Produkte, die einen solchen Wandel zu leisten vermögen, verändern nicht etwa nur ihre technische Struktur – etwa durch selbstlernende Systeme –, sondern vor allem den Zugang des Menschen zu seiner Umwelt, sein Weltverhältnis. Schrader spricht in diesem Zusammenhang von transformationalen Produkten, die vorwiegend als digitale Produkte (Services) zunächst die Erwartung, das Verhalten und die Wertschöpfung der Nutzer transformieren, bevor dadurch wiederum Transformationen der Produktgattungen, des Marktes und der Unternehmen wirksam werden.62 Dabei bildet die Digitalisierung zwar den allumfassenden Überbau der Entwicklungen – im Kern, so Schrader, handelt es sich dabei jedoch um die technische und menschliche Möglichkeit der Vernetzung.63 Je stärker diese Vernetzung voranschreitet, desto notwendiger 59 60 61 62 63

Vgl. dazu auch Kapitel 7.2 ›Hin-Sicht und Ab-Sicht‹. Die Idee der Uneinnehmbarkeit der Gestalt wurde dabei weiter oben im Kapitel 7.4 ›Spiel und Integration‹ anhand der evolutionären Spieltheorie John Maynard Smith’s entwickelt. Vgl. Gumbrecht (2015). Vgl. Schrader (2017: 21ff). »Unser Zeitalter der Digitalisierung ist im Kern eigentlich ein Zeitalter der Vernetzung.« Ebd.: 20. Anschaulich wird diese Entwicklung übergreifend auch im sog. Internet der Dinge (›Internet of Things‹, IoT), der technischen Durchdringung der Welt durch die Verbindung physischer Geräte und Komponenten mit der menschlichen Lebenssphäre. Vgl. dazu Engemann; Sprenger (2015b).

8. Prozess, Gestalt und Parametrie

wird der (gestalterische) Diskurs über die Gewichtung der entsprechenden Verhältnisse der vernetzten Komponenten, denn: Wenn alles mit allem vernetzt ist, sind zwar die gleichgeschalteten technisch-medialen Grundlagen gegeben, nicht jedoch sind die Unterscheidungskriterien entworfen, an denen es menschliche Sinnhaftigkeit auszurichten gilt. Im vernetzten Geflecht der gleichgeschalteten Möglichkeiten müssen entsprechend durch die proaktive Wichtung der Verhältnisse jene eigentlichen Schwerpunkte gestalterisch herausgearbeitet werden, die aufzeigen und erfahrbar machen, welche Maßnahmen im komparativen Vergleich sinnvoller und weniger sinnvoll sind, bzw. die, wie Martin Gessmann es einst als hermeneutische Weiterentwicklung der Technik im Dienste der einfachen Handhabung der Geräte herausgearbeitet hat, ansichtig werden lassen, »was der Mensch von dem, was er alles brauchen könnte, wenn er es nur irgendwie wollte, auch wirklich braucht.«64 In dieser Hinsicht vermag ein parametrisches Verständnis der Prozesse als Gestaltbildungs-Prozesse ein fortwährendes Bewusstsein dafür zu bestärken, dass es keine absoluten, sondern lediglich relative Maßstäbe der Richtigkeit sind, an denen sich menschliche Lebensqualität bemisst und an welchen sich gute, d.h. vor allem sinnvolle Gestaltung immer wieder neu auszurichten hat.

8.1.4

Spielhaftigkeit und Modellierbarkeit

Mit den Phänomenen der Prozessualität, der Reversibilität und der Relationalität sind damit jene charakteristischen Triebkräfte benannt, welche die Grundlage für ein parametrisches Verständnis von Entwurfsprozessen anlegen. Durch ihr Zusammenwirken wird schnell klar, dass sie an der Herausbildung einer übergeordneten Dynamik beteiligt sind, wie sie für parametrisch gedachte Prozesse wesentlich ist: Die äußere strukturelle, d.h. zeitlich reversible und relational gewichtete Wandelbarkeit sorgt dabei gleichsam für die Notwendigkeit einer dynamischen Handhabbarkeit der performativen Prozesse im Inneren, der eigentlichen gestalterischen Praktiken. Diese, so ist es im letzten Hauptteil der Arbeit weiter oben ausführlich dargestellt worden,65 können in dieser Hinsicht und aufgrund ihrer Reglementierungen sowie ihrer Schnelligkeit und Leichtgängigkeit auch als spielerische Akte verstanden werden. Die Betrachtung der gestalterischen Tätigkeit als Handlungsform des Spielens differenziert dabei durch Begrifflichkeiten des Spielraums, der Spannungsverhältnisse und der Sinnzusammenhänge weiter aus, was im vorangegangenen Kapitel als das sorgsame Ausloten der Komparative in grober Kontur umrissen worden ist. Nun stehen sich die Komparative im spielerischen Zusammenhang nicht willkürlich und frei gegenüber. Sie finden in einem Rahmen statt, der ihrer Ambivalenz erst jenes Maß an Bedeutung zuordnet, das die spielerische Handlung ad infinitum vorantreibt. Diese Rahmung versteht sich als konstruiertes Modell einer Wirklichkeit, dessen Gegebenheiten und Verhältnisse im Spiel neu verhandelt werden. Dabei verkörpert jedes Modell auch immer einen Raum der Einschränkung: Indem ein Modell bestimmte Parameter aufnimmt und als gegebene Größen voraussetzt, schließt es etwas ein und damit auch gleichzeitig alles andere aus. Entsprechend forciert jede Einschränkung dabei 64 65

Gessmann (2010: 135). Vgl. Kapitel 7.4 ›Spiel und Integration‹.

319

320

Prozess als Gestalt

den unmittelbaren Anreiz, ein Ziel über einen anderen als den direkten Weg zu erreichen: Ein Fliesenboden mit quadratischen Fliesen kann so durch die simple Regel, sich auf ihm alleinig wie die Pferdefigur beim Schach fortzubewegen, zum Spielraum werden; ebenso kann die einschränkende Vorbedingung, ein Marmeladenglas ausschließlich mit den Füßen öffnen zu dürfen, eine alltagspraktische Situation in eine Spielsituation transformieren und dabei etwa überraschende Einsichten in die Grenzen der eigenen Anatomie offenlegen. Die buchstäblichen Umwege, die dabei erschlossen werden, bilden entsprechend den wesentlichen Kern der spielerischen Auseinandersetzung: Sie fördern ein exploratives Verhalten, das den neuartigen Umgang mit dem Gegebenen auslotet, ihn antreibt, ausdehnt, variiert und letztlich jene einschränkenden Regeln hinterfragt und adjustiert, aus welchen die Bedingungen des Spiels hervorgehen.66 So emanzipierte sich etwa das Fußballspiel erst zur Mitte des 19. Jahrhunderts von der Sportart des Rugbys durch die 1848 etablierten ›Cambridge Rules‹, die dem Spiel mit dem Fuß gegenüber dem Spiel mit der Hand den Vorzug gaben.67 Dennoch war es bis zur Anpassung des Regelwerkes im Jahr 1871 einem Feldspieler erlaubt, den Ball ungehindert aus der Luft zu fangen, ihn abzulegen und mit den Füßen fortzubewegen, durch den sog. ›Fair Catch‹, der wiederum gegenwärtig noch im American Football Bestand hat und welcher vom den Ball empfangenden Spieler durch eine Wink-Bewegung mit ausgestrecktem Arm über dem Kopf angezeigt werden muss, während der Ball noch in der Luft ist.68 Es zeigt sich daran exemplarisch, dass Spiele und Spielregeln sich in Form einer evolutionären Durchmischung in ihren Eigenarten differenzieren, ohne sich als Kategorie ganz von ihren Ursprüngen zu lösen. Wittgenstein hat dieses Phänomen mit dem Begriff der Familienähnlichkeit umschrieben und auf die Herausbildung von Regeln als performativen Prozess hingewiesen, in welchem sich Regeln erst während der spielerischen Handlung verfestigen – »make up the rules as we go along« –,69 als rückwärtsgewandte Gestaltung der Rahmungen und Bedingungen, gemäß welcher das (entwerferische) Spiel nach vorne hin vollzogen wird. Er beschreibt damit das Wechselverhältnis zwischen Restriktion und Kontingenz, das sich nicht allein auf Seiten der performativen Spielausübung, sondern gleichsam auf Seiten der rahmenden Spielbedingungen vollzieht, als Ko-Evolution (Ko-Kreation), wie sie auch weiter oben bereits knapp dargestellt wurde.70

66

67 68

69 70

Wie Rippmann das paradox anmutende Verhältnis von Restriktion und Kontingenz für digital konstruierte Entwürfe formuliert: »Der Entwerfer schafft sich so seinen eigenen Entwurfsraum, der zwar geometrische Einschränkungen vorgibt, jedoch unendlich viele Entwurfsvarianten zulässt, welche garantiert mit der zuvor definierten Konstruktionsart umgesetzt werden können.« Rippmann (2014: 38). Kurz: Jede Einschränkung, die nach außen hin abschließt, öffnet zugleich einen Spielraum nach innen. Vgl. Tabarelli (2017). S. das Regelwerk der National Football League (NFL), Rule 10, Section 2: »A Fair Catch is an unhindered catch of an airborne scrimmage kick that has crossed the line of scrimmage, or of an airborne free kick, by a player of the receiving team who has given a valid fair catch signal. […] A fair-catch signal is valid if it is made while the kick is in flight by a player who fully extends one arm above his helmet and waves it from side to side.« National Football League (2019). Wittgenstein (1953/2008: PU 83). Vgl. dazu Kapitel 6.1 ›Problem und Lösung‹.

8. Prozess, Gestalt und Parametrie

Um eine solche Ko-Evolution zu initiieren, bedarf es der Ausdehnung eines Spielraums, in der das Wechselspiel verschiedenster Einflussfaktoren (Parameter) fortwährend an- und vorangetrieben werden kann. Sofern der Spielraum nicht zu groß und nicht zu klein gewählt ist, d.h., sofern er einerseits nicht durch allzu freie Möglichkeiten nur unzureichende Orientierung bietet (zu wenige Parameter), als auch andererseits nicht durch zu viele Vorbedingungen und Restriktionen (zu viele Parameter) spielerische Umwege behindert,71 etabliert sich eine bipolare Spannung, welche die Gegebenheiten permanent gegeneinander abwägt, rekursive Schleifen zieht und in zyklischen Iterationen alles jederzeit und immer wieder neu zur Verhandlung stellt. Die spielerische Spannung versteht sich in dieser Hinsicht als eine Kraft, die den Entwurfsprozess nicht nur antreibt, sondern ihn fortwährend im bewegten Gleichgewicht hält resp. ihn stabilisiert; nicht zuletzt dadurch, dass Spielprozesse nicht etwa auf ihr abschließendes Ende, sondern auf ihre permanente Erneuerung drängen – nicht absolute Wahrheiten auf Dauer fixieren, sondern gewichtete Wahrscheinlichkeiten bzw. Schwerpunkte ausloten. Entsprechend stellt sich das Spiel a priori als unabschließbares Phänomen dar, dessen Ausgang grundlegend ungewiss und deshalb im Vorhinein gleichsam unentscheidbar ist. Das Spiel charakterisiert sich demnach, wie Scheuerl es einst anschaulich formuliert hat, durch »das unentschiedene Zugleich entgegengesetzter Tendenzen«,72 d.h. durch die kategorische Möglichkeit, den teils kontroversen und widersprüchlichen Dingen auch anders begegnen und die Unentscheidbarkeit erst im Vollzug, in der Tätigkeit des Spielens selbst, auflösen zu können. Es muss gespielt werden, um in den Dingen zu erkennen, was sie ›auch noch‹ sein können, denn was sie sind, sind sie ja schon. Es wäre entsprechend vermessen, den Gestalter als Persönlichkeit zu betrachten, die jederzeit weiß, was sie tut – dies kann allenfalls als verjährter Anspruch einer verwissenschaftlichten Methodologie-Bewegung betrachtet werden, die jedoch für die multiplen Anwendungsgebiete und dynamischen Anforderungen vor allem gegenwärtiger gestalterischer Tätigkeiten kaum mehr zu gebrauchen ist.73 Jederzeit zu wissen, was man tut, hieße gleichsam, sich lediglich mit entscheidbaren, d.h. mit bereits entschiedenen Fragen auseinanderzusetzen, und damit lediglich akzidentielle Variationen des Gleichen zu erzeugen. Vielmehr vermag die Stärke eines (guten) Gestalters nunmehr darin begründet zu sein, dass er gerade nicht abschließend weiß, was er tut, diese Ungewissheit jedoch innerhalb eines sorgsam gestalteten Spielraums verhandelt, gemäß eigens

71

72 73

So etwa am Beispiel eines Projekt-Briefings: Das eine Extrem würde etwa ein Briefing ohne Inhalt verkörpern, das dem Gestalter zwar alle Freiheiten zugesteht, aber keine Anhaltspunkte darlegt, an denen ein Entwurf auszurichten wäre. Das andere Extrem wäre ein Briefing, das überdefiniert ist und dem Gestalter buchstäblich kaum Spielraum lässt, neue Lösungen zu entwickeln. Scheuerl (1954/1973: 91). Vgl. dazu etwa Weidingers ›Antworten auf die verordnete Verwissenschaftlichung des Entwerfens‹, welche etwa durch die Anstrengungen der HfG Ulm in den 1960er-Jahren oder die Tendenzen zur Beschreibung des Entwerfens als Planungswissenschaft ab den 1970er-Jahren befördert wurde; als der übergeordnete Versuch, den Entwurfsprozess zu objektivieren. Entsprechend resümiert Weidinger: »Die verschiedenen Ansätze der Verwissenschaftlichung des Entwerfens stellten am Ende das Entwerfen ganz ein. Das lag daran, dass weder die Ziele des Entwerfens noch der Entwurfsprozess im Sinne eines linearen und objektivierbareren Prozesses definierbar sind.« Weidinger (2013: 22).

321

322

Prozess als Gestalt

erarbeiteten, dynamischen Maßstäben der Richtigkeit und bezüglich jeweils neu entworfener Unterscheidungskriterien, die für den einen Fall so, für einen anderen wiederum ganz anders ausfallen können, jedoch immer und zwangsläufig richtig sind, eben weil sie sich im Prozess des gestalterischen Spiels selbst verfestigt haben. Ebendieser Umgang mit der gewissen Ungewissheit markiert jene gestalterische Souveränität den Dingen gegenüber, die sich unter keinem Schema, keinem Plan, keinem Werkzeug und keiner Methode subsumieren lässt. Den Gestalter als Spieler zu verstehen heißt entsprechend – und gerade mit Hinsicht auf die fortschreitende technische Entwicklung der Entwurfsmedien –, ihm gestalterische Souveränität zuzusprechen, und ebenso und nicht zuletzt, ihm viel Spaß damit zu wünschen.74

8.1.5

(Un-)Sichtbarkeit und Handhabbarkeit

Der souveräne Gestalter versteht sich entsprechend als jene Wirkkraft, die um ihre eigene Ungewissheit weiß und gerade dadurch eine bestimmte Selbstsicherheit behaupten kann – sich selbst als auch dem Entwurf gegenüber. Dabei versteht sich der Umgang mit Ungewissheit nicht lediglich auf das, was man nicht weiß, sondern ebenso auf jene Prozesse und Phänomene, die man nicht sieht. Letzteres bezieht sich dabei vor allem auf die technischen Medien, durch welche Entwürfe in gestalterischer Hinsicht erst eine visuelle Repräsentation erhalten als auch jene, die das alltägliche Verhältnis des Menschen zu seiner Umwelt maßgeblich prägen. Mark Weiser hat die Unsichtbarkeit der technischen Medien dabei im Zusammenhang mit dem von ihm geprägten Ausdruck des ›ubiquitous computing‹ bereits früh prominent gemacht.75 Die Erkenntnisse seiner praktischen Forschung kumulierten dabei in der visionären Feststellung, dass Computer durch ihre Miniaturisierung, ihre kostengünstige Herstellung und ihre gegenseitige Vernetzung stetig weiter in die Peripherie der menschlichen Wahrnehmung abrücken, insofern, als dass sie sich nahtlos in die Geschehnisse der menschlichen Lebenswelt einfügen (»integrating computers seamlessly into the world at large«76 ) und dadurch unsichtbar werden. Die computationalen Prozesse werden in den unsichtbaren Hintergrund verlagert (»computers themselves […] vanish into the background«77 ), in welchem sie ubiquitär präsent und vernetzt sind, um die technischen Barrieren im Vordergrund gar nicht erst entstehen zu lassen. Entsprechend sind es nach Weiser jene transparenten Verbindungen (»transparent connections«78 ) einer total vernetzten Welt, die das gemeinschaftliche menschliche Leben näher zusammenführen, indem sie den Menschen von

74

75 76 77 78

Wie Nigel Cross es als Plädoyer für den menschlichen Gestalter formuliert: »What is the point of having machines do things that human beings not only can do perfectly well themselves, but also actually enjoy doing? Like playing chess, people enjoy designing – and, I believe, people are very good at designing.« Cross (2007: 62). Vgl. Weiser (1991). Weiser stellte damit die grundlegenden Weichen für die Diskussion um das Internet der Dinge. Vgl. dazu auch Engemann; Sprenger (2015b). Weiser (1991: 94). Ebd. Ebd.: 104.

8. Prozess, Gestalt und Parametrie

der Notwendigkeit der technischen Auseinandersetzung entlasten –79 nicht mehr der Mensch passt sich den technischen Geräten an, sondern umgekehrt.80 Dass Weisers Vision einer ubiquitär vernetzten Welt sich mehr und mehr einzulösen vermag, kann etwa angesichts des Smartphones und der Integration digitaler Inhalte in die alltägliche Lebenspraxis kaum noch bestritten werden. Dabei bilden die computationalen Prozesse im Hintergrund die Grundlage für die erweiterte Nutzung der Ergebnisse im Vordergrund; etwa, wenn Verkehrsstaus auf Basis aktueller Verkehrsdaten umfahren, Rechnungen mit einer einzigen Geste bezahlt oder verschlossene Türen mit einem ›Blick‹ geöffnet werden können. Hinter der vordergründig ›einfachen‹ Nutzbarkeit der Anwendungen stecken dabei komplexe Berechnungen unermesslich großer Datenmengen im Hintergrund, dessen Prozessierung im Einzelnen nicht mehr nur menschlich unverständlich, sondern gleichsam kapazitativ unmöglich ist. Dementsprechend bedarf es einer Aufbereitung resp. einer Vorsortierung der Daten, damit diese überhaupt erst menschlich handhabbar werden. Felix Stalder benennt diesen Mechanismus der Aufbereitung als Algorithmizität digitaler Kulturen.81 Darunter lassen sich jene computationalen (Transformations-)Prozesse verstehen, die der »vernetzten Kulturproduktion […] vorgeschaltet sind […], [und] welche die unermesslich großen Datenmengen vorsortieren und in ein Format bringen, in dem sie überhaupt durch Einzelne erfasst, in Gemeinschaften beurteilt und mit Bedeutung versehen werden können.«82 Es bedarf entsprechend einer medialen Aufbereitung der Prozesse, damit aus hintergründigen Unsichtbarkeiten vordergründige Handhabbarkeiten entstehen können. Ebendiese Mechanik versteht sich im Kern als jene Grundlage, auf der ein parametrisches Verständnis der Prozesse aufbaut, als mediales Phänomen der Sichtbarmachung und damit als ein für das Design grundlegendes Funktionsprinzip, als welches es selbst nicht mehr unsichtbar ist, sondern vielmehr Sichtbarkeit erzeugt.83 Dabei

79

80

81 82 83

»By pushing computers into the background, embodied virtuality will make individuals more aware of the people on the other ends of their computer links. […] Ubiquitous computers, in contrast, reside in the human world and pose no barrier to personal interactions. If anything, the transparent connections that they offer between different locations and times may tend to bring communities closer together.« Ebd. Wie Weiser es mit dem anschaulichen Vergleich eines Waldspaziergangs darstellt: »Machines that fit the human environment instead of forcing humans to enter theirs will make using a computer as refreshing as taking a walk in the woods.« Ebd. Vgl. Stalder (2016/2017: 13ff, 95ff, 164ff). Ebd.: 166. Dementsprechend versteht sich der Designer nicht mehr als Erfinder, sondern, wie Bürdek es etwa dargelegt hat, als Visualisierer: »So gesehen kann man sicherlich konstatieren, dass Designer heute nicht mehr Erfinder (im Sinne Leonardo da Vincis) sind, sondern die Visualisierer einer zunehmend unanschaulich gewordenen Welt: Design ist nicht unsichtbar, es macht vielmehr sichtbar. Hinzu kommt, dass Visualisierung bereits zu einem Arbeitsfeld von Architekten und Designern geworden ist, die durch ihre Spezialisierung ganz neue Aufgabenfelder im Bereich der Produktentwicklung (Hardwaredesign) abdecken, ebenso wie im Interfacedesign (Softwaredesign). Aus den jeweiligen CAD-Daten der Produktentwicklung Visualisierungen anzufertigen, verkürzt die Prozesse und ist zudem wesentlich kostengünstiger als die Anfertigung dreidimensionaler Modelle – in der Architektur wie im Design.« Bürdek (2015: 242-243). Ebenso Goldschmidt: »The ultimate objective of the process of designing is the production of visual representations of the designed entity with enough completion and coherence to allow its construction or the construction of a visual simulation of it, physically or mentally.« Goldschmidt (1991: 125).

323

324

Prozess als Gestalt

versteht sich die parametrische Mechanik nicht etwa darauf, das Eine (Unsichtbarkeit) zugunsten des Anderen (Sichtbarkeit) gänzlich und unwiderruflich aufzulösen, sondern vielmehr wechselseitig zwischen den Sphären zu vermitteln, durch den reversiblen Wechsel der Auflösungsgrade, in welchen die (Entwurfs-)Inhalte in ihrer medialen Erscheinung betrachtet werden. Die Wirksamkeit einer Veränderung eines Parameters kann entsprechend sowohl in seiner strukturell-technischen Beschaffenheit nachvollzogen werden (auf tiefster Ebene etwa als Binärcode) als auch als grafische Visualisierung, d.h. als visueller Effekt resp. als die unmittelbar sichtbar gewordene Resonanz des eigenen Handelns (etwa im Echtzeit-Raytracing eines 3D-Renderings84 ). Während sich der Umgang mit Entwurfsinhalten in binärer Form (0 und 1) dabei für eine gestalterische Anschlussverwendung nur bedingt als tauglich erweisen würde, ermöglicht eine unmittelbare Visualisierung der Entwurfsinhalte mitsamt dessen Veränderungen eine konsistente Darstellungsform, die differenziertes Handeln und Entscheiden in engen Zyklen erst möglich macht.85 Die Dinge werden ›live‹ entscheidbar, da jede Veränderung unmittelbar anschaulich und der Prozess somit als Ganzes handhabbar wird. Die Mechanik versteht sich als kontinuierlicher Prozess, der nicht mehr unterbrochen, sondern lediglich in die gewünschten Bahnen gelenkt werden muss; ein Prozess, der Entwürfe nicht mehr durch Trennungen und Neuanfänge, sondern durch reversible Gewichtungen und Tendenzen hervorbringt und welche dadurch ihre eigenen Maßstäbe der Richtigkeit ausbilden. Während sich das Spiel mit Gewichtungen als prozessuale Kontinuität in die Breite verstehen lässt, lassen parametrische Mechanismen gleichsam eine Kontinuität in die Tiefe der Prozesse ansichtig werden, durch die Betrachtung derselben in verschiedenen Auflösungsgraden. Anschaulich wird dies in der gestalterischen Praxis etwa anhand von Entwurfsprogrammen, in welchen Entwurfsinhalte (Formen, Objekte, Elemente etc.) auf verschiedenen Ebenen angeordnet, in Gruppierungen mit hierarchischer Struktur eingefügt oder in der Verweisungslogik von Symbolinstanzen assoziativ vernetzt werden können.86 Die Verschachtelung in die Tiefe bildet dabei jene parametrische Mechanik, die eine durchgängige Nachvollziehbarkeit gewährleistet: Die Bearbeitung der Elemente in einem höheren (tieferen) Auflösungsgrad ist zumeist nur einen Doppelklick entfernt – je nach Bedarfs- und Anwendungsfall kann in den Prozess hinein- und herausgezoomt werden, d.h., die gestalterische Auseinandersetzung findet nicht nur auf einer, sondern auf unendlich vielen (Zwischen-)Ebenen statt. Parametrie markiert dabei den kategorischen Anspruch, stets die Möglichkeit für differenziertes Handeln darzubieten, was nichts anderes meint, als (Entwurfs-)Inhalte durch neu angelegte 84

85

86

Raytracing bezeichnet im Kontext der 3D-Modellierung die Berechnung virtueller Lichtstrahlen, die auf eine 3D-Geometrie prallen und diese als Objekt gemäß simulierter, physikalischer Verhältnisse sichtbar machen. Vgl. dazu die Erläuterungen des Grafikkartenherstellers Nvidia, https://develop er.nvidia.com/rtx/raytracing, abgerufen am 15.06.2020. Anschauliche Beispiele stellen dabei sowohl diverse Programmierumgebungen (etwa vvvv oder processing) als auch weitverbreitete 3D-Softwareprogramme (etwa Cinema 4D, oder Rhinoceros Grasshopper) dar, welche die kodifizierten Berechnungen unmittelbar in einem Ausgabefenster anzeigen und jede Veränderung dadurch nachvollziehbar machen. Vgl. dazu etwa die Funktionsmechanismen von Programmen der Adobe Suite wie Illustrator, Photoshop, After Effects oder InDesign.

8. Prozess, Gestalt und Parametrie

Sichtbarkeiten unsichtbar zu machen und vice versa, ohne dabei die Verbundenheit zwischen den jeweiligen Erscheinungsformen aufzulösen.87

8.1.6

Auflösungsgrade und Prozessgestalt

Das Phänomen der Auflösungsgrade erscheint in dieser Hinsicht für ein parametrisches Verständnis der Prozesse als ein wesentliches. Dabei bleibt es nicht nur auf die Medialität der Entwurfsgegenstände beschränkt, sondern lässt sich gleichsam als übergeordnete Dynamik auf wahrnehmungspsychologischer Ebene verstehen, die für das gestalterische Wirken im Besonderen als auch für die menschliche Lebensgestaltung im Allgemeinen gleichermaßen bedeutsam erscheint. Wovon ist entsprechend auszugehen, wenn im Folgenden von Auflösungsgraden die Rede ist? Dietrich Dörner hat den Ausdruck der Auflösungsgrade im Zusammenhang mit menschlichem Problemlösen verwendet.88 Dörner beschreibt darin Problemsituationen durch sog. Realitätsbereiche, die jeweils in bestimmter Auflösung wahrgenommen werden können. Die Auflösung bezeichnet dabei die Schärfe resp. Detailtiefe des betrachteten Realitätsbereichs und kann stufenlos variiert werden. So kann ein Auto beispielsweise als »Materieklumpen mit bestimmter Höhen-, Breiten- und Tiefenausdehnung und einer bestimmten Farbe« betrachtet werden (niedriger Auflösungsgrad),89 als ein Gefüge zusammengesetzter Einzelteile wie Karosserie, Chassis, Motor etc. (mittlerer Auflösungsgrad) oder gar als Ansammlung von Molekülen bzw. einzelner Atome (hoher Auflösungsgrad). Für den Fall, dass sich im Umgang mit dem Auto nun ein Problem ergibt – etwa, dass es nicht mehr anspringt –, bedarf es einer Eingrenzung der Problemursache. Es würde dabei zunächst wenig Sinn machen, das Auto lediglich als Materieklumpen zu betrachten, da in diesem Auflösungsgrad nur zwischen ›bewegt sich‹ und ›bewegt sich nicht‹ unterschieden werden kann. Ebenso würde eine Untersuchung der einzelnen Molekülketten und Atome zunächst wenig aussichtsvoll erscheinen, da die kleinteiligen Prozesse auf atomarer Ebene erst ab einer bestimmten Anzahl und Größe Aussagen über die Materialität einzelner Autoteile zuließen. Entsprechend betont Dörner die Wahl des richtigen Auflösungsgrades und schlägt vor, »daß man ihn möglichst niedrig hält und ihn erst bei Mißerfolg des Problemlöseversuchs steigert.«90 Sofern die Problemursache entsprechend nicht an den äußeren Dimensionen des Autoklumpens zu finden ist, vermag die Erhöhung des Auflösungsgrades den Blick auf die einzelnen Komponenten zu richten, dabei womöglich vorrangig auf den Motor, darin auf die Zuleitungen, die Zylinder, die Zündkerzen etc. Dabei werden auf jeder Auflösungsebene neue Ansatzpunkte für differenziertes Handeln ansichtig,91 die so lange inspiziert werden, bis die Lösung für das Problem gefunden worden ist.

87

88 89 90 91

Weiter oben wurde diese Dynamik mittels der Unterscheidung in eine extensionale und eine komprimierende Funktion parametrischer Mechanismen weiter ausdifferenziert. Vgl. dazu Kapitel 7.3 ›Situation und Improvisation‹ als auch Kapitel 7.4 ›Spiel und Integration‹. Vgl. Dörner (1976: 18ff) als auch Kapitel 6 ›Problemlösen und Parametrie‹. Ebd.: 19. Ebd. »Erst die Erhöhung des Auflösungsgrades bietet die Möglichkeit für differenziertes Handeln.« Ebd.

325

326

Prozess als Gestalt

Die Suche nach der Lösung eines Problems versteht sich nach Dörner in dieser Hinsicht als Suche in die Tiefe, als sukzessive Erhöhung der Auflösungsgrade. Doch besteht der für die gestalterische Diskussion bedeutsame Aspekt nicht allein in der Erhöhung, sondern gleichsam in der Verringerung der Auflösungsgrade, wodurch sich der gestalterische (Such-)Prozess als dialogisches Wechselspiel offenbart. Ebenso wie der Mechaniker das Problem nicht nur etwa am Auspuff des Autos sucht, sondern nach erfolgloser Suche in der Tiefe (durch Erhöhung der Auflösungsgrade) den Realitätsbereich wechselt (durch Verringerung der Auflösungsgrade), d.h. den inspizierenden Blick vom Auspuff etwa auf den Motor richtet, lässt sich ein Entwurfsprozess allgemeinhin gleichsam als tastendes Vor- und Zurück, als Sich-Nähern und Sich-Entfernen, als Festhalten und Loslassen, kurz: als Wechselspiel der Auflösungsgrade verstehen. Dieses Wechselspiel versteht sich innerhalb der gestalterischen Praxis auf die konkrete Entwurfsartikulation im kleineren als auch auf die Kontinuität des gesamten Entwurfsprozesses im größeren Maßstab. Ersteres wurde dabei weiter oben ausführlich anhand der integrativen Gestalt-Bildung von Entwürfen beschrieben:92 Eine EntwurfsGestalt versteht sich dabei als konstruierte Ordnung verschiedener (Wahrnehmungs)Inhalte, die durch gestalterische Transformationen in neue Verhältnisse gebracht und dadurch zu neuen, in sich stabilen und die menschlichen Weltverhältnisse stabilisierenden Ganzheiten integriert werden. Die Einbettung von Wahrnehmungsinhalten in eine neue Gestalt erfolgt dabei durch den Wechsel der Auflösungsgrade: zunächst durch das Aufbrechen etablierter Verhältnisse des betrachteten Wahrnehmungsinhaltes (Exklusion), daraufhin durch die Isolation und Entnahme fokussierter Merkmale und Bestandteile sowie durch die Abstraktion auf ihren wesentlichen Gehalt (Extraktion), als zuletzt durch die Einbettung der Komponenten in eine ganzheitliche Ordnung, in der die Verhältnisse zwischen ihnen neu gesetzt und gewichtet werden (Integration). In zweiter, erweiterter Betrachtung bezieht sich die Dynamik der Auflösungsgrad nicht mehr ausschließlich auf die konkrete Gestalt-Bildung des Entwurfs, der als solcher bestimmte (exkludierte/extrahierte) Merkmale und Verhältnisse auf sich vereint (integriert), sondern gleichsam auf die Kontinuität des gesamten Entwurfsprozesses an sich, auf seine Prozessgestalt. So kann ein Entwurfsprozess übergeordnet als sukzessive Steigerung des Auflösungsgrades verstanden werden – vom groben Konzept bis zur akribischen Detailausarbeitung. Während die Erarbeitung eines Konzeptes (bzw. zumeist mehrerer Konzepte) zu Anfang jedes Prozesses dessen solide Grundlage bildet, sind die iterativen Konkretionen des eigentlichen Entwurfs zu jeder Zeit an dieser Grundlage auszurichten. Das Konzept bildet dementsprechend die übergeordnete Leitlinie des Entwurfsprozesses; das argumentative Fallnetz, das den Entwurf fortwährend stabilisiert und diesen im zeitlichen Verlauf durch die Erhöhung des Auflösungsgrades gleichsam stets weiter ausdifferenzieren lässt.

92

Vgl. dazu Kapitel 7.4 ›Spiel und Integration‹.

8. Prozess, Gestalt und Parametrie

Abb. 16: Eigene Darstellung. Die Zustände (01-08) zeigen den wöchentlichen Stand eines Gabelstapler-Entwurfs des Autors aus dem Jahr 2012, anhand welcher die kontinuierliche Erhöhung der Auflösungsgrade exemplarisch anschaulich wird: Während etwa 01 als Konzept vor allem die Idee des ›freien Blicks des Fahrers zu allen Seiten‹ in niedrigem Auflösungsgrad verkörpert – ohne etwa die Bodenfläche, den Sitz oder die Räder zu thematisieren –, differenzieren sich die Überlegungen im Verlauf der Serie weiter aus (Erhöhung der Auflösungsgrade) und verfestigen sich allmählich zu einer immer ganzheitlicheren und stabileren Gestalt. Während manche Charakteristika und Anzeichen beibehalten werden (etwa die Schrägstellung der vorderen Hubmasten), werden andere stellenweise wieder verworfen (etwa die Idee der Sitzschale oder der überwölbten Kabinenscheiben), wodurch nicht zuletzt die wechselseitige Dynamik der Auflösungsgrade in ihrer Tiefen- und Breitendimension anschaulich wird.

Exemplarisch – und repräsentativ –93 kann dies anhand Abb. 16 nachvollzogen werden: Die darin abgebildeten Darstellungen veranschaulichen die wöchentliche Entwicklung eines Entwurfsprozesses des Autors für einen Gabelstapler aus dem Jahr 2012. Versteht sich die konzeptionelle Entwurfsarbeit dabei entsprechend vor allem zu Beginn des Prozesses in die Breite (niedrigerer Auflösungsgrad), ergeben sich dadurch im weiteren Verlauf stets neue Anschlusspunkte in die Tiefe des Entwurfs (höherer Auflösungsgrad). Die Erhöhung der Auflösungsgrade bietet dabei, wie Dörner es darlegt, jeweils erweiterte Möglichkeiten für differenziertes gestalterisches Handeln. Dementsprechend vermischen sich konzeptionelle Entscheidungen sukzessiv mit funktionalen, semantischen und formal-ästhetischen Ansprüchen und bilden

93

Auch wenn Abb. 16 einen Entwurfsprozess des klassischen Produktdesigns darstellt, lassen sich die Mechanismen gleicher Eigenart in annähernd sämtlichen Gestaltungsprozessen, etwa des Grafikdesigns, der Architektur, des User-Interface-Designs etc., wiederfinden: Stets wird vom Großen zum Kleinen und wieder zurück gearbeitet, vom niedrigen zum hohen Auflösungsgrad, in die Breite und in die Tiefe und vice versa. Die Prozesse unterscheiden sich bezüglich ihrer Auflösungsgrade lediglich in ihrer Fokusausrichtung und ihrer Dichte, d.h. je nachdem, wie eng die iterativen Zyklen gehalten werden.

327

328

Prozess als Gestalt

dadurch ein wechselseitiges Verhältnis aus, das fortwährend innerhalb der Breitenund Tiefendimension des Entwurfs oszilliert und den Prozess dadurch im stabilen, bewegten Gleichgewicht hält. Dabei ist der Entwurf nicht durch absolute, sondern allein durch relative Bedingungen bestimmt, insofern, als dass sich diese einerseits erst im Verlauf des Prozesses selbst verfestigen – in Abb. 16 wird dies etwa anhand der Anordnung der oberen Querverbindung der Hubmasten anschaulich, welche gemäß dem Anspruch an weitestgehende Blickfreiheit des Fahrers konzipiert wurde oder am diagonalen Anstieg der Seitenelemente, welche trotz der voluminösen Batterie im Heckbereich des Staplers einen möglichst niedrigen Einstieg erlauben sollten –, und andererseits, als dass der Entwurf dadurch keinen absoluten Anfang und ebenso wenig ein absolutes Ende kennt: Vor jedem niedrigen Auflösungsgrad gibt es immer einen niedrigeren, nach jedem hohen gleichsam einen höheren.94 Die Entwurfsreihe hätte so, oder auch ganz anders aussehen können, je nachdem, welche Entscheidungen in welchem Auflösungsgrad getroffen worden wären.95 Entsprechend kann in dieser Hinsicht festgehalten werden, dass ein (guter) Entwurf nie vollständig und fertig, sondern vielmehr konzeptionell konsistent ist. Eine solche Konsistenz erfordert den permanenten konzeptionellen Abgleich seitens des Gestalters, d.h. die Übersetzung der funktionalen, semantischen und ästhetischen Ansprüche gemäß der übergeordneten Ausrichtung des Entwurfs und vice versa. Die Gestalt des Entwurfs versteht sich somit als die Verkörperung dieser Konsistenz und bildet dadurch erst jene Gestalt-Qualität heraus, die ihn als guten Entwurf zu kennzeichnen vermag. Den Prozess als Gestalt zu verstehen heißt in diesem Zusammenhang, ihn in multiplen Auflösungsgraden zu betrachten und zu bearbeiten und ihn eben dadurch dauerhaft als Gestalt zu stabilisieren, die einerseits klare Richtungen, Wichtungen und Tendenzen verkörpert, andererseits jedoch gleichzeitig stets wandlungsfähig und verhandelbar bleibt. Sie, die Auflösungsgrade, bilden dabei das mitunter wesentlichste Charakteristikum einer parametrischen Herangehensweise an Gestaltungsprozesse, welche in dieser Arbeit sicherlich nicht vollständig, dafür jedoch hoffentlich weitestgehend konsistent dargelegt werden konnte. In dieser Hinsicht kann resümierend festgehalten werden, dass ein parametrisches Verständnis der Entwurfsgeschehnisse gleichzeitig Phänomene der Prozessualität, der Reversibilität und der Relationalität verhandelt – im spielerischen Abwägen der Komparative. Parametrische Mechanismen machen dabei durch neue Sichtbarkeiten unsichtbar, was irrelevant ist, und unmittelbar handhabbar, was für zukünftiges menschliches Handeln die notwendigen Bedingungen darstellt, um sich nicht mehr mit den entscheidbaren Fragen auseinandersetzen zu müssen, sondern sich (wieder) mit den unentscheidbaren Fragen auseinanderzusetzen zu können – jene, die uns nicht technisch, sondern jeden Tag aufs Neue menschlich angehen. Sie 94

95

Selbst wenn die materiellen und physikalischen Grenzen der Wirklichkeit dabei irgendwann erreicht sein sollten, lässt sich auf semantischer und kognitiver Ebene dagegen stets eine (weitere) Differenzierung anstellen, die den Blick auf derivative Bereiche richtet. Dabei bildet sich die annähernd beruhigende Feststellung heraus, dass Design durch die Betrachtung in Auflösungsgraden – vor allem in Zeiten der ubiquitären Technisierung und Automatisierung – nicht etwa an ein Ende kommt, sondern vielmehr seine Auflösung immer besser wird, wodurch die Möglichkeiten für differenziertes Handeln stetig weiter zunehmen. Vgl. dazu auch Kapitel 7.6 ›Kontinuität und Disruption‹.

8. Prozess, Gestalt und Parametrie

befähigen dazu, sich in der vielschichtigen Dynamik der eigenen und gemeinschaftlichen Lebenswelt fortwährend orientieren zu können, den Kontroversen und der widersprüchlichen Natur der Wirklichkeit durch Prozesse der Gestalt-Bildung gewahr zu werden – durch die Sensibilisierung für ein Bewusstsein der Auflösungsgrade, in denen uns diese Natur der Dinge begegnet – und die Phänomene in gewisser Ungewissheit im sorgsam gestalteten Spielraum zu verhandeln: sie festzuhalten und loszulassen, sich ihnen zu nähern und sich von ihnen zu entfernen und nicht zuletzt, in ihnen Sinn und Unsinn zu erkennen, um daraus zu entwickeln, was der Mensch wirklich brauchen und vor allem gebrauchen kann. All das meint Design, Prozess und Parametrie – nicht jedoch im Einzelnen, sondern im unauflösbaren Verbund, als in sich stabile und dadurch die menschlichen Weltverhältnisse stabilisierende und erweiternde Gestalt, die es jeden Tag aufs Neue zu verhandeln gilt.

329

Literaturverzeichnis

Abel, Günter. Kreativität – was ist sie und was macht sie so wertvoll? Grundzüge einer Philosophie der Kreativität. In: Dresler, Martin. Kreativität. Beiträge aus den Naturund Geisteswissenschaften ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. S. 88-106. Adamowsky, Natascha. Spielfiguren in virtuellen Welten. Frankfurt a.M., 2000. Adamowsky, Natascha. Vom Internet zum Internet der Dinge. In: Engemann, Christoph; Sprenger, Florian. Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Digitale Gesellschaft. Bielefeld, 2015. S. 119-135. Adamowsky, Natascha. Digitale Moderne. Die Modellwelten von Matthias Zimmermann. München, 2018a. Adamowsky, Natascha. Spiel/en. In: Feige, Daniel Martin; Ostritsch, Sebastian; Rautzenberg, Markus. Philosophie des Computerspiels. Theorie, Praxis, Ästhetik. Stuttgart, 2018b. S. 27-41. Aicher, Otl. die welt als entwurf. Berlin, 1992. Albert, Robert S.; Runco, Marc A. A History of Research on Creativity. In: Sternberg, Robert J. Handbook of Creativity. Cambridge, 1999. S. 16-31. Alexander, Christopher. Notes on the Synthesis of Form. Cambridge/Mass, 1964. Alpaydin, Ethem. Machine Learning. The New AI. Cambridge, 2016. Alves, Gilfranco; Makert, Rodrigo. Between Designer and Design. Parametric Design and Prototyping Considerations on Gaudí’s Sagrada Familia. In: Periodica Polytechnica Architecture, 47/2, 2016. S. 89-93. Amabile, Teresa M. Social Psychology of Creativity. A Consensual Assessment Technique. In: Journal of Personality and Social Psychology, 43, 1982. S. 997-1013. Amabile, Teresa M. Creativity in context. Update to The social psychology of creativity. Boulder, Colo., 1996. Amabile, Teresa M.; Pillemer, Julianna. Perspectives on the Social Psychology of Creativity. In: Journal of Creative Behavior, 46/1, 2012. S. 3-15. Amt, Stefan. Von Vitruv bis zur Moderne. Die Entwicklung des Architektenberufes. In: Johannes, Ralph. Entwerfen. Architektenausbildung in Europa von Vitruv bis Mitte des 20. Jahrhunderts. Geschichte – Theorie – Praxis. Hamburg, 2009. S. 10-45.

332

Prozess als Gestalt

Anderson, Chris. Makers. Das Internet der Dinge: die nächste industrielle Revolution. München, 2013. Anderson, John R. Problem Solving and Learning. In: American Psychologist, 48/1, 1993. S. 35-44. Angeloni, Domenico. Il Liutaio. Origine e costruzione del violino. Milano, 1923. Archer, L. Bruce. The Structure of Design Processes. Thesis (Ph.D.), 1968. Aristoteles. Kategorien. Lehre vom Satz. Organon I/II. Hamburg, 1974. Aristoteles. Metaphysik. Schriften zur ersten Philosophie. Stuttgart, 1991. Aristoteles. Über Werden und Vergehen. Griechisch-deutsch. De generatione et corruptione. Hamburg, 2011. Aristoteles. Nikomachische Ethik. Stuttgart, 2013. Arnheim, Rudolf. Die Form, nach der wir suchen, 1961. Erstabdruck in: Craft Horizons, 21. In: Arnheim, Rudolf. Zur Psychologie der Kunst. Ullstein-Buch UllsteinMaterialien. Frankfurt a.M., 1961/1980. S. 272-283. Arnheim, Rudolf. Wahrnehmungsabstraktion und Kunst, 1947. Erstabdruck in: Psychological Review, 54. In: Arnheim, Rudolf. Zur Psychologie der Kunst. Ullstein-Buch Ullstein-Materialien. Frankfurt a.M., 1947/1980. S. 25-41. Arnheim, Rudolf. Zur Psychologie der Kunst. Frankfurt a.M., 1980. Arnheim, Rudolf. Anschauliches Denken. Zur Einheit von Bild und Begriff. Köln, 1996. Arnheim, Rudolf. Kunst und Sehen. Eine Psychologie des schöpferischen Auges. Berlin, 2000. Arnold, Florian. Digitale Kreativität und dialektische Emergenz. Designphilosophische Perspektiven. In: Großmann, Andreas. Kreativität denken. Tübingen, 2020. S. 5370. Ashby, William Ross. Introduction to Cybernetics, 1957/2015. Asimov, Morris. Introduction to Design. New Jersey, 1962. Aspelund, Karl. The Design Process. New York, 2006. Bally, Gustav. Vom Ursprung und von den Grenzen der Freiheit/Vom Spielraum der Freiheit. Basel, Stuttgart, 1945/1966. Bangert, Patrick. Kreativität in der deutschen Wirtschaft. In: Baudson, Tanja Gabriele. Kreativität und Innovation. Beiträge aus Wirtschaft, Technik und Praxis ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. S. 79-94. Barbot, Baptiste; Eff, Henry. The Genetic Basis of Creativity. A Multivariate Approach. In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 132-147. Barron, Frank. The Disposition toward Originality. In: Journal of Abnormal and Social Psychology, 51, 1955. S. 478-485. Barron, Frank. Creativity and psychological health. Origins of personality and creative freedom. Princeton, N.J., 1963. Barron, Frank. Creative Person and Creative Process. New York, 1969. Barron, Frank. Putting creativity to work. In: Sternberg, Robert J. The Nature of Creativity. Contemporary Psychological Perspectives. Cambridge, 1995. S. 76-98. Bartholomae, Florian W.; Wiens, Marcus. Spieltheorie. Ein anwendungsorientiertes Lehrbuch. Wiesbaden, 2016.

Literaturverzeichnis

Bateson, Gregory. Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Frankfurt a.M., 1981. Baudrillard, Jean. Der symbolische Tausch und der Tod. Berlin, 1976/1982. Bauer, Roland; Stöckle, Frieder; Panter, Armin. HandWerk. Die Letzten ihrer Zunft. Heidelberg, 1996. Bauer, Thomas. Die Vereindeutigung der Welt. Über den Verlust an Mehrdeutigkeit und Vielfalt. Ditzingen, 2018. Beck, Herbert; Polyclitus. Polyklet. Der Bildhauer der griechischen Klassik. Ausstellung im Liebieghaus, Museum Alter Plastik, Frankfurt a.M., 17. 10. 1990 – 20. 1. 1991. Mainz, 1990. Behnke, Sven. Hierarchical Neural Networks for Image Interpretation. Berlin, Heidelberg, 2003. Behrens, Roy R. Art, Design and Gestalt Theory. In: Leonardo, 4, 1998. S. 299-303. Benedict, Ruth. Urformen der Kultur. Hamburg, 1955. Bense, Max. Ästhetik und Programmierung, 1966. In: Büscher, Barbara; Bense, Max. Ästhetik als Programm. Max Bense/Daten und Streuungen. Kaleidoskopien. Berlin, 1966/2004. S. 209-213. Berg, Stefan; Sass, Hartmut von. Eine spielerische Einleitung. In: Berg, Stefan; Sass, Hartmut von. Spielzüge. Zur Dialektik des Spiels und seinem metaphorischen Mehrwert. Freiburg, 2014a. S. 9-39. Berg, Stefan; Sass, Hartmut von. Spielzüge. Zur Dialektik des Spiels und seinem metaphorischen Mehrwert. Freiburg, 2014b. Berger, René. Sehen und Verstehen. Köln, 1958/1960. Berger, Uwe; Hartmann, Andreas; Schmid, Dietmar. Additive Fertigungsverfahren. Rapid prototyping, rapid tooling, rapid manufacturing ; mit Bilder-CD. HaanGruiten, 2013. Berthold, Klaus; Burkhardt, François. Design ist Prozeß. DesignLabor Bremerhaven. Bremerhaven, 1997. Bielefeld, Bert; Khouli, Sebastian el. Entwurfsidee. Basel, Boston, Berlin, 2011. Bill, Max. [form, funktion, schönheit] = [gestalt], 1956. In: Bill, Max. funktion und funktionalismus. schriften: 1945-1988. Bern, 1956/2008a. S. 101. Bill, Max. funktion und gestalt, 1958. In: Bill, Max. funktion und funktionalismus. schriften: 1945-1988. Bern, 1958/2008. S. 129-148. Bill, Max. umweltgestaltung nach morphologischen methoden, 1956. In: Bill, Max. funktion und funktionalismus. schriften: 1945-1988. Bern, 1956/2008b. S. 103-108. Boger, Margot. Das Geheimnis der Stradivari. Berlin, 1942. Böhme, Gernot. Atmosphäre. Essays zur neuen Ästhetik. Frankfurt a.M., 1995/2006. Böhme, Gernot. Ethik leiblicher Existenz. Über unseren moralischen Umgang mit der eigenen Natur. Frankfurt a.M., 2008. Böhme, Gernot. Ästhetischer Kapitalismus. Berlin, 2016. Bolz, Norbert. Design als Sensemaking. In: van den Boom, Holger. Entwerfen. Jahrbuch 4. Hochschule für Bildende Künste Braunschweig. Köln, 2000. S. 10-14. Bonsiepe, Gui. Interface – An Approach to Design. Maastricht, 1999. Bonsiepe, Gui; Maldonado, Thomás. Wissenschaft und Gestaltung. In: Zeitschrift der HfG Ulm, 10/11, 1964.

333

334

Prozess als Gestalt

Börchers, Fabian. Handeln. In: Feige, Daniel Martin; Ostritsch, Sebastian; Rautzenberg, Markus. Philosophie des Computerspiels. Theorie, Praxis, Ästhetik. Stuttgart, 2018. S. 97-122. Borscheid, Peter. Das Tempo-Virus. Eine Kulturgeschichte der Beschleunigung. Frankfurt a.M., New York, 2004. Bostrom, Nick. Superintelligence. Paths, Dangers, Strategies. Oxford, 2014. Bradley, Peter. Machine Learning. A Comprehensive, Step-by-Step Guide to Intermediate Concepts and Techniques in Machine Learning, 2018. Brander, Sylvia; Kompa, Ain; Peltzer, Ulf. Denken und Problemlösen. Einführung in die kognitive Psychologie. Wiesbaden, 1985/1989. Brandes, Ralf; Lang, Florian; Schmidt, Robert F. Physiologie des Menschen. Mit Pathophysiologie, 2019. Brandes, Uta; Erlhoff, Michael. Non intentional design. Cologne, New York, 2006. Braun-Feldweg, Wilhelm. Industrial Design heute. Reinbek bei Hamburg, 1966. Bredies, Katharina. Nach dem Problem ist vor dem Problem. In: Romero-Tejedor, Felicidad. ARS MAGNA – Design als Problemlöser? Öffnungszeiten. Kassel, Hess, 2012. S. 78-84. Breidbach, Olaf. Neue Wissensordnungen. Wie aus Informationen und Nachrichten kulturelles Wissen entsteht. Frankfurt a.M., 2008. Brockhaus Enzyklopädie. Parameter. In: Zwahr, Annette. Brockhaus Enzyklopädie. In 30 Bänden. 200 Jahre Brockhaus 1805 – 2005. Leipzig, Mannheim, 2006. Brodbeck, Karl-Heinz. Neue Trends in der Kreativitätsforschung. In: Psychologie in Österreich, 4/5, 2006. S. 246-253. Brodbeck, Karl-Heinz. Wirtschaft als kreativer Prozess. Wie ein weiclier Faktor harte Tatsachen schafft. In: Baudson, Tanja Gabriele. Kreativität und Innovation. Beiträge aus Wirtschaft, Technik und Praxis ; eine Publikation des MinD-HochschulNetzwerkes. Stuttgart, 2008. S. 16-26. Brogden, H. E.; Sprecher, T.B. Criteria of Creativity. In: Taylor, Calvin W. Creativity. Progress and Potential. New York, 1964. Bruner, Jérôme Seymour. The Conditions of Creativity. In: Gruber, H. E.; Terrell, G.; Wertheimer, Max. Contemporary Approaches to Creative Thinking. New York, 1962. S. 1-30. Brynjolfsson, Erik; McAfee, Andrew. The Second Machine Age. Wie die nächste digitale Revolution unser aller Leben verändern wird. Kulmbach, 2014/2018. Buck, Alex. Dominanz der Oberfläche. Betrachtungen zu einer neuen Bedeutsamkeit der Gegenstände. Dissertation Universtität Hannover, 1996. Frankfurt a.M., 1998. Buddensieg, Tilmann; Rogge, Henning. Die nützlichen Künste. Berlin, 1981. Bühler, Karl. Die geistige Entwicklung des Kindes. Jena, 1918. Burckhardt, Lucius. Design heisst Entwurf, nicht Gestalt, 1970. In: Burckhardt, Lucius; Fezer, Jesko. Design heisst Entwurf. Zwei Texte und vier Aquarelle mit einem Vorwort von Bazon Brock. Studienhefte Problemorientiertes Design. Hamburg, 1970/2012. S. 8-15. Burckhardt, Lucius. Design ist unsichtbar, 1980. In: Burckhardt, Lucius; Fezer, Jesko. Design heisst Entwurf. Zwei Texte und vier Aquarelle mit einem Vorwort von Bazon Brock. Studienhefte Problemorientiertes Design. Hamburg, 1980/2012. S. 16-46.

Literaturverzeichnis

Bürdek, Bernhard E. Einführung in die Designmethodologie. Hamburg, 1975. Bürdek, Bernhard E. Design. In: Schneider, Wolfgang. 100 Wörter des Jahrhunderts. Suhrkamp-Taschenbuch. Frankfurt a.M., 1999a. S. 64-66. Bürdek, Bernhard E. Über Oberflächeneinfachheit und Tiefenkomplexität. In: office design, 2, 1999b. Bürdek, Bernhard E. Design – auf dem Weg zu einer Disziplin. Zugl.: Wien, Univ. für Angewandte Kunst, Diss., 2012. Hamburg, 2012. Bürdek, Bernhard E. Design. Geschichte, Theorie und Praxis der Produktgestaltung. Basel, 2015. Burry, Mark. Essential Precursors to the Parametricism Manifesto. Antoni Gaudí and Frei Otto. In: Schumacher, Patrik. Parametricism 2.0. AD Rethinking architecture’s agenda for the 21st century//Rethinking Architecture’s Agenda for the 21st Century AD. Architectural design. London, UK, 2016. S. 30-35. Büsing, Hermann. Optische Korrekturen. Vitruvs Empfehlungen verglichen mit der attischen Architektur des 5. Jhs. v. Chr. In: Knell, Heiner. Vitruv-Kolloquium des Deutschen Archäologen-Verbandes e.V. Durchgef. an d. Techn. Hochschule Darmstadt, 17. bis 18. Juni 1982. THD-Schriftenreihe Wissenschaft und Technik. Darmstadt, 1984. S. 27-40. Campbell, Donald Thomas. Blind generation and selective retention in creative thought as in other thought processes. In: Psychological Review, 67, 1960. S. 380-400. Cantor, Moritz. Vorlesungen über Geschichte der Mathematik. Von den ältesten Zeiten bis zum Jahre 1200 n. Chr. Leipzig, 1894. Carpo, Mario. Alphabet und Algorithmus. Wie das Digitale die Architektur herausfordert. Bielefeld, 2012. Carpo, Mario. The Second Digital Turn. Design Beyond Intelligence. Cambridge, Mass, 2017. Carrier, Étienne. Houdini Connect. Far Cry 5. Procedural Modeling, 2018. Cech, Brigitte. Technik in der Antike. Darmstadt, 2012/2017. Chan, Chiu-Shui. Style and Creativity in Design. s.l., 2015. Chase, William; Simon, Herbert Alexander. Perception in Chess. In: Cognitive Psychology, 4, 1973. S. 55-81. Childe, Gordon V. Man Makes Himself, 1951. Christian, Brian; Griffiths, Tom. Algorithms to live by. The computer science of human decisions. London, 2017. Clark, Charles H. Brainstorming. The dynamic new way to create successful ideas. New York, 1958. Conway, John H. Über Zahlen und Spiele. Wiesbaden, 1983. Cropley, Arthur J. Definitions of Creativity. In: Runco, Marc A.; Pritzker, Steven R. Encyclopedia ofCreativity. Volume 1. San Diego, 1999. S. 511-524. Cross, Nigel. Designerly ways of knowing. Basel, Boston, Mass., Berlin, 2007. Cross, Nigel. Design thinking. Understanding how designers think and work. London, Oxford, New York, New Delhi, Sydney, 2013. Csikszentmihalyi, Mihály. Das Flow-Erlebnis. Jenseits von Angst und Langeweile: im Tun aufgehen. Stuttgart, 2010.

335

336

Prozess als Gestalt

Darwin, Charles. The Origin of Species. By means of natural selection, or, the preservation of favored races in the struggle for life. New York, 1872/2003. Davies, E. Roy. Computer and Machine Vision. Theory, Algorithms, Practicalities. Waltham, MA, 2012. Davis, Daniel. Modelled on Software Engineering. Flexible Parametric Models in the Practice of Architecture, 2013a. de Bono, Edward. Laterales Denken. Der Kurs zur Erschließung Ihrer Kreativitätsreserven. Düsseldorf, 1992. Dehlinger, Hans. Genetische Algorithmen – oder: Wie Darwin auf die Vernissage kommt. In: van den Boom, Holger. Entwerfen. Jahrbuch 4. Hochschule für Bildende Künste Braunschweig. Köln, 2000. S. 26-37. Diekmann, Andreas. Spieltheorie. Einführung, Beispiele, Experimente. Reinbek bei Hamburg, 2016. Diels, Hermann. Antike Technik. Osnabrück, 1965. Dörner, Dietrich. Problemlösen als Informationsverarbeitung. Strategisches Denken in komplexen Situationen. Stuttgart, 1976. Dörner, Dietrich. Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen. Reinbek bei Hamburg, 2002. Dörner, Dietrich; Kreuzig, Heinz W.; Reither, Franz; Stäudel, Thea. Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität. Bern, 1983. Dorst, Kees. Design Problems and Design Paradoxes. In: Design Issues, 22/3, 2006. S. 4-17. Dorst, Kees; Cross, Nigel. Creativity in the Design Process. Co-Evolution of ProblemSolution. In: Design studies, 22/5, 2001. Dresler, Martin. Kreativität. Beiträge aus den Natur- und Geisteswissenschaften ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. Dreyfus, Hubert L. Die Grenzen künstlicher Intelligenz. Was Computer nicht können. Königstein/Ts., 1985. Drucker, Peter Ferdinand. Das Fundament für Morgen. Die neuen Wirklichkeiten in Wirtschaft, Wissenschafi und Politik. Düsseldorf, 1958. Duden. Das große Fremdwörterbuch. Herkunft und Bedeutung der Fremdwörter. Mannheim, 2007. Duden. Deutsches Universalwörterbuch. Mannheim, 2011. Duggan, William. Geistesblitze. Wie wir Intuition zur Strategie machen können. Bergisch Gladbach, 2009. Dunbar, Kevin. Problem Solving. In: Bechtel, W.; Graham, G. A companion to Cognitive Science. London, 1998. S. 289-298. Duncker, Karl. Zur Psychologie des Produktiven Denkens. Berlin, Heidelberg, 1935/1963. Ehrenfels, Christian von. Das Primzahlengesetz. Entwickelt und dargestellt auf Grund der Gestalttheorie. Leipzig, 1922. Ehrenfels, Christian von. Höhe und Reinheit der Gestalt, 1916. In: Weinhandl, Ferdinand. Gestalthaftes Sehen. Ergebnisse und Aufgaben der Morphologie. Zum hundertjährigen Geburtstag von Christian von Ehrenfels. Darmstadt, 1916/1960. S. 4446.

Literaturverzeichnis

Ehrenfels, Christian von. Über Gestaltqualitäten, 1932. In: Weinhandl, Ferdinand. Gestalthaftes Sehen. Ergebnisse und Aufgaben der Morphologie. Zum hundertjährigen Geburtstag von Christian von Ehrenfels. Darmstadt, 1932/1960. S. 61-63. Ehrenfels, Christian von. Über ›Gestaltqualitäten‹, 1890. In: Weinhandl, Ferdinand. Gestalthaftes Sehen. Ergebnisse und Aufgaben der Morphologie. Zum hundertjährigen Geburtstag von Christian von Ehrenfels. Darmstadt, 1890/1960. S. 11-43. Ehrenfels, Christian von. Weiterführende Bemerkungen, 1922. In: Weinhandl, Ferdinand. Gestalthaftes Sehen. Ergebnisse und Aufgaben der Morphologie. Zum hundertjährigen Geburtstag von Christian von Ehrenfels. Darmstadt, 1922/1960. S. 4760. Ehrenfels, Christian von. Kosmogonie. Saarbrücken, 1916/2006/1916. Eichhorst, Ingo. Neurowissenschaft der Ideenentwicklung. Beitrag der Gehirnforschung zur Entwicklung von Geschäftsideen. Hamburg, 2014. Elkar, Rainer S.; Keller, Kartrin; Schneider, Helmuth. Handwerk. Von den Anfängen bis zur Gegenwart. Darmstadt, 2014. Engemann, Christoph; Sprenger, Florian. Im Netz der Dinge. Zur Einleitung. In: Engemann, Christoph; Sprenger, Florian. Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Digitale Gesellschaft. Bielefeld, 2015a. S. 7-58. Engemann, Christoph; Sprenger, Florian. Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld, 2015b. Erlhoff, Michael; Marshall, Tim (Hg.). Wörterbuch Design. Begriffliche Perspektiven des Design. Basel, Boston, 2008. Eschenfelder, Andrew H. Positive Steps that Nourish Both Research and Technological Progress. In: Research Management, 11, 1968. S. 231-240. Euklid; Lorenz, Johann Friedrich. Elemente. Fünfzehn Bucher aus dem Griechischen übersetzt von Johann Friedrich Lorenz. Halle, 1809. Farías, Ignacio. Epistemische Dissonanz. Zur Vervielfältigung von Enwurfsalternativen in de Architektur. In: Ammon, Sabine. Wissenschaft Entwerfen. Vom forschenden Entwerfen zur Entwurfsforschung der Architektur. eikones. München, 2013. S. 77108. Feige, Daniel Martin. Computerspiele. Eine Ästhetik. Berlin, 2015. Feige, Daniel Martin. Design. Eine philosophische Analyse. Berlin, 2018. Feige, Daniel Martin; Ostritsch, Sebastian; Rautzenberg, Markus. Philosophie des Computerspiels. Theorie, Praxis, Ästhetik. Stuttgart, 2018. Ferguson, Eugene S. Das innere Auge. Von der Kunst des Ingenieurs. Basel, 1993. Fink, Andreas. Kreativität aus Sicht der Neurowissenschaften. In: Dresler, Martin. Kreativität. Beiträge aus den Natur- und Geisteswissenschaften ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. S. 37-42. Fischer, Günther. Vitruv NEU, oder Was ist Architektur? Basel, Boston, Gütersloh, 2009. Fisher, Len. Schere, Stein, Papier. Spieltheorie im Alltag. Heidelberg, 2010. Fitzek, Herbert. Gestaltpsychologie kompakt. Grundlinien einer Psychologie für die Praxis. Wiesbaden, 2014.

337

338

Prozess als Gestalt

Fitzek, Herbert; Salber, Wilhelm. Gestaltpsychologie. Geschichte und Praxis. Darmstadt, 2012. Flusser, Vilém. Gedächtnisse. In: ARS ELECTRONICA (Hrsq.). Philosophien der neuen Technologie. Internationaler Merve-Diskurs. Berlin, 1989. S. 41-55. Flusser, Vilém. Kommunikologie. Frankfurt a.M., 2007. Flynn, Tom. Der modellierte Körper. Von der Antike bis ins 20. Jahrhundert. Köln, 1998. Foerster, Heinz von. Wahrnehmung. In: ARS ELECTRONICA (Hrsq.). Philosophien der neuen Technologie. Internationaler Merve-Diskurs. Berlin, 1989. S. 27-40. Foraita, Sabine. Grenzgänge. Über das Verhältnis von Kunst und Design. In: Eisele, Petra; Bürdek, Bernhard E. Design, Anfang des 21. Jh. Diskurse und Perspektiven. Ludwigsburg, 2011. S. 47-55. Forbes, Robert Jacobus. Vom Steinbeil zum Überschall. Fünftausend Jahre Technik. München, 1954. Franck, Georg. Maschinelle Entwurfshilfen. Was lehren Künstliche Intelligenz und Künstliche Kreativität über das architektonische Denken? In: Gethmann, Daniel; Hauser, Susanne. Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science. Kultur- und Medientheorie. Bielefeld, 2009. S. 227242. Frankfurt, Harry G. Necessity, volition, and love. Cambridge, 1999/2003. Frey, Gerhard. Die Mathematisierung der Welt. Stuttgart, 1967. Frick, Rolf. Aufbereitung von Gestaltungsaufgaben. Lehrbrief zur Methodik der industriellen Formgestaltung, 1977. Froschauer, Eva Maria. Jäger, Sammler, Architekten. Oder, wie ›kolligierende Prozeduren‹ des architektonischen Entwerfens beschrieben und erforscht werden können. In: Ammon, Sabine. Wissenschaft Entwerfen. Vom forschenden Entwerfen zur Entwurfsforschung der Architektur. eikones. München, 2013. S. 49-74. Fry, Hannah. Hello world. How to be human in the age of the machine. London, 2018. Frye, Annika. Design und Improvisation. Produkte, Prozesse und Methoden. Bielefeld, 2017. Funke, Joachim. Psychologie der Kreativität. In: Holm-Hadulla, Rainer M. Kreativität. Heidelberger Jahrbücher. Berlin, Heidelberg, 2000. S. 283-300. Funke, Joachim. Problemlösendes Denken. Stuttgart, 2003. Funke, Joachim. Zur Psychologie der Kreativität. In: Dresler, Martin. Kreativität. Beiträge aus den Natur- und Geisteswissenschaften ; eine Publikation des MinDHochschul-Netzwerkes. Stuttgart, 2008. S. 31-36. Gabriel, Markus. Der Sinn des Denkens. Berlin, 2020. Gaier, Claudia. Management kreativer Prozesse. Theoretische und empirische Fundierung von Gestaltungsempfehlungen in technischen und gestalterischen Umfeldern. s.l., 2011. Gänshirt, Christian. Zur Geschichte der Werkzeuge des Entwerfens. In: Johannes, Ralph. Entwerfen. Architektenausbildung in Europa von Vitruv bis Mitte des 20. Jahrhunderts. Geschichte – Theorie – Praxis. Hamburg, 2009. S. 162-185. Gardner, Howard. Kreative Intelligenz. Was wir mit Mozart, Freud, Woolf und Gandhi gemeinsam haben. München, 2002.

Literaturverzeichnis

Gehlen, Arnold. Der Mensch. Seine Natur und seine Stellung in der Welt. Wiesbaden, 1997. General, Sabine. Kreatives Arbeiten mit Tecliniken. In: Dresler, Martin. Kreativität. Beiträge aus den Natur- und Geisteswissenschaften ; eine Publikation des MinDHochschul-Netzwerkes. Stuttgart, 2008. S. 142-147. Gessmann, Martin. Philosophisches Wörterbuch. Stuttgart, 2009. Gessmann, Martin. Was der Mensch wirklich braucht. Warum wir mit Technik nicht mehr zurechtkommen, und wie sich aus unserem Umgang mit Apparaten wieder eine sinnvolle Geschichte ergibt. München, 2010. Getzels, Jacob W.; Csikszentmihalyi, Mihály. From Problem Solving to Problem Finding, 1975. In: Taylor, Irving A.; Getzels, Jacob W. Perspectives in Creativity. London, New York, 1975/1975. S. 90-116. Giannetti, Claudia. Ästhetik des Digitalen. Ein intermediärer Beitrag zu Wissenschaft, Medien- und Kunstsystemen. Wien, 2004. Giedion, Sigfried. Die Herrschaft der Mechanisierung. Ein Beitrag zur anonymen Geschichte. Frankfurt a.M., 1987. Glăveanu, Vlad P.; Kaufman, James C. Creativitv. A Historical Perspective. In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 9-26. Gloy, Karen. Einheit und Mannigfaltigkeit. Eine Strukturanalyse des »und« ; systematische Untersuchungen zum Einheits- und Mannigfaltigkeitsbegriff bei Platon, Fichte, Hegel sowie in der Moderne. Habilitationsschrift. Berlin, New York, 1981. Gloy, Karen. Komplexität. Ein Schlüsselbegriff der Moderne. Paderborn, 2014. Gödel, Kurt. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatshefte für Mathematik und Physik, 38, 1931. S. 173-198. Goethe, Johann Wolfgang von. Versuch die Metamorphose der Pflanzen zu erklären. Gotha, 1790. Goldschmidt, Gabriela. The Dialects of Sketching. In: Creativity Research Journal Volume 4 (2), 1991. S. 123-143. Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron. Deep Learning. Cambridge, Massachusetts, London, England, 2016. Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua. Generative Adversarial Networks. Montréal, 2014. Gordon, William. Synectics. The Development of Creative Capacity. New York, 1961. Görz, Günther; Nebel, Bernhard. Künstliche Intelligenz. Frankfurt a.M., 2003. Grabbe, Lars C.; Rupert-Kruse, Patrick; Schmitz, Norbert M. Bild und Interface. Zur sinnlichen Wahrnehmung digitaler Visualität v.2. Marburg, 2015. Grigo, Hans-Joachim. Produktplanung, Theorie und Praxis. Grafenau-Döffingen, 1973. Gros, Jochen. Dialektik der Gestaltung. Zwischenbericht 2 der Arbeitsgruppe Freizeit WS 70/71, 1970. Großmann, Andreas. Kreativität als Denken und Praxis des Möglichen. Zur Einführung. In: Großmann, Andreas. Kreativität denken. Tübingen, 2020. S. 1-7. Gruben, Gottfried. Klassische Bauforschung. München, 2007. Guilford, Joy Paul. Creativity. In: American Psychologist, 5, 1950. S. 444-454.

339

340

Prozess als Gestalt

Guilford, Joy Paul. Traits of creativity. In: Anderson, Harold H. Creativity and its cultivation. New York, 1959. Guilford, Joy Paul. The Nature of Human Intelligence. New York, 1967. Guilford, Joy Paul. Kreativität, 1950. In: Ulmann, Gisela. Kreativitätsforschung. Neue wissenschaftliche Bibliothek Psychologie. Köln, 1950/1973. S. 25-43. Guilford, Joy Paul. Creativity: A Quarter Century of Progress. In: Taylor, Irving A.; Getzels, Jacob W. Perspectives in Creativity. London, New York, 1975. S. 37-59. Gumbrecht, Hans Ulrich. Wie veraltet ist der Glaube an Kreativität? Offenbach a. M., 07.12.2015. Habermas, Jürgen. Theorie des kommunikativen Handelns. Band 1. Handlungsrationalität und gesellschaftliche Rationalisierung. Frankfurt a.M., 1981/2016. Hafner, German; Polyklet. Polyklet, Doryphoros. Revision eines Kunsturteils. Frankfurt a.M., 1997. Hanselka, Holger; Schielke, Joachim E.; Vrachliotis, Georg; Kurz, Philip. Einleitung. In: Vrachliotis, Georg; Kleinmanns, Joachim; Kunz, Martin; Kurz, Philip; Otto, Frei. Frei Otto. Denken in Modellen. Die Arbeitsweise des innovativen Architekten. Leipzig, 2016. S. 17-20. Harper, Douglas A. Working knowledge. Skill and community in a small shop. Berkeley, 1992. Hart-Davis, Adam. Wissenschaft & Technik. Die illustrierte Weltgeschichte. München, 2018. Hasenhütl, Gert. Politik und Poetik des Entwerfens. Kulturtechnik der Handzeichnung. Wien, 2013. Hauffe, Thomas. Geschichte des Designs. Köln, 2014. Heath, Adrian; Heath, Ditte; Jensen, Aage Lund. 300 Years of Industrial Design. Function, form, technique 1700-2000. New York, 2000. Hehenberger, Peter. Computerunterstützte Fertigung. Eine kompakte Einführung. Berlin, Heidelberg, 2011. Heidegger, Martin. Sein und Zeit. Tübingen, 1927/2006. Heimann, Monika; Schütz, Michael. Wie Design wirkt. Psychologische Prinzipien erfolgreicher Gestaltung. Bonn, 2018. Herrmann, Dietmar. Die antike Mathematik. Eine Geschichte der griechischen Mathematik, ihrer Probleme und Lösungen. Berlin, 2014. Heufler, Gerhard. Design Basics. Von der Idee zum Produkt. Zürich, 2016. Hilgard, Ernest R. Creativity and problem-solving. In: Anderson, Harold H. Creativity and its cultivation. New York, 1959. S. 162-180. Hillnhütter, Sara. Planbilder. Medien der Architekturgestaltung Band 11. Berlin, Boston, 2015. Hodges, Henry. Technology in the ancient world. New York, 1992. Höfler, Horst; Kandel, Lutz; Kohlsdorf, Gunter; Kreuz, Eva-Maria. Der Entwursfprozeß und Verfahren zum methodischen Entwerfen. In: Institut für Grundlagen der modernen Architektur. Entwurfsmethoden in der Bauplanung. Arbeitsberichte zur Planungsmethodik 4. Stuttgart, Bern, 1970. S. 49-114. Holler, Manfred J.; Illing, Gerhard. Einführung in die Spieltheorie. Berlin, 2009.

Literaturverzeichnis

Holm-Hadulla, Rainer M. Kreativität. Arbeits- und Lebensstil. In: Baudson, Tanja Gabriele. Kreativität und Innovation. Beiträge aus Wirtschaft, Technik und Praxis ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. S. 128-134. Holm-Hadulla, Rainer M. Kreativität. Konzept und Lebensstil. Göttingen, 2010. Holm-Hadulla, Rainer M. Die Dialektik der Kreativität. Interdisziplinäre Aspekte des kreativen Prozesses. In: Großmann, Andreas. Kreativität denken. Tübingen, 2020. S. 71-85. Hornuff, Daniel. Denken designen. Zur Inszenierung der Theorie. Paderborn, 2014. Huber, Hans Dieter. Draw a distinction. Ansätze zu einer Medientheorie der Handzeichnung. In: Binder, Ursula. Zeichnen: der Deutsche Künstlerbund in Nürnberg 1996. 1. Dezember 1996 bis 6. April 1997, Germanisches Nationalmuseum. Jahresausstellung/Deutscher Künstlerbund. Berlin, 1996. S. 8-21. Huber, Oswald. Entscheiden als Problemlösen. Bern, 1982. Huizinga, Johan. Homo Ludens. Vom Ursprung der Kultur im Spiel. Reinbek bei Hamburg, 1938/2009. Hunter, Samuel T.; Bedell, Katrina E.; Mumford, Michael D. Climate for Creativity. A Quantitative Review. In: Creativity Research Journal, 19/1, 2007. S. 69-90. Hussy, Walter. Denkpsychologie. Ein Lehrbuch. Band 1. Geschichte, Begriffs- und Problemlöseforschung, Intelligenz. Stuttgart, 1984. Hussy, Walter. Denkpsychologie. Ein Lehrbuch. Band 2. Schlußfolgern, Urteilen, Kreativität, Sprache, Entwicklung, Aufmerksamkeit. Stuttgart, 1986. Hussy, Walter. Denken und Problemlösen. Stuttgart, 1993. Hüther, Gerald. Die Macht der inneren Bilder. Wie Visionen das Gehirn, den Menschen und die Welt verändern. Göttingen, 2011. Hüther, Gerald; Quarch, Christoph. Rettet das Spiel! Weil Leben mehr als Funktionieren ist. München, 2018. Jabi, Wassim. Parametric design for architecture. London, 2013. Jackson, P. W.; Messick, S. The Person, the Product, and the Response. Conceptual Problems in the Assessment of Creativity. In: Journal of Personality, 35, 1965. S. 309-329. Janecke, Christian. Maschen der Kunst. Springe, 2011. Johannes, Ralph. Vitruv – Römischer architectus. Vater der Architekturtheorie und Entwurfslehre. In: Johannes, Ralph. Entwerfen. Architektenausbildung in Europa von Vitruv bis Mitte des 20. Jahrhunderts. Geschichte – Theorie – Praxis. Hamburg, 2009. S. 68-81. Johnson, A. William. Christopher Polhem. The Father of Swedish Technology. Hartford, Conneticut, 1963. Jones, John Christopher. Design methods. New York, 1970/1992. Jüttemann, Herbert. Mechanische Musikinstrumente. Einführung in Technik und Geschichte. Köln, 2010. Kahneman, Daniel; Tversky, Amos. Subjective Probability. A Judgment of Representativeness. Cognitive Psychology 3, 1972. S. 430-454. Kammerer, Otto. Die Notwendigkeit der Maschinenarbeit. In: Zentralinstitut für Erziehung und Unterricht. Maschine und Werkzeug. Technische Abende im Zentralinstitut für Erziehung und Unterricht. Zweites Heft. Technische Abende im Zentralinstitut für Erziehung und Unterricht. Berlin, 1917. S. 5-10.

341

342

Prozess als Gestalt

Karsten, Anitra. Psychische Sättigung. Psychologische Forschung 10, 1928. S. 142-254. Kästner, Evelyn. Kreativität als Bestandteil der Markenidentität. Ein verhaltenstheoretischer Ansatz zur Analyse der Mitarbeiterkreativität. Zugl.: Leipzig, Handelshochschule Leipzig, Diss, 2009. Wiesbaden, 2009. Katz, David. Gestaltpsychologie. Basel, Stuttgart, 1943/1969. Kaufman, James C.; Glăveanu, Vlad P. A Review of Creativitv Theories. What Questions Are We Trying to Answer? In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 27-43. Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. Kaufmann, A.; Fustier, M.; Drevet, A. Moderne Methoden der Kreativität. München, 1972. Kellner, Herbert J.; Bosch, Peter A. Performance Shaping. Innovative Strategien für mehr Trainingseffizienz. Offenbach a. M., 2004. Kelly, Kevin. What technology wants. New York, 2010. Kemp, Wolfgang. Disegno. Beiträge zur Geschichte des Begriffs zwischen 1547 und 1607. In: Marburger Jahrbuch für Kunstwissenschaft 1974 Band 19, 1974, 1974. S. 219-240. Kiefer, Franz Hermann. Schinkel und die Industrialisierung Preußens. Dissertation. Kassel, 2004. Kirsch, Werner. Entscheidungsprozesse II. Informationsverarbeitungstheorie des Entscheidungsverhaltens. Wiesbaden, 1971a. Kirsch, Werner. Entscheidungsprozesse III. Entscheidungen in Organisationen. Wiesbaden, 1971b. Kirsch, Werner. Die Handhabung von Entscheidungsproblemen. Einführung in die Theorie der Entscheidungsprozesse. Herrsching, 1998. Kittler, Friedrich. Fiktion und Simulation. In: ARS ELECTRONICA (Hrsq.). Philosophien der neuen Technologie. Internationaler Merve-Diskurs. Berlin, 1989. S. 57-80. Kittler, Friedrich A. Grammophon, Film, Typewriter. Berlin, 1986. Kittler, Friedrich A.; Gumbrecht, Hans Ulrich (Hg.). Die Wahrheit der technischen Welt. Essays zur Genealogie der Gegenwart 2073. Berlin, 2013. Kleist, Heinrich von. Werke und Briefe in Vier Bänden. Band 3. Berlin/Weimar, 1978. Kluge, Friedrich; Seebold, Elmar. Etymologisches Wörterbuch der deutschen Sprache. Berlin, Boston, 2011. Knape, Joachim. Kreativität. In: Knape, Joachim. Kreativität. Kommunikation – Wissenschaft – Künste ; [interdisziplinäe Tagung am 9. und 10. Februar 2007 vom Rhetorikforum in Tübingen]. Neue Rhetorik. Berlin, 2013a. S. 23-39. Knape, Joachim. Kreativität. Kommunikation – Wissenschaft – Künste ; [interdisziplinäe Tagung am 9. und 10. Februar 2007 vom Rhetorikforum in Tübingen] 6. Berlin, 2013b. Koestler, Arthur. The Act of Creation. London, Melbourne, Sydney, Auckland, Bombay, Toronto, Johannesburg, New York, 1964. Koffka, Kurt; Köhler, Wolfgang; Wertheimer, Max; Goldstein, Kurt; Gruhle, Hans Walter. Psychologische Forschung. Zeitschrift für Psychologie und ihre Grenzwissenschaften 4. Berlin, 1923. Köhler, Wolfgang. Intelligenzprüfung am Menschenaffen. Mit einem Anhang: Zur Psychologie des Schimpansen, 1921/1963.

Literaturverzeichnis

Köhler, Wolfgang. Gestalt Psychology. New York, 1947/1964. Köhler, Wolfgang. Die Aufgabe der Gestaltpsychologie. Berlin, 1971. Kolneder, Walter. Das Buch der Violine. Bau, Geschichte, Spiel, Pädagogik, Komposition. Zürich, 1984. König, Siegfried. Hauptwerke der Philosophie. Von der Antike bis ins 20. Jahrhundert. Nürnberg, 2013. König, Siegfried. Philosophie der Gegenwart. Hauptwerke der letzten drei Jahrzehnte. Nürnberg, 2014. Königsberger, Konrad. Analysis 2. Berlin, Heidelberg, 2002. Koschatzky, Walter. Die Kunst der Zeichnung. Technik, Geschichte, Meisterwerke. Salzburg, 1977. Kozbelt, Aaron. Evolutionary Approaches to Creativitv. In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 109-131. Krauthausen, Karin. Notieren, Skizzieren. Schreiben und Zeichnen als Verfahren des Entwurfs 3. Zürich, 2010a. Krauthausen, Karin. Vom Nutzen des Notierens. Verfahren des Entwurfs. In: Krauthausen, Karin. Notieren, Skizzieren. Schreiben und Zeichnen als Verfahren des Entwurfs. Wissen im Entwurf. Zürich, 2010b. S. 7-26. Kruft, Hanno-Walter. Geschichte der Architekturtheorie. Von der Antike bis zur Gegenwart. München, 1995. Kruse, Rudolf; Borgelt, Christian; Braune, Christian; Klawonn, Frank; Moewes, Christian; Steinbrecher, Matthias. Computational Intelligence. Eine methodische Einführung in künstliche neuronale Netze, evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze. Wiesbaden, 2015. Kruse, Rudolf; Borgelt, Christian; Klawonn, Frank; Moewes, Christian; Steinbrecher, Matthias; Held, Pascal. Computational intelligence. A methodological introduction. London, 2013. Küppers, Günter. Wissen und Nicht-Wissen. Für einen neuen Umgang mit Wissenschaft und Technik. In: Mutius, Bernhard von. Die andere Intelligenz. Wie wir morgen denken werden ; ein Almanach neuer Denkansätze aus Wissenschaft, Gesellschaft und Kultur. Stuttgart, 2004. S. 44-56. Kurz, Melanie. Inspirationsmythen. Zur Ideengeschichte des menschlichen Schöpfungsvermögens. Paderborn, 2014. Kurz, Melanie. Handwerk oder Design. Zur Ästhetik des Handgemachten. Paderborn, 2015. Kurz, Melanie; Zebner, Frank. Zum Verhältnis von Design und Technik. In: Eisele, Petra; Bürdek, Bernhard E. Design, Anfang des 21. Jh. Diskurse und Perspektiven. Ludwigsburg, 2011. S. 174-185. Küster, Rolf. Thesen zum Entwerfen. In: van den Boom, Holger. Entwerfen. Jahrbuch 4. Hochschule für Bildende Künste Braunschweig. Köln, 2000. S. 138-140. Lahusen, Götz. Römische Bildnisse. Auftraggeber, Funktionen, Standorte. Mainz, 2010. Lamprecht, Heinz-Otto. Opus caementitium. Bautechnik der Römer. Düsseldorf, 1985. Landels, John Gray; Mauel, Kurt. Die Technik der antiken Welt. München, 1980/1999. Latour, Bruno. Drawing things together. In: Lynch, Michael; Woolgar, Steve. Representation in scientific practice. Cambridge, Mass., 1990. S. 19-68.

343

344

Prozess als Gestalt

Latour, Bruno. Ein vorsichtiger Prometheus? Einige Schritte hin zu einer Philosophie des Designs, unter besonderer Berücksichtigung von Peter Sloterdijk. In: Jongen, Marc; van Tuinen, Sjoerd; Hemelsoet, Koenraad. Die Vermessung des Ungeheuren. Philosophie nach Peter Sloterdijk. München, 2009. S. 356-373. Lautenschläger, Manfred. Die Kreativität des Unternehmers. In: Holm-Hadulla, Rainer M. Kreativität. Heidelberger Jahrbücher. Berlin, Heidelberg, 2000. S. 59-76. Lauter-Bufe, Heide. Megalopolis. Theater und Thersilion. Mainz, 2017. Law, John. Unordnung mit Methode, 2007. In: Mareis, Claudia; Windgätter, Christof. Wild thing. DesignWissen. Berlin, 2007/2018. S. 33-53. Lawson, Bryan. How designers think. The design process demystified. Amsterdam, 2006. Lazarus, Moritz. Über die Reize des Spiels. Berlin, 1883. LeCun, Yann. Gradient-Based Learning Applied to Document Recognition. In: Proceedings of the IEEE,1998. Lelgemann, Dieter. Die Erfindung der Messkunst. Angewandte Mathematik im antiken Griechenland. Darmstadt, 2010. Lenzen, Manuela. Künstliche Intelligenz. Was sie kann & was uns erwartet. München, 2018. Lewin, Kurt. Die Bedeutung der Psychischen Sättigung für einige Probleme der Psychotechnik. Psychotechnische Zeitschrift 3, 1928. S. 182-188. Lindsay, Peter H.; Norman, Donald A. Human Information Processing. An Introduction to Psychology. New York, 1973. Liptau, Ralf. Übersetzungen in die Architektur. Seifenhautmodelte von Frei Otto. In: Hillnhütter, Sara. Planbilder. Medien der Architekturgestaltung. Bildwelten des Wissens. Berlin, Boston, 2015. S. 26-34. Locke, John. Ein Versuch über den menschlichen Verstand. Altenmünster, 1690/2012. Lück, Helmut E. Ganz oder gar nicht. In: Gehirn & Geist, 7/8, 2007. S. 24-29. Luckmann, John. Zur Organisation des Entwerfens. In: Institut für Grundlagen der modernen Architektur. Entwurfsmethoden in der Bauplanung. Arbeitsberichte zur Planungsmethodik 4. Stuttgart, Bern, 1970. S. 33-48. Luhmann, Niklas. Zweckbegriff und Systemrationalität. Über die Funktion von Zwecken in sozialen Systemen. Frankfurt a.M., 1973. Luhmann, Niklas. Die Gesellschaft der Gesellschaft. Frankfurt a.M., 1997. Luhmann, Niklas. Die Kunst der Gesellschaft. Frankfurt a.M., 1999. Luhmann, Niklas. Inklusion und Exklusion, 2005. In: Luhmann, Niklas. Die Soziologie und der Mensch, 2005/2018. S. 239-266. Lynn, Greg. Animate form. New York, 1999. Maar, Kirsten. Topographien des Flüchtigen zwischen Notation und Raumorganisation. Architektonische Bezüge in den choreographischen Werkzeugen William Forsythes. In: Schmitz, Thomas H.; Groninger, Hannah; Röckenhaus, Kordula. Werkzeug – Denkzeug. Manuelle Intelligenz und Transmedialität kreativer prozesse. Kulturund Medientheorie. Bielefeld, 2012. S. 75-93. MacKinnon, Donald W. The highly effective individual. In: Teachers College Record, 61, 1960. S. 367-378.

Literaturverzeichnis

MacKinnon, Donald W. The nature and nurture of creative talent. In: American Psychologist, 17, 1962. S. 484-495. MacKinnon, Donald W. IPAR’s Contribution to the Conceptualization and Study of Creativity. In: Taylor, Irving A.; Getzels, Jacob W. Perspectives in Creativity. London, New York, 1975. S. 61-89. Maeda, John. Simplicity. Die zehn Gesetze der Einfachheit. München, 2007. Mahrenholz, Simone. Kreativität. Eine philosophische Analyse. Berlin, 2012. Mainzer, Klaus. Der kreative Zufall. Wie das Neue in die Welt kommt. In: Dresler, Martin. Kreativität. Beiträge aus den Natur- und Geisteswissenschaften ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. S. 134-141. Maldonado, Thomás. Der menschliche Körper in der digitalen Welt, 1997. In: Maldonado, Tomás. Digitale Welt und Gestaltung. Schriften zur Gestaltung. Basel, 1997/2007. S. 161-206. Maldonado, Thomás. Kommunikation und Semiotik (1959). In: Breuer, Gerda; Eisele, Petra. Design. Texte zur Geschichte und Theorie. Reclams Universal-Bibliothek. Ditzingen, 2018. S. 150-153. Maltin, Leonard. Of mice and magic. A history of American animated cartoons. New York, 1987. Mareis, Claudia; Windgätter, Christof. Wild thing Band 1. Berlin, 2018. Maser, Siegfried. Methodische Grundlagen zum Entwerfen von Lösungen komplexer Systeme. In: Institut für Grundlagen der modernen Architektur. Entwurfsmethoden in der Bauplanung. Arbeitsberichte zur Planungsmethodik 4. Stuttgart, Bern, 1970. S. 9-16. Maser, Siegfried. Einige Bemerkungen zum Problem einer Theorie des Designs. Nach einem Vortrag, gehalten am 22.4.1972 vor dem VDID im Büro Prof. Votteler in Braunschweig, anläßlich der Hannover Messe. Braunschweig, 1972. Maslow, Abraham Harold. Motivation and Personality. New York, 1954. Maturana, Humberto R.; Varela, Francisco J. Der Baum der Erkenntnis. Die biologischen Wurzeln menschlichen Erkennens. Frankfurt a.M., 2009. Mayer, Richard E. Denken und Problemlösen. Eine Einführung in menschliches Denken und Lernen. Berlin, 1979. Mayer-Schönberger, Viktor; Cukier, Kenneth. Big data. A revolution that will transform how we live, work and think. London, 2013. Maynard Smith, John. Evolution and the theory of games. Cambridge, 1982/2009. McAfee, Andrew; Brynjolfsson, Erik. Von Managern und Maschinen. In: Harvard Business Manager, 3, 2019. S. 16-23. McCulloch, Warren S.; Pitts, Walter H. A Logical Calculus of the Ideas immanent in Nervous Activity. In: Bulletin of Mathematical Biophysics, 5, 1943. S. 155-133. McKay, Robert F. The Theory of Machines. London, 1915. Meder, Joseph. Die Handzeichnung. Ihre Technik und Entwicklung. Wien, 1919. Mednick, Sarnoff Andrej. The Associative Basis of the Creative Process. In: Psychological Review, 69, 1962. S. 220-232. Mednick, Sarnoff Andrej. Remote Associates Test. Boston, 1967. Meisenheimer, Wolfgang. Der Rand der Kreativität. Planen und Entwerfen. Wien, 2010.

345

346

Prozess als Gestalt

Meschkowski, Herbert. Mathematik verständlich dargestellt. Eine Entwicklungsgeschichte von der Antike bis zur Gegenwart. Wiesbaden, 1997. Metzger, Wolfgang. Gesetze des Sehens. Frankfurt a.M., 1936/1953. Meurer, Bernd; Vincon, Hartmut. Industrielle Ästhetik. Gießen, 1983. Michael, Manfred. Produktideen und ›Ideenproduktion‹. Wiesbaden, 1973. Mildenberger, Georg. Wissen und Können im Spiegel gegenwärtiger Technikforschung. Zugl.: Darmstadt, Techn. Univ., Diss., 2002. Berlin, 2006. Möckel, Otto. Die Kunst des Geigenbaues. Mit 53 Tafeln ; vocabulary of violin terms in German, English, French and Italian on page 372. Hamburg, 1997. Monyer, Hannah; Gessmann, Martin. Das geniale Gedächtnis. Wie das Gehirn aus der Vergangenheit unsere Zukunft macht. München, 2017. Mooney, Ross L. A Conceptual Model for Integrating Four Approaches to the Identification of Creative Talent. In: Taylor, Calvin W.; Barron, Frank. Scientific Creativity. Its Recognition and Development. New York, 1963. S. 331-340. Müller, Roland M.; Lenz, Hans-Joachim. Business Intelligence. Berlin, Heidelberg, 2013. Müller, Werner. Architekten in der Welt der Antike. Leipzig, 1989. Müller-Wiener, Wolfgang. Griechisches Bauwesen in der Antike. München, 1988. Mutius, Bernhard von. Die Verwandlung der Welt. Ein Dialog mit der Zukunft. Stuttgart, 2000. Mutius, Bernhard von. Die andere Intelligenz oder: Muster, die verbinden. Eine Skizze. In: Mutius, Bernhard von. Die andere Intelligenz. Wie wir morgen denken werden ; ein Almanach neuer Denkansätze aus Wissenschaft, Gesellschaft und Kultur. Stuttgart, 2004a. S. 12-39. Mutius, Bernhard von. Gestaltung neu denken. Bernhard von Mutius im Gespräch mit Bernhard E. Bürdek. In: Mutius, Bernhard von. Die andere Intelligenz. Wie wir morgen denken werden ; ein Almanach neuer Denkansätze aus Wissenschaft, Gesellschaft und Kultur. Stuttgart, 2004b. S. 270-281. Mutius, Bernhard von. Disruptive Thinking. Das Denken, das der Zukunft gewachsen ist. Offenbach a. M., 2017. Nassehi, Armin. Die paradoxe Einheit von Inklusion und Exklusion. Ein systemtheoretischer Blick auf die Phänomene«. In: Bude, Heinz; Willisch, Andreas. Das Problem der Exklusion. Ausgegrenzte, Entbehrliche, Überflüssige. Hamburg, 2006. S. 46-69. Nassehi, Armin. Muster. Theorie der digitalen Gesellschaft, 2019. Nees, Georg. Generative Computergraphik. Berlin – München, 1969. Negroponte, Nicholas. Total digital. Die Welt zwischen 0 und 1 oder Die Zukunft der Kommunikation. München, 1995. Nerdinger, Winfried; Barthel, Rainer; Meissner, Irene; Möller, Eberhard; Grdanjski, Mirjana; Otto, Frei. Frei Otto – das Gesamtwerk. Leicht bauen, natürlich gestalten. Anlässlich der Ausstellung »Frei Otto – Leicht Bauen, Natürlich Gestalten« im Architekturmuseum der TU München in der Pinakothek der Moderne vom 26. Mai bis 28. August 2005]. Basel, 2005. Neuburger, Albert. Die Technik des Altertums. Leipzig, 1919/1984. Neudörfer, Sonja. Tradiertes Erfahrungswissen und arbeitsteilige Produktionsnetzwerke. Der Schönbacher Geigenbau im 19. und 20. Jahrhundert. Aachen, 2007.

Literaturverzeichnis

Neugebauer, Otto. Vorlesungen über Geschichte der antiken mathematischen Wissenschaften. Erster Band. Vorgriechische Mathematik. Berlin, 1934. Neumann, John von; Morgenstern, Oskar. Theory of games and economic behavior. Princeton, 1944/1990. Newell, Allen. Reasoning, problem solving and decision processes. The problem space as a fundamental category. In: Nickerson, Raymond S. Attention and Performance Viii. Attention and Performance Series. Hoboken, 1980. S. 693-718. Newell, Allen; Shaw, J. Clerk; Simon, Herbert Alexander. The Process of Creative Thinking, 1958. Newell, Allen; Simon, Herbert Alexander. Report on a General Problem-Solving Program, 1958. Newell, Allen; Simon, Herbert Alexander. Computer Simulation of Human Thinking. A theory of problem solving expressed as a computer program permits simulation of thinking processes. Science. New Series, 1961. S. 2011-2017. Newell, Allen; Simon, Herbert Alexander. Human Problem Solving. Englewood Cliffs, N.J., 1972. Niederheitmann, Friedrich. Cremona. Eine Charakteristik der italienischen Geigenbauer und ihrer Instrumente. Leipzig, 1877. Niewerth, Hans; Schröder, Jürgen. Lexikon der Planung und der Organisation. Quickborn, 1968. Nisan, Noam; Roughgarden, Tim; Tardos, Eva; Vazirani, Vijay. Algorithmic game theory. Cambridge, 2008. Nolte, Silvia. Steinbruch – Werkstatt – Skulptur. Untersuchungen zu Aufbau und Organisation griechischer Bildhauerwerkstätten. Zugl.: Berlin, Freie Univ., Diss., 1996. Göttingen, 2006. Norman, Donald A. Things that make us smart. Defending human attributes in the age of the machine. Reading, Mass., 2003. Norman, Donald A. The design of future things. New York, 2007. Norman, Donald Arthur. Aufmerksamkeit und Gedächtnis. Eine Einführung in die menschliche Informationsverarbeitung. Weinheim, 1973. Nye, David E. Technology matters. Questions to live with. Cambridge, Mass., 2007. Nyström, Bengt. Christopher Polhem. The Swedish Daedalus. Stockholm, 1985. Off, Timo. Der kreative Prozess. In: Baudson, Tanja Gabriele. Kreativität und Innovation. Beiträge aus Wirtschaft, Technik und Praxis ; eine Publikation des MinDHochschul-Netzwerkes. Stuttgart, 2008. Öllinger, Michael; Knoblich, Günther. Einsicht und Umstrukturierung beim Problemlösen. In: Funke, Joachim. Denken und Problemlösen. Enzyklopädie der Psychologie. Göttingen, 2006. S. 3-86. Opara, Anastasia. Believability in Procedural Modelling. Layering of Simple Rules. Houdini HIVE at SIGGRAPH 2017. Los Angeles, 2017. https://vimeo.com/228391688. Zugegriffen am 28.04.2020. Osborn, Alex Faickney. Applied Imagination. Principles and Procedures of Creative Problem Solving. New York, 1953.

347

348

Prozess als Gestalt

Özkar, Mine. Repeating Circles, Changing Stars: Learning from the Medieval Art of Visual Computation. In: Lee, Newton. Digital Da Vinci. Computers in the arts and sciences. New York, 2014. S. 49-64. Pallasmaa, Juhani. The Thinking Hand. Existential and embodied wisdom in architecture. Chichester, 2009. Palmer, Stephen E. Vision Science. Photons to Phenomenology. Cambridge, Mass., 1999. Perkins, David. Geistesblitze. Innovatives Denken lernen mit Archimedes, Einstein & Co. München/Zürich, 2003. Petersen, Thomas. Wirtschaft und Kreativität. In: Holm-Hadulla, Rainer M. Kreativität. Heidelberger Jahrbücher. Berlin, Heidelberg, 2000. S. 109-126. Pethes, Nicolas; Ruchatz, Jens. Gedächtnis und Erinnerung. Ein interdisziplinäres Lexikon. Reinbek bei Hamburg, 2001. Pichot, André. Die Geburt der Wissenschaft. Von den Babyloniern zu den frühen Griechen. Frankfurt a.M., 1995. Pircher, Wolfgang. Entwerfen zwischen Raum und Fläche. In: Gethmann, Daniel; Hauser, Susanne. Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science. Kultur- und Medientheorie. Bielefeld, 2009. S. 103-119. Platon. Kratylos. Stuttgart, 2012. Plucker, Jonathan A.; Makel, Matthew C.; Qian, Meihua. Assessment of Creativity. In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 44-68. Poincaré, Henri. Mathematical Creation, 1913. In: Ghiselin, Brewster. The Creative Process. A symposium. Berkeley, London, 1913/1985. S. 22-31. Polanyi, Michael. Implizites Wissen. Frankfurt a.M., 1985. Popper, Karl R. Alles Leben ist Problemlösen. Über Erkenntnis, Geschichte und Politik. München, Berlin, Zürich, 1997. Poulsen, Vagn. Griechische Bildwerke, 1962. Preim, Bernhard; Dachselt, Raimund. Interaktive Systeme. Berlin, 2015. Preiser, Siegfried. Kreative Lernkultur und innovatives Arbeitsklima. Basis für Persönlichkeits- und Potenzialentwicklung. In: Baudson, Tanja Gabriele. Kreativität und Innovation. Beiträge aus Wirtschaft, Technik und Praxis ; eine Publikation des MinD-Hochschul-Netzwerkes. Stuttgart, 2008. Pricken, Mario. Kribbeln im Kopf. Kreativitätstechniken und Brain-Tools für Werbung und Design. Mainz, 2004. Raja, Vinesh; Fernandes, Kiran J. Reverse Engineering. An Industrial Perspective. London, 2008. Ramge, Thomas. Mensch und Maschine. Wie künstliche Intelligenz und Roboter unser Leben verändern. Ditzingen, 2018. Rat für Formgebung. Ist man jetzt Marc Newson? Interview mit Oliver Grabes und Fabian Kragenings zum Thema ›Designprozese‹. In: Designreport, 1, 2019. S. 100102. Read, Herbert. Kunst und Industrie. Grundsätze industrieller Formgebung. Stuttgart, 1958. Reas, Casey; McWilliams, Chandler; Barendse, Jeroen. Form + Code in Design, Art, and Architecture. New York, 2011.

Literaturverzeichnis

Reckwitz, Andreas. Die Erfindung der Kreativität. Zum Prozess gesellschaftlicher Ästhetisierung. Berlin, 2012/2013. Reitman, Walter Ralph. Cognition and thought. An information processing approach. New York, 1965. Rheinberger, Hans-Jörg. Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas. Frankfurt a.M., 2006. Rheinberger, Hans-Jörg. Virtuosität. In: Haas, Norbert; Nägele, Rainer; Rheinberger, Hans-Jörg. Virtuosität. Liechtensteiner Exkurse. Eggingen, Kr. Waldshut, 2007. Ribot, Théodule. The Nature of Creative Imagination. In: International Quarterly, 1, 1900. S. 648-675. Rieck, Christian. Spieltheorie. Eine Einführung. Eschborn, 2007. Rippmann, Matthias. Digitale Entwurfswerkzeuge. In: Walliser, Tobias; Schroth, Martin. Experimente – Architektur digital konzipiert. Stuttgart, 2014. S. 34-39. Rittel, Horst W. J. Hierarchy vs. Team? Considerations on the Organization of R&D Cooperatlves. In: Tybout, R. A. The Economics of Research and Development, 1965. Rittel, Horst W. J. Der Planungsprozeß als iterativer Vorgang von Varietätserzeugung und Varietätseinschränkung. In: Institut für Grundlagen der modernen Architektur. Entwurfsmethoden in der Bauplanung. Arbeitsberichte zur Planungsmethodik 4. Stuttgart, Bern, 1970. S. 17-32. Rittel, Horst W. J. Die Denkweise von Designern. Mit einer Einführung von Wolf Reuter und einem Interview von 1971. Hamburg, 1987/2012. Rittel, Horst W. J.; Webber, Melvin M. Dilemmas in a General Theory of Planning. In: Policy Sciences 4, 1973. S. 155-169. Romero-Tejedor, Felicidad. Der denkende Designer. Von der Ästhetik zur Kognition ; ein Paradigmenwechsel. Hildesheim, 2007. Rosa, Hartmut. Beschleunigung. Die Veränderung der Zeitstrukturen in der Moderne. Frankfurt a.M., 2005. Rosenblatt, Frank. Principles of Neurodynamics. Perceptrons and the Theory of Brain Mechanisms. Washington, 1961. Roth, Gerhard. Aus Sicht des Gehirns. Frankfurt a.M., 2015. Roth, Gerhard; Strüber, Nicole. Wie das Gehirn die Seele macht. Stuttgart, 2018. Roussel, André; König, Adolf. Grundlagen der Geige und des Geigenbaues. Ein Lehrund Handbuch von Bau und Funktion der Streichinstrumente und ihrer Teile. Frankfurt a.M., 1990. Rubini, Paolo. Pietro Pomponazzis Erkenntnistheorie. Naturalisierung des menschlichen Geistes im Spätaristotelismus. Leiden, 2015. Russo, Lucio. Die vergessene Revolution oder die Wiedergeburt des antiken Wissens. Berlin, Heidelberg, 2005. Sacconi, Simone F. Die Geheimnisse Stradivaris. Mit dem Katalog des StradivariNachlasses im Städtischen Museum Ala Ponzone von Cremona. Frankfurt a.M., 1981. Sachsse, Hans. Anthropologische Grundlagen der Erkenntnis. In: Lindauer, Martin. Wie erkennt der Mensch die Welt? Grundlagen des Erkennens, Fühlens und Handelns. Geistes- und Naturwissenschaftler im Dialog. (Würzburger Symposien). Stuttgart, 1984. S. 70-82.

349

350

Prozess als Gestalt

Sakamoto, Tomoko; Ferré, Albert. From control to design. Parametric/algorithmic architecture. Barcelona, New York, 2008. Sartre, Jean-Paul. Das Sein und das Nichts. Versuch einer phänomenologischen Ontologie. Gesammelte Werke in Einzelausgaben/Philosophische Schriften, 3. Reinbek bei Hamburg, 1943/2014. Schaffrinna, Armin. Wie Designer arbeiten, 2014. Scheerer, Martin. Problem-solving. In: Scientific American, 208/4, 1963. S. 118-128. Scheuerl, Hans. Das Spiel. Untersuchungen über sein Wesen, seine pädagogischen Möglichkeiten und Grenzen. Weinheim, 1954/1973. Schiller, Friedrich. Über die ästhetische Erziehung des Menschen in einer Reihe von Briefen. Mit den Augustenburger Briefen. Stuttgart, 1795/2013. Schirrmacher, Frank. Technologischer Totalitarismus. Eine Debatte. Berlin, 2015. Schlesinger, Georg. Der Einfluß des Werkzeuges auf Leben und Kultur. In: Zentralinstitut für Erziehung und Unterricht. Maschine und Werkzeug. Technische Abende im Zentralinstitut für Erziehung und Unterricht. Zweites Heft. Technische Abende im Zentralinstitut für Erziehung und Unterricht. Berlin, 1917. S. 13-24. Schleske, Martin. Geigenbau als Klangdesign. Das Orchester 4/2013, 2003. S. 27-33. Schlüter, Christiane. Die wichtigsten Psychologen im Porträt. Wiesbaden, 2013. Schmid, Dietmar. Industrielle Fertigung. Fertigungsverfahren. Haan-Gruiten, 2006. Schmid, Ute; Funke, Joachim. Kreativität und Problemlosen. In: Stephan, Achim; Walter, Sven. Handbuch Kognitionswissenschaft. Stuttgart, Weimar, 2013. S. 335-343. Schmidt, Siegfried J. Kreativität aus der Beobachterperspektive. In: Gumbrecht, Hans Ulrich. Kreativität – ein verbrauchter Begriff? Materialität der Zeichen Reihe B. München, 1988. S. 33-51. Schmitz, Thomas H.; Groninger, Hannah. Über projektives Denken und Machen. In: Schmitz, Thomas H.; Groninger, Hannah; Röckenhaus, Kordula. Werkzeug – Denkzeug. Manuelle Intelligenz und Transmedialität kreativer prozesse. Kultur- und Medientheorie. Bielefeld, 2012. S. 19-30. Schneider, Beat. Design – eine Einführung. Entwurf im sozialen, kulturellen und wirtschaftlichen Kontext. Basel, 2005. Schneider, Helmuth. Einführung in die antike Technikgeschichte. Darmstadt, 1992. Schnier, Jörg. Entwurfsstile und Unterrichtsziele von Vitruv bis zum Bauhaus. In: Johannes, Ralph. Entwerfen. Architektenausbildung in Europa von Vitruv bis Mitte des 20. Jahrhunderts. Geschichte – Theorie – Praxis. Hamburg, 2009. S. 82-102. Schön, Donald Alan. The Reflective Practitioner. How professionals think in action. New York, 1983. Schön, Donald Alan. The Design Process. In: Howard, Vernon Alfred. Varieties of thinking. Essays from Harvard’s Philosophy of Education Research Center. Philosophy of education research library. New York, 1990. S. 110-141. Schrader, Matthias. Transformationale Produkte. Der Code von digitalen Produkten, die unseren Alltag erobern und die Wirtschaft revolutionieren. Hamburg, 2017. Schubert, Bernhard. Der Künstler als Handwerker. Zur Literaturgeschichte einer romantischen Utopie. Königstein/Ts., 1986. Schulze, Gerhard. Die beste aller Welten. Wohin bewegt sich die Gesellschaft im 21. Jahrhundert? Frankfurt a.M., 2004.

Literaturverzeichnis

Schulze, Gerhard. Die Erlebnisgesellschaft. Kultursoziologie der Gegenwart. Frankfurt a.M., 1993/2005. Schumacher, Patrik. Parametricism. A New Global Style for Architecture and Urban Design. In: Leach, Neil. Digital cities. AD Architectural Design. London, 2009. S. 1423. Schumacher, Patrik. Vortrag »Parametricism: Epochal Style for the 21st Century« am 03.08.2013. IMAX Theatre Siam Paragon, Bangkok, 2013. Schumacher, Patrik. Parametricism 2.0. In: Schumacher, Patrik. Parametricism 2.0. AD Rethinking architecture’s agenda for the 21st century//Rethinking Architecture’s Agenda for the 21st Century AD. Architectural design. London, UK, 2016. S. 9-17. Schürer, Arnold. Der Einfluss produktbestimmender Faktoren auf die Gestaltung. Bielefeld, 1969. Schweppenhäuser, Gerhard. Ästhetik. Philosophische Grundlagen und Schlüsselbegriffe. Frankfurt a.M., 2007. Searle, John. Minds, Brains, and Programs. In: Behavioral and Brain Sciences, 3, 1980. S. 417-457. Segler, Tilman. Kreativitätsförderung im Unternehmen. In: Holm-Hadulla, Rainer M. Kreativität. Heidelberger Jahrbücher. Berlin, Heidelberg, 2000. S. 77-108. Selle, Gert. Geschichte des Design in Deutschland. Frankfurt a.M., New York, 2007. Selle, Gert. Ding, Halb-Ding, Nicht-Ding, In-Ding, Über-Ding. Über sichtbares und unsichtbares Design. In: Gleiter, Jörg H. Symptom Design. Vom Zeigen und SichZeigen der Dinge [Beiträge für die internationale Tagung »Symptom Design: Dinge, Zeichen und ihre Wirkungen« ; Frühjahr 2012… an der Fakultät für Design und Künste der Freien Universität Bozen]. ArchitekturDenken. Berlin, Bielefeld, 2014. S. 39-66. Selle, Gert. Im Haus der Dinge. Versuch einer phänomenologischen Orientierung. Darmstadt, 2015. Selten, Reinhard. Die konzeptionellen Grundlagen der Spieltheorie einst und jetzt. Bonn Econ Discussion Papers No. 2/2001. University of Bonn. Bonn Graduate School of Economics (BGSE). Bonn, 2001. Selz, Otto. Zur Psychologie der produktiven Denkens und des Irrtums. Eine experimentelle Untersuchung. Bonn, 1922. Sennett, Richard. Handwerk. Berlin, 2014. Seyler, Axel. Wahrnehmen und Falschnehmen. Praxis der Gestaltpsychologie ; Formkriterien für Architekten, Designer und Kunstpädagogen ; Hilfen für den Umgang mit Kunst. Frankfurt a.M., 2013/2014. Shapiro, Alan N. Die Software der Zukunft oder: Das Modell geht der Realität voraus. Köln, 2014. Siegert, Bernhard. Weiße Flecken und finstre Herzen. In: Gethmann, Daniel; Hauser, Susanne. Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science. Kultur- und Medientheorie. Bielefeld, 2009. S. 19-47. Sigmund, Karl. Spielpläne. Zufall, Chaos und die Strategien der Evolution. Hamburg, 1995. Simon, Fritz B. Einführung in Systemtheorie und Konstruktivismus. Heidelberg, 2007.

351

352

Prozess als Gestalt

Simon, Herbert Alexander. Theories of decision making in economics and behavioural science. In: American Economic Review, 49, 1959. S. 253-283. Simon, Herbert Alexander. The structure of ill structured problems. In: Artificial Intelligence, 4, 1973. S. 181-201. Simon, Herbert Alexander. Die Wissenschaften vom Künstlichen. Wien, 1968/1994. Simonis, Annette. Gestalttheorie von Goethe bis Benjamin. Diskursgeschichte einer deutschen Denkfigur. Köln, 2001. Simonton, Dean Keith. Creativity, leadership, and chance. In: Sternberg, Robert J. The Nature of Creativity. Contemporary Psychological Perspectives. Cambridge, 1995. S. 386-426. Simonton, Dean Keith. Creativity from a historiometric perspective. In: Sternberg, Robert J. Handbook of Creativity. Cambridge, 1999. S. 116-136. Simonton, Dean Keith. Creativity. Cognitive, personal, developmental, and social aspects. In: American Psychologist, 55, 2000. S. 151-158. Simonton, Dean Keith. Creativity’s Role in Society. In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 462-480. Singh, Himanshu. Practical Machine Learning and Image Processing. For Facial Recognition, Object Detection, and Pattern Recognition Using Python. Berkeley, CA, 2019. Skowroneck, Martin. Cembalobau. Erfahrungen und Erkenntnisse aus der Werkstattpraxis = Harpsichord construction. Bergkirchen, 2003. Sondermann, Horst. Cinema 4D®. Tipps und Tricks für die Architekturvisualisierung. Wien, 2010. Sprague de Camp, L. Ingenieure der Antike, 1964. Stalder, Felix. Kultur der Digitalität. Berlin, 2016/2017. Stark, David. The sense of dissonance. Accounts of worth in economic life. Princeton, NJ, 2011. Steffen, Dagmar. Design als Produktsprache. Der »Offenbacher Ansatz« in Theorie und Praxis. Frankfurt a.M., 2000. Stephan, Achim; Walter, Sven. Handbuch Kognitionswissenschaft. Stuttgart, Weimar, 2013. Sternberg, Robert J. The Nature of Creativity. Contemporary Psychological Perspectives. Cambridge, 1988/1995. Sternberg, Robert J.; Lubart, Todd I. The Concept of Creativity. Prospects and Paradigms. In: Sternberg, Robert J. Handbook of Creativity. Cambridge, 1999. S. 315. Stöcklmayr, Nicole. Linie und Körper. Parametrisierte Entwurfsumgebungen in der Architektur. In: Hillnhütter, Sara. Planbilder. Medien der Architekturgestaltung. Bildwelten des Wissens. Berlin, Boston, 2015. S. 9-16. Strätling, Regine. Spielformen des Selbst. Das Spiel zwischen Subjektivität, Kunst und Alltagspraxis. s.l., 2014. Sutherland, Ivan Edward. Sketchpad. A man-machine graphical communication system, 1963. Sutton, Richard S.; Barto, Andrew G. Reinforcement Learning. An Introduction. Cambridge, London, 2017.

Literaturverzeichnis

Taylor, Calvin W. Various approaches to and definitions of creativity. In: Sternberg, Robert J. The Nature of Creativity. Contemporary Psychological Perspectives. Cambridge, 1995. S. 99-121. Taylor, Irving A. A Retrospective View of Creativity Investigation. In: Taylor, Irving A.; Getzels, Jacob W. Perspectives in Creativity. London, New York, 1975. S. 1-36. Taylor, Irving A.; Gantz, Benjamin S. A Transactional Approach to Creativity and Its Implications for Education. Value Dilemmas in the Assessment and Development of Creative Leaders., 1969. Taylor, Irving A.; Getzels, Jacob W. Perspectives in Creativity. London, New York, 1975a. Taylor, Irving A.; Getzels, Jacob W. Preface. In: Taylor, Irving A.; Getzels, Jacob W. Perspectives in Creativity. London, New York, 1975b. Tedeschi, Arturo. AAD Algorithms-aided design. Parametric strategies using Grasshopper. Brienza, 2014. Terstiege, Gerrit. The making of design. Vom Modell zum fertigen Produkt. Basel, 2009. Terzidis, Kostas. Algorithmic architecture. Amsterdam, 2006. Terzidis, Kostas. Permutation Design. Buildings, texts, and contexts. New York, 2015. Thrift, Nigel. Remembering the Technological Unconscious by Foregrounding Knowledges of Position. In: Environment and Planning D: Society and Space, 22/1, 2004. S. 175-190. Timm, Albrecht. Einführung in die Technikgeschichte. Berlin, Boston, 1972. Tomlow, Jos. Das Modell. Antoni Gaudis Hängemodell u. seine Rekonstruktion ; neue Erkenntnisse zum Entwurf für d. Kirche d. Colonia Güell = The @model. Zugl.: Stuttgart, Univ., Diss., u.d.T.: Rekonstruktion von Gaudis Hängemodell. Stuttgart, 1989. Torrance, Ellis Paul. Torrance Tests of Creative Thinking. Norms-technical manual. Bensenville, 1974. Trebeß, Achim. Metzler Lexikon Ästhetik. Kunst, Medien, Design und Alltag. Stuttgart, 2006. Trogemann, Georg. Code und Material, Exkursionen ins Undingliche. Wien, 2010. Trogemann, Georg; Viehoff, Jochen. CodeArt. Eine elementare Einführung in die Programmierung als künstlerische Praktik. Wien, 2005. Uhlmann, Johannes. Die Vorgehensplanung Designprozess für Objekte der Technik. Mit Eläuterungen am Entwurf eines Ultraleichtflugzeuges. Dresden, 2005. Ulmann, Gisela. Kreativität. Neue amerikanisdie Ansätze zur Erweiterung des Intelligenzkonzeptes. Weinheim, Berlin, Basel, 1968. Ulmann, Gisela. Kreativitätsforschung 59. Köln, 1973. Utterback, James M. et al. Design-inspired innovation. New Jersey, 2007. van den Boom, Holger. Digitale Ästhetik. Zu einer Bildungstheorie des Computers. Stuttgart, 1987. van den Boom, Holger. Das Designprinzip. Warum wir in der Ära des Designs leben. Kassel, 2011. van den Boom, Holger; Romero-Tejedor, Felicidad. Design. Zur Praxis des Entwerfens. Eine Einführung. Hildesheim, 2003. van den Boom, Holger; Romero-Tejedor, Felicidad. Das Ikonische. Ein heuristisches Konzept zur Generierung projektiver Handlungsräume im Design. Kassel, 2017.

353

354

Prozess als Gestalt

van der Aalst, Wil; van Hee, Kees Max. Workflow management. Models, methods and systems. Cambridge, Mass., 2004. van der Waerden, Bartel. Erwachende Wissenschaft. Ägyptische, Babylonische und Griechische Mathematik. Basel, Stuttgart, 1956. Vartanian, Oshin. Neuroscience ot Creativity. In: Kaufman, James C.; Sternberg, Robert J. The Cambridge Handbook of Creativity, 2019. S. 148-172. Vasari, Giorgio; Lorini, Victoria; Burioni, Matteo. Einführung in die Künste der Architektur, Bildhauerei und Malerei. Die künstlerischen Techniken der Renaissance als Medien des disegno. Berlin, 2006. Vester, Frederic. Die Kunst vernetzt zu denken. Ideen und Werkzeuge für einen neuen Umgang mit Komplexität ; ein Bericht an den Club of Rome ; [der neue Bericht an den Club of Rome]. München, 2015. Vester, Frederic. Denken, Lernen, Vergessen. Was geht in unserem Kopf vor, wie lernt das Gehirn, und wann lässt es uns im Stich? München, 1975/2016. Vitruv; Fensterbusch, Curt. Zehn Bücher über Architektur. Darmstadt, 1964/1991. Vogt, Joseph. Römische Geschichte. Die römische Republik. Freiburg, 1951. Voorhoeve, Jutta. Interview mit Katja Davar. Zeichnung als Konstruktion. In: Voorhoeve, Jutta. Welten schaffen. Zeichnen und Schreiben als Verfahren der Konstruktion. Wissen im Entwurf. Zürich, 2011. S. 135-155. Vrachliotis, Georg. Denken in Modellen. Architektur und operative Ästhetik bei Frei Otto. In: Vrachliotis, Georg; Kleinmanns, Joachim; Kunz, Martin; Kurz, Philip; Otto, Frei. Frei Otto. Denken in Modellen. Die Arbeitsweise des innovativen Architekten. Leipzig, 2016. S. 23-30. Vrachliotis, Georg; Kleinmanns, Joachim; Kunz, Martin; Kurz, Philip; Otto, Frei; Frohn, Marc. Frei Otto. Denken in Modellen. Die Arbeitsweise des innovativen Architekten. Leipzig, 2016. Wagner, Frank. The value of design. Wirkung und Wert von Design im 21. Jahrhundert : für ein neues Designverständnis – ein Plädoyer. Mainz, 2015. Waldenfels, Bernhard. Responsive Kreativität. In: Großmann, Andreas. Kreativität denken. Tübingen, 2020. S. 29-52. Wali, Kameshwar C. Cremona violins. A physicist’s quest for the secrets of Stradivari. Singapore, Hackensack, N.J, 2010. Wallas, Graham. The Art of Thought. London, 1926/2014. Walliser, Tobias; Schroth, Martin. Experimente – Architektur digital konzipiert. Stuttgart, 2014. Warwitz, Siegbert A.; Rudolf, Anita. Vom Sinn des Spielens. Reflexionen und Spielideen. Baltmannsweiler, 2014. Weaver, Warren. Science and Complexity. American Scientist 36. New York, 1948. Weber, Beate. Politik und Kreativität. In: Holm-Hadulla, Rainer M. Kreativität. Heidelberger Jahrbücher. Berlin, Heidelberg, 2000. S. 47-58. Weidinger, Jürgen. Antworten auf die verordnete Verwissenschaftlichung des Entwerfens. In: Weidinger, Jürgen. Entwurfsbasiert Forschen. [die Publikation dokumentiert das »EKLAT Symposium zur Entwurfswissenschaft« am 6. Mai 2011]. Berlin, 2013. S. 13-35.

Literaturverzeichnis

Weinhandl, Ferdinand. Christian von Ehrenfels. Sein philosophisches Werk. In: Weinhandl, Ferdinand. Gestalthaftes Sehen. Ergebnisse und Aufgaben der Morphologie. Zum hundertjährigen Geburtstag von Christian von Ehrenfels. Darmstadt, 1960. S. 1-10. Weisberg, Robert W. Kreativität und Begabung. Was wir mit Mozart, Einstein und Picasso gemeinsam haben. Heidelberg, 1989. Weisberg, Robert W. Problem solving and creativity. In: Sternberg, Robert J. The Nature of Creativity. Contemporary Psychological Perspectives. Cambridge, 1995. S. 148176. Weisberg, Robert W. Creativity. Understanding innovation in problem solving, science, invention, and the arts. Hoboken, NJ, 2006. Weiser, Mark. The Computer of the 21st Century. In: Scientific American, 265/3, 1991. S. 94-104. Weiser, Mark; Brown, John Seely. Das kommende Zeitalter der Calm Technology. In: Engemann, Christoph; Sprenger, Florian. Internet der Dinge. Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Digitale Gesellschaft. Bielefeld, 2015. S. 59-71. Weizenbaum, Joseph. Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt a.M., 1978/2008. Welsch, Wolfgang. Grenzgänge der Ästhetik. Stuttgart, 1996. Weltzien, Friedrich. Der »nachgereichte« Entwurf. In: Mattenklott, Gundel; Weltzien, Friedrich. Entwerfen und Entwurf. Praxis und Theorie des künstlerischen Schaffensprozesses. Berlin, 2003. S. 173-187. Werbos, Paul John. Beyond Regression. New Tools for Prediction and Analysis in the Behavioral Sciences, 1974. Wertheimer, Max. Experimentelle Studien über das Sehen von Bewegung. In: Zeitschrift für Psychologie, 61, 1912. S. 161-265. Wertheimer, Max. Untersuchungen zur Lehre von der Gestalt. In: Koffka, Kurt; Köhler, Wolfgang; Wertheimer, Max; Goldstein, Kurt; Gruhle, Hans Walter. Psychologische Forschung. Zeitschrift für Psychologie und ihre Grenzwissenschaften. Berlin, 1923. S. 301-350. Wertheimer, Max. Über Gestalttheorie. Vortrag vor der KANT-Gesellschaft, Berlin, am 17. Dezember 1924. In: Philosophische Zeitschrift für Forschung und Aussprache, 1, 1925. S. 39-60. Wertheimer, Max. Produktives Denken. Übersetzt von Wolfgang Metzger. Frankfurt a.M., 1945/1957. White, Kenneth D. Greek and Roman Technology. Thames and Hudson Ltd, 1984. Wiesing, Lambert. Artifizielle Präsenz und Architektur. Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ›Die Realität des Imaginären. Architektur und das digitale Bild‹, 2008. Willim, Bernd. Digitale Kreativität. Anwendung. Technik. Systeme. Berlin, 1986. Wittgenstein, Ludwig. Werkausgabe in 8 Bänden. Frankfurt a.M., 1984. Wittgenstein, Ludwig. Philosophische Untersuchungen. Frankfurt a.M., 1953/2008. Wittgenstein, Ludwig. Philosophische Bemerkungen. Werkausgabe Band 2. Frankfurt a.M., 1984/2015.

355

356

Prozess als Gestalt

Woodbury, Robert. Elements of parametric design. London, New York, 2010. Wörterbuch der philosophischen Begriffe. Parameter. In: Meyer, Uwe; Regenbogen, Arnim. Wörterbuch der philosophischen Begriffe. Stuttgart, 2013. S. 483. Wundsam, Manfred. Polyklet. Doryphoros. Stuttgart, 1966.

Internetquellen Bycroft, Michael. The Birth of a Movement: Joy Paul Guilford and Creativity Research in American Psychology, 1950-70, 2009. https://www.academia.edu/5227271/T he_Birth_of_a_Movement_Joy_Paul_Guilford_ and_Creativity_Research_in_American_Psychology_1950-70. Zugegriffen am 08.08.2020. Davis, Daniel. A History of Parametric, 2013b. https://www.danieldavis.com/a-history -of-parametric/. Zugegriffen am 13.07.2020. Deplazes, Raymond. Autodesk and Airbus Demonstrate the Impact of Generative Design on Making and Building, 2019. https://adsknews.autodesk.com/news/autodes k-airbus-generative-design-aerospace-factory. Zugegriffen am 08.08.2020. Deshpande, Adit. The 9 Deep Learning Papers you need to know about, 2019. https://a deshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.h tml. Zugegriffen am 17.07.2019. Design Council. Eleven lessons: managing design in eleven global brands. A study of the design process, 2005. https://www.designcouncil.org.uk/sites/default/files/asset/d ocument/ElevenLessons_Design_Council %20(2).pdf. Zugegriffen am 08.07.2021. Dodge, Samuel; Karam, Lina. A Study and Comparison of Human and Deep Learning Recognition Performance Under Visual Distortions, 2017. https://arxiv.org/pdf/170 5.02498.pdf. Zugegriffen am 20.07.2019. Gumbrecht, Hans Ulrich. Was können »Kreativität« und »Genie« heute sein?, 2015. https://blogs.faz.net/digital/2015/12/19/was-koennen-kreativitaet-und-genieheute-sein-954/. Zugegriffen am 13.09.2019. iF Design Award. Ausschreibung für Teilnehmer zum iF Design Award 2020, 2019. https://ifdesign.cloud/assets/images/our-awards/professional-awards/if-design -award-2020/overview-for-participants/project_overview_ifda20_ly_gb_05.pdf. Zugegriffen am 17.09.2019. Kersting, Kristian. Digitale Revolution. Interview geführt von Anis Mičijević. Handelsblatt Online, 2019. https://www.handelsblatt.com/technik/digitale-revolution/digi tale-revolution-wir-werden-irgendwann-alle-ablaeufe-im-menschlichen-gehirn-a lgorithmisch-fassen-koennen/24440082.html. Zugegriffen am 08.08.2020. Koestler, Arthur. Die Wahrheit der Phantasie. Was Kunst und Wissenschaft gemeinsam haben. Eröffnungsrede zum Londoner PEN-Kongreß 1976, 1976. https://www.zeit. de/1976/37/die-wahrheit-der-phantasie. Zugegriffen am 22.08.2019. Loyd, Samuel. Sam Loyd’s Cyclopedia of 5000 Puzzles, Tricks, and Conundrums With Answers, 1914. https://archive.org/details/CyclopediaOfPuzzlesLoyd/. Zugegriffen am 06.08.2020.

Literaturverzeichnis

McCarthy, John. The Inversion of Functions Defined by Turing Machines, 1956. http://j mc.stanford.edu/articles/inversion/inversion.pdf. Zugegriffen am 08.08.2020. McCarthy, John. The Little Thoughts of Thinking Machines, 1983. http://www-formal.st anford.edu/jmc/little.pdf. Zugegriffen am 08.08.2020. National Football League. Rulebook, 2019. https://operations.nfl.com/the-rules/2019-n fl-rulebook/. Zugegriffen am 09.06.2020. Platon. Nomoi. Nach der Übersetzung von Dr. Franz Susemihl, 1862. www.opera-platonis.de/Nomoi.pdf. Zugegriffen am 09.04.2020. PONS. Online-Wörterbuch, 2020. https://de.pons.com/ %C3 %BCbersetzung/. Zugegriffen am 21.04.2020. Rat für Formgebung. Ausschreibung für Teilnehmer zum German Design Award 2021, 2020. https://www.german-design-award.com/fileadmin/Downloads/GDA/A usschreibung/GDA2021_FactSheet_DE.pdf. Zugegriffen am 09.09.2020. Saha, Sumit. A Comprehensive Guide to Convolutional Neural Networks. The ELI5 way, 2018. https://towardsdatascience.com/a-comprehensive-guide-to-convolutional-n eural-networks-the-eli5-way-3bd2b1164a53. Zugegriffen am 17.07.2019. Sathyanarayana, Shashi. A Gentle Introduction to Backpropagation, 2014. https://www. researchgate.net/publication/266396438_A_Gentle_Introduction_to_Backpropagati on. Zugegriffen am 20.07.2019. Schewe, Jeff. Ten Years of Photoshop, 2000. www.schewephoto.com/pei/pshistory.pdf. Zugegriffen am 08.08.2020. Schmidhuber, Jürgen. Deep Learning in Neural Networks. An Overview, 2014. http://p eople.idsia.ch/∼juergen/DeepLearning8Oct2014.pdf. Zugegriffen am 08.08.2020. Shahbaz, Faisal. Five Powerful CNN Architectures, 2018. https://medium.com/da tadriveninvestor/five-powerful-cnn-architectures-b939c9ddd57b. Zugegriffen am 19.07.2019. Sharma, Pulkit. A Comprehensive Tutorial to learn Convolutional Neural Networks from Scratch, 2018. https://www.analyticsvidhya.com/blog/2018/12/guide-convolu tional-neural-network-cnn/. Zugegriffen am 20.07.2019. Swenson, Kylee. Generatives Design – was ist das? Was ist Generatives Design, und wie wird sie die Arbeitsabläufe revolutionieren? Diese Infografik erklärt alles, was Sie wissen sollten., 2019. https://redshift.autodesk.de/was-ist-generatives-design/ . Zugegriffen am 08.08.2020. Tabarelli, Petra. Die Entwicklung der Fußballregeln und Fußballregelwerke, 2017. http s://nachspielzeiten.de/die-entwicklung-der-fussballregeln-und-fussballregelwerke /. Zugegriffen am 09.06.2020. Tanz, Ophir. Can Artificial Intelligence Identify Pictures Better than Humans?, 2017. h ttps://www.entrepreneur.com/article/283990. Zugegriffen am 20.07.2019. Ulmann, Gisela. Kreativität und Kulturelle Bildung, 2013. https://www.kubi-online.de/ artikel/kreativitaet-kulturelle-bildung. Zugegriffen am 08.08.2020. Villapaz, Luke. ›GTA 5‹ Costs $265 Million to develop and market, making it the most expensive video game ever produced, 2013. https://www.ibtimes.com/gta-5-costs265-million-develop-market-making-it-most-expensive-video-game-ever-produc ed-report. Zugegriffen am 28.04.2020.

357

358

Prozess als Gestalt

Weibel, Peter. Die Algorithmische Revolution. Einführung zur Ausstellungseröffnung, 2004. http://www01.zkm.de/algorithmische-revolution/. Zugegriffen am 08.08.2020. Zeiler, Matthew D.; Fergus, Rob. Visualizing and Understanding Convolutional Networks, 2013. https://arxiv.org/pdf/1311.2901.pdf. Zugegriffen am 11.07.2019.

Abbildungsverzeichnis

Abb. 01: Darstellung nach Angeloni (1923: 194, 415). Abb. 02: Darstellung nach Marey (1890: 173). Abb. 03: Eigene Darstellung. Abb. 04: Darstellung nach Wertheimer (1923: 304). Abb. 05: Eigene Darstellung in Anlehnung an LeCun (1998: 7). Abb. 06: Eigene Darstellung. Abb. 07: (a), (b) und (c) eigene Darstellung; (d) nach Zeiler; Fergus (2013). Abb. 08: Eigene Darstellung. Abb. 09: Eigene, erweiterte Darstellung nach Duncker (1935/1963: 31). Abb. 10: Eigene Darstellung. Abb. 11: Eigene Darstellung. Abb. 12: Darstellung nach Scheuerl (1954/1973: 78). Abb. 13: Eigene Darstellung. Abb. 14: Eigene Darstellung. Abb. 15: Eigene Darstellung. Abb. 16: Eigene Darstellung.

Architektur und Design Daniel Hornuff

Die Neue Rechte und ihr Design Vom ästhetischen Angriff auf die offene Gesellschaft 2019, 142 S., kart., Dispersionsbindung, 17 SW-Abbildungen 19,99 € (DE), 978-3-8376-4978-9 E-Book: PDF: 17,99 € (DE), ISBN 978-3-8394-4978-3

Katharina Brichetti, Franz Mechsner

Heilsame Architektur Raumqualitäten erleben, verstehen und entwerfen 2019, 288 S., kart., Dispersionsbindung, SW-Abbildungen, 57 Farbabbildungen 29,99 € (DE), 978-3-8376-4503-3 E-Book: PDF: 26,99 € (DE), ISBN 978-3-8394-4503-7

Christoph Rodatz, Pierre Smolarski (Hg.)

Wie können wir den Schaden maximieren? Gestaltung trotz Komplexität. Beiträge zu einem Public Interest Design April 2021, 234 S., kart. 29,00 € (DE), 978-3-8376-5784-5 E-Book: kostenlos erhältlich als Open-Access-Publikation PDF: ISBN 978-3-8394-5784-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Architektur und Design Tim Kammasch (Hg.)

Betrachtungen der Architektur Versuche in Ekphrasis 2020, 326 S., kart., Dispersionsbindung, 63 SW-Abbildungen 30,00 € (DE), 978-3-8376-4994-9 E-Book: PDF: 29,99 € (DE), ISBN 978-3-8394-4994-3

Christophe Barlieb, Lidia Gasperoni (Hg.)

Media Agency – Neue Ansätze zur Medialität in der Architektur 2020, 224 S., Klappbroschur, Dispersionsbindung, 67 SW-Abbildungen 29,99 € (DE), 978-3-8376-4874-4 E-Book: kostenlos erhältlich als Open-Access-Publikation PDF: ISBN 978-3-8394-4874-8

Thomas Hecken, Moritz Baßler, Elena Beregow, Robin Curtis, Heinz Drügh, Mascha Jacobs, Annekathrin Kohout, Nicolas Pethes, Miriam Zeh (Hg.)

POP Kultur und Kritik (Jg. 10, 2/2021) September 2021, 176 S., kart. 16,80 € (DE), 978-3-8376-5394-6 E-Book: PDF: 16,80 € (DE), ISBN 978-3-8394-5394-0

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de