Logik des Bildlichen: Zur Kritik der ikonischen Vernunft [1. Aufl.] 9783839410516

Was wissen wir durch Bilder? Wie vermitteln Bilder Wissen? Was sind die Grenzen der Darstellbarkeit von Wissen in Bilder

232 115 6MB

German Pages 280 Year 2015

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Logik des Bildlichen: Zur Kritik der ikonischen Vernunft [1. Aufl.]
 9783839410516

Table of contents :
Inhalt
Dank
Einleitung. Bildlogik oder Was heißt visuelles Denken?
Zwischen Kunst und Wissenschaft.
Vor einem Bild. Eine Forschungsskizze
Skizzen und Gekritzel. Relationen zwischen Denken und Handeln in Kunst und Wissenschaft
Das epistemische Bild.
Operative Bildlichkeit. Von der ‚Grammatologie‘ zu einer ‚Diagrammatologie‘? Reflexionen über erkennendes ‚Sehen‘
Bildlogik – Phänomenlogische Differenzen visueller Medien
Logik und Aisthesis – Wittgenstein über Negationen, Variablen und Hypothesen im Bild
Wissen als Bild. Zur diagrammatischen Kunstgeschichte
Das digitale Bild.
Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des „digitalen Bildes“
„Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert“ (Andreas Gursky)
Bildmodelle in den Wissenschaften.
„Die präzise elektronische Phantasie der Automatenhirne“. Eine Analyse der Logik und Epistemik simulierter Weltbilder
Das Neue im traditionellen Gewand. Zum Wechselspiel von Formtradition und Differenz in der wissenschaftlichen Bildpraxis.
Zwischen Scylla und Charybdis: Digitale Visualisierungsformen in der Archäologie
Autorenverzeichnis

Citation preview

Martina Heßler, Dieter Mersch (Hg.) Logik des Bildlichen

Band 2

2008-12-05 10-56-42 --- Projekt: transcript.titeleien / Dokument: FAX ID 0285196373231640|(S.

1

) T00_01 schmutztitel - 1051.p 196373231648

Editorial Medien entfachen kulturelle Dynamiken; sie verändern die Künste ebenso wie diskursive Formationen und kommunikative Prozesse als Grundlagen des Sozialen oder Verfahren der Aufzeichnung als Praktiken kultureller Archive und Gedächtnisse. Die Reihe Metabasis (griech. Veränderung, Übergang) am Institut für Künste und Medien der Universität Potsdam will die medialen, künstlerischen und gesellschaftlichen Umbrüche mit Bezug auf unterschiedliche kulturelle Räume und Epochen untersuchen sowie die Veränderungen in Narration und Fiktionalisierung und deren Rückschlag auf Prozesse der Imagination nachzeichnen. Darüber hinaus werden Übergänge zwischen den Medien und ihren Performanzen thematisiert, seien es Text-Bild-Interferenzen, literarische Figurationen und ihre Auswirkungen auf andere Künste oder auch Übersetzungen zwischen verschiedenen Genres und ihren Darstellungsweisen. Die Reihe widmet sich dem »Inter-Medialen«, den Hybridformen und Grenzverläufen, die die traditionellen Beschreibungsformen außer Kraft setzen und neue Begriffe erfordern. Sie geht zudem auf jene schwer auslotbare Zwischenräumlichkeit ein, worin überlieferte Formen instabil und neue Gestalten produktiv werden können. Mindestens einmal pro Jahr wird die Reihe durch einen weiteren Band ergänzt werden. Das Themenspektrum umfasst Neue Medien, Literatur, Film, Kunst und Bildtheorie und wird auf diese Weise regelmäßig in laufende Debatten der Kultur- und Medienwissenschaften intervenieren. Die Reihe wird herausgegeben von Heiko Christians, Andreas Köstler, Gertrud Lehnert und Dieter Mersch.

2008-12-05 10-56-42 --- Projekt: transcript.titeleien / Dokument: FAX ID 0285196373231640|(S.

2

) T00_02 seite 2 - 1051.p 196373231688

Martina Hessler, Dieter Mersch (Hg.)

Logik des Bildlichen Zur Kritik der ikonischen Vernunft

2008-12-05 10-56-43 --- Projekt: transcript.titeleien / Dokument: FAX ID 0285196373231640|(S.

3

) T00_03 titel - 1051.p 196373231704

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2009 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: © Martina Heßler Lektorat & Satz: Martina Heßler, Dieter Mersch, Steffen Reiter Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1051-2 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

2008-12-05 10-56-43 --- Projekt: transcript.titeleien / Dokument: FAX ID 0285196373231640|(S.

4

) T00_04 impressum - 1051.p 196373231736

Inhalt Dank

7

Einleitung

Martina Heßler, Dieter Mersch Bildlogik oder Was heißt visuelles Denken?

8

Zwischen Kunst und Wissenschaft

Jörg Huber Vor einem Bild. Eine Forschungsskizze

63

Elke Bippus Skizzen und Gekritzel. Relationen zwischen Denken und Handeln in Kunst und Wissenschaft

76

Das epistemische Bild

Sybille Krämer Operative Bildlichkeit. Von der ‚Grammatologie‘ zu einer ‚Diagrammatologie‘? Reflexionen über erkennendes ‚Sehen‘

94

Stephan Günzel Bildlogik – Phänomenlogische Differenzen visueller Medien

123

Uli Richtmeyer Logik und Aisthesis – Wittgenstein über Negationen, Variablen und Hypothesen im Bild

139

Astrit Schmidt-Burkhardt Wissen als Bild. Zur diagrammatischen Kunstgeschichte

163

Das digitale Bild

Birgit Schneider Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des „digitalen Bildes“

188

201 Jens Schröter „Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert“ (Andreas Gursky)

Bildmodelle in den Wissenschaften

Gabriele Gramelsberger „Die präzise elektronische Phantasie der Automatenhirne“. Eine Analyse der Logik und Epistemik simulierter Weltbilder

219

Jochen Hennig Das Neue im traditionellen Gewand. Zum Wechselspiel von Formtradition und Differenz in der wissenschaftlichen Bildpraxis.

235

Stefanie Samida Zwischen Scylla und Charybdis: Digitale Visualisierungsformen in der Archäologie

258

Autorenverzeichnis

275

Dank Von der ‚Logik des Bildlichen‘ zu sprechen, Bilder und Visualisierungen als eine Weise des Denkens zu betrachten, stellt schon längst keine Provokation mehr dar, wie es vielleicht noch vor ein bis zwei Dekaden der Fall gewesen wäre. Ihrer Logik auf die Spur zu kommen, ihre Weise der Sinnerzeugung zu verstehen und ihre epistemische Struktur zu beschreiben, ist allerdings nach wie vor eine Herausforderung. Dieser Band ist ein Versuch, diese Herausforderung anzunehmen und einen Beitrag in diesem Forschungsfeld zu leisten. Er vereint Aufsätze aus ganz unterschiedlichen Disziplinen, und gerade diese Vielfalt der Perspektiven erwies sich als besonders produktiv. Wir möchten uns daher bei allen unseren Autorinnen und Autoren für ihre Mitarbeit und die gute Zusammenarbeit bedanken. Darüber hinaus gilt unser Dank dem Bundesministerium für Bildung und Forschung, das das Projekt „Visualisierungen in der Wissenskommunikation“ im Rahmen seiner Förderinitiative Wissen für Entscheidungsprozesse großzügig unterstützte. Dieser Band fasst Forschungsergebnisse der Projektarbeit sowie von Workshops aus der Kooperation der Hochschule für Gestaltung (Martina Heßler) und der Universität Potsdam (Dieter Mersch) zusammen. Wir möchten uns auf diesem Wege ganz herzlich für die Förderung unserer Forschungen bedanken. Vor allem bedanken wir uns bei Prof. Dr. Friedhelm Neidhardt, Prof. Dr. Renate Mayntz und Prof. Dr. Ulrich Wengenroth aus der Steuerungsgruppe der Förderinitiative, die unserem Projekt außerordentliches Interesse entgegenbrachten und es vielfach unterstützten. Ferner ist der Berlin-Brandenburgischen Akademie für die Ausrichtung der Workshops, insbesondere Dr. Peter Krause und Torger Möller zu danken. Ein großer Dank geht schließlich auch an Sophie Ehrmanntraut von der Universität Potsdam, die einen Teil der redaktionellen Arbeit besorgte, sowie an Steffen Reiter von der Hochschule für Gestaltung, Offenbach, der das Layout unseres bildreichen Buches übernahm.

7

Martina Heßler, Dieter Mersch Bildlogik oder Was heißt visuelles Denken?

1. Logik der Bilder

8

Wenn Gottfried Boehm sein kürzlich erschienenes Buch Wie Bilder Sinn erzeugen mit einem Zitat von Georg Büchner eröffnet, so ist lapidar und wie selbstverständlich auf einen Satz gebracht, worüber derzeit in bildwissenschaftlichen, philosophischen und kunstwissenschaftlichen Kreisen debattiert wird: „Linien, Kreise, Figuren – da steckts. Wer das lesen könnte“.1 Gleichzeitig findet sich in Büchners Formulierung aber auch ein resignativer Unterton – „wer das lesen könnte“ –, der eine leise Skepsis gegenüber einer ‚Logik der Bilder‘, die gleichberechtigt neben der Sprache bestehen könnte, ausdrückt oder zumindest die Ungeübtheit des Umgangs mit bildlicher Sinnerzeugung demonstriert. Derzeit lässt sich ein immenses Interesse daran beobachten, wie Bilder Sinn erzeugen, wie sich ihre ‚Logik‘ beschreiben lässt, was Argumentieren in Bildern bedeutet, was ‚visuelles Denken‘ heißt.2 Bild und Logik, Denken und Visualität gelten nicht mehr als unvereinbare Gegensätze, sondern versucht wird vielmehr, ihren spezifischen Zusammenhang zu erkunden, Argumentationsweisen in Bildern zu erfassen, das epistemische Potential der Bildlichkeit zu verstehen. Während also lange beklagt wurde, dass in einer abendländischen Tradition Bilder als Medien der Erkenntnis neben Sprache und Zahl keinen rechten Platz hatten, sondern immer dem ‚Anderen‘, dem ‚A-Logischen‘ zugewiesen wurden,3 so gelten diese Dichotomien heute als nicht mehr haltbar. Zudem findet sich in der Philosophie – trotz 1

Boehm 2007, 9.

2

Exemplarisch dazu Heintz / Huber 2002; Sachs-Hombach 2003; Naumann / Pankow 2004; Hoppe-Sailer / Volkenandt / Winter 2005; Bredekamp / Schneider 2006; Maasen / Mayerhauser / Renggli 2006; Belting 2007.

3

Es ist klar, dass diese eher pauschale Aussage differenziert werden muss. Bildern wurde stets eine außerordentliche Macht zugewiesen, das bezeugen Ikonophilien nicht weniger als die Ikonoklasmen, die in ihrer Angst dem Bildlichen vielleicht noch mehr Respekt zollten als alle anderen Auffassungen. Dennoch rangierte das Bild philosophisch stets unterhalb von Diskurs und Sprache, wovon, trotz aller partiellen Anerkennung der Erkenntnisleistungen des Ästhetischen, die Hegelsche Ästhetik ein Zeugnis ablegt.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

aller Abwertung des Visuellen sowie ungeachtet aller Kritik an der Logozentrik westlicher, geistesgeschichtlicher Diskurse – auch eine Tradition der Beschäftigung mit nicht-diskursiven Symbolformen, so bei Ernst Cassirer, Susanne K. Langer, Nelson Goodman oder bei Charles Sanders Peirce.4 Gleichwohl bezweifeln Verteidiger des ‚linguistic turn‘ weiterhin die Fähigkeit, „in Bildern zu denken“, bzw. die Möglichkeiten einer eigenen Epistemik des Visuellen. Sie folgen dabei dem Verdikt Gottlob Freges und des frühen Ludwig Wittgenstein, dass „(d)er Gedanke […] der sinnvolle Satz“5 sei und dass Bedeutung sich allein in der Sprache vollziehe. Nach wie vor werden hier Denken und Logik an die Ordnung der Sprache oder die Struktur der diskursiven Rede gebunden. Der vorliegende Band sucht stattdessen ebenso eine visuelle ‚Logik‘ denkbar zu machen wie ein bildliches Denken zu verteidigen. Angeschlossen wird an Positionen, die Bildern eine eigene Weise der Sinnerzeugung zugestehen. Bilder sind anders als Sprache – das ist ein Grundzug solcher Überlegungen zur ‚Ikonik‘ und Bildphilosophie von Gotthold Ephraim Lessing bis zur Phänomenologie der Bildlichkeit,6 den Boehm mit dem Satz zusammenfasst: „Die Macht des Bildes bedeutet: zu sehen geben, die Augen zu öffnen. Kurzum: zu zeigen.“7 Die Auseinandersetzung über die Frage einer eigenständigen Logik der Bilder entsteht allerdings erst dort, wo der Logikbegriff in einem engeren Sinne verwendet wird. Fasst man den Ausdruck ‚Logik‘ – wie dies im übrigen auch Gottfried Boehm tut – weit und bezeichnet damit überhaupt die „konsistente Erzeugung von Sinn aus genuin bildnerischen Mitteln“,8 so muss es darum gehen, die spezifischen Züge einer Bildlogik zu erfassen. So betont Boehm, dass eine bildliche Logik nicht prädikativ verfahre, „das heißt nicht nach dem Muster des Satzes oder anderer Sprachformen gebildet“ sei.9 Demgegenüber wird traditionell der Begriff der Logik als Teilgebiet der Philosophie an formale Ausdrücke und Regeln gebunden, die Bildern gerade nicht eigen sind, so die nicht ambiguide Zuschreibung von Prädikaten, die Zweiwertigkeit von richtig und falsch, die Anwendung der Negation, die Eindeutigkeit, um nur einige zu nennen. Dennoch können andere Aspekte eines engen Logikbegriffs, dies soll im Folgenden gezeigt werden, gleichwohl auch für Bilder reklamiert werden. Bilder können beispielsweise argumentieren oder etwas beweisen. Bildverfahren leisten darüber hinaus jedoch noch anderes, was die Sprache nicht vermag, und sie tun dies vor allem auf eine ihnen gemäße Weise, die sie von der Sprache unterscheidet, wobei sich visuelle Repräsentationen durch eine nur unvollkommene oder begrenzte sprachliche Beschreibbarkeit auszeichnen – die seit der Antike überlieferte Frage der Ekphrasis hat dies thematisch gemacht. So lässt sich beispielsweise sowenig der Verlauf einer Linie exakt beschreiben wie die Farbigkeit einer Fläche. Nelson Goodman hat dies u.a. dadurch demonstriert, dass er die Unmöglichkeit zeigte, bei einem Händler telefonisch einen bestimmten 4

Wieder exemplarisch sei hier auf Goodman / Elgin 1989, 134ff. verwiesen.

5

Wittgenstein 1971a, Satz 4.

6

Exemplartisch vgl. Wiesing 2000; Wiesing 2005.

7

Boehm 2007, 39. Zur Rekonstruktion der Bildlichkeit aus der Duplizität von Zeigen und Sichzeigen vgl. auch Mersch 2003; Mersch 2004a; sowie weiter unten.

8

Boehm 2007, 34.

9

Ebd.

9

Martina Heßler, Dieter Mersch

10

Farbton für ein Stoffmuster zu bestellen und diesen zu beschreiben. Man würde schwerlich das bekommen, was man vor Augen habe. Stattdessen müsse man, um den exakten Farbton zu treffen, auf eine nummerierte Farbskala oder dergleichen zurückgreifen.10 Man könnte daher fragen, ob der Begriff ‚Logik‘, der in seiner Enge eine Jahrtausende alte Tradition aufweist, überhaupt adäquat sei, um eine ganz andere Weise der Erkenntnis-, Wissens- und Sinnerzeugung zu beschreiben oder ob es nicht sinnvoller wäre, die sinnerzeugende Funktion der Bilder anders als mit stark an Sprache und Mathematik orientierten Begriffen zu bezeichnen. Eben dieses hatte Goodman vorgeschlagen: „Das Modell der Linguisten lässt sich ersichtlich nicht auf das Bildverständnis ausdehnen. […] Denn (pikturale Symbole) gehören zu Systemen, die syntaktisch dicht sind“, das bedeutet, es ist unmöglich, sie „scharf voneinander zu unterscheiden, und folglich auch keine Möglichkeit festzulegen, zu welchem Symbol eine bestimmte Marke gehört oder ob zwei Marken zu demselben Symbol gehören.“11 Diese Unmöglichkeit setzt in der Konsequenz den ‚Satz der Identität‘ der klassischen Logik außer Kraft. Gleichwohl, so wird im Folgenden argumentiert, soll der Begriff der Logik in diesem Sinne auch für Bildverfahren in Anschlag gebracht werden. Das Logische meint hier ein Strukturelles, das als eine Ordnung des Zeigens ausbuchstabiert wird, wobei wiederum der Begriff der ‚Ordnung‘ auf eine Grenze verweist, die dem Bildlichen besondere Fähigkeiten sowohl zuspricht als auch abspricht. Darüber hinaus, so die zweite These, lassen sich die Kulturtechniken Bild, Schrift und Zahl nicht strikt voneinander trennen, vielmehr weisen sie wechselseitig Elemente der jeweils anderen auf: im Bild zeigen sich Spuren des Schriftlichen etwa in Gestalt der ‚Zeichnung‘, wie sie vor allem in hybriden Formen wie Diagrammen oder Graphen augenfällig werden; im Schriftlichen finden sich wiederum Züge des Bildlichen, weil Schriften auf einem Tableau arrangiert werden müssen und sich in einer räumlichen Ordnung entfalten, die zahlreiche visuelle Effekte generiert usw. Damit wird weniger die Frage gestellt, ob Bilder eine eigene Logik besitzen – dies ist in vielen vorangegangenen Versuchen bereits expliziert worden – vielmehr geht es darum, einen Beitrag dazu zu leisten, wie diese zu beschreiben und zu verstehen ist. Es handelt es vorrangig um die Frage, mit welchen Mitteln Bilder – oder generell visuelle Medien – Bedeutung schaffen und stabilisieren, auf welche Weise sie ‚etwas zu erkennen geben‘ oder argumentieren, wie sie, dem Propositionalen entsprechend, ein eigenes ‚ikonisches‘ Als konstituieren, Behauptungen aufstellen oder Beweise führen sowie schließlich, worin die besondere Geltung und die Grenzen einer visuellen Epistemik bestehen. Dabei liegt der Fokus der folgenden Erörterungen wie auch der Beiträge in diesem Band auf Visualisierungen in den Wissenschaften, in erster Linie in den Naturwissenschaften. Naturwissenschaftliche Verfahren sind im hohen Maße auf sinnliche Wahrnehmung angewiesen. Dies brachte, historisch genommen, stets schon die Kontrollund Disziplinierungsstrategien des Beobachtens mit sich.12 Wurden Resultate solcher Beobachtungen seit der Frühen Neuzeit häufig in Bildern repräsentiert, ver10

Goodman 1995, 63ff.

11

Goodman / Elgin 1989, 148.

12

Vgl. Daston / Galison 2002; Kutschmann 1986.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

schob sich seit dem 19. Jahrhundert und vor allem mit dem Einzug des Computers im späten 20. Jahrhundert die Bildproduktion hin zu solchen visuellen Formaten, die Messdaten unsichtbarer Phänomene überhaupt erst sichtbar machten.13 Die bildliche Darstellung des Wahrgenommenen, seine ‚Sichtbarmachung‘, erscheinen somit für die Generierung des wissenschaftlichen Wissens zentral. Wissenschaftsbilder stellen auf diese Weise einen besonderen Fall bildlicher Sinnerzeugung dar, insofern sie sich an ‚logischen‘ und epistemischen Kriterien im klassischen Sinne messen lassen müssen. Deswegen stellen sich nachdrücklich Fragen danach, wie Bilder beweisen, behaupten, ob sie Hypothesen aufstellen, Vorbehalte ausdrücken oder negieren können, sowie was ihre besondere Leistung im Erkenntnisprozess ist, wie sie Wissen erzeugen und dergleichen mehr. In diesem Buch geht es vornehmlich um diese und ähnliche Probleme. Nun gerieten in der jüngsten Dekade naturwissenschaftliche Bildproduktionen zunehmend ins Blickfeld wissenschaftshistorischer, wissenschaftstheoretischer und bildwissenschaftlicher Forschungen.14 Ein Grund dafür ist – neben dem immens gestiegenen Interesse am Visuellen und an Bildprozessen überhaupt – sicherlich auch, dass das heutige Ausmaß an Visualisierungen, besonders in den Naturwissenschaften, singulär ist. Vor allem computergenerierte Bilder haben mittlerweile in allen Wissenschaften eine enorme Bedeutung erhalten. Scheinbar unerschöpfliche Datenmengen werden gesammelt, geformt, komprimiert und visualisiert, das Unsichtbare zunächst mit optischen oder akustischen und anderen Verfahren vermessen, um es anschließend visuell aufzubereiten bzw. bearbeitbar zu machen und mit den so gewonnenen Bildern Erkenntnisse zu gewinnen. Gleichwohl handelt es sich bei der Verwendung bildgebender Prozesse als erkenntnisgenerierende Instrumente keineswegs um ein prinzipiell neues Phänomen, vielmehr nur um eines von neuer Quantität und Qualität. Denn Ingenieure und Naturwissenschaftler hatten schon immer Visualisierungstechniken sowie Pläne, Zeichnungen, Modelle oder Illustrationen benutzt, um Erkenntnisse herzustellen, zu fixieren und zu verbreiten oder Zusammenhänge zu veranschaulichen, zu klären und diskutabel zu machen. So ermöglichte beispielsweise im 17. Jahrhundert das Teleskop Galileo Galilei die Entdeckung der Jupitermonde, angesichts des Erfolgs der Fotografie träumte im 19. Jahrhundert Étienne-Jules Marey von einer kulturübergreifenden Wissenschaft ohne Worte, im 20. Jahrhundert spielte die Kristallographie Rosalind Franklins eine wesentliche Rolle bei der Entdeckung der DNA-Struktur, und schließlich wären die Neurowissenschaften oder die Nanotechnologie ohne bildgebende Verfahren undenkbar. Während also Geisteswissenschaftler noch an der Erkenntniskraft von Bildern zweifeln und sich sträuben, ihnen eine eigene Logik zuzugestehen, sind sie in den Natur- und Ingenieurswissenschaften schon lange konstitutiver Teil des Erkenntnisprozesses. Bilder formen, ordnen und erzeugen Wissen, und sie kommunizieren es zugleich. Der Befund, dass Naturwissenschaften keine im engen Sinne ausschließlich logisch-diskursiven Disziplinen darstellen, sondern auf Bildprozesse angewiesen sind und Forschungsprozesse mit und in Bildern vollziehen, un13

Vgl. dazu Heßler 2006b; Heßler 2006d.

14

Vgl. exemplarisch: Galison 1997a; Heintz / Huber 2001; Geimer 2002; Christa Maar / Hubert Burda 2004; Heßler 2006c.

11

Martina Heßler, Dieter Mersch

12

terstreicht daher die Notwendigkeit, sich nicht nur über die jeweilige historische Funktion und Kontextuierung, sondern auch über die grundsätzliche theoretische Struktur des Bilderwissen klar zu werden. Dazu soll in dieser Einleitung ein Feld von Themen aufgespannt werden, um die relevanten Fragen zur Bildlogik zumindest abzustecken. Das schließt zum einen die Beschreibung und Analyse der Struktur bildlicher Wissenserzeugung ein. Ihr zentraler Punkt ist die oben bereits erwähnte Ordnung des Zeigens, die das Bild gerade von textuellen Darstellungsformen unterscheidet und, so die These, einhergeht mit einer – im Vergleich zur diskursiven Logik – ‚affirmativen‘ Struktur der Evidenz. Hierher gehört ebenfalls die Problematik ikonischer Negativität und Hypothetizität, die mit Blick auf hybride Verbildlichungen und externe Konventionalisierungen einer Reihe von Differenzierungen und Einschränkungen bedarf. Weiter ist die Struktur des Bilderwissens durch eine Logik des Kontrastes gekennzeichnet, die der ‚Spatialität‘, der ‚zwischenräumlichen‘ Verfassung visueller Medien geschuldet ist, sowie eine ‚topologische Differenzialität‘, die gleichsam die Formatierung des Bildraums besorgt. Zum zweiten ist zu fragen, wie sich die spezifische Bildlogik in die Darstellungsweisen selber einschreibt und wann von einer spezifisch bildlichen Wissenserzeugung die Rede sein kann. Inkludiert ist darin die Frage nach Bild und Bildlichkeit selbst, gilt doch der Ausdruck ‚Bild‘ in der Wissenschaftsforschung als prekär.15 So hat Hans-Jörg Rheinberger immer wieder darauf insistiert, die Vielfalt der ‚Sichtbarmachungen‘ keineswegs auf Bildstrategien allein zu reduzieren, vielmehr gleichermaßen auch Dinge als epistemische Entitäten mit einzubeziehen.16 Die Palette der Sichtbarmachungen reicht dann von eingefärbten Proben, über Graphen, Modelle und Diagramme bis zu Fotografien und Computergrafiken. Zudem können ‚Bilder‘ im Forschungsprozess kaum ‚dingfest‘ gemacht; sie erweisen sich als prozesshaft, flüchtig, von geringer Stabilität, zuweilen sogar vagabundierend. Bildprozesse und Sichtbarmachungen sind darum immer auch auf andere Formen der Darstellung bezogen sowie vielfachen Transformationen unterworfen, deren Struktur mit zu berücksichtigen wäre. Tatsächlich stellt ‚das Bild‘ lediglich einen Teil der naturwissenschaftlichen Visualisierungsstrategien dar. Gleichwohl erscheint es unabdingbar, sich dem ‚Bildlichen‘ als mediales Prinzip einer Visualisierungstechnik zu widmen und den Blick auf verschiedene Ausprägungen wie Handskizzen, Schemata, Karten, Illustrationen oder Grafiken und Ähnliches zu lenken. Diese weisen gleichzeitig Elemente des Schriftlichen auf, wie beispielsweise das Diagramm, das auch als ‚schriftbildliche‘ Hybridform zwischen Bild und Text bezeichnet werden kann.17 Es gilt also, die mannigfachen visuellen Darstellungsweisen im Hinblick auf ihre Bildlichkeit näher zu betrachten und danach zu fragen, was an den Rändern, den Übergängen zwischen ihnen geschieht, wie Wissen verschoben, verändert, neu formatiert oder ‚verzerrt‘ wird. Ganz wesentlich für das Verstehen der Bildlogik ist aber zum dritten die eigentlichen ‚bildnerischen‘ oder ‚gestaltenden‘ Verfahrensweisen, die Techniken und Instrumente, durch die visuelle Erkenntnisse hergestellt werden, in den Blick 15

Vgl. Latour 2002a, 24ff.

16

Z.B. Rheinberger 2001a.

17

Vgl. Krämer 2003, sowie auch in diesem Band.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

zunehmen, die Frage also – um noch einmal Büchner zu zitieren – wie hier mittels Linien, Kreise und Figuren Sinn entsteht. Die Rolle und der Einfluss des Ästhetischen stellt ein immer noch weithin unterschätztes Thema der ‚Bildwissenschaftsforschung‘ dar. Es ist jedoch für die Analyse von Bildprozessen, auch und gerade in den Wissenschaften, unvermeidlich: Denn jeder Strich, jede Linie, jede Farbentscheidung, jede Positionierung im Raum, jede Rahmung, jede Wahl von Technologien und dergleichen bilden einen konstitutiven Teil der Erkenntnisproduktion genauso wie Stiltraditionen und Sehkonventionen, an die angeschlossen wird. Auf diese Unverzichtbarkeit des Ästhetischen wird letzten Teil der Einleitung eingegangen werden.

2. Bildstruktur und naturwissenschaftliches Wissen Epistemik der Bildlichkeit Auch wenn im letzten Jahrzehnt zahlreiche Einzelstudien zur Rolle der Visualisierung in den Naturwissenschaften erschienen sind, bleibt der epistemische Status visueller Praktiken weiterhin fraglich. Allerdings erhebt sich als erste Frage, ob wir es überhaupt mit einem kohärenten und abgrenzbaren Gegenstand zu tun haben, ob Bild und Bildlichkeit isolierbare Größen darstellen, oder ob diese nicht immer in Serien oder, im Rahmen von Experimenten, zusammen mit anderen Objekten auftreten und, in Gestalt diskursiver Kontextuierung, von vornherein „eine Fusion“ mit anderen Darstellungsformen eingehen.18 Zur Vermeidung von Konfusion und von traditionellen kunsttheoretischen Vorentscheidungen, dem Bildlichen vom Autonomieanspruch der Kunst her von vornherein eine exklusive Stellung zu verleihen, wird im folgenden zumeist von Visualisierungen, visuellen Darstellungen oder ikonischen Medien und Bildprozessen die Rede sein, womit – im Sinne allgemeiner Bildlichkeit – Sammelbegriffe gemeint sind, keine distinkten Entitäten. Die zweite, damit zusammenhängende Schwierigkeit, ergibt sich dadurch, dass gewöhnlich das Bildliche in Konkurrenz zu Sprache und Sprachlichkeit diskutiert wird. So verbleiben viele Bildtheorien, auch wenn sie dem Bild einen eigenen Rang als Erkenntnismedium zubilligen, durchweg im Rahmen einer Auszeichnung des Textuellen, indem sie dem Visuellen selbst eine textuelle Struktur zuweisen; und sogar dort, wo etwa semiotische Ansätze auf differente Operanten zwischen Bild und Text abheben – wie beispielsweise Winfried Nöth mit seiner Feststellung: „Bilder illustrieren Texte, Texte kommentieren Bilder“19 –, reproduzieren sie überlieferte Unterscheidungen, die sich in Bezug auf heutige Verwendungen von Visualisierungen in den Wissenschaften als nicht mehr haltbar erweisen. Philosophische Bildtheorien privilegieren – schon aus der einseitigen Präferenz fürs Diskursive – zumeist die Frage des Bildverstehens und der bildlichen Referenz, so u.a. Nelson Goodmans inzwischen klassischer Ansatz oder die daran anschließenden Überlegungen von Oliver Scholz, Klaus Sachs-Hombach oder Jakob Steinbrenner, um 18

Gorman 2000, 52; Rheinberger 2001a, Latour 2002a.

19

Nöth 2000, 483. Siehe ferner auch Nöth 2005.

13

Martina Heßler, Dieter Mersch

14

nur einige zu nennen.20 Schließlich findet sich in einer Reihe medientheoretischer Positionen eine unangemessene Hierarchisierung, die der Bildlichkeit zwar eine strukturelle Autonomie einräumen, ihr gegenüber Schrift und Schriftlichkeit aber lediglich einen untergeordneten Platz zuweisen.21 Prekär erscheint damit insbesondere die Vernunftfähigkeit visueller Darstellungen. Die darin aufgerufene Opposition zwischen der Rationalität des Diskurses und der Irrationalität des Ikonischen kann dabei auf eine fast ebenso lange Tradition zurückblicken wie die Geschichte der Metaphysik auch, soweit sie die kanonische Differenz zwischen Aisthesis und Logos oder Sinnlichkeit und Verstand impliziert. Gleichwohl behaupten Visualisierungen im Geflecht wissenschaftlicher Versuchsanordnungen, Texten, Rechnungen usw. einen eigenständigen Rang. Weder lassen sie sich durch andere Verfahren ersetzen, noch sind Daten einfach in Bilder überführbar, vielmehr erweist sich Michael Lynchs Erkenntnis als wegweisend, „that visual displays [are] more than a simple matter of supplying pictorial illustrations for scientific texts. They are essential to how scientific objects and orderly relationships are revealed and made analysable“.22 Gerade deswegen erweist es sich jedoch als fraglich, was jeweils in ikonischen Medien darstellbar ist und was nicht, welche Reichweite und Grenzen sie aufweisen, worin ihre spezifischen Geltungsmöglichkeiten bestehen und was sie von anderen Darstellungsmedien trennt. Dazu ist allerdings erforderlich, ihre medialen Bedingungen und Strukturen, kurz das, was als ihr „Dispositiv“ bezeichnet werden kann, in Augenschein zu nehmen. Bislang blieben solche bild- und medientheoretischen Erwägungen in der Wissenschaftsforschung eher marginal. Das gilt sowohl für Übergänge zwischen textuellen und numerischen Formaten und solchen, die bevorzugt auf der Wahrnehmungsebene operieren – kurz, für die Differenz zwischen diskursiven und aisthetischen Medien23 –, als auch hinsichtlich von Daten-Bild- und Bild-Bild-Transformationen, vor allem ihre Übersetzung in Hybridformen wie mathematische Graphen, Diagramme, Skizzen, Karten und dergleichen. Auszuloten wären deren besondere Strukturen sowie die Schnittstellen zwischen den Formaten, ihre jeweiligen Translations-Gewinne und -Verluste und ähnliches. Im Rahmen dieser Einleitung wird deshalb versucht, vor allem die Strukturen visueller Medien zu erhellen, wobei vorrangig auf die Ordnungen des Zeigens sowie die konstitutive Bedeutung der Ästhetik abgehoben wird. Dazu gehören Stichworte wie Rahmung, „Logik des Kontrastes“, Spatialität, topologische Differenzialität und das „Wahrheitsformat“ der Evidenz sowie der Begriff der „ästhetischen Praxis“, wie er im Kontext wissenschaftlicher Wissensgenerierung zu fassen ist, um das Spezifische bildlicher Sinnerzeugung deutlich zu machen. Besonders die Aufsätze von Sybille Krämer, Stephan Günzel und Astrid Schmidt-Burkhart in diesem Band enthalten zur Epistemik vor allem diagrammatischer Bildformen grundlegende Bestimmungen. Zudem erweisen sich Wahrscheinlichkeit und Hypothetizität in Ansehung von Bestimmtheit und Unbestimmtheit, Identität und Mehrdeutigkeit oder Unsicherheit und Beweisbarkeit im Bildlichen als ausgesprochen relevant – im vorliegenden Band wird dies insbe20

Vgl. Scholz 2004, Sachs-Hombach 2003, Steinbrenner 1999.

21

Dazu zählen u.a. Vogel 2001, Menke 1994; Wetzel 2005; Stetter 2005.

22

Lynch 1990, 154.

23

Vgl. zur Unterscheidung Mersch 2003.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

sondere von Uli Richtmeyer anhand der weithin unbeachtet gebliebenen Position Ludwig Wittgensteins näher ausgeleuchtet. Dabei handelt es sich nicht allein um wissenschaftstheoretische Grundlagenfragen, vielmehr erweist sich die Klärung solcher Fragen gerade mit Blick auf die Wissenskommunikation in der Öffentlichkeit als bedeutsam, weil hier spektakuläre oder plakative Bildaufbereitungen, die beispielsweise ein gesichertes Wissen suggerieren, das gar nicht besteht, eine nicht unerhebliche Rolle spielen. Die weitgehende Ungeklärtheit des epistemischen bzw. bildtheoretischen oder ‚bildlogischen‘ Status visueller Darstellungen in der Wissenschaftsforschung liegt indessen auch darin begründet, dass eine Fülle verschiedener Darstellungsformate und Bildtypen mit den unterschiedlichsten Funktionen gleichzeitig zur Anwendung kommen. Zur Erzielung und Aufbereitung ihrer Ergebnisse beziehen sich die Wissenschaften stets auf die ganze Palette verfügbarer Kulturtechniken; dabei verwundert es nicht, dass gerade die jeweils avanciertesten Technologien im Zentrum stehen. Bilder transferieren dabei Theorien in sichtbare Strukturen, wie umgekehrt bei der Bildgenerierung Theorien entstehen; darüber hinaus fungieren visuelle Formate als Speichermedien für komplexe Datensysteme,24 sie erklären Abläufe, Entwicklungen und Funktionsmechanismen, sie bilden Beweismittel und Belege, bieten eine Synopsis, erzeugen Vorstellungen, zeigen Verteilungen, Muster oder Anordnungen,25 vor allem aber dienen sie als Analysewerkzeuge zur Erkenntnisgewinnung.26 Wie Instrumente innerhalb einer Versuchsanordnung produzieren sie Wissen wie sie umgekehrt Wissen sowohl hinsichtlich ihrer Herstellung als auch ihrer ‚Lesbarkeit‘ voraussetzen. Die Zeiten, in denen Wissenschaftsforscher das Bild lediglich, als „afterimages of verbal ideas“ betrachteten,27 scheinen daher endgültig vorbei; vielmehr machen Beispiele aus der Chaosmathematik und der Theorie der Attraktoren sowie der Elementarteilchenphysik und Nanotechnologie deutlich, dass Visualisierungen derart mit der Erzeugung von Erkenntnis verschränkt sind, dass grundlegende Aussagen ohne sie gar nicht zu treffen wären. Zudem hebt Jochen Hennig in diesem Band hervor, dass in diese Aussagen Bildvorstellungen, Bildstile und Bildtraditionen eingehen, die wiederum die Form des Wissens nachhaltig prägen. Insbesondere verweisen neuere bildgebende Verfahren, die abstrakte, d.h. genuin nicht sichtbare Daten in die Sichtbarkeit bringen, darauf, „wie sehr sich in der materiellen Kultur der Wissenschaften die Generierung und die Darstellung von Wissen überlagern, wie stark Praktiken des Erklärens und Verstehens, des Messens und Deutens, des Konstruierens und Imaginierens zusammenspielen und sich verschränken.“28 Visualisierungen und Bildgebungsverfahren lenken somit den Blick nicht nur auf die experimentellen, sondern auch auf die symbolischen und medialen Praktiken, auf Stil und Geschichtlichkeit, die an der Herstellung epistemischer Objekte sowie wissenschaftlicher Erkenntnisse und Theoreme beteiligt sind. Sie können als Teil des offenen „Experimentalsystems“ bestimmt werden, in dem nicht nur Ap24

Grün 2001, 83; Gramelsberger 2002, 18; Heintz / Huber 2001, 13.

25

Benz, 2001.

26

Grab 2001, 119.

27

Topper 1996, 215.

28

Weigel 2004.

15

Martina Heßler, Dieter Mersch

16

paraturen und „epistemische Dinge“ versammelt sind, sondern das sich als nicht vollständig kontrollierbare Wahrnehmungs-, Imaginations- und Symbolszene erweist.29 Verbildlichungsprozesse bilden darin häufig einen integralen Bestandteil. Sie partizipieren sowohl an den Instrumenten und Dingen als auch an spezifischen Kalibrierungs- und Stabilisierungsprozeduren, an Strategien der Bezugsetzung, der Vergleichung, der Steuerung und Reflexion sowie an der Interaktion der Beteiligten, die als komplexe Anordnung von Personen, Spuren, Materialien, Medien und Traditionen etc. verstanden werden müssen. In dem kurzen Text Augenmerk hat überdies Hans-Jörg Rheinberger die vernachlässigten Dimensionen des impliziten Wissens, der Nicht-Intentionalitäten, der tastenden Taktik und Umherirrens entziffert, die ebenso eine Unbeherrschbarkeit der Systeme markiert wie zuletzt der Repräsentationsordnungen, zu denen auch Bildverfahren gehören.30 Darin gehen gleichermaßen Interferenzen zwischen den disparaten Wissensbezirken wie ihren Methoden ein, sodass die Perspektive nachhaltig auf die Weisen der Wissenserzeugung in den jeweiligen Verbildlichungsmodellen, also auf den ebenso erkenntnistheoretischen wie prozedualen und kontextuellen Status des „Bilderwissens“ gelenkt werden muss. Die jüngere Wissenschaftsforschung bietet hier einige Anknüpfungspunkte. Das gilt insbesondere für konkrete Fallstudien. So zeigte Karin Knorr-Cetina am Beispiel der experimentellen Hochenergiephysik, „wie visuelle Abbildungen die Einheit und Wissenschaftlichkeit des Feldes dar- und herstellen, indem sie verschiedene Resultate zusammenbringen, zwischen ihnen eine temporale Ordnung herstellen und Diversität von Resultaten, wo sie auftritt, ausgleichen bzw. vermitteln“.31 Sie ähneln dabei „Assemblagen“,32 die kollektive Arbeiten, Experimente und theoretische Modelle in Darstellungen zusammenfügen und so auch Abweichungen oder Differenzen sichtbar machen. Insbesondere spricht KnorrCetina von „Mediations-“ und „summatologischen“ Verfahren, die „(z)usammen [...] die Vorstellung einer stufenweisen Transformation des Wissensgebietes (formen und erzeugen)“.33 Bruno Latour hat darüber hinaus am Beispiel ethnographischer Feldforschung exemplifiziert, wie sehr visuelle Verfahren an der Konstitution der Gegenstände sowie der Verfügbarmachung, Aufbereitung und Klassifikation der Phänomene beteiligt sind – wie aufwändig, mit anderen Worten, sich das „Herbeischaffen“ der Tatsachen und ihre Transformation in Modelle und Zeichen gestaltet.34 Zudem werden nicht die Gegebenheiten selber und ihre Objekte kommuniziert, sondern deren ‚Re-Präsentationen‘ in Gestalt von Daten, Statistiken, Abbildungen oder Diagrammen, die sich vielfältiger Verschiebungen und Brükkenprozesse verdanken, worin Texte auf numerische Reihen, diese wiederum auf Bilder und die Bilder auf andere Bilder usw. referieren. Im vorliegenden Band sind es vor allem die Beiträge von Gabriele Gramelsberger, Stefanie Samida und Jochen Hennig, die solche und ähnliche Überlegungen mit Blick auf präjudizierte Vorstel29

Rheinberger 1992; ders., 2001a.

30

Rheinberger 2005, bes. 61f.

31

Knorr-Cetina 2001, 307.

32

Knorr-Cetina 2001, 309.

33

Knorr-Cetina 2001, 319.

34

Bruno Latour, 2002b.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

lungen und Bildtraditionen am Beispiel der Nanophysik, den Simulationsmodellen in der Klimaforschung, die sich im Sinne einer „Computational Science“ in den letzten Jahrzehnte neben Theorie und Experiment als eigenständige Methode etabliert haben, sowie hinsichtlich digitaler Visualisierungen und ihre Evidenzkraft in der Archäologie diskutieren. Zweifellos stellen „visuelle Sprachen“, wie oft in Anlehnung an Martin Rudwick gesagt wird, einen selbstverständlichen Bestandteil im Vorgang der Wissensproduktion dar. So zeigte Astrid Schwarz anhand der Ökologie eines Sees wie „graphische Repräsentationen [...] den wissenschaftlichen Gegenstand kontrollierbar, damit aber auch manipulierbar [machen].“35 Dabei verwies sie – unter anderem – darauf, wie Graphen einen „homogenen Koordinatenraum“36 erzeugen und so ein „Evidenzerlebnis im ersten Blick“ ermöglichen. Ähnlich wie Knorr-Cetina betonte sie die „[i]ntegrative Funktion der Graphik“, die gestattet, „einen homogenen Raum nicht nur vorzustellen, sondern ihn gleichzeitig auch herzustellen.“ Graphische Darstellung schließen, wie sie außerdem herausarbeitet, die Lükken zwischen tabellarischen Einzeldaten und suggerieren somit eine „lückenlose Entwicklungsreihe“.37 Dabei kann kein Zweifel daran bestehen, dass sich diese Effekte der spezifischen Suggestivkraft von Visualisierungen verdanken. Visuelle Darstellungen ordnen, verbinden, formen und integrieren Wissen und erzeugen damit eine Kohärenz, wo unter Umständen lediglich eine diskontinuierliche Folge von Resultaten vorliegt. Die Ergebnisse der Untersuchung von Astrid Schwarz machen deshalb deutlich, wie sehr sich visuelle Darstellungen von diskursiv-numerischen Darstellungen auch hinsichtlich ihrer Evidenz und Lesbarkeit unterscheiden. Bilder synthetisieren Wissen, verräumlichen zeitliche Entwicklungen, verleihen ihnen eine topologische Struktur, überbrücken Sprünge und nichtstetige Stellen und eröffnen auf diese Weise Plausibilitäten, die eher der Bildlichkeit selbst zuzurechnen sind, als z.B. den durch sie dargestellten Messergebnissen. Sie erlauben aber auch eine Operation mit derart Dargestelltem, einen handelnden Eingriff wie auch die Erzeugung neuer Evidenzen, die in den Bildkonstruktionen selber nicht enthalten waren – der Beitrag von Sybille Krämer in diesem Band zeigt dies anhand dessen, was sie überhaupt als „operative Bildlichkeit“ bezeichnet und zu der alle Arten von „Schriftbildlichkeiten“ gehören. Noch harrt jedoch der gesamte Fragekomplex wie auch die Analyse einer spezifischen Epistemik des Visuellen einer schlüssigen Bearbeitung – und auch Sybille Krämer versteht ihre Ausführungen als eine vorläufige Ouvertüre. Lassen sich tatsächlich unterschiedliche visuelle Darstellungsformen wie Illustrationen, Veranschaulichungen, Diagramme, Modelle, Karten, Computerbilder oder statistische Tabellen unter dem einheitlichen Begriff des „Bildes“ subsumieren? Offenbar existiert keine Darstellung ohne die Serie anderer Darstellungsformen sowie ständiger Übergänge von und zu theoretischen Vorannahmen, instrumentellen Anordnungen oder Texten, in deren Zusammenhang sie stehen. Zudem haben wir es mit einer Vielzahl medialer Formate zu tun, wozu neben verschiedenen technischen Aufzeichnungsverfahren wie Fotografie, Ultraschall, Tomografie oder Elektronen35

Schwarz 2003, 65.

36

Schwarz 2003, 70.

37

Schwarz 2003, 71.

17

Martina Heßler, Dieter Mersch

und Rastertunnelmikroskopie auch Spuren und Einzeichnungen sowie Skizzen für Versuchsanordnungen, Konstruktionszeichnungen oder alle Arten mathematischer Graphen gehören, deren Unterschiedlichkeit den Bildbegriff überhaupt instabil werden lassen. Wie verschieben diese unterschiedlichen Mediatisierungen das in ihnen dargestellte oder aufbereitete Wissen, was passiert genau im Übergang von einem zum anderen Format? Bringen sie jeweils ein anderes Wissen, eine andere Nuancierung oder lediglich eine andere Darstellungsweise mit anderer Dechiffrierungsmethode hervor? Nimmt man die medientheoretische Annahme ernst, dass jedes Medium an der Form und Funktion des Mediatisierten mitarbeitet, ist mit einer Verzerrung, einer Opazität zu rechnen. Was, um in der Reihe ungelöster Fragen fortzufahren, geschieht bei der Transformation von Signalen in visuelle Schemata sowie bei deren Rückübersetzung in theoretische Aussagen und deren Weiterverarbeitung durch Algorithmen etc.? Worin besteht die mediale und damit auch epistemische Spezifik der Bildlichkeit im Vergleich zu numerischen oder textuellen Verfahren und worin liegen deren Möglichkeiten und Beschränkungen? Lassen sich all diese Fragen überhaupt unabhängig von den jeweiligen Instrumenten und Technologien, mit denen sie verquickt sind, sinnvoll stellen? Im Zentrum dieser und anderer Detailfragen steht indessen die Kernfrage nach der „Logik“ visueller Darstellungen. Ihr sind die verschiedenen Beiträge des Bandes aus den unterschiedlichen Disziplinen und Blickwinkeln gewidmet. Die durchgängigen Grundthesen lauten dabei erstens, dass es ein visuelles bzw. ikonisches Denken gibt, dass vom begrifflichen zu unterschieden ist, diesem aber in nichts nachsteht, sowie zweitens, dass jedes visuelle Medium etwas anderes zeigt – und zwar nicht nur aufgrund des Kontextes und seiner Interferenz mit anderen Medien, sondern aufgrund seines ‚Eigensinns‘ oder der Spezifik seines Formates. Visuellen Darstellungen kommt eine andere epistemische Struktur zu als beispielsweise Texten oder numerischen Datenreihen, sodass jeder Medienwechsel Differenzen zeitigt. Es handelt sich um ein Wissen eigenen Rechts. Deshalb hängt das, was wir jeweils sehen oder erkennen, auch welcher Status und welche Geltung dem Wissen in visuellen Medien zukommt, ab von seinem Wie, der spezifischen Medialität des Darstellens. Im Folgenden sollen dazu einige vorläufige, u.E. aber wesentliche Stichpunkte und Kriterien skizziert werden.

18 Mediale Strukturen visueller Darstellungen Rahmung Die mediale Form der Bildlichkeit konstituiert sich im Unterschied zu jener Sichtbarkeit, die das Auge und die Wahrnehmung greift, durch eine Rahmung. Mit Rahmung ist zunächst nichts anderes als eine Grenze, eine elementare Differenzsetzung gemeint, die Innen und Außen voneinander scheiden. Sie schränkt einen Bereich gegenüber anderem ein und grenzt damit ein Distinktes, eine Markierung oder Spur, eine Figur oder Linie von einem Hintergrund, einem Unbestimmten oder einer Exteriorität ab und bringt auf diese Weise allererst eine ikonische Bestimmung hervor. Wenn daher die Frage danach gestellt wird, ob von einem Bild

Einleitung: Bildlogik oder Was heißt visuelles Denken?

als einer autonomen Einheit überhaupt gesprochen werden kann und nicht vielmehr von visuellen Prozessen oder Sichtbarmachungen, dann zumindest in dem Sinne, dass Rahmungen Unterscheidungen ermöglichen, die – im Sinne phänomenologischer Bildtheorien – ‚Bildobjekte‘ identifizierbar machen. Sie gehören zu dem, was Latour als „Herbeischaffung“, Verfügbarmachung oder Transformation von „Gegebenheiten“ in Zeichen beschreiben hat, die sich in Gestalt von ‚Re-Präsentation‘, Statistiken, Diagrammen und Modellen und Illustrationen kommunizieren lassen. Die Rahmung besorgt solche Aufbereitung und Zeichensetzung; sie impliziert das, was ein Sichtbares als ‚dieses‘ auszeichnet, es betont und unter das bringt, was in Analogie zum ‚prädikativen‘ und ‚hermeneutischen Als‘ das ‚ikonisches Als‘, d.h. die spezifische Form visueller Bestimmung, genannt werden kann.38 Das ikonische Als kann darüber hinaus mit dem in Verbindung gebracht werden, was Gottfried Boehm unter dem Begriff der „ikonischen Differenz“ fasst.39 Zwar ist der Ausdruck unterschiedlich interpretiert worden – und die Rahmung bildet nur eine mögliche Auslegung –, doch kann darunter im weitesten Sinne ein ikonisches Differenzprinzip verstanden werden – vergleichbar der „ontologischen Differenz“ Martin Heideggers oder gleichsam einem ‚piktoralen différance-Prinzip‘ in der Bedeutung einer durch die Bildlichkeit generierten Differenzialität, die die Eigenart „nichtdiskreter“ Differenzierungen hervorbringt, wie sie allein Bildprozessen zukommt. Sie wird daher nicht erst auf der Ebene der Referenz vollzogen, sondern geschieht schon durch die Setzung – einer Linie, eines Flecks, einer Marke, der Ausgrenzung eines Feldes, einer Rahmung etc. – als erster Differenz, sowie, als zweiter Differenz, durch Kontraste oder formale Gegenüberstellungen wie Figur und Grund, wodurch Unterscheidungen allererst sichtbar gemacht werden. Ihr Paradigma ist darum sowohl die Differenz zwischen Bildträger und Bildobjekt, die das Bildsehen allererst ermöglicht, wie die verschiedenen Bildmittel, die visuelle Unterschiede markieren, weshalb Boehm von einer „Logik des Kontrastes“ spricht, die den ‚Sinn‘ aus wahrnehmbaren Gegensätzen von Formen und Farben erzeugt und die spezifische Sichtbarkeit, aber auch Vieldeutigkeit und Unschärfe visueller Medien ausmacht. Ordnung des Zeigens Es ist eine Binsenweisheit und doch von grundsätzlicher Bedeutung, dass visuelle Medien im Sichtbaren operieren, d.h. dass die Differenzierungen, die sie vornehmen und auf denen sie fußen, im Wahrnehmbaren vollzogen und dem Auge zugänglich gemacht werden müssen. Bildlichkeit und Sehen gehören zusammen und wenn von bildlicher Episteme, von einem spezifisch ‚ikonischen Wissen‘ die Rede ist, dann ist zunächst nicht schon ein begriffliches oder diskursives Wissen vorauszusetzen, auch wenn es von diesem nicht immer zu trennen ist, sondern allein von visuellen Mitteln auszugehen, die Differenzen, mithin anschauliche Bestimmungen,

38

Dazu Mersch 2007.

39

Boehm 1994, 29ff. Der Begriff der „ikonische Differenz“ wird gleichzeitig auch von anderen Autoren reklamiert: Vgl. etwa Waldenfels 2001; ferner Müller 1997. In ähnlicher Weise hebt auch Brandt auf eine solche Differenz im Sinne einer bildlichen Unterscheidung ab, die allerdings subjektiv terminiert wird und vom Betrachter des Bildes reflexiv vollzogen werden muss, Brandt 1999, 103ff.

19

Martina Heßler, Dieter Mersch

statuieren. Es gehört zu den maßgeblichen hier vertretenen Thesen, dass diese in einer Ordnung des Zeigens wurzeln.40 Der epistemische Charakter visueller Medien liegt darin begründet. Dabei ist entscheidend, dass dem Zeigen eine eigene, vom ‚Sagen‘ und von diskursiven Schemata unterschiedene ‚Logik‘ oder Strukturalität eignet. Der Ausdruck ‚Zeigen‘ wird allerdings äquivok verwendet und wäre allererst in seiner Vielgestaltigkeit auszubuchstabieren. Zeigen – Deixis – meint zunächst den Pfeil, das Hindeuten auf etwas, das es zugleich aufweist und identifiziert; es ist mit Wahl und Entscheidung verwandt und damit durchaus diskretierbar. Zeigen meint aber auch die Ostension, das Vorführen und Präsentieren, das nicht auf etwas zeigt, sondern vielmehr etwas aufzeigt oder von sich zeigt. Wird die Metapher des Pfeils verwendet, hätte man jetzt dessen Vektor umzukehren. Auf Nelson Goodman ist die ebenfalls bildtheoretisch relevante Unterscheidung zwischen Denotation und Exemplifikation zurückzuführen,41 die dieselbe Umkehrung der Pfeilrichtung vollzieht,42 wobei letztere vor allem mit der „Probe“ assoziiert wird, doch bleibt darin letztlich immer noch ein Primat des Denotativen.43 Gleichwohl besitzen nach Goodman Exempel die zirkuläre Note, zwar etwas zu verdeutlichen, jedoch so, dass es von ihren Verdeutlichungen stets nur weitere Verdeutlichungen, nie aber Bestimmungen gibt. Ferner ergibt sich die Unschärfe, wie Wittgenstein ausgeführt hat, dass das Zeigen nicht mitzeigt, worauf es zeigt: „Aber wenn ich mit der Hand auf ein Stück weißes Papier zeige, wie unterscheidet sich ein Hinweisen auf die Form von einem Hinweisen auf seine Farbe“, heißt es beispielsweise im Brown Book.44 Bei HansGeorg Gadamer findet sich ein ähnlicher Punkt: „Zeigen heißt überhaupt nicht, ein Verhältnis zwischen dem Zeigenden und dem Gezeigten als solches meinen. Es weist von sich selber gerade weg. Wer auf das Zeigende sieht, wie der Hund auf die ausgestreckte Hand, dem kann man nichts zeigen. Vielmehr meint Zeigen, dass der, dem man etwas zeigt, selber und richtig sehen soll.“45 Deswegen operieren auch Pfeildiagramme häufig nicht eindeutig bzw. bleibt ihre Bedeutung hinsichtlich ihrer in Frage kommenden Prädikation unklar: Vektoren können z.B. zwischen zwei Elementen einer Darstellung ebenso wechselseitige Abhängigkeiten wie zeitliche Verläufe oder Grund-Folge-Beziehungen meinen. Daraus folgt, dass, während die Sprache auf diskreten Zeichenprozessen fußt, was gleichzeitig ihre Notierbarkeit

20

40

Boehm 2001, 6, sowie Boehm 2007, vor allem 19ff., 34ff.; Mersch 2003, 30ff.; sowie Mersch 2006c.

41

Goodman 1995, 53ff.; Goodman 1978, 57ff.

42

Goodman bestimmt dabei die Schematik aus einer strukturellen Inversion: „Wo Pfeile mit zwei Spitzen vorkommen, können wir möglicherweise sagen, in welche Richtungen die Denotation verläuft. Wenn zum Beispiel die Elemente (Knoten des Diagramms) vorab in zwei Kategorien A und B unterschieden werden und jeder einspitzige Pfeil von einem A zu einem B verläuft, dann ist hier Bezugnahme von einem A zu einem B stets Denotation, Bezugnahme von einem B auf ein A Exemplifikation.“ Goodman 1995, 64. Vgl. auch Anm 9. Es bleibt hinzuzufügen, dass die Unterscheidung zwischen Denotation und Exemplifikation nicht in jedem Fall „scharf“ getroffen werden kann.

43

Vgl. Mersch 2004b

44

Wittgenstein 1980, 120.

45

Gadamer 1999, 91.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

garantiert, dies in gleicher Weise für das Zeigen nicht gilt: Es verbleibt instabil auf Evidenz verwiesen.46 Hinzu kommt, dass beide Weisen des Zeigens, sei es deiktisch oder ostentativ bzw. exemplifikatorisch,47 transitiv vorentschieden bleiben, d.h. eine Gerichtetheit implizieren, wie bereits die Metaphorik des Pfeils deutlich macht, doch kann davon als weitere, reflexive Schicht ein „intransitives Zeigen“ oder Sichzeigen abgelöst werden, das sich ebenso sehr zurückhält, wie es die umgekehrte Bewegung vollzieht. Allem Zeigen ist solches Sichzeigen immanent, sofern die Phänomenalität des Zeigens sich notwendig mitzeigt.48 Das bedeutet auch, im Zeigen können wir nicht umhin, uns selbst und die Weise unseres Zeigens mit preiszugeben. Alle Medialität der Darstellung wurzelt in dieser Duplizität, weil zur Darstellung nicht nur das Dargestellte sondern die Darstellungsweise sowie das Mediale und sein Erscheinen gehört. Die Eigentümlichkeit der Bildlichkeit hängt damit zusammen: Bilder zeigen und zeigen sich im Zeigen, weshalb Erscheinen und Bedeuten ineins fallen. Selbst dort, wo sie – wie in wissenschaftlichen Visualisierungen – etwas zu sagen oder zu beweisen vorgeben, sagen sie dies im Format des Zeigens und bringen ihr Zeigen zugleich zur Erscheinung. Der Umstand ist insbesondere dem geschuldet, dass visuelle Medien notwendig eine intime Beziehung zur Sichtbarkeit unterhalten, mithin eine Bestimmung oder Aussage nur dort zu treffen vermögen, wo sie diese im Modus eines Sichzeigen- oder Erscheinenlassens situieren. Nichtnegativität Dem entspricht der viel diskutierte und weiter zu differenzierende Aspekt der Nichtnegativität des Ikonischen.49 Ulrich Richtmeyer gibt in diesem Band von Wittgenstein her dazu eine Reihe von Hinweisen. Unterschieden werden müssen insbesondere bildimmanente und bildäußere Negationen. Legt man die Ordnung des Zeigens als genuin bildlogische Struktur sowie den innigen Konnex zwischen Zeigen und Sichzeigen bzw. Präsentation und Präsenz zugrunde, sind visuelle Negationen, wie auch Sigmund Freud in seinem zentralen Kapitel der Traumdeutung über die Darstellungsweisen des Traumes herausstellte,50 unmöglich. Diese Unmöglichkeit betrifft das Mediale, denn jede Visualisierung zeigt entweder etwas oder nichts, nicht aber ‚nicht etwas‘ oder dessen Verneinung, denn auch afigurale oder monochrome Bilder, sogar Robert Rauschenbergs Erased DeKooning Drawing (1951), zeigen stets noch sich, d.h. ihre Leere, Farbigkeit oder Spuren der Auswischung. „Kann man denn ein Bild verneinen? Nein“, zitiert Richtmeyer Wittgensteins lapidare Bemerkung aus dessen frühen Tagebüchern,51 und noch im Big Ty-

46

Vgl. dazu in diesem Band der Beitrag von Sybille Krämer.

47

Keineswegs erschöpfen sich damit die „Fälle“ des Zeigens – ergänzt werden könnten noch ein praktisches und ein performatives Zeigen, ein Zeigen also, dass eine bestimmte Handbewegung dadurch erklärt, der es sie vorführt und in den Bereich des tacid knowledge anzusiedeln ist, sowie beispielsweise solches, worauf Schauspielkunst und Pantomine und dergleichen basieren.

48

Vgl. Mersch 2002.

49

Vgl. Mersch 2003; Mersch 2004a; Mersch 2006a.

50

Freud 1961, 259ff..

51

Wittgenstein 1984, 123 (26.11.1914).

21

Martina Heßler, Dieter Mersch

22

pescript aus den 1930er Jahren und den späteren Philosophischen Untersuchungen finden sich ähnliche Äußerungen wie: „Ich kann ein Bild davon zeichnen, wie Zwei miteinander fechten; aber doch nicht davon, wie Zwei miteinander nicht fechten […]“,52 denn, so Wittgenstein weiter, Negationen setzen einen diskreten Zeichenapparat voraus: „Den Begriff der Negation/Verneinung besitzen wir nur in einem Symbolismus.“53 Daraus folgt auch, dass ikonische Medien sich von numerischen oder textuellen durch die Nichtdefinierbarkeit, zumindest einer nicht eindeutigen Modellierbarkeit von Negationsparametern unterscheiden, denn selbst die Durchstreichung oder Inversionen wie bei Komplementbildungen in Venn-Diagrammen ist nur dann als solche zu verstehen, wo der Konventionalismus sowie die Regeln der Erzeugung mitverstanden werden. Das demonstriert ebenfalls die Diagrammatik und Graphentheorie von Charles Sanders Peirce: Negationen eines Ausdrucks „p“ werden graphisch durch dessen Einkreisung markiert, was einer diskursiv einzuführenden Regel entspricht, die ikonisch insoweit unplausibel bleibt, als die gleiche Operation auch eine „Hervorhebung“ bedeuten könnte.54 Dagegen hat Wittgenstein die Unmöglichkeit eines bildimmanenten Negats u.a. darauf zurückgeführt, dass diskursive Schemata auf einem „contradiktorischen Negativen“ im Sinne von Entweder-oder- oder Weder-noch-Logiken beruhen, während ikonische Darstellungen einzig die Möglichkeit von Kontrasten zulassen, denn „(m)an kann nicht das contradictorische Negative sondern nur das conträre zeichnen (d.h. positiv darstellen).“55 Die Unterscheidung lässt sich auch als Differenz zwischen Widerspruch (antiphasis) und Gegensatz (enantiotés) rekonstruieren, wie sie sich bereits bei Aristoteles findet.56 Sie deckt sich überdies mit Gottfried Boehms Version einer „ikonischen Differenz“ und der „Logik des Kontrasts“, von der noch weiter zu sprechen sein wird. Denn Gegensätze und Kontraste zeichnen sich durch Simultaneität aus, sodass wir es mit einer buchstäblichen ‚Gegen-Setzung‘ zweier positiver Größen zu tun haben, während Kontradiktionen auf der Negation einer Position beruhen. Gleichwohl müssen an dieser Stelle, wie auch Richtmeyer zeigt, weitere Schritte eingefügt werden, die ein präziseres Bild zeichnen, insofern es neben „bildpragmatischen Negationen“ auch solche gibt, die Kontexte oder partielle Konventionalisierungen beanspruchen, etwa wenn Bilder dazu verwendet werden, Fälschungen oder Interpretations- bzw. Diagnosefehler und ähnliches aufzuweisen. Diese Fragen sind vor allem für epistemische Bildprozesse der Wissenschaften relevant. So kann im Rahmen wissenschaftlicher Visualisierungen der Mangel an bildimmanenten Negationen dadurch kompensiert werden, dass ‚bildpragmatisch‘ ganze Bildserien, unterschiedliche Bildgenerationen sowie begleitende Rechnungen, Legenden oder Kommentare und dergleichen mit berücksichtigt werden. Trotz des Reichtums an solchen Nuancierungen kommt jedoch visuellen Darstellungen eine grundsätzliche affirmative Kraft zu, die mit den externen Verfahren der Einschränkung oder Relativierung kollidieren können. Sie korrespondiert mit ‚Erscheinung‘ 52

Wittgenstein 2000, 83, Nr. 30.

53

Ebd.

54

Peirce 1967-1970, 4.347-573. Shin 2002.

55

Wittgenstein 1994, 56.

56

Aristoteles, Metaphysik, Buch 10, Kap. 3-6, bes. 1055aff.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

und ‚Präsenz‘ sowie der Nichthypothetizität von Wahrnehmungen, denn ich kann mich zwar darüber täuschen, was ich sehe, nicht aber darüber, dass ich sehe – eine Unterscheidung, wie sie ebenfalls bereits in der Wahrnehmungslehre des Aristoteles zu finden ist57 und die Wittgenstein wiederum am Beispiel einer Kugel verdeutlicht, die als Kugel zweifelhaft sein kann, nicht aber, dass sie mir als solche vorkomme: „Der Mechanismus der Hypothese würde nicht funktionieren, wenn der Schein auch noch zweifelhaft wäre. […] Wenn es hier Zweifel gäbe, was könnte den Zweifel heben?“58 Offenbar liegt hier der Kern der eigentümlichen Suggestibilität visueller Medien, auf die auch Stefanie Samida in ihrem Aufsatz abhebt, die gleichermaßen auch für das Verständnis der spezifischen Evidenz ikonischer Darstellungen wesentlich ist – auf diesen Punkt wird weiter unten noch zurückzukommen sein. Nichthypothetizität des Sichtbaren In dem Maße aber wie visuellen Formaten eine Nichtnegativität inhärent ist, ergeben sich insbesondere auch Schwierigkeiten hinsichtlich der Ausdrückbarkeit von Vorbehalten oder Mutmaßungen. Auch darauf hat bereits Freud in seiner Traumdeutung aufmerksam gemacht. Zeigen, weil stets verzahnt mit Sichzeigen, mit ‚Erscheinen‘, vermag sich nicht selbst zurückzunehmen oder zu relativieren. Es duldet keine Einschränkung, keine Revision oder Einklammerung seiner Geltungsansprüche sowenig wie Vermutung oder Zurückhaltung, wie sie sich sprachlich durch den Konjunktiv oder verwandter rhetorischer Mittel formulieren lassen. Das bedeutet: Bilder argumentieren weder konjunktivisch noch im Konditional, sie lassen auch keine probabilistischen Aussagen zu, sondern setzen zeigend ein Faktum. Gewiss gilt auch hier, dass bildliche Hypothesen durch Serienbildung nahe gelegt werden können, indem etwa verschiedene Möglichkeiten oder Differenzen nebeneinander gestellt werden, doch bedürfen auch diese entweder konventionalisierter Muster wie in Anleitungen oder technischen Zeichnungen oder eines zusätzlichen, erläuternden Textes. Intermedialität und Medienwechsel mildern die Probleme des Ikonischen ab, doch demonstrieren sie gleichzeitig auch die Grenzen des Formats. Ebenfalls können, worauf wiederum Richtmeyer mit Wittgenstein hinweist, Strichlinien oder Perforationen als Äquivalente für gezeichnete Hypothesen genommen werden, doch erweisen sich diese ebenfalls als hochgradig uneindeutig, weil Fortsetzungen wie Punktfolgen in mathematischen Reihen oder Texten auch anderes bedeuten können, z.B. ein Gesetz oder das „usw.“ einer Aufzählung. Viele Visualisierungen aus dem Nanobereich wie auch der Atomteilchenphysik oder der Biochemie sind zudem Darstellungen, die aus Wahrscheinlichkeiten oder Graphen stochastischer Funktionen errechnet wurden, die als diese im Bild nicht zu sehen sind – Unschärfen, Nebelwolken und dergleichen bilden lediglich verein57

Aristoteles, Über die Seele, Buch 2, Kap. 6, 418a, sowie Kap. 5, 417a, wo Aristoteles deutlich macht, dass Wahrnehmung keine Reflexivität in dem Sinne erlauben, dass es von der Wahrnehmung wieder eine Wahrnehmung gibt. Wenn dies in seiner Allgemeinheit auch fragwürdig erscheint, so ist die Wahrnehmung der Wahrnehmung gleichwohl an bestimmte Bedingungen geknüpft, die sie als Wahrnehmung problematisch erscheinen lassen.

58

Wittgenstein 1994, S. 19.

23

Martina Heßler, Dieter Mersch

barte Stilisierungen. Anhand des „Worldmodels“ von Jay W. Forrester hat zudem Peter Bexte gezeigt, wie Unbestimmtheiten überhaupt durch Wolken gekennzeichnet werden.59 Ähnliches gilt für Simulationsbilder, wie Gabriele Gramelsberger sie, auch in diesem Band, behandelt, die statistisch hochgerechnete oder virtuelle Daten im Abgleich mit auf andere Weise gewonnenen Daten in Verbindung bringen und verarbeiten und damit eine eigene Art ebenso hybrider wie modellhafter Bildlichkeiten kreieren, sowie für Unentscheidbarkeiten, die, wie Jochen Hennig in seinem Beitrag über Rastertunnelbilder zeigt, zunächst als störende Löcher oder schwarze Stellen beibehalten werden – ohne sich freilich als solche zu erkennen zu geben –, um später systematisch getilgt oder ‚geglättet‘ werden und damit stetige oder ‚reine‘ Abbildungen zu erhalten. Tatsächlich berühren wir auf diese Weise den brisantesten Punkt einer ‚ikonischen Wende‘ in den Naturwissenschaften: das Zusammenspiel zwischen Virtualität, garantiert durch die technischen Möglichkeiten computergestützter Visualisierungen, und den Grenzen medialer Darstellbarkeit, die, wie man sagen könnte, eine eigene ‚Ethik‘ des Ikonischen aufruft. Sie zehrt von der Instabilität zwischen visuellem ‚Schein‘ und referenzieller ‚Erscheinung‘.60

24

Logik des Kontrastes Diskrete Medien unterscheiden und bestimmen durch Negation,61 d.h. sie exkludieren statt zu inkludieren. Ihr Format ist der Schnitt, der einer Entweder-oderLogik gehorcht, die mittels Dichotomisierung Identitäten und damit Eindeutigkeiten generiert. Differenz dient entsprechend der Erzeugung dessen, was Niklas Luhmann „Beobachtung“, d.h. „Unterscheidung und Bezeichnung“,62 und Nelson Goodman „Digitalität“ in Abgrenzung zur „Analogizität“ nannten.63 Ihr Kennzeichen sind distinkte syntaktische Strukturen, die nichtwidersprüchliche Einteilungen, Auswahlen, Identifizierungen und dergleichen ermöglichen. Die gesamte klassische binäre Logik bezieht daraus ihren Universalitätsanspruch, jedoch beruhen bildliche Formate durchweg auf weicheren Konturen. Vor allem demonstrieren ikonische Kontrastbildungen, dass in visuellen Darstellungen Differenzierungen auch anders vollzogen werden können; sie genügen einer Ordnung der Simultaneität und des Sowohl-als-auch, weil im Sichtbaren stets beide Seiten einer Unterscheidung gleichzeitig anwesend sind. Gelten Negationen und scharfe Trennlinien als Rationalitätsausweis schlechthin, insofern erst Dichotomisierungen präzise Begriffsbildungen erlauben,64 unterliegen dagegen Visualisierungen einer nichtdichotomen Logik, die mittels Gestaltdifferenz und Farbunterschieden ihre Formen aufbauen.65 Sie können als Alternative zur klassischen Logik gelesen werden, soweit sie einen anderen Raum betreten, ohne den Gesetzen der Syllogistik in irgendeiner Weise nachzustehen. Vielmehr bieten sie andere Darstellungsmöglichkeiten 59

Peter Bexte, 2005.

60

Vgl. dazu auch Mersch 2005a.

61

Dies impliziert schon das ‚omnis determinatio est negatio‘ des Baruch Spinoza, Brief an Jarigh Jelles vom 2. Juni 1674, auf das ebenfalls Schelling und Hegel anheben.

62

Vgl. z.B. Luhmann 1996, 109f..

63

Goodman 1995, 154ff..

64

Ebenfalls stellt dies Bennett 1967 heraus.

65

Vgl. auch: Brandt 1999, 50ff.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

und also auch andere Repräsentationen von Wissen, die räumlich, d.h. mindestens zweidimensional argumentieren und etwa, wie bei der Falschfarbendarstellung, für die Mustererkennung relevant werden oder bei der Aushandlung von Widersprüchen hilfreich sein können, weil sie synoptisch vorgehen. Bilder schließen ein, während binäre Diskurse ausschließend verfahren, sodass in ihnen sowohl stets Antinomien entstehen können wie diese gleichzeitig vermieden werden müssen. Tatsächlich produzieren dichotome Systeme ihre eigene Aporetik; sie grenzen sich nach Innen ab, während ikonische Rahmungen Innen und Außen gleichzeitig markieren. Sie vermögen darum Ambiguitäten ebenso zuzulassen wie Instabilitäten in Form von „Aspektwechsel“, wie sie ebenfalls Wittgenstein anhand des „Entenhasens“ und anderer Beispiele diskutiert hat.66 Aus ihnen folgt, dass es im Visuellen keine Paradoxa im strengen Sinne gibt, wohl aber verschiedene Möglichkeiten topologischer „Doppelgesichtigkeiten“ wie die unmöglichen Gestalten M.C. Eschers oder Figur-Hintergrund-Vexierungen. Wittgenstein hat daran vor allem die Eigenarten des „Sehens-als“ und des „transitiven“ und „nichttransitiven“ Bildverstehens ausgelotet,67 doch erhellen sie zugleich die Vielgestaltigkeit der Darstellung von Gegensätzen oder Oppositionen im Bild. Sie wären von Selbstwidersprüchen in der Bedeutung negativer Ipsoflexivitäten wie ‚Dies ist kein Satz‘ oder ‚Ich lüge immer‘, die sich selbst aufheben und damit endlose Iterationen erzeugen, sorgsam zu trennen; vielmehr ergeben sich bildliche Äquivalente für Widersprüche aus Figur-Grund-Verschränkungen oder ineinander geschachtelter Figuren, wie sie William T. Mitchell als „dialectical images“ bzw. „metapictures“ adressiert hat.68 Die Eigenschaft, zugleich „picture“ und „metapicture“ sein zu können, gehört danach zu den Besonderheiten des Ikonischen, denn wie Mitchell ergänzt: „In principle […] any picture or visible mark […] is capable of becoming a metapicture […]. Pictorial self-reference is […] not exclusively a formal, internal feature that distinguishes some pictures, but a pragmatic, functional feature, a matter of use and context. Any picture that is used to reflect on the nature of pictures is a metapicture. […] The principle use of the metapicture is, obviously, to explain what pictures are – to stage […] the ‚self-knowledge‘ of pictures.“69 Metapictures implizieren dann eine eigene Modalität bildlicher Reflexion. Beide, Bildreflexion und Kontrastbildung, verhalten sich zueinander korrelativ. Für die wissenschaftliche Visualisierung ist aufschlussreich, dass aufgrund der „Logik des Kontrastes“ Bildreflexion daher etwas anderes bedeutet als Satzreflexion. Tatsächlich erweist sich die Ambiguität und Offenheit von Bildern nicht als Mangel, sondern als deren besondere Fähigkeit. Spatialität Die nichtkontradiktorische und zugleich nichtdichotome Logik des Kontrasts folgt zudem, wie bereits angeschnitten, aus der räumlichen Struktur der Bildlichkeit. Es ist dieses Denken in Räumlichkeiten, welches Bilder und ihre spezifische Form des Wissens auszeichnet, wie auch Sybille Krämer im vorliegenden Band eindringlich 66

Wittgenstein, 1971b, Teil II, XI, S. 228ff.

67

Ebd.

68

Mitchell 1994, 45ff.

69

Mitchell 1994, 57.

25

Martina Heßler, Dieter Mersch

betont. Die Fähigkeit des Bildes, sich in anderen als ‚binären Logiken‘ auszudrükken, ist dieser primären Räumlichkeit geschuldet. Bilder entfalten keine lineartemporalen Ordnungen wie Diskurse oder numerische Reihen, sondern spatiale. Dies gilt schon hinsichtlich der Lessingschen Gegenüberstellung zwischen Stasis und Kinesis von Bildlichkeit und Poesie,70 die in der Geschichte der Bildtheorie eine große Rolle gespielt hat, und ohne explizite Referenz u.a. von Vilém Flusser wiederholt wurde.71 Es ist für Flusser das spezifische Kennzeichen des Bildes im Unterschied zur Schrift, mindestens zweidimensional zu sein statt eindimensional zu verlaufen. Dabei erweist sich die räumliche Organisation des Bildes nicht eigentlich als extensum, sondern als spatium, weil sie nicht die Signatur einer Ausdehnung oder Oberfläche aufweist, sondern einer „Zwischenräumlichkeit“, im Bild die Form oder topologische Struktur auszeichnet.72 Das bedeutet auch, visuelle Darstellungen eröffnen den Zugriff auf Anordnungen, Muster oder Relationen,73 sie ermöglichen die Herstellung von Verbindungen und Zusammenhängen74 und damit auch der Entdeckung von Neuem „auf einen Blick“, während diskursive Argumentationen syntaktisch-logischen Folgen, d.h. einer Ordnung des Nacheinander, mithin stets der Zeit gehorchen. Indessen steht eine umfassende Untersuchung der Besonderheiten „spatialer“ Logiken, wie sie nicht nur für ikonische Systeme charakteristisch sind, sondern ihre eigene Relevanz für alle Arten von Schriftbildlichkeiten, insbesondere auch für Mathematik, besitzen, noch aus.75 Ebenfalls liegt bislang eine Theorie des Diagrammatischen nur in Ansätzen vor;76 im vorliegenden Band finden sich dazu neben dem Beitrag von Sybille Krämer auch weiterführende Ansätze bei Stephan Günzel und Astrid Schmidt-Burkhardt. Zu unterscheiden wären dabei insbesondere verschiedene Bildtypen, deren Extreme Günzel mit Ernst Gombrich zwischen Spiegel und Karte markiert, die das Kriterium der Räumlichkeit unterschiedlich ausnutzen. Darüber hinaus wäre im engeren Sinne zwischen repräsentationalen und ‚syntaktischen‘ Bildern sowie hinsichtlich der syntaktischen noch einmal zwischen ‚diagrammatischen‘ und ‚graphematischen‘ Formaten zu differenzieren, die wiederum unterschiedliche Funktionen übernehmen, wobei Graphen ausschließlich auf abstrakte mathematische Ausdrücke referieren, die sich wiederum in der Nähe zu Schrift und Notationalität aufhalten.77 Beruhen Schriften zudem, wie Nelson Goodman zu Recht betont hat, auf diskreten Notationen,78 verschieben sich

26 70

Lessing 1989, 115f.

71

Flusser 1989; Flusser 1997.

72

Vgl. dazu auch meine Ausführungen in Mersch 2005b, sowie Mersch 2006a.

73

Mersch 2006b.

74

Hingewiesen sei hier noch einmal auf Knorr-Cetinas Begriff des „summatologischen Verfahrens“, wonach verschiedene Theorien in einer Darstellung zusammengeführt werden können.

75

Erste Versuche vgl. Krämer 2005; 28ff.; ferner: Krämer 2003, sowie ihr Beitrag in diesem Band.

76

Vgl. dazu vorläufig Bogen / Thürmann 2003; Bonhoff 1993; Schmidt-Burkhardt 2005; Bertin 1983.

77

Vgl. dazu auch Mersch 2005c.

78

Goodman 1995, 212.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

bei Diagrammen und Graphen die Aspekte schriftlicher Zeichen zu ihrer spatialen Lokalisierung, ihrer Ausbreitung und „Gerichtetheit“. Sie gestatten damit, Beziehungen im Raum ebenso zu setzen wie zu verschieben und auszulöschen, sie aber auch sukessive zu ‚lesen‘, um ihrer Matrix gleichzeitig einen piktoralen ‚Sinn‘ abzugewinnen, der über die Diskretheit der Schrift hinausweist.79 Gerade für wissenschaftliche Visualisierung spielen diagrammatische und graphematische Verbildlichungsformen eine prominente Rolle; dies gilt umso mehr für ‚digitale‘ Bilder und computergenerierte Sichtbarmachungen, deren Ausgangspunkt kein genuin Sichtbares ist, sondern ‚Informationen‘ im kybernetischen Sinne, d.h. Entscheidungsmaße, welche erst am Ende einer Kette von Transformationen in visuelle Parameter verwandelt werden.80 Als diskrete Wahlalternativen haben sie deshalb, selbst wo sie optisch generiert wurden, einen anderen Status als visuelle Gegenstände, weil wir nurmehr mit elektrischen Strömen, „Orten gleichen Tunnelstroms“ und anderen Messungen konfrontiert sind, die zu ‚Scharen‘ aufsummiert euklidischen Raumkurven bilden, die dreidimensionalen Objekten ähnlich sehen. Zuweilen kommen ebenfalls kartographische Methoden ins Spiel, die Verteilungen, Richtungen und dergleichen anzeigen, die wir uns bestenfalls indirekt als referenzielle ‚Spuren‘ oder ‚Abdrücke‘ vorstellen können81 und die entsprechend auch nicht als Proben oder Belege für ‚Etwas‘ fungieren, sondern geordnete ‚Syntaxen‘ oder ‚Topologien‘ repräsentieren, an denen Merkmale wie Symmetrie oder Strukturähnlichkeiten auffallen. Topologische Differenzialität Aus den spatialen Eigenschaften des Bildes sowie der ‚Logik des Kontrastes‘ folgt überdies eine eigene Art von bildlicher Differenzierung, wie sie bereits oben im Kontext der ‚Rahmung‘, der ‚ikonischen Differenz‘ und des ‚ikonischen Als‘ angedeutet wurden. Sie wäre in Ansehung diagrammatischer und graphematischer Visualisierungen genauer zu diskutieren. Denn die Räumlichkeit bildlicher Ordnungen erlaubt nicht nur, ‚Marken‘ zu unterscheiden oder ‚Markierungen‘ im Sinne von ‚Zeichnungen‘ vorzunehmen, sondern durch Zuweisung verschiedener Stellen oder Plätze im Raum ebenso sehr Verteilungen sowie logische und deiktische Funktionen festzulegen, die nunmehr wiederum als topologische Strukturen sichtbar gemacht werden können. Ist die bildliche ‚Logik‘ grundsätzlich eine andere als die binäre der formalen Logik, vermag sie diese jedoch zu einem gewissen Grade zu inkludieren, wie die schon erwähnten Venn-Diagramme demonstrieren. Deren Reichweite erweist sich allerdings als begrenzt, insoweit deren Projektion auf das klassische Logik-Kalkül noch eine Überführung logischer Parameter in Operatoren der mathematischen Mengenlehre und der Implementierung spezifischer Regeln wie der Ersetzung von ‚nicht‘ durch ‚Komplementbildung‘, von ‚und‘

79

Krämer 2005, 38 sowie der Beitrag in diesem Band.

80

Prinzipiell ist die Sichtbarmachung von Unsichtbarem nicht an Digitalität geknüpft, wird aber in den computergrafischen Verfahren besonders virulent. Vgl. dazu auch Heßler 2006d.

81

Zur Referenzialität als Kriterium und zum Zeichenstatus von Wissenschaftsbildern vgl. auch Heßler, 2006a, 18ff., 27ff. sowie Krämer in diesem Band. In diesem Band diskutiert die Frage der Referenz in ‚digitalisierten‘ Bildern ebenfalls Jens Schröter.

27

Martina Heßler, Dieter Mersch

28

durch die Durchschnittsbildung usw. erfordert. Weit schwerer wiegt freilich, dass Venn-Diagramme wie auch die von Charles Sander Peirce vorgeschlagene Verbildlichung der Logik einerseits komplexere Implikationen kaum zu fassen vermögen, andererseits die Möglichkeiten des Ikonischen drastisch reduzieren.82 So können Exklusionen im Sinne des Entweder-oder zwar als zwei voneinander unabhängige Kreise dargestellt werden, gleichwohl müssen alle Arten von Trennungen unter Absehung ihres Abstands oder ihrer Lokalität als äquivalent angesehen werden. Dann ergibt sich die seltsame Folgerung, dass zwei völlig verschiedene Abbildungen gleichwohl vom ‚logischen‘ Standpunkt aus identische Darstellungen bilden. Daraus lassen sich einige Grundlinien bildlicher Differenzierung ableiten. Sie erweisen sich als noch grob und unscharf, doch zeichnet sich bereits eine Richtung ab. Denn zu den wichtigsten Implikationen gehört die Revision der Aristotelischen Kategorien der „Lokalität“ und „Lage“, die der Anschauung entnommen sind, gegenüber der diskursiv vorentschiedenen Kategorientafel Immanuel Kants.83 Billigt diese der Wahrnehmung allein ein „rezeptives“ Vermögen im Unterschied zu den produktiven der Imagination und des Verstandes zu, eröffnen diese eine Perspektive auf das, was man ein genuin ‚visuelles Denken‘ nennen könnte. Abstände, Verhältnisse zueinander, Positionen, ebenso wie Sortierungen, Orientierungen oder Bündelungen sind wichtige Parameter ikonischer Argumentationen, doch bedarf es zuvor noch einer Formatierung des Raumes, um die Orte festzulegen sowie Metriken und Skalierungen vorzunehmen, die die Inskription in ein festes Bezugssystem einbinden. Die Geschichte der Visualisierung hat dazu verschiedene Verfahren ausgearbeitet, u.a. die frühneuzeitliche Perspektivik mit ihrer Rasterungsmethode oder der anamorphotischen Projektierung für gekrümmte Gewölbe, ferner die Einteilung der Bildfläche durch ein Netz relevanter Linien, Zonen und Teilräume, worin die graphischen Elemente allererst ihren Platz finden, wie auch die cartesische Diskretierung des Raumes in Gestalt des Koordinatensystems, das eine korrekte Zuordnenbarkeit gemessener Daten erlaubt. Ihre Textur konstituiert im Sinne Sybille Krämers jenen ‚visuellen Operationsraum‘, der die Struktur ikonischer Darstellungen im wesentlichen als eine topologische ausweist; gleichwohl kommen solche Operationen ohne bildliche Elemente und damit auch ohne primäre Ästhetisierung – wie weiter unten im Abschnitt über die „Ästhetik von Wissenschaftsbildern“ gezeigt werden wird – nicht aus, wobei tatsächlich das double bind entsteht, dass diese als ebenso notwendig erscheint wie sie gleichzeitig geleugnet wird. Im Zuge einer Formalisierung des Objektivitätsideals der Wissenschaften gehörte die Anästhetik zum ‚Ethos‘ szientifischer Abbildungen, wohingegen ästhetische Mittel, die immer Teil des Bildes und des Verbildlichungsprozesses sind, deren epistemische Intensität ebenso sehr zu stützen wie zu hemmen scheinen. Zudem haben Visualisierung seit dem Siegeszug der Computergrafik einen neuen Stand an „Ästhetisierung“ erreicht, wie bereits die Bilder der Chaosmathe-

82

Vgl. Peirce 1967-1970, 4.347-573; ferner Eco 1987, 260ff. sowie Stjernfelt 2007.

83

Vgl. Aristoteles, Kategorien, Organon 1, Kap. 4, 1bf.; Kant 1956, B 102ff., bes. B 106. Die Differenz zwischen den zehn Aristotelischen und den vier Gruppen von Verstandesbegriffen bei Kant macht u.a. deutlich, wie sehr der Rang des Sinnlichen zwischen Antike und Aufklärung depraviert.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

matik zeigen – von der nüchternen Darstellung der Mandelbrot-Menge (‚Apfelmännchen‘) im Koordinatensystem zu ornamentalen Verbildlichung im Raum. Evidenzen und Unsicherheiten im Bild Unmittelbar verwoben mit der Unvermeidbarkeit des Ästhetischen sowie mit der bildlichen Ordnung des Zeigens und der Nichtnegativität des Ikonischen erweist sich außerdem die Erfahrung von Evidenz.84 Sie tritt an die Stelle argumentativer Geltung. Diskurs und Aisthesis unterscheiden sich vor allem in dieser Hinsicht: Während ersterer der Logik der Begründung angehört, die der Lehre syllogistischer Schlussbildung und Beweisführung gehorcht, machen Bilder im Sinne des videre, des ‚augen-blicklichen‘ Sehens auf plötzliche Weise sichtbar. Ihrer Erkenntnisform eignet ein Ereignischarakter. Visuelle Medien sind daher in erster Linie durch Evidenzeffekte gekennzeichnet, diskursive Medien durch Wahrheitseffekte oder numerische durch Richtigkeitseffekte.85 Das bedeutet nicht, dass Wahrnehmungen oder bildliche Darstellungen, wie auch Sybille Krämer in diesem Band unterstreicht, nicht vor Täuschung oder Illusion geschützt seien – im Gegenteil: es war gerade ihr Schein- und Illusionscharakter, der die Bildlichkeit seit je unter Verdacht stellte. Doch folgen die Evidenzeffekte aus der „affirmativen Kraft“ des Bildes, ihrer bereits erwähnten eigentümlichen Intensität und Suggestibilität, die unmittelbar mit seiner medialen Form des Zeigens verquickt ist, die von sich her mit der Schwierigkeit der Unverneinbarkeit, der Nichthypothetizität und Nichtkonjunktivität behaftet ist und den Scheincharakter unterstreicht, woraus für den erkenntnistheoretischen Status visueller Darstellungen gerade eine Reihe grundlegender Paradoxien entspringen, die es im einzelnen noch zu diskutieren gilt. Denn einerseits bedürfen naturwissenschaftliche Modelle, gerade wo sie im Unanschaulichen operieren, im hohen Maße der Visualität und damit auch anschaulicher Evidenz,86 andererseits verhindert Evidenz aufgrund ihrer außerordentlichen Suggestionskraft die Ausdifferenzierung von Gewissheitsgraden bzw. die Darstellung von Unsicherheit im Bild. Das gilt für Heuristiken und Approximationen, vor allem aber auch für Simulationen, worauf Gabriele Gramelsberger mehrfach, u.a. auch in diesem Band hingewiesen hat.87 Evidenz gibt es nur als Absolutheit – entweder ist etwas einleuchtend oder nicht –, sie duldet keine Abstufung, keine Nuancierung, sodass die Visualisierung in ein prekäres Verhältnis zur generellen Vorläufigkeit 84

Die Eigenschaft der Evidenz eignet insofern dem Bildlichen, als es etwas in der Wahrnehmung unmittelbar als etwas zeigt (z.B. richtig, überzeugend, etc.). Gleichzeitig ist diese Evidenz allerdings auch auf Bildunterschriften, den Kontext, in dem das Bild erscheint, das Vorwissen des Betrachters angewiesen. Evidenz stellt ein wichtiges Forschungsfeld dar, das sowohl in seinen Herstellungsverfahren, in seinen sozialen wie diskursiven Kontexten, aber auch im Hinblick auf die visuelle Struktur der Evidenzerzeugung zu untersuchen wäre. Die folgenden Ausführungen konzentrieren sich auf den „Anteil“ des Bildes bei der Evidenzerzeugung.

85

Zur Frage der Evidenz vgl. vor allem Husserl 1968, 6; Wiesing 2005; ferner zur Frage des Zusammenhangs von Geltung und Wahrheit: Skirbekk 1977; zur Frage der Richtigkeit in der Mathematik: Meschkowski 1978.

86

Was lediglich Modell ist, hat kein sinnliches Korrelat und damit auch keine Konkretion. Das Problem findet sich schon bei Kant, denn Gedanken ohne Anschauung seien leer und Anschauungen ohne Begriff blind; vgl. Kant 1956, A51, B75.

87

Vgl. etwa Gramelsberger 2002, 13f., 16f..

29

Martina Heßler, Dieter Mersch

wissenschaftlicher Theorien und ihrem exoterischen Selbstverständnis von Überprüfbarkeit und Falsifizierbarkeit gerät. Zwar lassen sich Alternativen durch Serialisierung oder Überlagerung und ähnliches sichtbar machen, doch erscheinen diese, kantisch gesprochen, stets schon im Modus von Wirklichkeit, nicht von Möglichkeit. Hinzu kommt, dass Simulationsbilder mathematisch konstruiert sind, d.h. ausschließlich mit einem Existenzvorbehalt gekennzeichnet sind, den sie auf der anderen Seite aber nicht selbst preisgeben. Zur mathematische ‚Existenz‘ genügt ‚Konsistenz‘, sodass eine widerspruchsfreie Möglichkeit schon ist, ohne dass umgekehrt ihrer visuellen Darstellung irgendein Realitätsstatus zugeschrieben werden kann.88 Es scheint klar, dass eine angemessene Reflexion auf diese Paradoxie und die damit verbundenen Grenzen visueller Medien gerade für die Wissenschaften und ihre Kommunikation, vor allem aber für Risikodarstellungen im Bild und dergleichen im hohen Maße relevant sind. Das gilt zumal für die Öffentlichkeitsarbeit der Wissenschaften, die häufig auf Faszination abzielt und sich dabei auf besonderer Weise der Evidenz im Bildlichen bedient. Hier wäre erneut eine Ethik des Bildumgangs anzumahnen,89 die freilich hier nur angedeutet werden kann. Dazu gehört ebenso die Entwicklung eines adäquaten Bilderhandelns wie auch einer angemessenen Bildreflexion als Kern einer allererst zu formulierenden wissenschaftlichen Bildkompetenz. Felice Frankel verweist in ihrem (ästhetischen) „Ratgeber“, der Anleitungen für die Herstellung „überzeugender“ Wissenschaftsbilder gibt, auf eine von der Suggestibilität und Evidenz der Bilder ausgehenden Gefahr hin, soweit sie ihren Erzeugungsprozess nicht mehr zu erkennen geben, und fordert daher „a description of the methodology for every submitted image“.90

Medienwechsel: Intermediale und intervisuelle Transformationen

30

Diagrammatik und Graphematik: Sichtbarmachungen des Denkens Forschungsprozesse oder experimentelle Anordnungen, bei denen, neben anderem, auch Visualisierungen entstehen, bilden komplexe Systeme, deren Teile kaum isoliert betrachtet werden können. Rheinberger hat in Bezug auf Laborsituationen immer wieder darauf aufmerksam gemacht, dass deren Grundlage nicht nur Instrumente, Versuchsanleitungen und Ergebnisprotokolle oder ähnliches bilden, die in den Berichten dokumentiert werden, vielmehr müssen wir von einer Multidimensionalität von „Dingen“, Aufschreibsystemen, Dialogformen, Forschungsstilen und Inskriptionsverfahren ausgehen, die auf eine nicht zu entschlüsselnde und zuweilen unbotmäßige und unvorhersehbare Weise die kontrollierten Abläufen einer experimentellen Situation mitkonstituieren, in sie intervenieren oder mit ihnen kollidieren.91 Dazu gehören auch mediale Transformationen: Wissen muss während des Erkenntnisprozesses von einem 88

Näher dazu auch Mersch 2005c.

89

Vorläufig dazu Mersch 2005a; sowie Jörg Huber in diesem Band.

90

Frankel 2002, 268.

91

Siehe Rheinberger 2001.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Medium ins andere übertragen oder übersetzt werden; es durchläuft dabei nicht selten viele verschiedene Stufen, zudem bedarf es Verfahren der Kalibrierung und Justierung, die den Bildprozessen ebenso vorangehen wie sie in sie eingehen. Die beiden Begriffe der Übertragung und Übersetzung – genauso wie die mit ihnen verwobenen lateinischen Varianten der ‚Transposition‘, der ‚Translation‘ oder der ‚Transmission‘ – verdanken sich indessen unterschiedlicher Metaphoriken; Wissen wechselt gleichermaßen das Terrain wie das Format, seine Präsentationsweise und Darstellungsform, es wird von numerischen Daten auf ikonische Träger, von visuellen Darstellungen in Texten, von Bildern in andere bildliche Darstellungsformen transferiert und auf diese Weise, so auch Heintz/Huber, durch vielfache Wege der Bearbeitung, Glättung, Abschneidung oder Rahmenerweiterung, durch Interpolation und Hochrechnung über ihre Ränder hinaus usw. in ein buchstäbliches Anderes „hinübergetragen“ oder „versetzt“ (transponare).92 Daraus ergibt sich im Besonderen die Frage nach den Bedingungen und Konsequenzen medialer bzw. intermedialer Transformationen, die immer auch ‚intervisuelle‘ Transformationen implizieren, sowie nach ihren Folgen für die bildliche Epistemik. Dies gilt zumal mit Blick auf Strategien der Verräumlichung sowie der Übertragung von experimentellen Resultaten in ‚schriftbildliche‘ bzw. ‚bildschriftlichen‘ Hybridformen wie Schemen, Diagrammen, Karten, Graphen, Tabellen usw. Sie werden in diesem Band von Sybille Krämer im Rahmen einer ersten Grundlegung dessen, was sie eine „Diagrammatologie“ nennt, einer systematischen Theoretisierung unterworfen. Astrit Schmidt-Burckhart wiederum fragt nach der diagrammatischen Kunstgeschichte und analysiert hier verschiedene Wissensformen. Auch in den folgenden Überlegungen sollen sie im Vordergrund stehen. Allerdings ergeben sich hinsichtlich begrifflicher Verwendungen erhebliche Unschärfen, insofern die verschiedenen Termini in unterschiedlichen Kontexten und Disziplinen differieren und mitunter die Plätze tauschen. Entstammt der Ausdruck ‚Diagramm‘ historisch der geometrischen Figur, von der der ‚Graph‘ als Linie oder Kurve mit allen Attributen der Skriptur und Einschreibung abgegrenzt wurde, werden seit Mitte des 19. Jahrhunderts unter Graphen wiederum ‚Kurvendiagramme‘ verstanden. Dann wieder werden sämtliche logischen oder mathematischen Notationen unter den Ausdruck der „diagrammatischen Form“ rubiziert,93 bis schließlich Netzpläne – wie in der Informatik –generell unter den Begriff des „Graphen“ fallen.94 Offenbar lassen sich keine klaren Demarkationen ziehen, bestenfalls Funktionen aufweisen, die in verschiedenen visuellen Wissensproduktionen unterschiedliche pragmatische Zwecke erfüllen. Tatsächlich existiert keine generelle Theorie des Diagrammatischen,95 doch lassen sich Graphen und Diagramme gleichermaßen als visuell-graphische Schemata charakterisieren, die Argumentationen im Medium des Visuellen gestalten und womit geschlossen, bewiesen, widerlegt und behauptet werden kann. Heuristisch 92

Heintz / Huber 2001, 26ff..

93

Dazu Pape 1997, 404ff..

94

Vgl. Diestel 2000.

95

Vorläufig dazu: Bogen / Thürmann 2003; Bonhoff 1993; Schmidt-Burkhardt 2005, Bertin 1983 sowie in diesem Band der Beitrag von Sybille Krämer.

31

Martina Heßler, Dieter Mersch

32

lassen sie sich daher als ‚syntaktische Visualisierungen‘ auffassen, die auf diskreten Ordnungen aufbauen, gleichwohl aber, wie auch Stephan Günzel in seinem Beitrag zeigt, ikonische oder mimetische Elemente besitzen – etwa der Pfeil als Richtungsangabe, die Größe von Knotenpunkten, die Breite von Zuordnungslinien oder Piktogramme als Andeutungen der Sache selbst. Es handelt sich also gewissermaßen um graphische Abbreviaturen,96 deren Basis „notationale Ikonizitäten“ darstellen, die die Repräsentation „syntaktischer Strukturbildlichkeiten“ ermöglichen,97 wobei bemerkenswert ist, dass der Verbildlichung auf diese Weise auch solche logischen Verhältnisse eingeschrieben werden können, die dem Bild sonst fehlen. Diagramme, Graphen, aber auch Karten, Modelle und Pläne bilden somit Hybride, an denen sowohl Operationalität wie der Charakter einer „Schriftbildlichkeit“ auffällig ist,98 die die Bedingungen dafür darstellen, dass Diskursives als Ikonisches lesbar und Ikonisches als Diskursives sichtbar wird. Skripturale und bildliche Mittel verweisen wechselseitig aufeinander, sodass logische oder relationale Beziehungen durch ein System visueller Parameter sichtbar gemacht werden können. In diesem Sinne bedeuten sie eine Sichtbarkeit und Sichtbarmachung des Denkens99 – und es ist vor allem dieser Punkt, den Sybille Krämer in diesem Band von Kants Schematismuskapitel seiner Kritik der reinen Vernunft her neu aufrollt. Man kann deshalb sagen, dass diagrammatische und graphematischen Hybride ein eigenes visuelles Genre bilden, das in einem strikten Sinne weder dem Bildlichen noch dem Schriftlichen zugeschlagen werden kann, auch nicht im ‚zwischen‘ ihnen changiert, sondern Logik und Ikonik bzw. Visualität und Diskursivität miteinander verschränkt. Krämer schreibt ihnen in dieser Hinsicht eine Vermittlungsfunktion zwischen Anschauung und Verstand, dem Sinnlichen und Begrifflichen zu. Wissenschaftliche Visualisierungen, wie sie vor allem auf der Basis graphematischer Verfahren wie Tabellierung, Strukturmodelle, aber auch MRT, Röntgenspektrogramme oder der Sonden- und Tunnelrastermikroskopie usw. entstehen und zumeist digital aufbereitet werden, sind genau von dieser Art, weil sie ebenso Aussagen treffen, die richtig oder falsch sein können, zudem deiktisch operieren und gleichzeitig nicht umhin können, sich ästhetischer Mittel zu bedienen und etwas zu sehen geben, zeigen. Sie übernehmen dabei unterschiedliche Funktionen wie Klassifikation, Sortierung, Typologie oder Rasterung, die gleichermaßen der Verdichtung und Bündelung von Daten und deren Dynamisierung dienen, wie sie gleichsam mit ‚Kartographien‘ konfrontieren, die auf paradoxe Weise etwas sichtbar machen ohne optisches Korrelat. Der Übergang vom Bild zur ‚Schriftbildlichkeit‘ folgt dabei der Transformation vom Figuralen zum Operativen, wie ebenso sehr der Übergang von Schrift zu ‚Schriftbildlichkeit‘ die Register der klassischen Linguistik und Erkenntnistheorie verlässt, indem Skripturalität weniger der Aufzeichnung einer Sprache dient, die dem Logos der diskreten Zerlegung gehorcht, als vielmehr dem Wissbaren eine ikonische Präsenz verleihen, um auf diese Weise einen eigenen, freien Strukturraum zu konfigurieren.100 96

Stetter 2005, 125.

97

Krämer 2005, 41f.; Krämer 2003, 162f..

98

Vgl. Krämer 2003; Krämer 2006 sowie weiter oben.

99 100

Vgl. auch Pape 1997, 378ff.. Krämer 2005, 33 sowie ihr Beitrag in diesem Band.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Diagrammatische und graphematische Strukturräume fußen in diesem Sinne auf ‚spatialen Logiken‘; sie basieren auf einer Streuung von Punkten und ihren Relationen zueinander, auf Anordnungen, Häufungen, Richtungen oder metrischen Verhältnissen und dergleichen, die ihre Zusammenfassung zu Mustern und anderen räumlichen Aktionen erlauben, um auf diesem Wege neue Ordnungen sichtbar machen. Dabei inhäriert dem ‚Diagrammatischen‘ wie ‚Graphematischen‘ eine eigenständige Form von Performanz. Es handelt sich um eine operative Performanz, die den Kern ihrer visuellen Argumentation ausmacht, soweit sie im ‚Schrift-Bild-Raum‘ Handlungen vollziehen, die Abhängigkeiten, Extremwerte, Isomorphien oder Ähnliches evident machen. Beruhen Schriften zudem, wie Goodman zu Recht betont hat, auf notationalen Äquivalenzsystemen,101 verschiebt die ‚Schriftbildlichkeit‘ zugleich den Aspekt von den Zeichen und ‚Buchstaben‘ zu spatialen Lokalisierungen und deren Ausbreitung. Ihr Kriterium heißt, so auch Krämer: „Interspatialität“.102 Diagrammatische und graphematische Strukturen visualisieren aufgrund solcher ‚Zwischenräumlichkeit‘. Sie ist also stets zweifach lesbar: linear und nichtlinear, sodass ihrer Matrix genauso ein Schriftsinn zukommt wie ihr ein piktoraler ‚Sinn‘ des Zeigens anzugewinnen ist, der über die Diskretheit der Textur hinausweist.103 Das bedeutet, Spatialität überhaupt als leitendes Prinzip jeder Diagrammatik auszuweisen: Sie ermöglicht nicht nur, ‚Marken‘ voneinander zu unterscheiden, sondern durch Zuweisung von Stellen im Raum logische und deiktische Funktionen abzubilden, die dann wiederum als topologische Strukturen sichtbar gemacht werden können. Aus ihnen lassen sich daher einige Grundlinien für Diagramme und Graphen ableiten. So gibt es Graphen, Karten und dergleichen nur im Zusammenhang von Skalierungssystemen und metrischer Inskriptionen, die zugleich den Raum rationalisieren und ‚logifizieren‘, um auf diese Weise die Zuordnung von Daten und Informationen zu gewährleisten. Kurven bilden diskrete Anordnungen von Punkten im n-dimensionalen Raum, die erst durch Interpolation und anderen Glättungsmethoden in Figuren überführt werden. Anhand des Verlaufs lässt sich dann ablesen, was die zugrunde liegenden Rechnungen im Modus der ‚Zahl‘ nur schwer darzustellen vermögen. Spatialen Ordnungen fallen in diesem Sinne eine unmittelbar epistemische Rolle zu. Sie weisen in eine Epistemik des Sichtbaren, wie sie der Bildlichkeit überhaupt angehört. Unterschiede werden dabei nicht als Differenzen zwischen ‚Marken‘ modelliert, sondern als Unterschiede räumlicher Strukturen, d.h. als Systeme von Unterräumen, Zuordnungen, Rasterungen und Ähnliches, sodass sich von ‚spatialen Differenzierungen‘ sprechen lässt, die mittels Kontrasten, Lücken, Abständen oder Auslassungen usw. arbeiten, wie sie Richtmeyer in diesem Band von Wittgenstein her einer genaueren Diskussion unterzieht. Sie koinzidieren mit Spielarten der ‚ikonischen Differenz‘. Sucht man diese im Metier des Diagrammatischen und Graphematischen, bedarf es demnach des Blicks auf solche ‚interspatialen‘ Operationen und ihre vielfachen Varianten, die die visuelle Argumentation im wesentlichen als eine topologische ausweist.

101

Goodman 1995, 212.

102

Krämer 2003, 28ff.

103

Ebd., 38.

33

Martina Heßler, Dieter Mersch

34

Transformation und Deformation Ein weiteres kommt hinzu. Denn scheinbar legen die vorangegangenen Bemerkungen erneut eine Fixierung auf isolierte Bildprozesse nahe. Stattdessen bestand der Zweck der Überlegungen in der Klärung der Besonderheit diagrammatischer und graphematischer Visualisierungsstrukturen, wie sie für die Wissenschaftspraxis zwar nicht ausschließlich, wohl aber im hohen Maße relevant sind. Doch kommen auch sie nicht ohne Zwischenschritte und Übergänge aus. Visuelle Modelle, gleich welcher Art, verleihen sich erst durch die Reihe von Transformationen, denen sie unterliegen, sowie durch Übertragungen von einem zum anderen Format oder durch Verkettung und Sequenzialisierung eine Bedeutung, relativieren, bestätigen, verstärken oder widerlegen sich gegenseitig. In diesem Sinne bilden visuelle Argumentationen zugleich eine Funktion intervisueller und intermedialer Transformationen. Dabei kommen sowohl die jeweiligen Leistungen und Grenzen der einzelnen Formate oder Visualisierungstypen ins Spiel als auch die verschiedenen Operationsarten der ‚Übersetzung‘ und ‚Transposition‘ selber, wobei die Frage entscheidend ist, wie diese das in ihnen aufgezeichnete oder dargestellte Wissen jeweils verändern – wie sie die Daten kompressieren oder komprimieren, Lücken füllen, Unstetigkeitsstellen ausgleichen oder durch Skalenveränderungen auffällige Stellen wie Maxima oder Minima betonen. Eine weitere, durch digitale Bildgenerierungen virulent gewordene Technik ist darüber hinaus die dreidimensionale Modellierung, die aus Datenpunkten räumliche Gebilde entwirft, die nicht nur aus einem Abstraktum eine konkrete, vorstellbare Gestalt macht, sondern die im Raum auch gedreht, aus unterschiedlichen Perspektiven betrachtet oder so bearbeitet werden können, als handele es sich um reale Objekte. Visuelle Verräumlichungen, die Verwandlung abstrakter Bilder in vorstellbare Landschaften, seien dies Gebirgszüge fremder Planeten, Konfigurationen komplexer Proteine oder vermeintlicher atomarer Oberflächen, ist das Ergebnis solcher Bearbeitungen, deren Wegweiser das Vorstellbare ist, das, wie u.a. Jochen Hennig in diesem Band zeigt, zugleich an mannigfache Darstellungskonventionen anschließt. Sie bringen etwas in die Sichtbarkeit, was in den Daten selber nicht liegt, verleihen ihnen ein Aussehen (eidos) oder eine imaginative Kraft, die, wie es Joachim Krug polemisch ausgedrückt hat, eine neue Welt des „Spiels“ zu eröffnen scheint.104 Damit rückt die Frage epistemischer Transformationen ins Zentrum, wobei im Folgenden sowohl die Interferenz zwischen verschiedenen Medien als auch die „Intervisualität“ zwischen einzelnen Visualisierungspraktiken und deren Rezeption eine wesentliche Rolle spielen werden. Zwar bildeten die vorangegangenen Bemerkungen zur ‚Logik‘ der Bildlichkeit insofern bereits einen Vorgriff, als auf verschiedene Bildformate und deren jeweilige Geltungsbereiche referiert wurde, doch erlaubt dies noch keine Aussage darüber, was im Übergang zwischen ihnen geschieht. Auch dazu gibt es bildtheoretisch noch keine generelle Untersuchung, und die wenigen Bemerkungen an dieser Stelle suchen lediglich, dazu mit Blick auf Diagrammatik und Graphematik einige heuristische Ideen zu skizzieren. Dabei muss zunächst konstatiert werden, dass es zu den Grundbedingungen aller Symbolsysteme gehört, zu einem gewissen Grade ineinander transferierbar zu sein – man könnte sagen: Übersetzbarkeit ist dem Symbolischen selbst immanent. Doch 104

Vgl. Krug 2001, 137; ebenfalls dazu Mersch 2005b.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

gilt diese allgemeine Aussage nur für syntaktische Systeme: Die Computertechnologie hat deutlich gemacht, dass, wo Digitalisierung vorliegt, mittels geeigneter Algorithmen jedes Format in jedes andere übertragen werden kann.105 Entscheidend ist dann, was in der Übertragung oder im Übergang zwischen ihnen jeweils hinzukommt oder verloren geht und welche Grenzen der Übersetzbarkeiten auferlegt sind: kurz, wie sich Form, Status und Geltungsanspruch des jeweiligen Wissens verschieben. Das gilt sowohl für die Transferierung von Schrift in Zahl als auch von Zahlen, Texten und mathematischen Systemen in bildliche Formate oder verschiedener Visualisierungstypen ineinander. Der Transfer erweist sich als nicht kontingent, vielmehr ist die These, dass mit jedem Schritt anderes entsteht, d.h. auch ein anderes Wissen generiert wird. Modellhaft können solche epistemischen Verschiebungen – oder ‚Deformationen‘ – bereits anhand der Transferierung textueller Aussagen in mathematische Strukturen exemplifiziert werden, wie sie etwa durch Formalisierung entstehen. Formalisierungen erzeugen Syntaxen, die einerseits Semantiken reduzieren, andererseits logische Strukturen und Ähnliches sichtbar machen können. Insbesondere lassen sie Relationen stärker hervortreten und erlauben formale Interventionen sowie die Entdeckung von Subsystemen. So müssen sprachliche Fassungen mathematischer Probleme, wie sie etwa in mittelalterlichen Mathematik üblich waren, als solche allererst verstanden werden: Operationen erweisen sich daher als umständlich, die Semantik überdeckt die Syntax, mitunter werden nahe liegende Lösungen nicht erkannt. Dagegen ließ ihre Substitution durch mathematische Symbolismen, wie die frühe Neuzeit sie vollzog, Algebraisierungen jenseits semantischer Festlegungen und damit auch eine ganz neue mathematische Freiheit entstehen.106 Die Reduktion auf syntaktische Schemata gestattete folgerecht die Kalkülisierung der Mathematik sowie die Möglichkeit komplexer Kalkulationen und die Voraussetzung für die Entstehung der Analysis und einem Rechnen mit unbestimmten Größen oder mit nichtlinearen Gleichungssystemen wie in der abstrakten Algebra. Man kann daher sagen, dass der Erfolg der Mathematik der letzten 500 Jahre zu einem Großteil von der Arithmetisierung der Geometrie sowie vom Gebrauch algebraischer Variablen und arabischer Ziffern abhing: Er ist das Produkt einer konsequenten Formalisierung des Mathematischen, wie sie gleichzeitig ihre Algorithmisierung und Computerisierung während des letzten Jahrhunderts ermöglichte. Doch was dabei verloren ging, ist die Einbettung des Mathematischen in Sprache – die Tatsache, dass es Mathematik nicht ohne Verständigung gibt. Das Beispiel mag erhellen, wie ein Medienwechsel – hier vom Text zur formal-syntaktischen Schreibweise – die Produktion von Wissen verändert. Entsprechendes kann ebenfalls für die Transformation von Daten in visuelle Darstellun105

Um Missverständnisse zu vermeiden, sei ausdrücklich hinzugefügt, dass dies nicht im Phänomenalen gilt. Bilder sind zu einem gewissen Grade beschreibbar und damit, im Sinne ekphratischer Kunst, auch in Sprache übertragbar, doch betrifft dies allein die Figuren, Farben, Linienführung, stilistische Eigenarten etc. Deren Repertoire lässt sich programmieren und damit erneut in ein anderes übersetzen. Als nicht übersetzbar erweist sich dabei die Phänomenalität der Bildlichkeit selbst: Das besondere Erscheinen eines Farbtones entzieht sich z.B. der Sprache, und der digitale Nummerncode ‚reduziert‘ die Farbskala auf eine Differenzierung von 256 oder mehr Farbtönen.

106

Vgl. Krämer 1988; Krämer 1997.

35

Martina Heßler, Dieter Mersch

gen erwartet werden. So wies Astrid Schwarz nach, dass „(d)urch die numerische Darstellung der Daten und die vorgegebenen Tabellenordnung die Daten mathematisch behandelbar“ wurden, was gleichzeitig eine „Überführung von Qualität in Quantität“ bedeutete.107 Daten unterschiedlichster Instrumententypen wurden dann nicht nur „in einer Tabelle [...], sondern auch mathematisch vergleichbar und rekombinierbar“.108 Zudem lassen Tabellen oder Zahlenkolonnen anderes erkennen als graphische Darstellungen: Erstere erlauben die Entdeckung von Mustern in Form wiederkehrender Größen, während graphische Figuren in der Regel Dynamiken und Verlaufsformen wiedergeben – die klassische graphische Analysis mit der Untersuchung von Steigungsmaßen, Maxima, Minima, Wendepunkten und dergleichen liefert dafür ein einfaches Beispiel. Amplitudenausschläge, Periodisierungen oder Konvergenz und Divergenz lassen sich dadurch ebenso systematisieren, wie, so auch Schwarz, diskrete Daten homogenisiert oder verstetigt werden können, was durch die Daten selber keineswegs verbürgt sein muss. Bestimmte Eigenschaften können gegenüber anderen, wie auch Michael Lynch bemerkt hat, betont oder vernachlässigt werden, um scheinbar Wichtiges von Unwichtigem zu scheiden.109 Jede Veränderung, so die weitere These, birgt stets die Gleichzeitigkeit von Vorteil und Nachteil, von Gewinn und Verlust.

36

Wissenserzeugung durch intervisuelle und intermediale Übertragung Dies sind nur Beispiele, jedoch soll an ihnen deutlich werden, dass mediale Transformationen auf Konstruktionsprozessen gründen, die das dargestellte Wissen ebenso modellieren wie ‚verzerren‘. Wir haben es folglich mit der Duplizität von ‚Formation‘ und ‚Deformation‘ zu tun, und eines der klassischen Paradigmen dafür bilden die Projektionsmethoden der Kartografie, der Übergang von gekrümmten in plane Flächen oder einer Kugelform in eine die Darstellung der Ebene. Tatsächlich gilt, dass es kein solches Projektionsverfahren ohne gleichzeitige Verzerrung gibt, d.h. auch ohne Verkürzung oder Verlängerung der Linien, ohne Winkelveränderungen und dergleichen. Ähnliches kann für die mannigfaltigen Bearbeitungsformen bei der Übertragung von Rohdaten in graphische Funktionsbilder reklamiert werden, wie zahlreiche Untersuchungen deutlich machen.110 Dazu gehört z.B. die Interpolation, der schon genannte Ausgleich von Unstetigkeitsstellen sowie Verfahren der Filterung und Glättung,111 ferner die Tilgung von Naht- und Bruchstellen, insbesondere bei solchen Bildproduktionen, die aus der Verfugung eines ‚Patchworks‘ unterschiedlicher Einzelbilder entstanden sind, wie es vor allem bei Satellitenaufnahmen der Fall ist, sowie, wie Jochen Hennig mit Bezug auf die Rastertunnelmikroskopie gezeigt hat, der Rückgriff auf Verfahren der Differentialanalyse von Raumkurven und deren Integration, indem durch Hintereinanderschachtelung einzelner ‚Schnitte‘ die Kurvenscharen so ‚addiert‘ werden, dass dreidimensionale Bildern entstehen.112 Zur visuellen Modellierung vor allem aku107

Schwarz 2003, 66.

108

Schwarz 2003, 67.

109

Lynch 1990, 179.

110

Borck 1997; Schwarz 1999; Bowker 2000; Krämer 2008, 300ff.

111

Krug 2001.

112

Hennig 2006.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

stischer Phänomene bedarf es außerdem der Anwendung von Fouriertransformationen oder, besonders bei digitalen Simulationsbildern, Wahrscheinlichkeitsverfahren wie der Monte-Carlo-Methode oder Ähnliches,113 wobei die Vergleichung von Bildern gleichen Materials und verschiedener Herstellungsart erhebliche Unterschiede aufweisen. Krug konnte etwa anhand eines Vergleichs zwischen experimentellen und simulierten Topographien von Siliziumoberflächen plausibel machen, dass sich zwar auf der Ebene der Gestalt verblüffende Ähnlichkeiten ergeben, bei der Überdeckung der Bilder jedoch erschreckende Differenzen einstellen.114 Solche Differenzen sind vor allem für die Computertechnologie relevant, aber auch bei Vorhersagen im Mikrobereich, etwa der Neurologie oder Biochemie, was besonders die Frage nach der Interpretation der Abweichungen sowie ihrer prognostischen Aussagekraft aufwirft. Gabriele Gramelsberger hat diese Problematik u.a. für Klimabilder und die Anwendung von Approximationen und Fehlerrechnungen aufgegriffen.115 Konstruktive Methoden der Transformation zwischen visuellen Medien erweisen sich darum als mannigfaltig, und ihre Systematisierung fällt sicherlich mit den verfügbaren Bildbearbeitungsprogrammen zusammen. Sie können hier im einzelnen nicht diskutiert werden, doch macht ihre Vielfalt deutlich, wie stark sich, wie auch Jörg Huber in seinem Beitrag in diesem Band schreibt, wissenschaftliche Visualisierungen einer „Arbeit am Bild“ verdanken, die die beinahe kanonische Trennung zwischen den „zwei Kulturen“ (Snow) von Wissenschaft und Kunst instabil werden lassen. Im Folgenden soll allerdings nicht so sehr der Blick auf diese gerichtet, sondern der Frage nach den Grundbedingungen der Übertragung und dem darin immer schon mitgängigen Spiel von Formation und Deformation nachgegangen werden, die deutlich macht, dass auch Wissenschaftsbilder nicht nur ‚darstellen‘, indem sie referieren, und dass ihr Dargestelltes nicht nur ‚wahr‘ oder ‚falsch‘ sein kann, sondern dass ihre Strategien einer Sichtbarmachung das Sichtbargemachte immer auch modifizieren und verändern. Dabei lassen sich heuristisch zwei Formen von Übertragung unterscheiden: (i) erstens intravisuelle Überlagerungen und Überlappungen bzw. Verschränkung unterschiedlicher Formate innerhalb eines Visualisierungsprozesses, sowie (ii) zweitens intermediale Transformationen zwischen verschiedenen Bildprozessen. Zeichnerische Verfahren wie z.B. Linienführung, Heraushebung von Konturen, Kolorierung und dergleichen wäre dabei noch von mathematischen Methoden der Abbildungen oder Isomorphie zu unterscheiden. Letztere unterstehen dem Begriff der Regel bzw. des Algorithmus. Tatsächlich sind vor allem mathematische Transformationen insoweit konventioneller Art, als, wie auch Lynch konstatierte, „mathematization includes practices for assembling graphic displays. Specimen materials are ‘shaped‘ in terms of the geometric parameters of the graph […].“116 Ihre Grundlage bilden Funktionen f: S1 ļ S2, die ihrerseits von spezifischen Struktureigenschaften wie Transitivität oder Intransitivität, Symmetrie, Homogenität und dergleichen abhängen. Sie tangieren vor allem die Ordnung des Wissens, weniger seine Sichtbarkeit und Sicht113

Diewald et al 2001, 141ff.

114

Krug 2001, 135ff.

115

Gramelsberger 2002, 16f. sowie der Beitrag in diesem Band.

116

Lynch 1990, 181.

37

Martina Heßler, Dieter Mersch

38

barmachung. Peirce hat dazu in seiner Theorie der Existential Graphs eine Reihe von systematischen Überlegungen angestellt,117 doch fallen sie im wesentlichen mit einer „Theorie der Ähnlichkeit“ zusammen, die Übergänge von logischen Beziehungen zu topologischen sowie Fragen der Isomorphie behandelt. Die Darstellung bleibt insoweit unbefriedigend, als nicht klar wird, wie mit disparaten ikonischen Gliederungen, die gleichwertige Informationen liefern, umzugehen sei – und was die verschiedenen diagrammatischen Entwürfe äquivalenten Inhalts jeweils zu leisten vermögen oder ausblenden, d.h. im graphischen Metier gegenüber der logischen Form gewinnen oder verlieren. (i) Wie bereits erwähnt, bildet eines der häufigsten Verfahren intravisueller Transformation die Überblendung visueller Formate zu einem Bild. Dabei werden Tabellen, Diagramme, Graphen etc. zu multiplen ‚ikonischen Modellen‘ zusammengeführt, was nicht nur zu einer Verdichtung von Informationen unterschiedlicher Quellen führt, sondern gleichzeitig auch zu deren Relationierung. Dazu gehören unter anderem alle Arten von kartografischen Materialien wie Wetter- und Vegetationskarten oder Karten, die die Wanderbewegung spezifischer Tierarten nachzeichnen – ihre wechselseitige Verschränkung erlaubt z.B. Aussagen über Verhaltensveränderungen und dergleichen. Schematische Darstellungen in der Biologie werden darüber hinaus mit Tabellen versehen, Abbildungen von statistischen Verteilungen in Koordinatensysteme eingebettet. Zur gängigen Wissenschaftspraxis gehören inzwischen auch mash-ups mit GPS-Navigationssystemen oder Google-Mapping aus dem Internet, die allerdings die Gefahr einer Kollision unterschiedlicher Geltungsbereiche bergen, sodass inkonsistente Korrelationen entstehen können – ein Vorgang der, wie Stephan Günzel in seinem Beitrag ausführt, schon für die in der Kartografie übliche Verbindung zwischen mimetischen und nichtmimetischen Zeichen wie Größenverhältnisse, Kolorierungen usw. gilt, umso mehr jedoch für solche Verfahren, die sich auf herunter geladene und damit ungeprüfte Informationen beziehen. (ii) Von anderer und komplexerer Art sind demgegenüber die intermedialen Transformationen, etwa wenn Fotografien in Zeichnungen überführt werden oder mit schematischen Visualisierungen überschrieben werden, wie es häufig bei der Lokalisierung archäologischer Fundstellen der Fall ist. So hat Greg Myers hervorgehoben, dass Fotografien durch Zeichnungen selektiert und arrangiert werden.118 Insbesondere gestatten Zeichnungen die Betonung von Konturen, das Auffüllen von Lücken wie überhaupt eine Vereindeutigung markanter Stellen. So kommt der Linienführung etwa bei der Identifizierung von Gestalten eine entscheidende Rolle zu, denkt man an Abmessungen und Lagen von Gebäuden, Mauern etc. in archäologischen Karten, die das, was die Fotografie kaum erkennen lässt, allererst sichtbar machen. Solche Sichtbarmachungen durch Vereindeutigungen gehorchen der bildnerischen Erkenntnisleistung dessen, was bereits in den Traktaten der italienische Renaissancemaler unter dem Begriff des disegno diskutiert wurde. Bedeutet disegno, von lat. designare für ‚bezeichnen‘, ‚zeichnen‘ oder ‚umreißen‘ wörtlich ‚Entwurf ‘ bzw. ‚Zeichnung‘, dominiert in ihr die Beziehung sowohl zur Form als auch zum Zeichen (semiosis). Gemeint ist folglich die Präzision der 117

Peirce 1967-1970, 4.347-573

118

Myers 1990.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Kontur, die die unverwechselbare Gestalt, das individuelle Aussehen (eidos) eines Gegenstandes, einer Person oder Landschaft preisgibt, im Unterschied zum colore, das Heinrich Wölfflin, nunmehr in Opposition zum „Zeichnerischen“, auch als das „Malerische“ charakterisiert hat.119 Tatsächlich referiert die Übertragung von Fotografien oder auch anderer Verbildlichungsformen in die Zeichnung auf diese, in der Geschichte der Künste anhaltenden Debatte, die unumwunden den Vorrang des disegno vor dem colore behauptet und den wiederum Immanuel Kant auf seine Weise durch die Privilegierung des Formaspekts vor dem bloß farbigen „Beiwerk“ philosophisch festschrieb.120 Der einseitige Auszeichnung ist für Wissenschaftsbilder insofern lange prägend geblieben, als noch bis in die 1960 Jahre hinein grafische Inskriptionen vorherrschten und, wie Martina Heßler deutlich gemacht hat, Wissenschaftsbilder schwarz-weiß und von jeder Kolorierung unberührt zu sein hatten, um einem Ideal der Objektivität zu gehorchen.121 Offenbar neigen die Wissenschaften zur Primat von Schriftlichkeit sowie der Abschneidung ästhetischer Funktionen,122 doch ist aufschlussreich, dass mit der digitalen Bildgebung die Prinzipien des colore erneut einen neuen Rang erhalten haben, vorzugsweise bei der Falschfarbentechnik, die zur Differenzierung eingesetzt wird. Regionen unterschiedlichen Drucks, verschiedener Höhe oder Intensität werden so entlang von Meßwerten formal gegeneinander abgegrenzt. Anders ausgedrückt: Transformationsverfahren des Disegno und Colore unterscheiden sich durch Prozesse der Semiotisierung und Differenzierung. Im ersten Fall werden Zeichen gesetzt, im zweiten Strukturen erzeugt – jedes Mal hat man es jedoch mit einer charakteristischen Verschiebung des Wissens zu tun. Michael Lynch wiederum widmete sich in seinen Untersuchungen der Überführung von fotografischen Aufnahmen in Diagramme. Dazu verfolgte er, „how a natural terrain is turned into a graphic field“, was den Blick auf die Frage lenkt, wie durch Transformation und Inskription das wissenschaftliche Objekt mitkonstituiert wird. Lynch kam dabei zu dem Schluss, dass graphische und vor allem diagrammatische Verfahren nicht nur simplifizieren oder selektieren, sondern auch hinzufügen – etwa indem Unterschiede hervorgehoben oder Linien kontrastreicher gestaltet werden usw.:123 „The diagram appears to be more analyzed, labeled and idealized.“124 Die ‚Diagrammatisierung‘ disambiguiert und logifiziert und macht damit aus einer mehrdeutigen Darstellung das, was Lynch ein „eidetic image“125 genannt hat: „It integrates and assembles the visible, normative, and mathematical products of diverse research projects.“126 Der Ausdruck ‚eidetische Bilder‘ entspricht hier der Rede von ‚epistemischen Visualisierungen‘ sowie insbesondere den ‚schriftbildlichen‘ Hybridformen. Gleichzeitig, so Lynch weiter, brachten die schematischen Darstellungen zusätzliche theoretische Annahmen ins Bild, die 119

Wölfflin 1915.

120

Kant 1957, B 42f..

121

Heßler 2007.

122

Vgl. Stetter 2005, 121ff.

123

Lynch 1990, 161f..

124

Lynch 1990, 160.

125

Lynch 1990, 162.

126

Lynch 1990, 168.

39

Martina Heßler, Dieter Mersch

40

im entsprechenden Ausgangsmaterial nicht enthalten waren. Solche Annahmen rationalisieren das Dargestellte und stabilisieren auf diese Weise die sichtbaren Gegenstände; sie dienen folglich allererst der Herstellung wissenschaftlicher Objekte. Wie Lynch bemerkte: „Reasoning and vision are intimately associated from the beginning of the rendering process to its end. It is only by comparing one stage of that process to another that we can distinguish relative degrees of eidetic vs. empirical form. As we trace through the sequence of renderings, we see that the object progressively assumes a generalized, hypothetically guided, didactically useful, and mathematically analyzable form.“127 Mit Bezug auf die mehrstellige Faktoranalyse oder komplexe Kausalitätsmatrizen kann außerdem gezeigt werden, wie in Diagrammen nicht nur zusätzliche Annahmen oder Pointierungen hinzukommen, sondern auch einzelne Parameter aus ihrem Kontext isoliert oder ganz gelöscht werden: Graphen und Modelle, so auch Myers, „define space, wiping it clean of all irrelevant details and structuring it so that each mark has meaning only in relation to the presentation of the claim.“128 Generell kann damit als Grundregel angenommen werden, dass die Eindeutigkeit des Wissens sich zum Grad der Ikonizität umgekehrt proportional verhält: Je mehr ikonische Elemente in die Darstellung eingehen, desto uneindeutiger wird sie, weil sie unterschiedliche Alternativen zulässt. Umgekehrt schneidet der Graphismus die – auch produktive – Ambivalenz des Bildes ab. Das gilt im eigentlichen Sinne vor allem für Graphen, die sich gemäß der mathematischen Graphentheorie als „Modelle für netzartige Strukturen“ verstehen lassen,129 die im wesentlichen durch zwei Arten von Objekten bestimmt sind: Orte („Knoten“) und Verbindung („Kanten“).130 Die Definition ist hinreichend allgemein, sodass alle Netzstrukturen aus der Kombination beider Objekte hervorgehen; doch zeigen sie sich gegenüber ihrer visuellen Darstellung insofern als resistent, als allein ihre Strukturalität entscheidet, nicht ihre Ikonizität.131 Graphen zeichnen sich damit durch ihre weitestgehende Abstraktion von piktoralen Elementen aus, büßen damit auch deren Möglichkeiten ein – sie verfahren als schematische Darstellungen bewusst unterkomplex. Entsprechend erscheint ihre jeweilige Visualität mit Blick auf die dargestellten Netzstrukturen als irrelevant – etwa bei der Aussparung von Entfernungen bei U-Bahn-Karten, für die allein ‚Linien‘ und Knotenpunkte relevant sind.132 Erneut zeigt sich, dass Transformationen Deformationen bedeutet, ohne damit eine Wertung zu präjudizieren: Jede Übertragung induziert eine Verschiebung; sie bedingt eine Differenz, eine Modifikation, in manchen Fällen auch eine Aberration, eine Distorsion.

127

Lynch 1990, 168.

128

Myers 1990, 235.

129

Tittmann 2003, 11.

130

Ebd.; Diestel 2000, 2.

131

Vgl. Stetter 2005, 121ff.

132

Vgl. auch Krämer 2008, 320f.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Erkenntnistheoretischer Status des Bilderwissens in den Wissenschaften und in der Öffentlichkeit Fasst man zusammen, ergibt sich, dass bei Text/Daten- und Bild-Transformationen vor allem punktförmige Datensätze und linear-zeitliche Strukturen in räumliche Strukturen transferiert werden. Sie weisen einige Besonderheiten auf, die die Bild‚Logik‘ im Vergleich zur diskursiven auszeichnet. So werden logische Relationen ebenso wie Sukzession und Grund-Folge-Verhältnisse in topologische Ordnungsrelationen überführt, die unter anderem die Darstellung netzartiger Verknüpfungen oder die Entdeckung impliziter Strukturen und deren Teilräume ermöglichen. Implikationen sowie Kausalitäten lassen sich zwar lediglich in Form von Simultaneitäten, Differenzen als Kontraste oder Komplementaritäten, ‚Und‘- oder ‚Oder‘Relationen in Gestalt von Überschneidungen bzw. Vereinigungen darstellen, doch so, dass sie wiederum stets beide Alternativen gleichzeitig sichtbar machen und damit neue Lösungen anbieten. Bleibt zudem in der visuellen Darstellung eine adäquate Repräsentation der Aussagenlogik wegen fehlender Negation problematisch, werden umgekehrt, anders als in diskreten Texturen, Proportionalitäten, Richtungen, Pfadabhängigkeiten, Verteilungen oder Isomorphien direkt sichtbar. D.h. visuelle Medien erweisen sich zwar als ambiguid, vermögen gleichzeitig aber Wissen mehrdimensional zu verdichten. Solche Verdichtungen privilegieren ihre Verwendung als nichtlineare Speicherung, sowohl in dem Sinne, dass sie komplexe Datenmengen leichter aufbereiten, als auch, dass sie diese übersichtlicher gestalten und damit Muster und dergleichen allererst erkennbar machen.133 Einen epistemisch besonders interessanten Fall solcher Exploration im Visuellen bildet die Theorie der „Attraktoren“: Sie wurde erst dadurch formulierbar, dass Iterationen, die durch Hintereinanderausführung mitunter sehr einfacher Funktionen charakterisiert sind, durch graphische Überlagerungen im Bild neue mathematische Strukturen offenbaren.134 Deutlich wird auf diese Weise, wie sich das Darstellungsmedium ins Dargestellte inskribiert und auf die Episteme zurückschlägt. Jeder Medienwechsel impliziert diesen Bruch im Wissen, den es jeweils im Einzelfall und in Relation zu den zugrunde liegenden Visualisierungstechniken auszubuchstabieren gilt. Davon zu unterscheiden wären jedoch noch solche Transformationen, die den Weg innerwissenschaftlicher Prozesse in die Öffentlichkeit beschreiben. Es handelt sich um eine Frage der Kommunikation. Sie ist im hohen Maße von Selektionspraktiken abhängig. So kam Myers mit Blick auf populärwissenschaftliche Darstellungen zum Schluss: „While more popular presentations do not use the battery of graphs and tables found in Sociobiology, they do select their images from a range of categories, each of which carries its own conventions of interpretation, and they do juxtapose several kinds of images.“135 Offenbar finden unterschiedliche Kategorien von Bildern in verschiedenen Kontexten mit unterschiedlichen Deutungskonventionen Anwendung, sodass bestimmte Bild- und Darstellungstypen strategisch für bestimmte Zwecke eingesetzt werden, zuweilen aber auch Überdeckungen stattfinden, die die Quellen auf prekäre Weise vermischen. 133

Vgl. auch Grün 2001, 83.

134

Vgl. dazu Hofstadter 1988, 383ff.; Zeitler / Neidhardt 1993.

135

Myers 1990, 259.

41

Martina Heßler, Dieter Mersch

Gleiches gilt für die ästhetischen Strategien; sind sie einerseits konstitutiv für die bildliche Sinnerzeugung, so erscheinen andererseits der „ästhetischen Spielerei“, dem „freien Spiel von Form und Farbe“, wie es Herbert W. Franke einst ausdrückte, in der Verwendung wissenschaftlicher Bilder zu Popularisierungszwekken weit weniger Grenzen gesetzt. Nicht jedoch der ‚visuelle Gossip‘ von Populärdarstellungen soll im Folgenden thematisch werden, sondern die lange Zeit übersehene konstitutive Bedeutung des Ästhetischen für die ‚Bildlogik‘ und die Sinngenerierung im Visuellen.

3. Ästhetisches Handeln

42

Jörg Huber geht in diesem Band u.a. der Frage nach, in wie weit auch wissenschaftliche Visualisierungen „ästhetische Erfahrungen“ induzieren und sich einer „ästhetisch-experimentellen“ Praxis verdanken, die das Verhältnis zwischen Kunst und Wissenschaft als ein „Differenzgeschehen wechselseitiger Über- und Durchkreuzung beider Kulturen“ konstelliert. Der Ort dieser Konstellation ist das Bild. Das Bild – als „aisthetisches Medium“136 – erweist sich als notwendig auf den Blick bezogen, der sowohl von ihm affiziert und modelliert wird, wie der Blick umgekehrt dem Bildlichen allererst seine Signifikanz und Aussagekraft verleiht. Beide erweisen sich als zueinander korrelativ,137 doch bedeutet ihr wechselseitiges Bezogensein zugleich, dass das ‚Ästhetische‘ unausweichlich ist, und zwar in einem doppelten Sinne: einerseits hinsichtlich der Produktionsstrategien von Bildern, andererseits in Ansehung der spezifischen ‚ästhetischen Erfahrung‘, die das Auge vor ihm macht. Handelt es sich bei den Produktionsstrategien nicht nur um die ‚Transformationen im Bild‘, sondern um stets auch experimentelle Einschreibungen, um immer neue Versuche der Kallibrierung und Justierung sowie der Korrektur und der Intervention durch die ‚erkennende Hand‘, wie sie Elke Bippus in diesem Band diskutiert, bedeutet das „Vor einem Bild“, wie es Jörg Huber in seinem Beitrag in Anspielung auf George Didi-Hueberman beschreibt, gleich, ob das Sehen mit einer künstlerischen oder einer wissenschaftliche Darstellung konfrontiert ist, eine Verunsicherung, weil in dem Maße, wie wir ein Bild betrachten, es zugleich von sich her ‚an-sprechen‘ und ästhetisch ‚gelesen‘ werden muss. Die Wahrnehmung von Wissenschafts- und Kunstbildern unterliegen demnach grundsätzlich ähnlichen Bedingungen der Rezeption, auch wenn die künstlerische Bildproduktion primär reflexiver Art ist, während epistemische Bildprozesse in erster Linie referenziell verlaufen, d.h. im ersten Fall das Bild als Bild mit thematisch wird, im zweiten vor allem das, was es an- oder aufzeigt und dadurch zu erkennen gibt. Die Frage des Ästhetischen als einem in der Wissenschaftstheorie eher vernachlässigten Thema geriet gerade in der jüngeren Wissenschaftsforschung anlässlich der Untersuchung von Bildverfahren ins Zentrum – sei es, um ihr zu entkommen, sei es, um sie einzugrenzen oder durch Rationalisierung von Darstellungsweisen zu kontrollieren, sei es aber auch, wie in diesem Band, um die Grenzen zwischen 136

Vgl. Mersch 2003.

137

Mersch 2004a.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Kunst und Wissenschaften aufzulockern. Dabei findet sich allerdings eine auffällige semantische Vielfalt des Begriffs. Zum einen wurde ‚das Ästhetische‘ im Zusammenhang der zu hinterfragenden Differenz von Kunst und Wissenschaften in Richtung einer epistemischen Aufwertung künstlerischer Praktiken thematisiert und verwies dann auf Prozesse der Erkenntnisgewinnung bzw. der Kunstproduktion, die sich beide ähnlicher Verfahren bedienen und auf ähnlichen Grundlagen fußen.138 In diesem Sinne rückte auch Judith Wechsler den Begriff des Ästhetischen in die Nähe zur Intuition; sie verband ‚Ästhetik‘ mit einer Weise des ‚Denkens‘, die sowohl künstlerischen als auch wissenschaftlichen Arbeiten eigen sei: „[…] aesthetics is presented in this collection as a mode of cognition which focuses on forms and metaphors used in scientific conceptualizing and modeling.“139 Die Auffassung fällt mit der Umberto Ecos zusammen, wonach die wissenschaftliche Forschung, vor allem in ihrer experimentellen Arbeit, und die künstlerische Praxis von der selben Basis zehren, denn es gebe „keinen Unterschied (auf der höchsten Stufe) zwischen der kühl-spekulativen Intelligenz und der Intuition des Künstlers. Es gibt etwas Künstlerisches in der wissenschaftlichen Entdeckung und etwas Wissenschaftliches in dem, was die Naiven ‚geniale Intuition des Künstlers‘ nennen. Das beiden Gemeinsame ist die glücklich gelungene Abduktion.“140 ‚Ästhetik‘ bezeichnet hier im weiten Sinne eine anschaulich-schöpferische Denkform, die betont, Kreativität geschehe in Form von gewagten Schlüssen, Analogien, Übertragungen, Metaphern und intuitiven Verknüpfungen. Das Ästhetische steht damit im Kontrast zu formal-logischem Denken und Rationalität und besetzt die sinnliche, nichtrationale und nichtdiskursive Seite von Entdeckungen. Verfehlt jedoch dieser Ästhetik-Begriff die Spezifizität des Bilderwissens, insofern das Ästhetische schon auf der Ebene der Wahrnehmung, der Schemata der Anschauung und der Operation mit visuellen Elementen relevant wird, so präsentiert sich die Suche nach unmittelbaren Verbindungen von Wissenschaft und Kunst, beispielsweise in der Person eines kunstinteressierten Wissenschaftlers, als zu eng.141 Diese Gleichsetzung sowie die Frage nach dem Zusammenhang bzw. den Grenzen von Kunst und Wissenschaft finden sich relativ häufig, reduzieren aber den Aspekt des Ästhetischen auf künstlerische Produktionsbedingungen und deren Institutionen. In diesem Kontext etabliert sich dann gleichsam wie von selbst die Verbindung des Ästhetik-Begriffs mit dem „Schönen“, der häufig mit einer Heroisierung der wissenschaftlichen Arbeit einhergeht.142 Naturwissenschaftler selbst stilisierten ihre Wahrnehmung der Natur als eine ästhetische und betonten die Schönheit der Natur – mithin am bekanntesten ist Ernst Haeckels Buch Kunstformen der Natur.143 Noch fragwürdiger in Ansehung einer ‚Logik der Bilder‘ ist es jedoch, wenn Naturwissenschaftler im Hinblick auf ihre Bildproduktion die dezidiert ästhetische Dimension ihrer Arbeit hervorheben. Bekannt sind die verzückten Ausrufe von 138

Z.B. Kemp 2003.

139

Wechsler 1988, 6.

140

Eco 1988, 210.

141

Vgl. dazu das bei Edgerton / Lynch 1988 beschriebene Selbstverständnis der Wissenschaftler.

142

Z.B. Fischer 1997.

143

Vgl. dazu z.B. Bayertz 1990.

43

Martina Heßler, Dieter Mersch

Nobelpreisträgern wie James Watson und Francis Crick oder Gerd K. Binnig und Heinrich Rohrer über die unglaubliche Schönheit ihrer Forschungsobjekte. Wird hier ein traditioneller Begriff von Ästhetik reproduziert, so wurden, diesem Verständnis entsprechend, bis vor nicht allzu langer Zeit gemeinhin „ästhetische Phänomene als kulturelle Peripherie einer im Kern autonomen Wissensproduktion“ verstanden.144 So gesehen wären Wissenschaft und Ästhetik polare Begriffe. Alle diese referierten Positionen beruhen auf Verkürzungen, die die Bedeutung visuellen Denkens, der Wahrnehmung und ästhetischer Entscheidungen im Forschungsprozess unterschätzen. Vielmehr sind wissenschaftliches und ästhetisches Handeln nicht zu trennen. Ästhetisches Handeln ist ein genuiner Teil der wissenschaftlichen Praxis, sowohl hinsichtlich ihrer Darstellungsproduktionen als auch der experimentellen Forschung. So bemerkte auch Gabriele Werner, dass sich, das „Ästhetische […] nicht mehr auf einen Begriff des Schönen reduzieren (lasse), sondern […] weit mehr mit einer sinnlichen Erkenntnis zu tun“ habe.145 Ähnlich sprach Wolfgang Krohn von der „ästhetischen Selbstvergessenheit der Wissenschaft“: Sie sei in einem „exponierten Sinn ein ästhetisches Unternehmen“.146 Ästhetische Gestaltung steht demnach nicht in Konkurrenz zur Wahrheitsorientierung der Wissenschaft, sondern ist ein Element des Wahrheitsanspruches, so Krohn nachdrücklich. Die Geltung des Wissens entstehe also nicht obwohl, sondern weil Wissen gestaltet ist und gestaltet werden muss. Zielt Krohn hier auf Gestaltung und Formgebung in einem sehr weiten Sinne, geht es im Folgenden spezifischer um visuelles Wissen, um Bilderwissen sowie um zentrale Merkmale einer ‚Bildlogik‘, und zwar um die ästhetische Praxis einerseits und, untrennbar damit verbunden, um die Bedeutung von Bildtraditionen, Stilen und Darstellungskonventionen andererseits.

44

Ästhetische Praxis in den Naturwissenschaften Zweifellos stellt das Ästhetische insoweit eine universelle Kategorie dar, als zur Gestaltung und zur Sinnproduktion – auch im Hinblick auf Texte, Zahlen, Daten – immer Interpretationen und Interventionen erforderlich sind: In diesem Sinne gibt es, wie gleichermaßen Jörg Huber und Elke Bippus im vorliegenden Band betonen, keinen prinzipiellen Unterschied zwischen Kunst und Wissenschaften. Ihr Gemeinsames liegt in Gestaltung. Dabei liegt die Besonderheit ikonischer Erkenntnisproduktionen im Einsatz von Sichtbarmachungsstrategien; sie gestalten im Visuellen. Ästhetisches Handeln erweist sich dann als konstitutiv für die Produktion und Kommunikation von Wissen. Wie Texte mittels Figuration, rhetorischer Verfahren, Duktus oder Grammatik erzeugt werden, so gibt es kein Bild ohne ästhetische Methoden, ohne die Verwendung von Formen, Farben, Linine, Kontrasten und ähnlichem. Wandte sich der linguistic turn der Rolle der Sprache, den diskursiven Herstellungsprozessen von Sinn zu, so sind – gemäß des iconic turn – Bilder und Bildprozesse in Ansehung ästhetischer Herstellungsverfahren zu betrachten. Goodman hatte in seiner Unterscheidung diagrammatischer und pikturaler Schemata implizit eine Bestimmung des Bildlichen und seiner ‚Sinner144

Geimer 2002, 8.

145

Werner 2001, 369.

146

Krohn 2007, 15.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

zeugung‘ gegeben, indem er davon sprach, die Bilder im pikturalen Schema seien „relativ voll“.147 „Jede Verdickung oder Verdünnung der Linie, ihre Farbe, ihr Kontrast mit dem Hintergrund, ihre Größe, sogar die Eigenschaft des Papiers – nichts von all dem wird ausgeschlossen, nichts kann ignoriert werden“.148 Denn während im Nichtpikturalen die Bedeutung jenseits der Farbe, der Linienführung liegt, so ist es im pikturalen Schema genau umgekehrt: Bilder erzeugen ‚Sinn‘ mittels Farben und Kontrasten, mittels Umrissen und Figuren, mittels Schattierungen und dergleichen mehr. Mithin produzieren sie mit ästhetischen Mitteln Sinn. Damit ist das Ästhetische konstitutiv für visuelle Darstellungen und Visualisierungsprozesse. Erkenntnisse werden mittels Formen und Linien, durch Herstellung von Schärfe oder Unschärfe, durch Ausrichtung im Raum hergestellt, weiter sind räumliches Denken, das Erkennen von visuellen Analogien und Gestalten etc. charakteristisch. Vor allem die Mustererkennung spielt eine überragende Rolle. Die Produktion wissenschaftlicher Erkenntnis mittels Bildern basiert damit auf ästhetischen Wahlentscheidungen. Zugleich sind diese Verfahren Überzeugungsund Argumentationsstrategien. Latour betonte bereits 1990: „[...] one more inscription, one more trick to enhance contrast, one simple device to decrease background, or one coloring procedure might be enough, all thing being equal, to swing the balance of power and turn an incredible statement into a credible one that would then be passed along whithout further modification. The importance of this cascade of inscription may be ignored when studying events in daily life, but it cannot be overestimated when analysing science and technology“.149 Ästhetisches Handeln meint dabei, dass die wissenschaftliche Praxis von der Suche nach Mustern, nach Strukturen, Stimmigkeiten bzw. des Herausfallenden geleitet ist und dass das, was gezeigt werden soll, hervorgehoben wird, indem es schärfer gemacht, eingefärbt, begradigt oder unterstrichen wird. Samuel Edgerton und Michael Lynch sprachen in diesem Zusammenhang von „the work of composing visible coherences, discriminating differences, consolidating entities, and establishing evident relations.“150 Das bedeutet, dass Wissenschaftler in der Produktion von Wissen stets ästhetische Wahlentscheidungen treffen müssen, die zum einen die Bilddarstellung und Bildgestaltung betreffen, zum anderen aber Sehkonventionen folgen, die ganz offensichtlich Leitvorstellungen gehorchen, was ein ‚gutes Bild‘ ausmacht und als solches akzeptiert wird. Vorherrschend ist hierbei zumeist „[…] das Verlangen nach Klarheit statt nach Wahrheit. Das kontrastreiche Bild, das uns die Vieldeutigkeit vergessen macht, gilt […] nur zu oft als das bessere Bild. Man will scharfe Spuren und keine undeutlichen Übergänge. […] Man fragt sich viel zu selten, ob gerade solche Bilder nicht mehr Information unterdrücken als jene, die gerade darum schwer zu deuten sind, weil die Wirklichkeit selbst eben vieldeutig ist“.151

147

Goodman 1995, 213.

148

Ebd. 212f.

149

Latour 1990, 42.

150

Edgerton / Lynch 1988, 212.

151

Gombrich 1994, 18; 19 passim.

45

Martina Heßler, Dieter Mersch

Zudem existieren in verschiedenen Forschungsfeldern „visuelle Fachsprachen“ oder Codes,152 die es in der fachinternen Kommunikation ermöglichen, vom Dargestellten zu abstrahieren und es als Zeichen zu lesen. Reinhard Nesper beschreibt solche Codierungen für die Chemie: „In Abb. Ia sind verschiedene der üblichen Darstellungen eines Wassermoleküls H2O und in Abb. Ic ein winziger Teil eines Wassertropfens abgebildet. Natürlich glaubt kein Chemiker, dass das Wassermolekül bzw. Eis so aussieht, denn die Messungen zeigen: Es gibt keine wirkliche Begrenzung der Moleküle nach außen, wiederum keine voneinander separierten Atome in den Molekülen; es gibt keine Eigenfarbe, und die Teilchen sind in ständiger Bewegung – Schwingungen, Rotation und Translation.“153 Der Betrachter muss also die jeweilige ‚Sprache‘ kennen; er muss wissen, welches Wissen und welches Verständnis transportiert werden, sodass die epistemische Plausibilität von Visualisierungen ganz wesentlich vom Rezipienten sowie vom Wissen darüber abhängt, dass die Abbildung ein stilisiertes Zeichen darstellt. Anders ausgedrückt: Bildprozesse erweisen sich als ausgesprochen voraussetzungsreich, ohne dass jedoch das Bild die Möglichkeit bietet, dies zu thematisieren. Die Lesbarkeit beruht auf der Etablierung einer gemeinsamen Praxis, eines geteilten visuellen Codes, der Übereinstimmung über die Verwendung von Formen, Farben usw.

46

Bildtraditionen, Sehkonventionen und Stile als Konstituens der bildlichen Erkenntnis Nimmt man die Frage nach den ästhetischen Entscheidungen als konstitutiven Teil wissenschaftlicher Praxis noch einmal auf, so geraten ebenfalls die Bedeutung von Bildtraditionen, Seh- und Darstellungskonventionen und Stilen ins Zentrum. Martin Kemp kritisierte als einer der ersten die Auffassung, wissenschaftliche Bildprozesse befänden sich jenseits eines Stils, wie er für künstlerische Bilder konstatiert wird. Kemp konstatierte, wir seien allenfalls bereit, „dem visuellen Erbe der Wissenschaft früherer Zeiten einen Stil zu attestieren – den Abbildungen in alten Büchern über Naturgeschichte“.154 Während in der Tat der historische Abstand die auf religiöse und moralische Traditionen zurückgreifenden Symbole und Metaphern in den Bildern unübersehbar als eine Verschönerung, Dekorierung oder Kontextualisierung wissenschaftlicher Phänomene vor Augen führt, scheinen eine Tabelle, ein Graph oder visuelle Darstellungen, wie sie beispielsweise mit dem Elektronenmikroskop hergestellt werden, nüchterne naturwissenschaftliche Darstellungen zu präsentieren. Kemp betonte demgegenüber, dass ‚Stil‘ im Sinne ästhetischen Designs tatsächlich eine Kategorie des wissenschaftlichen Denkens sei. Die These, dass in diesem Sinne „Stile“ für naturwissenschaftliches Arbeiten relevant seien, mag nun Wissenschaftshistoriker, die mit der Idee eines „Denkstils“ seit Ludwik Flecks Studie über die Entstehung und Entwicklung einer wissenschaftlichen Tatsache von 1935155 und vor allem mit den daran anschließenden wissenschaftstheoretischen Arbeiten aus den letzten Jahren vertraut sind, nicht überraschen, doch applizierten diese den Begriff des Stil auf „Experimentalstile“ (Rhein152

Grab 2001, 117.

153

Nesper 2001, 174.

154

Kemp 2003, 15.

155

Fleck 1999.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

berger) im Sinne jener Art von Praktiken, wie sie das Arbeiten im naturwissenschaftlichen Labor prägen, nicht aber im Hinblick auf ästhetische Bildverfahren. In der Kunstgeschichte dagegen dominiert ein Stilbegriff, der rein auf das Formale bezogen ist und im Sinne einer Klassifizierung die Modalitäten des Darstellens so ordnet, wie sie sich historisch zeigen, um sie als Instrumente oder „diagnostic tool“ zu verwenden, das weniger mit dem Inhalt und der ikonologischen Bedeutung des Dargestellten befasst ist.156 Stil in dieser Bedeutung verweist, wie Martina Plümacher in anderem Zusammenhang schrieb, „auf die Form und Qualität der Erscheinung“. Damit werde „etwas in den Blick genommen, was Langer mit Schiller ‚Schein‘ nannte […]: der durch die visuelle Gestalt hervorgerufene Eindruck und damit verbundenen Assoziations- und Interpretationsprozesse.“157 Führt die Betonung solcher „Assoziations- und Interpretationsprozesse“ bereits über eine reine Formanalyse hinaus, so betonte Maurice Merleau-Ponty – den „naiven Formalismus“ zurückweisend – gerade die Sinnfunktion der Form.158 In der Tat ist ‚Stil‘ im Sinne einer universalen Kategorie des Wie einer Darstellung entscheidend für deren epistemischen Gehalt sowie für die Frage der Bildlogik, weil sie auf die Gestaltungsprinzipien abhebt, wie mit ästhetischen Mitteln Sinn produziert wird. Die maßgebliche Frage ist dann die nach der Beziehung eines spezifischen Darstellungsmodus zum Bilderwissen. Stil wirkt, wie Lambert Wiesing ergänzt, „indem er die abgebildete Sache strukturell transformiert, wie ein Filter, durch den man etwas in einer bestimmten Weise sieht. […] Durch den Stil wird die Sache, die abgebildet wird, in einer Weise abgebildet, das heißt, in ihrem Aussehen transformiert und interpretiert.“159 Während erkenntnistheoretische Fragen dieser Art für narrative Strukturen bereits thematisiert und beispielsweise die genuine Rhetorizität von Texten sowie die Konfigurationsfunktion von Tropen betont wurden, so fehlt mit Blick auf Bildern zumeist eine analoge, wissenschaftstheoretisch relevante Analyse.160 Hauptsächlich beschränken sich diese auf Einzeluntersuchungen. So zeigte Cornelius Borck am Beispiel des EKGs, dass „Definition, Restriktionen, Konventionen […] den Möglichkeitsrahmen für die Einschreibung und Identifikation von Bedeutung ab(stecken)“.161 Geof Bowker schilderte ein sinnfälliges Beispiel, in dem er aufzeigte, dass sich die Firma Schlumberger in den 1930er Jahren bei der Zeichnung elektrischer Diagramme im Kontext der Erdöl-Bohrlochmessung eines „dekorativen Aspekts“ bediente: Um an die für die Betrachter (Geologen) gewohnten Diagramme anzuschließen, versuchten sie, die Kurven nicht allzu oft abzuwandeln, trotz der Verbesserungen in der Wissensdarstellung, die solche Modifikationen ihrer Meinung nach gebracht hätten. Bowker kommt zur Einschätzung, dass man schließlich sogar eine „unbelastete Kurve zusätzlich“ verwandte, um „an der unzuläng156

Winter 1998, 63.

157

Plümacher 1998, 56.

158

Vgl. Merleau-Ponty 1993; Wiesing 2000, 61ff..

159

Wiesing 2000, 56.

160

Von kunsthistorischer Seite hat hier wesentliche Pionierarbeit, neben Kemp, vor allem Horst Bredekamp geleistet, vgl. Bredekamp 2004; Bredekamp 2005; Bredekamp 2007.

161

Borck, 1997, 69.

47

Martina Heßler, Dieter Mersch

48

lichen (meine Hervorhebung) Kurve nichts zu verändern“.162 Wesentlich ist, dass eine bestimmte Darstellungsform aus „Kontinuitätsgründen“ beibehalten wurde, obgleich, so legt es die Beschreibung nahe, sie „unzulänglich“ war. Um Wissen zu kommunizieren, so die Schlussfolgerung, erscheint das Anknüpfen an Sehtraditionen, an Konventionen, an Blickgewohnheiten und Erwartungen der Betrachter oft wichtiger als eine eindeutige Darstellung. Für eine ‚Logik der Bilder‘ sind solche Überlegungen, auch insoweit bedeutsam, als auf diese Weise die grundsätzliche und in der Wissenschaftsforschung vielfach behandelte Frage nach der Entstehung des Neuen, der Innovation berührt wird. Gerade das letzte Beispiel demonstriert eindringlich, dass die Darstellung des Neuen aufgrund mangelnder und noch auszubildender Darstellungsweisen des Rückgriffs auf traditionelle Kategorien bedarf. Neue Darstellungsformen rufen daher herkömmliche Bilder auf, schließen an ‚visuelle Referenzen‘, an eingeübte Codierungen an.163 Und gerade wenn es sich um ein Wissen handelt, das der sinnlichen Erfahrung nicht zugänglich ist, müssen sich, so Kemp, die visuellen „Repräsentationen existierender und akzeptierter Wissensbestände bedienen, um überhaupt ein Sinnverstehen für den Betrachter zu ermöglichen“.164 Ähnlich hob ebenfalls die Forschung zur Wissenskommunikation die Notwendigkeit hervor, an eingespielte Muster und Normen anzuknüpfen: „Ausschlaggebend für das Gelingen der Bildkommunikation ist das Vertrautsein mit dem in Bild vorhandenen Zeichen- und Symbolsystem“.165 So beobachtete Soraya de Chadarevian, dass die „graphische Sprache“, wie sie im 19. Jahrhundert in der Physiologie eingeführt wurde, sich letztlich als eine konventionelle Sprache entpuppte, die entscheidend von schriftlichen Kommunikationsformen bestimmt war.166 Und David Gugerli zeigte auf, wie für die präzedenzlose Bilder der virtuellen Endoskopie ein „Referenzrahmen“ geschaffen werden musste, indem Versatzstücke aus der Welt der elektronischen Unterhaltungsindustrie, der Computerspiele und des Science Fiction mobilisiert wurden, um „einen gemeinsamen verfügbaren Erfahrungsraum“ allererst zu generieren“.167 Wissenschaftsbilder unterliegen einem langsamen Transformationsprozess, in dem immer Elemente des bereits validierten Wissens enthalten sind, um das Überraschende oder neue Entdeckungen darstellen zu können – ein Befund, dem Jochen Hennig in diesem Band am Beispiel der Darstellung von Atomen nachgeht. Für die Bestimmung dessen, was eine ‚Logik der Bilder‘ ausmacht, ist darum die ästhetische Praxis der Bildproduzenten ebenso entscheidend wie die Struktur der Bildlichkeit selbst. Beide spielen ineinander und prägen das, was gesehen und verstanden werden kann. Zugleich ist damit das Feld abgesteckt, worin sich eine künftige Wissenschaftstheorie der Visualisierung zu bewegen und mit dessen Grenzen sie sich auseinanderzusetzen hätte. Noch ist eine solche Wissenschaftstheorie nicht

162

Bowker 2000, 843.

163

Vgl. auch Borck 1997, 70, wo er auf Rückgriffe früherer Darstellungsweisen zur Etablierung des EKGs verweist.

164

Kemp 2003, 183.

165

Pahl 2003, 261.

166

Chadarevian 1993, 45.

167

Gugerli 1999, 263.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

in Sicht. Sie als eigenständigen und gleichberechtigten Teil einer philosophischen und historischen ‚Kritik‘ der Wissenschaften zu etablieren, steht noch aus.

49

Martina Heßler, Dieter Mersch

Bibliographie

50

Robert John Ackermann, 1989, The New Experimentalism, in: British Journal for the Philosophy of Science, Vol. 40, S. 185-190. Klaus Amann / Karin Knorr Cetina, 1990, The Fixation of (Visual) Evidence, in: Lynch / Woolgar (Hrsg.), S. 85-121. Aristoteles, Metaphysik, in: Philosophische Schriften in 6 Bden., Bd. 5, Hamburg 1995. Aristoteles, Kategorien, in: Philosophische Schriften in 6 Bden, Bd. 1, Hamburg 1995. Aristoteles, Über die Seele, in: Philosophische Schriften in 6 Bden, Bd. 6, Hamburg 1995. Mitchell G. Ash, 2002, Literaturbericht. Wissenschaftspopularisierung und Bürgerliche Kultur im 19. Jahrhundert, in: Geschichte und Gesellschaft, 29 (2002), S. 322-334. Brian S. Baigrie (Hrsg.), 1996, Picturing Knowledge. Historical and Philosophical Problems Concerning the Use of Art in Science, Toronto. Roland Barthes, 1989, Die helle Kammer, Frankfurt a.M. Kurt Bayertz, 1990, Biology and Beauty: Science and Aesthetics in Fin de Siècle Germany, in: Mikulás Teich / Roy Porter (Hrsg.), S. 278-295. Hans Belting (Hrsg.), 2007, Bilderfragen. Die Bildwissenschaften im Aufbruch, München. Jonathan Bennett, 1967, Rationalität. Versuch einer Analyse, Frankfurt a.M. Arnold Benz, 2001, Das Bild als Bühne der Mustererkennung: Ein Beispiel aus der Astrophysik, in: Heintz / Huber (Hrsg.), S. 65-78. Jacques Bertin, 1983, Graphische Semiologie, Diagramme, Netze, Karten, Berlin. Gerd Binnig / Heinrich Rohrer / Christoph Gerber / E. Weibel, 1982, Surface Studies by Scanning Tunneling Microscopy, in: Physical Review Letters, Vol. 49 (1982), Nr. 1, S. 57-60. David Bloor, 1976, Knowledge and Social Imagery, Chicago. Gottfried Boehm, 1978, Zu einer Hermeneutik des Bildes, in: Gadamer / Boehm 1978, S. 444-471. Gottfried Boehm, 1994, Die Wiederkehr der Bilder, in: Gottfried Boehm (Hrsg.), Was ist ein Bild?, München, S. 11-38. Gottfried Boehm, 1996, Zuwachs an Sein. Hermeneutische Reflexionen und bildende Kunst, in: Gadamer 1996, S. 95-125. Gottfried Boehm, 1999, Zwischen Auge und Hand: Bilder als Instrumente der Erkenntnis, in: Huber / Heller 1999, 215-227. Gottfried Boehm, 2001, Repräsentation – Präsentation – Präsenz, in: Gottfried Boehm (Hrsg.), 2001, Homo Pictor, Colloquium Rauricum, Bd. 7, München / Leipzig, S. 3-13. Gottfried Boehm, 2007, Wie Bilder Sinn erzeugen, Berlin.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Steffen Bogen / Felix Thürmann, 2003, Jenseits der Opposition von Text und Bild. Überlegungen zu einer Theorie des Diagramms und des Diagrammatischen, in: Alexander Patschovsky (Hrsg.), Die Bildwelt der Diagramme Joachims von Fiore. Zur Medialität religiös-politischer Programme im Mittelalter, Ostfildern, S. 1-22. Ulrike Maria Bonhoff, 1993, Das Diagramm. Kunsthistorische Betrachtung über seine vielfältige Verwendung von der Antike bis zur Neuzeit, Münster. Cornelius Borck (Hrsg.), 1996, Anatomien medizinischen Wissens. Medizin. Macht. Moleküle, Frankfurt a.M. Cornelius Borck, 1997, Herzstrom: zur Dechiffrierung der elektrischen Sprache des menschlichen Herzens und ihrer Übersetzung in klinische Praxis, in: Hess 1997, S. 65-87. Cornelius Borck, 2001, Die Unhintergehbarkeit des Bildschirms: Beobachtungen zur Rolle von Bildtechniken in den präsentierten Wissenschaften, in: Heintz / Huber 2001, S. 383-394. Cornelius Borck, 2002, Das Gehirn im Zeitbild. Populäre Neurophysiologie in der Weimarer Republik, in: Gugerli / Orland 2002, S. 227-250. Geof Bowker, 2000, Der Aufschwung der Industrieforschung, in: Serres 2002, S. 829-867. Reinhard Brandt, 1999, Die Wirklichkeit des Bildes, München. Christine Brecht / Barbara Orland, 1999, Populäres Wissen. in: Populäres Wissen, WerkstattGeschichte 23, 10.1999, S. 4-12. Horst Bredekamp, 2003, A neglected Tradition? Art History as Bildwissenschaft, in: Critical Inquiry (2003), Nr. 29, S. 418-428. Horst Bredekamp, 2004, Die Fenster der Monade. Gottfried Wilheilm Leibniz‘ Theater der Natur und Kunst, Berlin. Horst Bredekamp, 2005, Darwins Korallen: Die frühen Evolutionsdiagramme und die Tradition der Naturgeschichte, Berlin. Horst Bredekamp, 2007, Galilei der Künstler. Die Zeichnung, der Mond, die Sonne, die Hand, Berlin. Horst Bredekamp / Angela Fischel / Birgit Schneider / Gabriele Werner, 2003, Bildwelten des Wissens, in: Bilder in Prozessen. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 1,1 (2003), S. 9-20. Horst Bredekamp / Pablo Schneider (Hrsg.), 2006, Visuelle Argumentation, München. Soraya de Chadarevian, 1993, Die „Methode der Kurven“ in der Physiologie zwischen 1850 und 1900, in: Rheinberger / Hagner 1993, S. 28-49. Soraya de Chadarevian, 1994, Sehen und Aufzeichnen in der Botanik des 19. Jahrhunderts, in: Wetzel / Wolf 1994, S. 121-144. Harry Collins, 1985, Changing Order. Replication and Induction in Scientific Practice. London Richard Colton (Hrsg.), 1995, Procedures in Scanning Probe Microscopies. Chichester. Jonathan Crary, 1996, Techniken des Betrachters : Sehen und Moderne im 19. Jahrhundert. Dresden. Jonathan Crary, 2002, Aufmerksamkeit: Wahrnehmung und moderne Kultur. Frankfurt a.M.

51

Martina Heßler, Dieter Mersch

52

A.V. Crewe / J. Wall / L. Langmore, 1970, Visibility of Single Atoms, in: Science, Vol. 168, S. 1338-1340. Lorraine Daston / Peter Galison, 1992, The Image of Objectivity, in: Representations 37, S. 67-106. Lorraine Daston / Peter Galison, 2002, Das Bild der Objektivität, in: Geimer 2002, S. 29-99. Andreas Daum, 1998, Wissenschaftspopularisierung im 19. Jahrhundert. Bürgerliche Kultur, naturwissenschaftliche Bildung und die deutsche Öffentlichkeit 1848-1914, München. Jacques Derrida, 1974, Grammatologie, Frankfurt a.M. Jacques Derrida, 1994, Kraft der Trauer. Die Macht des Bildes bei Louis Marin, in: Wetzel / Wolf 1994, S. 13-35. George Didi-Huberman, 1999, Was wir sehen blickt uns an, München. Reinhard Diestel, 2000, Graphentheorie, 2. Aufl., Berlin / Heidelberg / New York. Udo Diewald et al., Computergraphik in der Mathematik – Mathematik in der Computergraphik, in: Heintz / Huber (Hg), 2001, S. 141-158. Monika Dommann, 1999, Das Röntgen-Sehen muss im Schweisse der Beobachtung gelernt werden. Zur Semiotik von Schattenbildern, in: Traverse. Zeitschrift für Geschichte: Wissenschaft, die Bilder schafft, Bd. 18, (1999/3), S. 114-130. Monika Dommann / Marietta Meier, 1999, Wissenschaft, die Bilder schafft, in: Traverse. Zeitschrift für Geschichte: Wissenschaft, die Bilder schafft, Bd. 18, (1999/3), S. 15-18. Rae A. Earnshaw / Norman Wiseman, 1992, An Introductory Guide to Scientific Visualization. Berlin / Heidelberg u.a.. Umberto Eco, 1987, Semiotik. Entwurf einer Theorie des Zeichens, München. Umberto Eco, 1988, Die Abduktion in Uqbar, in: Umberto Eco, Über Spiegel und andere Phänomene, München, S. 200-213. Michael Lynch, Samuel Y. Edgerton, 1988, Aesthetics and digital image processing: representational craft m contemporary astronomy, in: G. Fyfe and J. Law (eds.), Picturing Power: Visual Depiction and Social Relations. London Routledge and Kegan Paul, pp. 184- 220. Don Eigler / Erhard Schweizer, 1990, Positioning Single Atoms with a Scanning Tunneling Microscope, Nature Vol. 344, S.524-526. Wolf-Dietrich Fellner, 1988, Computer Grafik. Mannheim / Wien / Zürich Ulrike Felt / Helga Nowotny / Klaus Taschwer, 1995, Wissenschaftsforschung. Eine Einführung. Frankfurt a.M. Ulrike Felt, 1996, „Öffentliche“ Wissenschaft. Zur Beziehung von Naturwissenschaft und Gesellschaft in Wien von der Jahrhundertwende bis zum Ende der Ersten Republik, in: Österreichische Zeitschrift für Geschichtswissenschaft 7 (1996), S. 45-66. Ludwik Fleck, 1999, Entstehung und Entwicklung einer wissenschaftlichen Tatsache, 4. Aufl., Frankfurt a.M. Vilém Flusser, 1989, Die Schrift. Hat Schreiben Zukunft?, 2. Aufl., Göttingen. Vilém Flusser, 1997, Medienkultur, Frankfurt a.M. Ernst. P. Fischer, 1997, Das Schöne und das Biest. Ästhetische Momente in der Wissenschaft. München.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Herbert W. Franke, 1985, Computergraphik – Computerkunst, 2. überarbeitete Auflage, Berlin u.a.. Felice Frankel, 2002, Envisioning Science. The Design and Craft of the Science Image. Cambridge, Mass. / London. Sigmund Freud, 1961, Die Traumdeutung, Frankfurt a.M. Michael Frizot, 2003, Der menschliche Gang und der kinematische Algorithmus, in: Wolf 2003, S. 456-478. Hans-Georg Gadamer (Hrsg.), 1996, Die Moderne und die Grenze der Vergegenständlichung, München. Hans-Geog Gadamer, 1999, Das Spiel der Kunst, in: Gesammelte Werke Bd. 8, Tübingen, S. 86-93. Hans-Georg Gadamer / Gottfried Boehm (Hrsg.), 1978, Seminar: Die Hermeneutik und die Wissenschaften, Frankfurt a.M. Peter Galison, 1997a, Image and Logic: A Material Culture of Microphysics, Chicago. Peter Galison, 1997b, Judgement against Objectivity, in: Jones / Galison 1997, S. 327-359. Peter Galison, 2002, Images scatter into Data. Data gather into images, in: Latour / Weibel 2002, S. 300-323. Peter Galison, 2003, Urteil gegen Objektivität, in: Wolf 2003, S. 384-426. Peter Geimer, 2002, Einleitung, in: Geimer 2002 S. 7-25. Peter Geimer (Hrsg.), 2002, Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt a.M. Peter Geimer, 2003, Weniger Schönheit. Mehr Unordnung. Eine Zwischenbemerkung zu „Wissenschaft und Kunst“. In: Neue Rundschau 114, Heft 3 (2003), S. 26-38. Michael Gibbons u.a., 1994, The New Production of Knowledge. The Dynamics of Science and Research in Contemporary Societies. London u.a.. Ernst H. Gombrich, 1994, Das forschende Auge. Kunstbetrachtung und Naturwahrnehmung. Frankfurt a.M. / New York. David Gooding / Trevor Pinch / Simon Schaffer (Hrsg.), 1989, The Uses of Experiment. Cambridge. David Gooding, 1990, Experiment and the Making of Meaning. Dordrecht. David Gooding, 1998, Picturing Experimental Practice, in: Heidelberger / Steinle 1998, S. 298-322. Nelson Goodman, 1978, Ways of Worldmaking, 2. Aufl., Indianapolis. Nelson Goodman, 1995, Sprachen der Kunst, Frankfurt a.M. Nelson Goodman / Catherine Z. Elgin, 1989, Revisionen, Frankfurt a.M. Andreas Gorman, 2000, Imaginationen des Unsichtbaren. Zur Gattungsgeschichte des wissenschaftlichen Diagramms, in: Holländer 2000, S. 51-71. Constantin Goschler (Hrsg.), 2000, Wissenschaft und Öffentlichkeit in Berlin 1870-1930, Stuttgart. Christoph Grab, 2001, Teilchenphysik sichtbar machen, in: Heintz / Huber 2001, S. 109-120.

53

Martina Heßler, Dieter Mersch

54

Gabriele Gramelsberger, 2002, Computersimulationen – Neue Instrumente der Wissensproduktion. Expertise im Ramen der Förderinitiative „Science Policy Studies“ im Auftrag der Berlin-Brandenburgischen Akademie der Wissenschaften. Armin Grün, 2001, Von der digitalen zur virtuellen Erde: Wie und warum entstehen realitätstreue virtuelle Umgebungen? In: Heintz / Huber (Hg)., 2001, S. 79-93. Reinhard Guckenberger, 1995, Image Processing, Evaluation and Presentation, in: Colton 1995, S. 22-49. David Gugerli, 1999, Soziotechnische Evidenzen. Der „pictorial turn“ als Chance für die Geschichtswissenschaft, in: Traverse. Zeitschrift für Geschichte: Wissenschaft, die Bilder schafft, Bd. 18, (1999/3), S. 131-159. David Gugerli / Barbara Orland (Hrsg.), 2002, Ganz normale Bilder. Historische Beiträge zur visuellen Herstellung von Selbstverständlichkeit, Zürich. Gernot Grube / Werner Kogge / Sybille Krämer (Hrsg.), 2005, Schrift, Kulturtechnik zwischen Auge, Hand und Maschine, München. Uli Gyr (Hrsg.), 1995, Soll und Haben. Alltag und Lebensformen bürgerlicher Kultur, Zürich. Ian Hacking, 1983, Representing and Intervening, Cambridge. Michael Hagner, 1996, Der Geist bei der Arbeit. Überlegungen zur visuellen Repräsentation cerebraler Prozesse, in: Borck 1996, S. 259-286. Michael Hagner, 1997, Zwei Anmerkungen zur Repräsentation in der Wissenschaftsgeschichte, in: Rheinberger / Hagner / Wahrig-Schmidt 1997, S. 339355. Michael Hagner, 2002, Mirko-Anthropologie und Fotografie. Gustav Fritschs Haarspalterei und die Klassifizierung der Rassen, in: Geimer 2002, S. 252-284. Wolfgang Heckl, 1991, Scanning the Thread of Life, in: Ernst P. Fischer / Sigmar Klose 1995, The Diagnostic Challenge: The Human Genome, München, S. 99-145. Peter Heering, 1995, Das Grundgesetz der Elektrostatik. Experimentelle Replikation, wissenschaftshistorische Analyse und didaktische Konsequenzen. Oldenburg. Michael Heidelberger / Friedrich Steinle (Hrsg.), 1998, Experimental Essays: Versuche zum Experiment, Baden-Baden. Bettina Heintz, 2000, Die Innenwelt der Mathematik: Zur Kultur und Praxis einer beweisenden Disziplin, Wien / New York. Bettina Heintz / Jörg Huber, 2001b, Der verführerische Blick. Formen und Folgen wissenschaftlicher Visualisierungsstrategien, in: Heintz / Huber 2001, S. 9-40. Bettina Heintz / Jörg Huber (Hrsg.), 2001, Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Wien / New York. Jochen Hennig, 2004, Vom Experiment zur Utopie: Bilder in der Nanotechnologie, in: Instrumente des Sehens. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 2,2 (2004), S. 9-18.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Jochen Hennig, 2006, Die Versinnlichung des Unzugänglichen – Oberflächendarstellungen in der zeitgenössischen Mikroskopie, in: Martina Heßler (Hrsg.), Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München, S. 99-116. Klaus Hentschel, 1998, Zum Zusammenspiel von Instrument, Experiment und Theorie, Hamburg. Klaus Hentschel / Axel Wittmann (Hrsg.), 2000, The Role of Visual Representations in Astronomy: History and Research Practice. Frankfurt a.M. Klaus Hentschel, 2000, Drawing, Engraving, Photographing, Plotting, Printing: Historical Studies of Visual Representations, Particular in Astronomy, in: Hentschel / Wittmann 2000, S. 11-43. Klaus Hentschel, 2002, Mapping the Spectrum. Techniques of Visual Representation in Research and Teaching. Oxford. Volker Hess (Hrsg.),1997, Normierung der Gesundheit: Messende Verfahren der Medizin als kulturelle Praktik um 1900. Husum. Martina Heßler, 2006a, Annäherungen an Wissenschaftsbilder, in: Martina Heßler (Hrsg.), Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München, S. 11-37. Martina Heßler, 2006b, Der Imperativ der Sichtbarmachung. Zu einer Bildgeschichte der Unsichtbarkeit, in: Bilder ohne Betrachter. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 4,2 (2006), S 69-79. Martina Heßler (Hrsg.), 2006c, Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München. Martina Heßler, 2006d, Von der doppelten Unsichtbarkeit digitaler Bilder, in: Zeitenblicke 5 (2006), Nr. 3. Digitale Medien und Wissenschaftskulturen, http:// www.zeitenblicke.de/2006/3/Hessler. Martina Heßler, 2007, Die „Mona Lisa der modernen Wissenschaften“. Zur Doppelhelixstruktur als einer kulturellen Ikone, in: Alexander Gall (Hrsg.), Konstruieren, Kommunizieren, Präsentieren. Bilder von Wissenschaft und Technik, Göttingen, S. 291-315. Stephen Hilgartner, 1990, The Dominant View of Popularisation: Conceptual Problems, Political uses, in: Social Studies of Science 20 (1990), Nr. 4, S. 519539. Douglas R. Hofstadter, 1988, Metamagicum, Stuttgart. Hans Holländer (Hrsg.), 2000, Erkenntnis, Erfindung, Konstruktion. Studien zur Bildgeschichte von Naturwissenschaft und Technik vom 16. bis zum 19. Jahrhundert, Berlin. Richard Hoppe-Sailer / Claus Volkenandt / Gundolf Winter (Hrsg), 2005, Logik der Bilder, Berlin. Jörg Huber / Martin Heller (Hrsg.), 1999, Konstruktionen Sichtbarkeiten. Wien / New York. Edmund Husserl, 1968, Logische Untersuchungen, 5. Aufl., Tübingen. Edmund Husserl, 1980a, Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie. Allgemeine Einführung in die reine Phänomenologie, 4. Aufl., Tübingen.

55

Martina Heßler, Dieter Mersch

56

Edmund Husserl, 1980b, Phantasie, Bildbewusstsein, Erinnerung. Zur Phänomenologie der anschaulichen Vergegenwärtigung. Texte aus dem Nachlass (18981925), Husserliana XXIII, The Hague, London. Bernward Joerges (Hrsg.), 1988, Technik im Alltag, Frankfurt a. M.. Caroline A. Jones / Peter Galison (Hrsg.), 1998, Picturing Science, Producing Art. New York / London. Immanuel Kant, 1956, Kritik der reinen Vernunft, 2. Aufl., Hamburg. Immanuel Kant, 1957, Kritik der Urteilskraft, in: Werke in 12 Bänden, Bde IX, X, Wiesbaden. Martin Kemp, 2003, Bilderwissen. Die Anschaulichkeit naturwissenschaftlicher Phänomene, Köln. Thomas Knieper / Marion G. Müller (Hrsg.), 2001, Kommunikation visuell. Das Bild als Forschungsgegenstand – Grundlagen und Perspektiven, Köln. Karin Knorr-Cetina, 1981, The Manufacture of Knowledge: An Essay on the Constructivist and Contextual Nature of Science, Oxford / New York. Karin Knorr-Cetina, 1999, „Viskurse“ der Physik. Wie visuelle Darstellungen ein Wissenschaftsgebiet ordnen, in: Huber / Heller 1999, S. 245-263. Karin Knorr-Cetina, 2001, „Viskurse“ der Physik: Konsensbildung und visuelle Darstellungen, in: Heintz / Huber 2001, S. 305-320. Sybille Krämer, 1988, Symbolische Maschinen. Idee der Formalisierung in geschichtlichem Abriß, Darmstadt. Sybille Krämer, 1997, Kalküle als Repräsentation. Zur Genese des operativen Symbolismus in der Neuzeit, in: Rheinberger / Hagner / Wahrig-Schmidt 1997, S. 111-122. Sybille Krämer, 2003 „Schriftbildlichkeit“ oder: Über eine (fast) vergessene Dimension der Schrift, in: Sybille Krämer / Horst Bredekamp (Hrsg.), Bild – Schrift – Zahl, München, S. 157-176. Sybille Krämer, 2005, „Operationsraum Schrift“. Über einen Perspektivenwechsel in der Betrachtung der Schrift, in: Grube / Kogge / Krämer2005, S. 23-57. Sybille Krämer, 2006, Zur Sichtbarkeit von Schrift oder: Die Visualisierung des Unsichtbaren in der operativen Schrift. Zehn Thesen, in: Susanne Strätling / Georg Witte (Hrsg.), Die Sichtbarkeit der Schrift, München, S. 75-83. Sybille Krämer, 2008, Medium, Bote, Übertragung. Kleine Metaphysik der Medialität, Frankfurt a.M. Carsten Kretschmann (Hrsg.), 2003, Wissenspopularisierung. Konzepte der Wissensverbreitung im Wandel, Berlin. Wolfgang Krohn, 2007, Die ästhetische Dimension der Wissenschaft, in: Wolfgang Krohn (Hrsg.), Ästhetik in der Wissenschaft. Interdisziplinärer Diskurs über das Gestalten und Darstellen von Wissen. Zeitschrift für Ästhetik und Allgemeine Kunstwissenschaft, Sonderheft 7, S. 3-38. Joachim Krug 2001, Ein Auge welches sieht, das andere welches fühlt: Bilder aus der physikalischen Nanowelt, in: Heintz / Huber (Hg.), 2001, S. 121-139. Werner Kutschmann, Scientific Instruments and the Senses: Towards an Anthropological Historiography of the Natural Sciences, in: International Studies in the Philosophy of Science 1 (1986), Nr. 1, S. 106-123.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Susanne K. Langer, 1984, Philosophie auf neuem Wege. Das Symbol im Denken, im Ritus und in der Kunst, Frankfurt a.M. Bruno Latour / Steve Woolgar, 1979, Laboratory Life. The Social Constructon of Scientific Facts, Beverly Hills, Calif. / London. Bruno Latour, 1990, Drawing things together, in: Michael Lynch / Steve Woolgar 1990, S. 19-68. Bruno Latour, 1996, Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften, Berlin. Bruno Latour, 2002a, Iconoclash. Gibt es eine Welt jenseits des Bilderkrieges?, Berlin. Bruno Latour, 2002b Zirkulierende Referenz, in: Bruno Latour, Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a.M., S. 36-95. Bruno Latour / Peter Weibel (Hrsg.), 2002, Iconoclash. Beyond the Image Wars in Science, Religion, and Art, Karlsruhe / Cambridge. Timothy Lenoir / Casey Alt, 2002, Flow, Process, Fold: Intersections in Bioinformatics and Contemporary Architecture, in: Antoine Picon / Alessandra Ponte (Hrsg.), Architecture and the Sciences. Exchanging Metaphors, Princeton, NJ, http://www.stanford.edu/dept/HPST/TimLenoir/Publications/Lenoir_FlowProcessFold.pdf. Timothy Lenoir (Hrsg.), (1998), Inscribing Science. Scientific Texts and the Materiality of Communication, Stanford, Calif. Gotthold Ephraim Lessing, 1989, Laokoon: oder die Grenzen der Poesie und Malerei, in: Werke und Briefe in 12 Bänden, Bd. 5/2, Frankfurt a.M. Niklas Luhmann, 1996, Frauen, Männer und George Spencer Brown, in: Niklas Luhmann, Protest, Frankfurt a.M., S. 107-155. Michael Lynch, 1985, Art and Artifact in Laboratory Science. A Study of Shop Work and Shop Talk in research Laboratory, New York. Michael Lynch, 1990, The Externalized Retina: Selection and Mathematization in the Visual Documentation of Objects in the Life Sciences, in: Lynch / Woolgar 1990, S. 153-186. Michael Lynch, 1998, The Production of Scientific Images: Vision and Revision in the History, Philosophy, and Sociology of Science, in: Communication & Cognition 31 2/3 (1998), S. 213-228. Michael Lynch / Steve Woolgar, 1990b, Introduction: Sociological orientations to representational practice in science, in: Lynch / Woolgar 1990, S. 1-18. Michael Lynch / Steve Woolgar (Hrsg.), 1990, Representation in Scientific Practice. Cambridge, Mass. / London. Christa Maar / Hubert Burda (Hrsg), 2004, Iconic Turn. Die neue Macht der Bilder, Köln. Sabine Maasen / Peter Weingart, 2000, Metaphors and the Dynamics of Knowledge, London. Sabine Maasen / Torsten Mayerhauser / Cornelia Renggli (Hrsg.), 2006, Bilder als Diskurse, Bilddiskurse, Weilerswist. Bettine Menke, 1994, Bild – Textualität. Benjamins schriftliche Bilder, in: Wetzel / Wolf 1994, S. 47-65. Maurice Merleau-Ponty, 1984, Das Auge und der Geist, Hamburg.

57

Martina Heßler, Dieter Mersch

58

Maurice Merleau-Ponty, 1993, Die Prosa der Welt, 2. Aufl., München. Dieter Mersch, 2002, Was sich zeigt. Materialität, Präsenz, Ereignis, München. Dieter Mersch, 2003, Wort, Bild, Ton Zahl – Modalitäten des Darstellens, in: Dieter Mersch (Hrsg), 2003, Die Medien der Künste, München, S. 9-49. Dieter Mersch, 2004a, Bild und Blick. Zur Medialität des Visuellen, in: Christian Filk / Michael Lommel / Mike Sandbothe (Hrsg), Media Synaesthetics, Köln, S. 95-122. Dieter Mersch, 2004b, Die Sprache der Materialität: Etwas zeigen und SichZeigen bei Goodman und Wittgenstein, in: Oliver Scholz / Jakob Steinbrenner (Hrsg.), Symbole, Systeme, Welten. Überlegungen zur Philosophie Nelson Goodmans, Heidelberg, S. 141-161. Dieter Mersch, 2005a, Bilder ohne Sichtbarkeit. Zur Ethik des visuellen Gebrauchs, in: Bilder bei der Arbeit. 31. Zeitschrift des Instituts für Theorie der Gestaltung und Kunst (ith) der Hochschule für Gestaltung und Kunst Zürich (2005), Nr. 6/7, S. 49-56. Dieter Mersch, 2005b, Das Bild als Argument, in: Christoph Wulf / Jörg Zirfas (Hrsg.), Ikonologien des Performativen, München, S. 322-344. Dieter Mersch, 2005c, Die Geburt der Mathematik aus der Struktur der Schrift, in: Grube / Kogge / Krämer 2005, S. 211-233. Dieter Mersch, 2006a, Naturwissenschaftliches Wissen und bildliche Logik, in: Heßler 2006c, S. 405-420. Dieter Mersch, 2006b, Visuelle Argumente. Zur Rolle der Bilder in den Naturwissenschaften, in: Maasen / Mayerhauser / Renggli 2006, S. 95-116. Dieter Mersch, 2006c, Wittgensteins Bilddenken, in: Deutsche Zeitschrift für Philosophie, 2006/6, S. 925-942. Dieter Mersch, 2007, Blick und Entzug. Zur Logik ikonischer Strukturen, in: Gottfried Boehm / Gabriele Brandstetter / A. von Müller (Hg.): Bild – Figur – Zahl, München, S. 55-69. Martina Merz, 1998, „Nobody can force you when you are across the Ocean“ – Face to Face and E-Mail Exchanges between Theoretical Physicists, in: Smith / Agar 1998, S. 313-329. Herbert Meschkowski, 1978, Richtigkeit und Wahrheit in der Mathematik, 2. Aufl., Zürich. William J. Mitchell, 1994, Picture Theory, Chicago. Axel Müller, 1997, Die ikonische Differenz. Das Kunstwerk als Augenblick, München. Marion G. Müller, 2001, Bilder – Visionen – Wirklichkeiten. Zur Bedeutung der Bildwissenschaft im 21. Jahrhundert, in: Knieper / Müller 2001, S. 14-24. Charles Morris, 1973, Zeichen, Sprache und Verhalten, Düsseldorf. Greg Myers, 1990, Every Picture Tells a Story: Illustrations in E.O. Wilson´s Sociobiology, in: Lynch / Woolgar 1990, S. 231-265. Arthur I. Miller, 1978, Visualization Lost and Regained: The genesis of Quantum Theory in the Period 1913-27, in: Wechsler 1978, S.73-95. Erwin Müller / Tien Tzu Tsong, 1969, Field Ion Microscopy, New York. Barbara Naumann / Edgar Pankow (Hrsg), 2004, Bilder-Denken. Bildlichkeit und Argumentation, München.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Reinhard Nesper, 2001, Die chemische Symbolik, in: Heintz / Huber 2001, S. 173-185. Thomas Nickles, 1989, Justification and experiment, in: Gooding / Pinch / Schaffer 1989, Cambridge, S. 229-333. Sybilla Nikolow / Lars Bluma, 2002, Bilder zwischen Öffentlichkeit und wissenschaftlicher Praxis, in: Internationale Zeitschrift für Geschichte und Ethik der Naturwissenschaften, Technik und Medizin (NTM), 10 Heft 4 (2002), S. 201-208. Winfried Nöth, 2000, Handbuch der Semiotik, 2. Aufl., Stuttgart / Weimar. Winfried Nöth, 2005, Warum Bilder Zeichen sind, in: Stefan Majatschak (Hrsg): Bild-Zeichen, München, S. 49-61. Kathryn Olesko, 1991, Physics as a Calling. Discipline and Practice in the Königsberg Seminar for Physics, Ithaca, NY. Julio Ottino, 2001, Is a Picture Worth 1,000 Words? in: Nature 421 (2003), S. 474-476. Henning Pahl, 2003, Das Bild als Popularisierungsmedium im Dienste der Religion, in: Kretschmann 2003, S. 257-279. Alex Soojung-Kim Pang, 1997, Visual Representation and Post-Constructivistic History of Science, in: Historical Studies in the Physical and Biological Sciences, 28 (1997) Nr. 1, S. 139-179. Alex Soojung-Kim Pang, 2002, Technologie und Ästhetik der Astrofotografie, in: Geimer, S. 100-141. Helmut Pape, 1997, Die Unsichtbarkeit der Welt, Frankfurt a.M. Charles Sanders Peirce, 1967-70, Schriften, Franfurt a.M. Claus Pias, 2003, Rezension von David Gugerli / Barbara Orland: Ganz Normale Bilder, in: Oberflächen der Theorie. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 1,2 (2003), S.117-119. Andrew Pickering, 1984, Constructing Quarks: A Sociological History of Particle Physics, Edinburgh. Andrew Pickering, 1995, The Mangle of Practice. Time, Agency, and Science, Chicago. Heike Piehler, 2002, Die Anfänge der Computerkunst, Frankfurt. Martina Plümacher, 1998, Sinn der Bilder, in: Sachs-Hombach / Rehkämper 1998, S. 49-58. Michael Polanyi, 1958, Personal Knowledge, Chicago. Michael Polanyi, 1966, The Tacit Dimension, New York. Nicolas Rasmussen, 1997, Picture Control. The Electron Microscope and the Transformation of Bi-ology in America, 1940-1960, Stanford. Andre Reifenrath, 1999, Die Geschichte der Simulation. Überlegungen zur Genese des Bildes am Computerbildschirm, Diss., HU Berlin. Hans-Jörg Rheinberger, 1992, Experiment, Differenz, Schrift, Marburg. Hans-Jörg Rheinberger, 1997, Von der Zelle zum Gen. Repräsentationen der Molekularbiologie, in: Rheinberger / Hagner / Wahrig-Schmidt 1997, S. 265-279. Hans-Jörg Rheinberger / Michael Hagner (Hrsg.), 1993, Die Experimentalisierung des Lebens, Berlin.

59

Martina Heßler, Dieter Mersch

60

Hans-Jörg Rheinberger / Michael Hagner, 1998, Experimental Systems, Objects of Investigation, and Spaces of representation, in: Heidelberger / Steinle 1998, S. 355-373. Hans-Jörg. Rheinberger / Michael Hagner / Bettina Wahrig-Schmidt (Hrsg.), 1997, Räume des Wissens. Repräsentation, Codierung, Spur, Berlin. Hans-Jörg. Rheinberger / Michael Hagner / Bettina Wahrig-Schmidt, 1997b, Räume des Wissens, in: Rheinberger / Hagner / Wahrig-Schmidt 1997, S. 7-21. Hans-Jörg Rheinberger, 2001a, Experimentalsysteme und epistemische Dinge, Göttingen. Hans-Jörg Rheinberger, 2001b, Objekt und Repräsentation, in: Heintz / Huber 2001, S. 55-61. Hans-Jörg Rheinberger, 2003, Präparate – „Bilder“ ihrer selbst. Eine bildtheoretische Glosse, in: Oberflächen der Theorie. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 1,2 (2003), S. 9-19. Hans-Jörg Rheinberger, 2005, Iterationen, Berlin. Martin J. Rudwick, 1976, The Emergence of a Visual Language for Geological Science: 1760-1840, in: History of Science 14 (1976), S. 149-195. Philip Sarasin, 1995, „La Science en Famille“. Populäre Wissenschaft im 19. Jahrhundert als bürgerliche Kultur – und als Gegenstand einer Sozialgeschichte des Wissens, in: Gyr 1995, S. 97-110. Klaus Sachs-Hombach, 1993, Das Bild als kommunikatives Medium, Köln. Klaus Sachs-Hombach / Klaus Rehkemper (Hrsg.), 1998, Bild – Bildwahrnehmung – Bildverarbeitung. Interdisziplinäre Beiträge zur Bildwissenschaft, Wiesbaden. Klaus Sachs-Hombach, Klaus Rehkämper (Hrsg.), 1999, Bildgrammatik. Interdisziplinäre Forschungen zur Syntax bildhafter Darstellungsformen, Magdeburg. Klaus Sachs-Hombach, 2003, Das Bild als kommunikatives Medium, Köln. Joseph T Scanlon, 1970, Viewer Perceptions on Colour and Black and White TV: An Experiment, in: Journalism Quarterly 47 (1970), Nr. 2, Simon Schaffer / Steven Shapin, 1985, Leviathan and the Air-pump, Princeton. Jutta Schickore, 2002, Fixierung mikroskopischer Beobachtungen: Zeichnungen, Dauerpräparat, Mikrofotografie, in: Geimer 2002, S. 285-310. Thomas Schlich, 1997, Die Repräsentation von Krankheitserregern. Wie Robert Koch Bakterien als Krankheitsursache dargestellt hat, in: Rheinberger / Hagner / Wahrig-Schmidt 1997, S. 165-190. Astrit Schmidt-Burkhardt, 2005, Stammbäume der Kunst. Zur Genealogie der Avantgarde, Berlin. Oliver Scholz, 2004, Bild, Darstellung, Zeichen. Philosophische Theorien bildhafter Darstellung, 2. Aufl., Frankfurt a.M. Angela Schwarz, 1999, Der Schlüssel zur modernen Welt. Wissenschaftspopularisierung in Großbritannien und Deutschland im Übergang zur Moderne, Stuttgart. Angela Schwarz, 2003, Bilden, überzeugen, unterhalten: Wissenschaftspopularisierung und Wissenskultur im 19. Jahrhundert, in: Kretschmann 2003, S. 221-234.

Einleitung: Bildlogik oder Was heißt visuelles Denken?

Astrid E. Schwarz, 2003, Die Ökologie des Sees im Diagramm, in: Oberflächen der Theorie. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 1,2 (2003), S. 64-74. Michel Serres (Hrsg.), 2002, Elemente einer Geschichte der Wissenschaften. 2. Aufl., Frankfurt a.M. Sun-Joo Shin, 2002, The Iconic Logic of Peirce‘s Graphs, Cambridge, Mass.. Terry Shinn / Richard Whitley (Hrsg.), 1985, Expository Science. Forms and Functions of Popularisation. Yearbook in the Sociology of the Sciences. Dordrecht. Gunnar Skirbekk (Hrsg.), 1997, Wahrheitstheorien, Frankfurt a.M. Crosbie Smith / John Agar (Hrsg.), 1998, Making Space for Science. Territorial Themes in Shaping Knowledge, Hampshire / London. Joel Snyder, 2002, Sichtbarmachung und Sichtbarkeit, in: Geimer 2002, S. 142167. Barbara Maria Stafford, 1998, Kunstvolle Wissenschaft. Amsterdam / Dresden. Jakob Steinbrenner, 1999, Kognitivismus in der Ästhetik, Würzburg. Christian Stetter, 2005, Bild, Diagramm, Schrift, in: Grube / Kogge/ Krämer 2005, S. 115-135. Frederic Stjernfelt, 2007, Diagrammatology. An Investigation on the Borderlines of Phenomenology, Ontology, and Semiotics, in: International Journal for the Semiotics of Law, Amsterdam. Mikulás Teich / Roy Porter (Hrsg.), 1990, Fin de siècle and its legacy, Cambridge. Peter Tittmann, 2003, Graphentheorie. Eine anwendungsorientierte Einführung, Leipzig. David Topper, 1996, Towards an Epistomology of Scientific Illustration, in: Baigrie 1996, S. 215-249. Monika Dommann, Mariette Meier (1993) (Hrsg)., Traverse. Zeitschrift für Geschichte: Wissenschaft, die Bilder schafft, Bd. 18, (1999/3). Sharon Traweek, 1988, Beamtimes and Lifetimes. The World of High Energy Physicists, Cambridge, Mass. Wolfgang Ullrich, 2003, Das Vorzimmer Gottes und andere Sensationsbilder. Über die Rolle der Geisteswissenschaften im Zeitalter bildseliger Naturwissenschaften, in: Neue Rundschau 114, Heft 3 (2003), S. 75-87. Matthias Vogel, 2001, Medien der Vernunft. Eine Theorie des Geistes und der Rationalität auf der Grundlage einer Theorie der Medien, Frankfurt a.M. Ugo Volli, 2002, Semiotik. Eine Einführung in ihre Grundbegriffe, München. Bernhard Waldenfels, 1999, Sinnesschwellen, Frankfurt a.M. Bernhard Waldenfels, 2001, Spiegel, Spur und Blick. Zur Genese des Bildes, in: Gottfried Boehm (Hrsg.), 2001, Homo Pictor, Colloquium Rauricum, Bd. 7, München / Leipzig, S. 14-31. Harry Walter, 2003, Total anschaulich, in: Neue Rundschau 114, Heft 3 (2003), S. 50-68. Judith Wechsler (Hrsg.), 1988, On Aesthetics in Science, Boston / Basel. Sigrid Weigel, 2004, vgl. http://www.ifk.ac.at/popup/ Peter Weingart, 1988, Differenzierung der Technik oder Entdifferenzierung der Kultur, in: Joerges 1988, S. 145-164.

61

Martina Heßler, Dieter Mersch

Peter Weingart, 2001, Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft, Weilerwist. Gabriele Werner, 2001, Das technische Bild – aus ästhetischer Sicht betrachtet, in: Heintz / Huber 2001, S. 367-328. Michael Wetzel / Herta Wolf (Hrsg.), 1994, Der Entzug der Bilder. Visuelle Realitäten. München. Michael Wetzel, 2005, Der Widerstand des Bildes gegen das Visuelle, in: Stefan Majatschak (Hrsg), Bild-Zeichen, München, S. 137-154. Hayden White, 1986, Auch Klio dichtet oder die Fiktion des Faktischen: Studien zur Tropologie des historischen Diskurses, Stuttgart. Lambert Wiesing, 2000, Phänomene im Bild, München. Lambert Wiesing, 2005, Artifizielle Präsenz, Frankfurt a.M. Irene J. Winter, 1998, The Affective Properties of Styles: An Inquiry into Analytical Process and the Inscription of Meaning in Art History, in: Jones / Galison 1998, S. 55-77. Ludwig Wittgenstein, 1971a, Tractatus logico-philosophicus, 8. Aufl., Frankfurt a.M. Ludwig Wittgenstein, 1971b, Philosophische Untersuchungen, Frankfurt a.M. Ludwig Wittgenstein, 1980, Das Blaue Buch. Eine philosophische Betrachtung, Frankfurt a.M. Ludwig Wittgenstein, 1984, Tagebücher, in: Werke, Bd. 1, Frankfurt a.M. Ludwig Wittgenstein, 1994, Bemerkungen, Wiener Ausgabe Bd. 3, Studien Texte Bd. 3, Wien. Ludwig Wittgenstein, 2000, The Big Typescript, Wiener Ausgabe Bd. 11, Wien / New York. Herta Wolf, 2003, Die Divergenz von Aufzeichnen und Wahrnehmen. Ernst Machs erste fotografie-gestützte Experimente, in: Wolf 2003, S. 427-455. Heinrich Wölfflin, 1915, Kunstgeschichtliche Grundbegriffe. Das Problem der Stilentwicklung in der neueren Kunst, Basel. Herbert Zeitler / Wolfgang Neidhardt, 1993, Fraktale und Chaos, Darmstadt.

62

Jörg Huber Vor einem Bild. Eine Forschungsskizze

Inter- und transkulturelle Projekte, die die Kultur der Künste und die der Wissenschaften zu- und ineinanderfrühen und ihr wechselseitiges Verhältnis untersuchen, behaupten seit Jahren erfolgreich ihre Aktualität und Bedeutung. Diesen Geltungsanspruch begründen sie mittels gegenseitiger Anleihen: Die Praxis und Theorie der Künste betonen, dass sie spezifische Formen und Verfahren von Wissen generieren und dass in und mit diesen Vorgängen auch Forschung betrieben wird. Dabei richtet sich der Fokus auf die Ästhetik. Kunst produziert ästhetische Erfahrung, und ästhetische Erfahrung generiert Wissen und neue Verfahren der Forschung, wobei das Experimentelle der künstlerischen Situationen und Prozesse betont wird. Dazu kommt die zunehmende Fundierung der gegenwärtigen Kunstpraxis auf (Medien-)Technologie, was Schnittstellen zu den technobasierten Wissenschaften ermöglicht. Auf der anderen Seite erfolgt eine ähnliche Argumentation. Die Wissenschaften arbeiten zunehmend mit visuellen Mitteln und betonen dabei – auch aus strategischen Gründen – die Aspekte des „Ästhetischen“; das wissenschaftliche Experiment verweist auf den Imperativ der „Innovation“, der mit „Kreativität“ in Verbindung gebracht wird: „be creativ!“ – Wissenschaftler arbeiten wie Künstler.1 Bemerkenswert ist, dass diese wechselseitige Spiegelung nicht die Unterschiede, sondern das als das Gemeinsame Behauptete hervorhebt. Die Zwei-Kulturen-Trennung scheint obsolet. Das Ästhetische beschwörend und technikeuphorisch wird in der Betonung des Verbindenden das Globalhybrid gefeiert, eine Feier, zu der die vielen bunten Bilder wesentlich beitragen. Anlässlich der von der Eidgenössischen Technischen Hochschule in Zürich (ETH) organisierten, international prominent besetzten Digital Art Weeks in Zürich (Juli 2006) freute sich ein Wissenschaftler über „the unique situation of taking sience out of the ivory tower situation of Academia and bring before an audience to enjoy in the form of a unique hybrid art form“.2 Und auf der anderen Seite freut sich Peter Weibel, dass „heute sich auf der

1

Vgl. von Osten 2003.

2

Gutknecht 2006.

63

Jörg Huber

64

Basis computergestützter Simulation in einem Feld jenseits des ‚science war‘ wissenschaftliche und ästhetische Repräsentationstechniken vereint finden“.3 Diese Annäherungen und Gleichsetzungen sind nicht neu und haben Tradition in der Geschichte der Moderne – im Zeichen einer (Um-)Welt-Verantwortlichkeit, wie sie etwa Robert Rauschenberg und der Ingenieur Billy Klüver mit ihrem 1967 verfassten Manifest Experiments in Art and Technology forderten, als „sence of responsibility in making a more human environment“,4 oder des Genialen, das den Künstler im Wissenschaftler und den Wissenschaftler im Künstler hervorhebt – wobei gerade solche Pathosfiguren die Mythisierung schlecht verbergen können, die das Faktische überhöht. So spricht Beat Wyss denn auch vom „Leonardo-Gerücht“, das meint, dass Leonardo da Vinci als Universalgenie ein modernes Konstrukt sei, das sich gegen bessere historische Einsicht hartnäkkig behaupte. „Das Wissen ist von Anfang an immer nur Anlehnungskontext des Kunstsystems. Es gibt keine Verschmelzung der beiden Diskurse. Leonardo war keine Doppelbegabung.“5 Und Wyss verallgemeinert: „Kunst kann und soll nicht mit dem Wissen operativ konkurrieren. Der Vorsprung der Agenten des Wissens ist schon deshalb nicht aufzuholen, weil deren Forschung im Pakt mit der ökonomischen Verwertung steht. Dagegen bleibt der Künstler immer ein Bastler mit den Abfällen, die ihn, halb gnädig, halb belustigt, vom ökonomisch-technokratischen System überlassen werden.“6 Vor diesem Hintergrund scheint es mir wichtig, dass wir heute in und mit interund transkulturellen Forschungsprojekten vor allem die Differenzen der Kulturen analysieren, zur Beobachtung bringen und zu beschreiben versuchen, um von da aus – im Zuge von Störungen und Irritationen – eventuelle wechselwirksamen Produktivitäten und Synergien zu entwickeln. Ich greife das Wort „Abfall“ auf, um zur Veranschaulichung auf ein Beispiel künstlersicher Forschung hinzuweisen, die der Künstler Hannes Rickli gegenwärtig an der Zürcher Hochschule der Künste entwickelt.7 Abgekürzt gesagt, geht es darum, in den naturwissenschaftlichen Labors (am Beispiel des Zoologischen Instituts der Universität Zürich) instabile mediale Neben- und Abfallprodukte, die im Forschungsgeschehen produziert werden, zu sammeln und sie dann in einer künstlerischen Übersetzung neu zu inszenieren und auf diese Weise bemerkbar zu machen. Es handelt sich dabei um Videoaufnahmen, die von Kontrollapparaten, sogenannten Track-it-Kameras, gemacht werden, um die Inszenierung des Forschungsprozesses, die Vorbereitung der Testanlage, die Kalibrierung der Kameras, das heißt die Abstimmung von Objekt und Medium, zu kontrollieren (es geht um die Beobachtung des Orientierungsverhaltens von Insekten). Es sind dies nicht die von hochtechnologisierten Apparaten generierten 3

Weibel 2000, 66.

4

Zit. in: Shanken 2006, 8.

5

Wyss 2006, 192.

6

Ebd., 193.

7

Ich betone: versuchen, denn attraktiv erscheint das Zusammenspiel von Wissenschaft und Kunst nur solange es ein Spiel bleibt. Wenn die Kunstschaffenden jedoch als Projektverantwortliche in Forschungszusammenhängen auftreten, visuelle Forschung betreiben und als „Resultate“ künstlerische Arbeiten herstellen, wird die Sache prekär. Da wird ein konventionelles Wissenschaftsverständnis in Frage gestellt – was dann wiederum auch ein Problem der Verteilung von Forschungsgeldern ist.

Vor einem Bild. Eine Forschungsskizze

Bilder, die, stabilisiert und gereinigt, in der Kommunikation der Experten zirkulieren, sondern Produkte einer Selbstregistrierung der Experimentalsysteme, die die Interaktionen von Personen, Objekten, Maschinen, Medien, Atmosphären an den Rändern – kurz: die vernachlässigte Seite der Forschung zeigen. Es handelt sich um Bilder, in denen sich im Kontext des Intentionalen Nicht-Intendiertes zeigt, das jedoch ebenso Teil des Experimental-Systems ist. Man kann dieses Material als Spuren des Unbewussten des Systems oder als dessen blinden Fleck bezeichnen, den zu bemerken oder gar zu bearbeiten nicht im Interesse der Forschung liegt. Rickli nennt diesen Ausschuss auch einen Überschuss, der ebenfalls Sinn – jedoch vielleicht einen anderen Sinn – macht, oder, in dem sich etwas anderes als Sinn zeigt, weil er/es der intentional ausgerichteten Aufmerksamkeit und damit dem Bewusstsein des Systems entgeht. Ein Überschuss, der über die Ordnung des Systems, in der er generiert wird, hinausweist. Ich erwähne dieses Projekt, auf das ich hier nicht detaillierter eingehen kann, wegen der Umlenkung der Aufmerksamkeit, die es anstrengt – vom intentional motivierten zentralen Schauplatz des Geschehens hin zu den vernachlässigten OffBereichen, vom Geschehen zu den Bedingungen, was einen speziellen Einblick in das Funktionieren des Vorgangs und des Systems der Forschung erlaubt. Der künstlerische Blick richtet sich auf die Inszenierung, die Ästhetik8 und das Verhältnis von Intentionalität und Nicht-Intentionalem, die das Setting und den Prozess wie letztlich das System qualifizieren. Die von Rickli gesammelten Daten sind Spurenmaterial. Sybille Krämer hat in Bezug auf die Spur den Aspekt betont, „eine Bedeutung zu haben, die interpretierbar ist, ohne doch von ihren Urhebern intendiert gewesen zu sein.“9 Sie beschreibt die Spur als Phänomen, das dem Zeichen vorangeht, dieses unterläuft. Die Spur ist (noch) nicht Zeichen, da dieses immer im Kontext des intendierten Sinns und der konventionalisierten Bedeutung auftritt. „Spuren sagen uns nichts, sondern sie zeigen uns etwas.“10 Und es fragt sich, ob die Spur nicht erst zur Spur wird durch den Gebrauch,11 wie die Spur nicht ist, sondern als Spur gelesen werden muss.12 Wir sind folglich „beim Spurenlesen involviert“13 – eine Feststellung, die die Aufmerksamkeit auf die aktive Beteiligung von Kontingenzen und Subjektivität an der Herstellung von Wissen lenkt. In der Transformation des Spurenmaterials in eine künstlerische Installation wird die Ästhetik der Grauzonen, des Unbestimmten von Wissensprozessen sichtbar und erlebbar gemacht. Es geht hier also nicht um Gemeinsamkeiten von künstlerischem und wissenschaftlichem Tun, sondern um die Ausbildung und Etablierung einer kritischen Position, das heißt eines Orts und eines Verfahrens, von dem aus und mit dem das Funktionieren des Experimentalsystems beobachtet und erfahrbar gemacht werden kann. Damit soll eine Beobachterposition eingenommen werden, die im System selbst nicht oder wenn, dann nur „unbewusst“ 8

Wobei ich hier mit dem Ästhetischen nicht das Schöne, sondern im weiteren Sinn des Aisthetischen die Gestaltungs- und Wahrnehmungsvorgänge meine.

9

Krämer 1998, 79.

10

Ebd.

11

Krämer 2007, 13.

12

Ebd., 16.

13

Ebd.

65

Jörg Huber

66

oder ungenutzt besetzt ist. Auf diese Weise können die Differenz von Innen- und Außenperspektive markiert und die Orte unterschieden werden, von denen aus man in Wissenschaft und Kunst agiert. Diese Art der Intervention, die sich explizit als Kritik versteht, betont ihre Ästhetik und damit die Ästhetik der Kritik:14 die ReInszenierung der Bilder als Bilder in einem Kunstraum eröffnet die Möglichkeit, die vernachlässigten Bilder und ihre Bildlichkeit wahrzunehmen und ästhetisch zu erfahren. Indem man in der Arbeit mit Bildern die Aufmerksamkeit auf die Verortung und Positionierung des (apparativen) Blicks und der Beobachtung der Beteiligten lenkt, betont man das Verhältnis von Kunst und Wissenschaft als ein Differenzgeschehen der wechselseitigen Über- und Durchkreuzung der beiden Kulturen, in dem beide den Horizont des Anderen überschreiten und gleichzeitig Latenzen und Überschuss als ihre Effekte offensichtlich machen. Ort und Medium dieses Geschehens ist das Bild als Geschehen. Dazu noch einmal Wyss: „Kunst kommuniziert das Wissen der Zeit, indem sie es dem Bereich des operierenden Wissens entzieht. Aufgabe der Kunst ist es, mit Adorno gesprochen, die ‚instrumentelle Vernunft‘ des angewandten Wissens zu unterbrechen.“15 Diese Unterbrechung geschieht im Vorgang der ästhetischen Erfahrung, die Kunst ermöglicht und in die der Künstler wie auch die Rezipienten involviert sind – und zwar auf spezielle Weisen, die sich von der Weise der Beteiligung unterscheiden, die die „instrumentelle Vernunft des angewandten Wissen“ verlangt und ermöglicht. Der Ort der ästhetischen Erfahrung ist der Ort „vor einem Bild“. Im Folgenden soll mit dem Blick auf diesen Ort gefragt werden, ob es ihn im wissenschaftlichen Gebrauch der Bilder auch gibt und wenn ja, mit welchen möglichen Funktionen und Bedeutungen. Der Unterbruch, den dieser Ort ermöglicht, markiert die Dialektik von Ordnung und ihrer Transzendierung. In diesem Sinn könnte man diesen Ort auch mit einem Hinweis auf Franz Kafka als den Ort vor dem Gesetz bezeichnen, als Ort vor der Autorität einer Ordnung. Dies würde für die Naturwissenschaften heißen, im Bann zu stehen vor dem Naturgesetz, für die Kunst dagegen im Bann vor dem Gesetz des Logos und des Kunstbetriebs. Und es wäre dann gleichzeitig auch der Ort, an dem das Bildgeschehen sich diesem Bann entzieht. Mit der Metapher „Vor einem Bild“ verweise ich explizit auf das gleichnamige Buch von Georges Didi-Huberman, in dem der Autor auf den ersten 60 Seiten in kongenialer Weise die Begegnung mit einem Fresko von Fra Angelico im Kloster San Marco in Florenz beschreibt.16 Es handelt sich um eine Verkündigungs-Darstellung. Didi-Huberman beschreibt nicht (nur) das Bild, sondern auch die Begegnung mit diesem, das Auf-das-Bild-Zugehen und das Vom-Bild-angeblickt-Werden, die Situation also „vor einem Bild“. Den Ausgangspunkt der Überlegungen – den Stein des Anstoßes – bildet die Tatsache, dass zwischen dem Engel (links im Bild) und Maria (rechts im Bild), in der Mitte also, „nichts“ zu sehen ist – was eine Enttäuschung provoziert, wenn man erwartet, dass in einem Bild etwas dargestellt und lesbar gemacht wird. Dieses Nichts könnte man aber auch positiv wenden und sagen: Es kann gar nicht „etwas“ dargestellt werden, da das, was zwischen den 14

Vgl. Huber 2007.

15

Wyss 2006, 193.

16

Didi-Huberman 2000.

Vor einem Bild. Eine Forschungsskizze

beiden Figuren geschieht, nicht darstellbar ist. Das Nichts repräsentiert – paradox formuliert – das Unsagbare als das Undarstellbare. Ob negativ oder positiv interpretiert, beide Varianten sind der Gegenüberstellung von „etwas“ und „nichts“ verpflichtet, wie sie durch die Logik der Repräsentation etabliert wird. Sie sind zwei Varianten desselben interpretatorischen Gestus, der das Bild bedeuten und begreifen will, um von ihm Besitz zu ergreifen. Als Alternative schlägt Didi-Huberman ein Auf-das-Bild-Zugehen vor, das sich für das Entgegenkommen des Bildes öffnet. Ein „Vor-einem-Bild“, das nicht mit allen Mitteln und nicht vor allem erkennen, erfassen, benennen, bedeuten will, das nicht alles gleich im Medium des Sinns verrechnet, sondern eine schwebende Aufmerksamkeit entwickelt, die dem Bild Raum lässt und dessen „Fest-stellung“ aufschiebt, verzögert. Derart exponiert, erlebt man „vor dem Bild“ das, was vor der Signifikation anklingt – angestoßen durch den Stein, das Mauerwerk, das Material und dessen Erscheinen: die weiße Farbe, ihr Auftrag, die Oberfläche, die Lichteffekte etc., als Spur des Mediums. Es ist – jenseits der Gegenüberstellung von Sichtbarem und Unsichtbaren – das Visuelle, so der Begriff Didi-Hubermans, das in diesem Sinne als ästhetisches Wahrnehmungsereignis demjenigen widerfährt, der sich „vor einem Bild“ befindet.17 In diesem „Vor-einem-Bild“, wie es hier beschrieben wird, verschiebt sich der Fokus von der Wahrnehmung eines Gegenstandes hin zu der Erfahrung eines Ereignisses. Im Vordergrund stehen nicht Fragen der Repräsentation, sondern der Präsentation, nicht die Frage, was man sieht oder nicht sieht, erkennt oder nicht erkennt, sondern die Phänomenologie des Blicks und damit die Wahrnehmung als ästhetische Erfahrung – und es ist diese Exposition der Bildlichkeit des Bildes, die das Fresko von Fra Angelico mit den technologisch versierten Arbeiten eines Hannes Rickli verbindet. Zu dieser Qualität des Ästhetischen künstlerisch intendierter Bilder im Folgenden eine kurze Skizze. Das Ästhetische zeigt sich im Bild als Geschehen, das heißt als spezifische Dynamik der Bildlichkeit, wie sie sich der Wahrnehmung eröffnet und leibhaftig erfahrbar wird. Es handelt sich um ein Geschehen der Differenzen und Alteritäten, die man mit Gottfried Boehm als „ikonische Differenz“ bezeichnen kann, die an erster Stelle die grundsätzliche Differenz von Text und Bild meint. Eine Differenz die, dann weiter, im Bild, in den Grund- und Einzelkontrasten (überschaubare Gesamtfläche und Binnenereignisse) sich ereignet.18 Ein Differenzgeschehen also, das nicht (nur) als formale Gegebenheit, sondern als Vorgang verstanden wird, in dem das Bild sich von seinem Ab- und Herkünftigen, aus seinem Kontext löst und diesen negiert, um ihn gleichzeitig in sich aufzunehmen und im Imaginären über sich hinauszuführen: Ein Differenzgeschehen, das als die dem Bild inhärente Alterität es nicht zur Ruhe, das heißt nicht zu einer durch Interpretation herbeigeführten Versöhnung kommen lässt. Jean-Luc Nancy verwendet den Begriff des „Distinkten“, um die Bewegung zu bezeichnen, in der der Grund sich zur Form erhebt und diese in den Grund versinkt.19 Wobei Nancy den „Riss in der Verbindung“, die Distanz, das „Entfesselte“ betont, das im Rückzug das Angezogensein und damit 17

Ebd., 24ff.

18

Boehm 1994, 29ff..

19

Nancy 2004, 177.

67

Jörg Huber

68

die Begehrlichkeit des Bildes bewirkt.20 „Man kann also sagen, dass der Grund erscheint als das, was er ist, indem er verschwindet.“21 Es ist dies ein Schwellenphänomen, das Didi-Huberman als eine Art „symptomale Visualität“ bezeichnet, in der sich der Wahrnehmung eine Form oder Figur in actu zeigt, als eine figurierende Figur, „eine Figur in Schwebe, die noch im Begriff ist zu entstehen, im Begriff zu erscheinen, im Begriff sich zu präsentieren – und nicht zu repräsentieren“22. Künstlerisch intendierte Bilder betonen dieses Bild-Geschehen, das uns, vor dem Bild, involviert in der Ko-Präsenz von Leib und ästhetischer Materialität, als Wahrnehmungsereignis widerfährt und uns zur Antwort herausfordert. Diese Antwort geschieht in der Wahrnehmung und Erfahrung der Bildgeschehens als bewusste und kulturell codierte Leistung, die jedoch nicht selbstverständlich und routiniert erfolgt. Das Erleben des Bildgeschehens drängt uns, es sprachlich zu fassen und zu bedeuten. Als ein Ereignis des Vorprädikativen, des Primordialen (Maurice Merleau-Ponty), des Affektiven – oder des Distinkten – verweigert es sich jedoch immer wieder diesem Bemühen, es macht ein Unvermögen sichtbar und provoziert eine Krise der bestehenden Ordnungen des Rationalen und der Sprachlichkeit. Es provoziert ein Zögern, da man die Worte nicht findet, ein Scheitern intendierter Sinnbildung insofern, als eine abschliessende Bedeutung nicht gelingt und aufgeschoben wird. Die Bildung von Signifikanten, so Christoph Menke mit Blick auf Theodor W. Adornos Negative Dialektik, kann nicht gelingen, weil „das im ästhetischen Objekt Gezeigte nicht das ist, was es im Sinne eines Begriffs ästhetischer Bedeutung zu verstehen gibt, sondern was als Resultat des Zerfalls ästhetischen Verstehens immer erst noch wieder ästhetisch verstanden werden muss (und nie verstanden werden kann).“23 Im ästhetischen Verstehensvollzug geschehen Übergänge von Material und Bedeutung in der Bildung von Signifikanten, und dieses Auswählen, Verbinden, aufeinander Beziehen, Bedeutungen Riskieren kann nicht abgeschlossen werden. Das ästhetische Ereignis lässt sich nicht auf einen bestimmten Kontext festlegen. Künstlerisch intendierte Bilder exponieren das Scheitern des Verstehensversuchs (der notwendig ist, da es nicht darum geht, vom Verstehen abzusehen) und gleichzeitig dessen Überschreitung. Sie sind außerordentlich, indem sie die Ordnungen, die sie vertreten, unterbrechen und irritieren und über sie hinaus auf andere mögliche Ordnungen weisen. Sie experimentieren mit Modalitäten des Verstehensvollzugs und thematisieren Verstehen, indem sie es stören und verzögern und damit Latenzen und Übersehenes in den etablierten Wissensvollzügen markieren. „Vor dem Bild“ erfahren wir, so noch einmal Didi-Huberman, dass „das was uns unmittelbar und unumwunden befällt, etwas Verstörendes an sich hat und im Dunkeln bleibt – und dass das, was uns dagegen klar und verständlich erscheint, weiter nichts ist als das Ergebnis eines langen Umwegs – einer Vermittlung, eines Wortgebrauchs […].“24 Wir erleben ein Nicht-Verstehen und versuchen es verstehend zu bedeuten, ohne es zu überwinden. Die ikonische Differenz ist hier auch Differenz 20

Nancy 2006, 9ff..

21

Ebd., 20.

22

Didi-Huberman 2001, 101.

23

Menke 1991, 81.

24

Didi-Huberman 2000, 9.

Vor einem Bild. Eine Forschungsskizze

von Bild und Text und markiert die Aporie, etwas in Sprache zu artikulieren, was sprachlich nicht fassbar ist. Diese notwendigerweise kursorische Skizze des Orts „vor dem Bild“ als eines Erfahrungsraums des Ästhetischen sollte zeigen, dass und wie Bildlichkeit spezifische Formen und Weisen des Wissens generiert. Damit stellt sich die Frage, ob die von der Kunst derart exponierte epistemologische Bedeutung der Bilder auch in der Praxis der Wissenschaften wirksam ist, oder anders gefragt: ob auch im Wissenschaftskontext der Ort „vor dem Bild“ bedeutsam ist oder sein kann. Der Gebrauch der Bilder in den Wissenschaften steht im Spannungsfeld von Performativität der Bilder und deren Funktion der Repräsentation. Um zu beobachten, wie das Ästhetische auf und zwischen beiden Seiten aktiv und beteiligt ist, sei es vermittelnd oder in der Unterscheidung, muss man von der Analyse der Herstellung wissenschaftlicher Bilder ausgehen. Diese Recherchen sollten immer die speziellen Konditionen und Kontexte der jeweiligen Situation berücksichtigen – im vorliegenden Überblick kann ich jedoch nur auf einige grundlegende Aspekte hinweisen, die für die Bilderfrage wichtig sind. Beispielhaft und verallgemeinernd sei auf den Bildgebrauch in den Naturwissenschaften verweisen. Hier handelt es sich in den meisten Fällen um technische Bilder, das heißt Computerbilder. Ohne Bilder geht es nicht mehr: Mit den heutigen Messtechnologien können Datenmengen produziert werden, die für das menschliche Auge und das Verständnis der Forschenden weder numerisch noch sprachlich, sondern nur in bildlicher Form (re)präsentiert werden können. Die Bilder beziehen sich nur indirekt auf ein Objekt oder ein Geschehen, indem sie effektiv Daten darstellen. Sie funktionieren gleichzeitig auch im Zusammenhang von Modellbildungen, die aufgrund von Theorien entwickelt werden. Als Modellbilder sind sie Theoriebilder. Sie sind Effekt von Algorithmen und Apparateprogrammen und das heißt der jeweiligen Software. Sie sind Teil oder, mit Bruno Latour, „Aktanten“ in verästelten Referenzketten, die in einem komplexen Transformationsprozess von Apparaten und Messgeräten in Gang gesetzt werden. Gleichzeitig suggerieren sie jedoch, dass sie etwas sichtbar machen, etwas zeigen, dass sie abbilden und Anschaulichkeit herstellen im Unterschied zu textueller und numerischer Repräsentation. Vor diesem Hintergrund performieren Bilder verschiedene Arten der Referentialität und entwickeln dabei verschiedene ästhetische Strategien und Ausdrucksformen. Es gibt Bilder, die Grafiken ähnlich sind und auf den ersten Blick als Visualisierungen von Daten ersichtlich sind, und solche, die als Modellierungen und Simulationen aufgrund hochentwickelter Software „täuschend realistisch“ gestaltet sind und die mit dem „Realismuseffekt“ spielen. Und drittens gibt es Bilder, die aufgrund ihrer Machart, als eine Art Spurenbilder eine Indexikalität vorgeben. Mittels Rastertunnelmikroskopie hergestellte Bilder z.B., die durch eine Art „Taktilität des Sehens“ entstehen, „erzeugen eine Vertrautheit“ so der Physiker Joachim Krug, „mit der eigentlich unsichtbaren atomaren Welt, die der sinnlichen Alltagserfahrung verdächtig nahe kommt“.25 An anderem Ort spricht er sogar von dem Effekt des „interpretationsfreien Einblicks“26, den die Bilder dem Betrachter 25

Krug 2001, 122.

26

Ebd., S. 136.

69

Jörg Huber

70

einen in das atomare Geschehen zu gewähren scheinen. Darstellungen von Bewegung steigern diesen „Realismus“-Effekt, indem die Dimension der Zeit ins Spiel kommt. In der Zellforschung, um ein Beispiel zu nennen, wird mit dem Einsatz von Laser und spektroskopischen Methoden eine sehr hohe zeitliche Auflösung der Bildbeobachtung ermöglicht, sodass die Bewegungen von Viren in „Echtzeit“ verfolgt werden können. Man spricht von der „filmischen Widergabe“ einer Bewegung und der „Genauigkeit“ der Bilder – tatsächlich geht es jedoch um eine statistische Auswertung. Die Virenbewegungen müssen in Form von Bahnkurven aus den Bildern extrahiert werden, was eine Höchstleistung der Messgeräte und Visualisierungstechnologie erfordert (mindestens 20 Bilder pro Sekunde, eine Partikelposition muss genauer sein als ein Bildpixel und die Störgeräusche müssen aufs Minimum reduziert werden). Die Bilder sind nicht Spuren eines Ereignisses, sondern Effekte einer Spurensuche, eines Tracking, das tausende einzelne Videos sichtet, die die Zelle unter verschiedenen Bedingungen bestimmen.27 Die verschiedenen Repräsentationsstrategien sind begründet in der apparativ unterschiedlichen Konstruktion der experimentellen Anlagen. Sie sind aber auch ästhetischer Effekt unterschiedlicher Forschungsperformanz. Die Bilder sind nicht ausschließlich Programm-Erscheinungen und Resultat instrumenteller Messungen; sie werden in dem Transformationsprozess instrumentalisiert. Sie sind Schauplatz eines Tuns, das der Protagonist unternimmt und das in Form von Handlungen oder eines Machens geschieht. Der Protagonist bearbeitet das Bild, greift in es ein, verändert und entwickelt es weiter. In der Praxis des Forschungsprozesses ist er gleichzeitig Produzent und Rezipient der Bilder. Gestaltend interagiert er mit den in den apparativen Programmen angelegten Möglichkeiten der Bildgestaltung. Der Freiraum seiner Gestaltungsphantasie ist limitiert durch die Software und die Programmsprachen, die bestimmen, welche Formen und Arten der Sichtbarkeit möglich sind – wobei die Software ihrerseits ja wiederum von Wissenschaftlern entwickelt wird, die die bildgebenden Verfahren für einem bestimmten Handlungszusammenhang vor-sehen. In der Funktion der Programm-Regie steht der Protagonist hinter dem Bild; vor dem Bild nimmt er wahr, was seinesgleichen hinter dem Bild an Wahrnehmungsmöglichkeiten ermöglicht hat. Da er seine BildMaß-Nahmen nicht an dem Objekt der Untersuchung und mittels Anschauung überprüfen kann, muss er sich anhand seiner Erfahrung und in Bezug auf andere Bilder, die Kollegen hergestellt haben, orientieren und statistisch arbeiten. Die Interaktion zwischen Apparat und Auge, die am und im Bild als einem Interface geschieht, ist ein Prozess der „Interikonizität“: Bilder beziehen sich auf Bilder. Der Wissenschaftler arbeitet an dem Bild, das vor ihm auf dem Bildschirm erscheint, in Erinnerung und im Vergleich zu anderen Bildern (sogenannten Referenzbildern) und in Bezug auf die Vorstellung. „Die Vorgänge, die mich interessieren“, heißt es dazu bei Joachim Krug, „spielen sich meist auf den Oberflächen von Festkörpern ab. Die Bilder, die ich mir von ihnen mache, sind – aus dem Blickwinkel der Physik des 20. Jahrhunderts – naiv: Atome stelle ich mir als Kugeln und Klötzchen vor [...]. Das ist nichts Neues; ähnliche Bilder finden sich bereist 1785 [...], und seit etwa 50 Jahren gehören sie zum wissenschaftlichen Allgemeingut. Neu ist allerdings, dass diese naive Sicht der Dinge durch experimentelle Beobachtungen – das heißt 27

Vgl. Sbalzarini 2005, 48ff..

Vor einem Bild. Eine Forschungsskizze

dank des Tunnelrastermikroskops – quasi sanktioniert wird.“28 „Sanktionieren“ bedeutet hier ein Ver- und Abgleichen von Bildern unter Bildern, das als sozialer Prozess der Verständigung unter Fachleuten mittels peer reviews geschieht.29 Dieter Mersch hat die Paradoxie der Lage wiefolgt beschreiben: „Die Bilder gelten, weil wir wissen, wie sie erzeugt sind, aber ihrer Geltung entspricht keine Evidenz im Bildlichen, während sie umgekehrt Evidenzeffekte zeitigen, die sich in Bezug auf die Wissenseffekte als bedeutungslos erweisen. Impliziert ist, dass das Ästhetische, auf dessen Basis die Bilder allein rezipiert werden können, selber ein in sich Gespaltenes ist: Im Erscheinen bleibt der Grund des Erscheinens fremd.“30 Derart im Grundlosen holt man dann eben andere Bilder. Ebenso gestaltungsmächtig sind die verschiedenen Arten der Darstellungskonventionalisierung, die sich durch die Schaulust der Protagonisten und die assoziativen Übernahmen aus der Alltagswelt ergeben. Dabei wird das Verständnis des Ästhetischen oft auf den Begriff des Schönen enggeführt und damit affirmativ instrumentalisiert. Ein effektvoll gestaltetes, klares, anschauliches, schönes Bild wirkt überzeugender als eine diffuse, farblich z.B. unattraktive Darstellung. Das Bild dient der Benutzerfreundlichkeit, das heißt der simplen Tatsache, dass es angenehmer ist, an und mit „schönen“ Bildern zu arbeiten, wobei Schönheit sich in der Wiederholung dessen zeigt, was „allgemein“ als angenehm und gefällig empfunden wird. Die Apparateprogramme ermöglichen das Spiel mit Farben und formalen Differenzen, mit den Perspektiven und der Dynamisierung des Raums, mit taktilen Effekten, mit Oberflächenglanz und Tiefenschärfen etc. – ein ästhetisches Spiel, das Wahrnehmungsereignisse produziert, die das sinnliche Empfinden ansprechen und ästhetische Lust erwecken sollen. Diese affektiv emotionale Wirkmächtigkeit der Bilder läuft im wissenschaftlichen Gebrauch mit, ist jedoch nicht explizit intendiert. Die Antwort, die aus diesem Bilderleben heraus und auf dieses erfolgt, geschieht als Eingreifen ins Bild. Bildwahrnehmung und -gestaltung korrespondieren in der Interaktion mit dem Bild. Die zunehmende Ausdifferenzierung der Software steigert die Möglichkeiten Bildgestaltung und der Gestaltung mit dem Bild, was, tendenziell zumindest, die Bildkompetenz der Protagonisten übersteigt. Das attraktive Bild ist auch das richtige Bild – was sich von selbst versteht. Diese Evidenzbehauptung erfolgt mit der Verselbständigung der Bildgestaltung, was zur Folge hat, dass die Gemachtheit des Bildes verdeckt wird und die Spuren der Apparate und technischen Transformationen gelöscht werden.31 Dieter Mersch fordert 28

Krug 2001, 121f..

29

„Mein Modell ist richtig, wenn die von meiner Computersimulation erzeugten Bilder „genau so aussehen“ wie die Rastersondenaufnahmen meines Kollegen.“, ebd., 136.

30

Mersch 2005, 54.

31

Diese Verselbständigung des attraktiven Bildes zeigt sich dort am deutlichsten, wo die Bilder den Kontext der Expertenkultur verlassen und in die Medien und das heißt an eine breite Öffentlichkeit gelangen. In diesem Transfer werden die Bilder weiter bearbeitet, um den Effekt der Abbildhaftigkeit und die Suggestion des Anschaulichen zu steigern. Das Publikum soll zum Staunen gebracht werden; reisserische Bildlegenden (vgl. Werbung) und im Bereich der bewegten Bilder die Special Effekts der Filmindustrie (vgl. Game-Design und Science Fiction) und dramatische Musik (vgl. Visual Music) dienen der Theatralisierung der Bilder – nicht zuletzt um die Akzeptanz wissenschaftlicher Forschung zu steigern, im Kontext etwa der politischen Promotion

71

Jörg Huber

72

vor diesem Hintergrund eine Ethik des visuellen Gebrauchs, was die Sichtbarmachung der Konstruktion von Sichtbarkeit meint. „Visualisierungen rufen nicht nur Sichtbarkeiten auf, die Evidenzen vortäuschen, vielmehr müssen sie als solche diskutierbar gemacht werden. Die Entwicklung einer angemessen Bildreflexion als Kern einer allererst einzuübenden Bildkompetenz bezieht daraus ihr kritisches Potential. Dazu gehört – neben der Veröffentlichung von Transformationsserien, die die Übergänge und Verschiebungen lesbar machen – die Etablierung von Praktiken der Archivierung sowie der Kennzeichnung unterschiedlicher Grade der Auflösung, der Erhellung von Intentionen und Vorgeschichten, der Stufen im Visualisierungsprozess sowie die Einbeziehung alternativer Verfahren und deren Vergleichung.“32 In der Herstellung von Sichtbarkeit sind zwei Performativitäten aktiv: die durch die apparativen Vorgänge (scheinbar autopoietisch) generierten Referenzketten und die durch das menschliche Auge, die Hand, das Empfinden und das Erfahrungswissen geleiteten Interventionen. Beide Seiten bilden ineinander greifend das Experimentalsystem, in dem die wissenschaftliche Tatsache hergestellt wird. Die Entwicklung der Bildtechnologien dient der Informationsbeschaffung, und sie produziert aber auch eine zunehmende Komplexität der Bilder und Bildsysteme, die es immer schwieriger macht zu entscheiden, nicht nur was eine Information ist, sondern auch wie man die relevanten Informationen finden, aus den Bildern extrahieren und in einen Zusammenhang bringen kann. Die Bilder und Bildsysteme enthalten und generieren unterschiedlichste Informationen und sie können gleichzeitig nicht alles und oft nur bestimmte Informationen oder nicht alle, die notwendig wären, zeigen oder lesbar machen. Die Protagonisten arbeiten mit Annahmen und Vermutungen, mit vagen Interpretationen oder mehrdeutigen Diagnosen. In dieser Situation ist das Erfahrungswissen von großer Bedeutung, das bewusst und unbewusst im Spiel ist und das sich, obwohl eine „Schlüsselaufgabe der automatischen Bildanalyse“33, nicht abschließend formalisieren lässt. HansJörg Rheinberger unterscheidet hier zwischen zwei Semantiken: „Erfahrung erlaubt es, ein Werk, einen Gegenstand oder eine Situation einzuschätzen und zu beurteilen. Erfahrenheit hingegen ermöglicht es, dergleichen Einschätzungen und Urteile im Prozess der Erkenntnisgewinnung gewissermaßen zu verkörpern, das heißt, mit den Werkzeugen und mit den Händen zu denken. Erfahrung ist eine intellektuelle Errungenschaft. Erfahrenheit, das heißt, erworbene Intuition, ist eine Tätigkeits- und Lebensform.“34 Erkenntnisgewinnung in und mit Bildern ist ein sinnlich affektives Geschehen, dessen Verfahren – Modellieren, Simulieren, Annähern, Pröbeln, Reinigen, Filtern, Drehen und Wenden etc. – ein hohes Maß an ästhetischem Empfinden und Wahrnehmungssensibilität verlangen. Es geht um Aufmerksamkeiten, um Achtsamkeiten und Unachtsamkeiten, um die Ausrichtung des Augenmerks, so der Titel Augenmerk des zitierten Textes, in dem Rheinberger die Offenheit des Expeumstrittener Forschungsvorhaben oder der finanziellen Unterstützung der Forschungsinstitutionen durch die öffentliche Hand. 32

Mersch 2005, 56.

33

Székely u.a. 2005, 39ff..

34

Rheinberger 2005, 61f.

Vor einem Bild. Eine Forschungsskizze

rimentalsystems und damit die Bedeutung der von der instrumentellen Vernunft vernachlässigten Bereiche betont: der stummen Dimensionen des Wissens, des impliziten Wissens (Michael Polanyi), der unscharfen Ränder, der Abwesenheit der Absicht (Jacques Derrida), der blinden Taktik, des Umherirrens, Bereiche des Nicht-Intentionalen, die zeigen, dass das Geschehen nicht vollständig beherrscht werden kann etc. „Erfahrenheit“, so ergänzt Rheinberger denn auch weiter, „muss gelernt werden, das liegt in der Natur der Sache, und sie übersteigt gleichzeitig doch, was in einem expliziten Sinn gelernt werden kann.“35 Der Umgang mit Wissensbildern erfolgt in diesem Spannungsfeld von Intentionalität und Nicht-Intentionalität. Beide Aspekte (Qualitäten oder Temperaturen) der Forschung, die sich gegenseitig vielfältig durchqueren, sind dem Anspruch auf Verstehen und Beweisen sowie der Verwertbarkeit der Forschung verpflichtet. Das Intentionale betont die Unterstellung der Bilder unter die diskursive Logik wissenschaftlicher Argumentation. Hier werden sie funktionalisiert und instrumentalisiert, sie dienen dem knowledge design und sie müssen verstanden, das heißt gelesen/entziffert werden. Sie dienen als Beweis, wenn es darum geht, etwas abschließend auf den Punkt zu bringen. Dieser Umgang verlangt Erfahrung: Es braucht entsprechende Fachkenntnisse und Informationen in Form etwa von ausführlichen Bildlegenden und Angaben zu den verwendeten Codes. Das Nicht-Intentionale eröffnet den Raum für ein implizites Wissen, ein Können, eine verkörperte Intuition: diese Erfahrenheit bildet eine Art Subtext, der das rational analytisch ausgerichtete Forschungsgeschehen durchquert, irritiert, öffnet, transzendiert, aber auch stützt und damit – möglicherweise: wenn er Beachtung erfährt – dieses zur Beobachtung bringt. Das Nicht-Intentionale hat eine unberechenbare Präsenz und ist wirkmächtig in seiner Kontingenz; es kann verdeckt und vernachlässigt, aber nicht aufgehoben oder still gestellt werden. In der schwebenden Aufmerksamkeit der Erfahrenheit kommt die Tatsache zur Geltung, dass Bilder sich durch eine intentional geleitete Lektüre nicht erschöpfen lassen, indem sie ihre Latenzen in der Invisibilisierung haben und ihren nichtintentionalen Überschuss als ihre Wirkung und ihren Effekt. Sie oszillieren als Figuren des Sinns zwischen einer zweckorientierten Sinngebung und deren Entgrenzung in der Sinnlichkeit ästhetischer Gestaltung und Wahrnehmung; sie sind Tatorte auch, die Spuren enthalten, die das nicht-intentionale Bewusstsein hinterlassen hat. Sie entfalten in der Offenheit des Ereignis- und Möglichkeitsraums „Experimentalsystem“ ihren Eigensinn und veranlassen durch ihre ästhetische Dynamik spezifische Arten von Wahrnehmungsereignissen. Als Schauplätze ästhetischer Ereignishaftigkeit, die ständig kontrolliert werden und sich der Kontrolle aber auch widersetzen und entziehen, provozieren die Bilder diejenigen, die sie herstellen, sie wahrnehmen und mit ihnen arbeiten durch das, was diesen widerfährt und auf das sie antworten müssen. Bilder werden auf allen Stufen eines epistemischen Prozesses eingesetzt: in der Phase des Entwerfens, Suchens, Ausprobierens wie auch in derjenigen der Beweisführung und der Evidenz-Behauptung. Während üblicherweise das Nicht-Intentionale in der Anfangsphase eines wissenschaftlichen Prozesse dominiert, trium35

Ebd., 62; 70.

73

Jörg Huber

phiert die Intentionalität in der Schlussphase als Bereinigung des anfänglichen „Irrens und Wirrens“. Diese Unterscheidung und Unterteilung ist jedoch ideologisch und repräsentiert ein bestimmtes Wissenschafts- und Forschungsverständnis. Tatsächlich ist die Situation vor dem Bild als eine ästhetische Situation36 immer dieselbe. Während das künstlerische Bild sie jedoch explizit exponiert und thematisiert, spielt sie in der Wissenschaftspraxis im Zuge der Herrichtungen und Verwertungen eine zu vernachlässigende Rolle, das heißt sie stellt eine Art black box in der Inszenierung der Erkenntnisverfahren dar. Im Vergleich und in der Unterscheidung von künstlerischem und wissenschaftlichem Bildgebrauch eröffnet die Situation „vor dem Bild“ deshalb eine agonale Konstellation. Von dieser ausgehend können Forschungsprojekte kulturelle Settings und Verfahren entwickeln, die ermöglichen, dass künstlerische und wissenschaftliche Bilder sich gegenseitig bespiegeln, durchkreuzen, in ihrem Funktionieren dekonstruieren und kontextuell verschieben. Damit werden Möglichkeiten der Fremd- und Selbstbeobachtung (in) der Bildpraxis geschaffen sowie auch Möglichkeiten der Kritik der Ordnungen und Logiken sowie der institutionellen Rahmungen der jeweiligen Bildgebräuche. Vor diesem Hintergrund ist Wissenschaftstheorie Bildtheorie und Bildtheorie Bildkritik, die mit und zwischen Bildern geschieht. Eine Kritik, die als ästhetische Praxis der Kritik in eine Krise führt, die sich darin zeigt, dass die Protagonisten in ihrem Selbstverständnis und bezüglich der Selbstverständlichkeit ihrer Verfügungsgewalt über das, was sie tun, empfindlich irritiert werden.

74

36

Vgl. Böhme 1995. Speziell Kapitel A: Exempla docent: auf dem Weg zu einer Theorie der ästhetischen Situation, 240ff.

Vor einem Bild. Eine Forschungsskizze

Bibliographie Gottfried Boehm, 1994, Die Wiederkehr der Bilder, in: Gottfried Boehm (Hrsg.), Was ist ein Bild?, München. Hartmut Böhme, 1995, Einführung in die Ästhetik, in: Aisthesis, Paragrana, Band 4, Heft 1 (1995), Berlin. Georges Didi-Huberman, 2000, Vor einem Bild, München / Wien. Georges Didi-Huberman, 2001, Ein entzückendes Weiss, in: Georges Didi-Huberman, Phasmes, Köln. Jürg Gutknecht, 2006, Making the tools that make us, DAW Symposium 2006, Vortrag vom 14. Juli 2006, http://www.digitalartweeks.ethz.ch/web/DAW/ Symposium06#makingtolls. Jörg Huber, u.a. (Hrsg.), 2007, Ästhetik der Kritik. Verdeckte Ermittlungen, T:G Bd. 5, Zürich / Wien / New York. Sybille Krämer, 1998, Das Medium als Spur und als Apparat, in: Sybille Krämer, Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien, Frankfurt a.M.. Sybille Krämer, 2007, Was also ist eine Spur? Und worin besteht ihre epistemologische Rolle?, in: Sybille Krämer, u.a. (Hrsg.), Spur, Frankfurt a.M.. Joachim Krug, 2001, Ein Auge welches sieht, das andre welches fühlt: Bilder aus der physikalischen Nanowelt, in: Bettina Heintz / Jörg Huber (Hrsg.), Mit dem Auge denken, Zürich / Wien / New York. Christoph Menke, 1991, Die Souveränität der Kunst, Frankfurt a.M.. Dieter Mersch, 2005, Bilder ohne Sichtbarkeit. Zur Ethik des visuellen Gebrauchs, in: Bilder an der Arbeit, „31“, Magazin des Instituts für Theorie der Gestaltung und Kunst (ith), Nr. 6/7, (Oktober 2005). Jean-Luc Nancy, 2004, Das Bild: Mimesis und Methexis, in: Jörg Huber (Hrsg.), Ästhetik und Erfahrung, Zürich / Wien / New York. Jean-Luc Nancy, 2006, Das Bild – Das Distinkte, in: Jean-Luc Nancy, Am Grund der Bilder, Zürich / Berlin. Marion von Osten, 2003, Norm der Abweichung, T:G Bd. 3, Zürich / Wien / New York. Hans-Jörg Rheinberger, Iterationen, Berlin 2005. Ivo F. Sbalzarini u.a., 2005, Heimtückische Viren auf lebenden Zellen, in: Imaging: Neue Einblicke ins Leben, ETH Bulletin, Nr. 298 (September 2005). Edward A. Shanken, 2006, Artists in Idustry and the Academy, in: Jill Scott (Hrsg.), Artists in Labs, Zürich / Wien / New York, S. 8. Gabor Székely u.a., 2005, Computergestützte Interpretation biometrischer Bilddaten, in: Imaging: Neue Einblicke ins Leben, ETH Bulletin, Nr. 298 (September 2005). Peter Weibel, 2000, Wissen und Vision – neue Schnittstellentechnologien der Wahrnehmung, in: Christa Maar u.a. (Hrsg.), Weltwissen Wissenswelt, Köln 2000. Beat Wyss, 2006, Vom Bild zum Kunstsystem, Köln 2006.

75

Elke Bippus Skizzen und Gekritzel. Relationen zwischen Denken und Handeln in Kunst und Wissenschaft Unschärfen des Bildes

76

Im Mittelpunkt der folgenden Überlegungen stehen Bilder der Kunst, genauer Zeichnungen (Skizzen, Schemazeichnungen, skripturale Gemälde und Wandbilder), die ich in Beziehung setzen werde zu „primären wissenschaftlichen Aufschreibeformen“1, die mit Hans-Jörg Rheinberger als das Kritzeln der Forschung bezeichnet werden können. Ich konzentriere mich dabei auf Spuren des Machens, des Prozessualen und auf Relationen zwischen Hand und Denken, die die Logik der Bilder um Aspekte ihrer Hervorbringung erweitern und in der zeitgenössischen Kunst und Theorie mit den Begriffen der „ikonischen Differenz“, des Performativen und der „Ansteckung“ gefasst werden.2 Die mit ihnen verknüpften Theorien richten ihr Interesse auf das Ereignis, die Handlung und auf die körperliche Involviertheit oder ein affektives, leidenschaftliches Eintauchen. Sie bringen hierdurch die mit dem Begriff des „Werks“ zusammenhängenden Oppositionen von Subjekt und Objekt, von Material und Zeichen zum Oszillieren. Die Analyse der unbestimmten Grenzen dieser Oppositionen ist insofern für die Thematik von Bildern der Wissenschaft und Kunst interessant, als sie ein methodisches Problem berührt, von dem auch die Wissenschaften betroffen sind. Bereits 1980 schreibt der Mathematiker und Wissenschaftstheoretiker Michel Serres in seiner Untersuchung der Bedingungen und Grenzen der Kommunikation, Der Parasit: „These oder Antithese? Die Antwort ist ein Spektrum, ein Band, ein Kontinuum. Wir werden niemals mehr mit Ja oder Nein auf Fragen der Zugehörigkeit antworten. Drinnen oder draußen? Zwischen Ja und Nein, zwischen Null und Eins erscheinen unendlich viele Werte und damit unendlich viele Antworten. Die Mathematiker nennen diese neue Strenge unscharf: unscharfe Untermengen, unscharfe Topolo-

1

Rheinberger 2005, vgl. v.a. 84–90.

2

Zum Verhältnis von Auge, Hand und Denken vgl. Bredekamp 2005; Bredekamp 2007; Zur ikonischen Differenz siehe: Boehm 1995. Zur Performativität und zur Ansteckung als wirkungsästhetisches Konzept vgl. Fischer-Lichte 2005; Schaub / Suthor / FischerLichte 2005.

Skizzen und Gekritzel

gie. Den Mathematikern sei Dank: Wir hatten dieses unscharf schon seit Jahrtausenden nötig. […] Nun endlich verfeinern und vervielfachen sich unsere Mittel.“3 Die Problematik der Unschärfe eröffnet einen Raum, ein Spektrum, das binäre Oppositionsbildungen unterbricht. Michel Serres begrüßt die Unschärfe als Verfeinerung der Mittel. Sie fordert offenbar dazu auf, genauere Differenzierungen zu entwickeln. In der Betrachtung von Bildern hat insbesondere Gottfried Boehm in den letzten Jahrzehnten zur Verfeinerung der Wahrnehmung und des Denkens über die „Logik der Bilder“ aus einer kunstphilosophischen Perspektive beigetragen.4 Er unterscheidet die bildliche Logik von derjenigen des Satzes oder anderer Sprachformen, ohne dabei die beiden medialen Formate in reduzierender Weise zu polarisieren. Die Logik des Bildes ist ihm zufolge nicht-prädikativ. Sie wird nicht gesprochen, sie wird wahrnehmend realisiert. Zentral für eine bildliche Logik sind Performativität, Ikonizität und eine Liaison mit dem Unbestimmten. Letztere resultiert meines Erachtens aus einem Registerwechsel: Die Betrachter/innen von Bildern beziehen das Dargestellte in ihren sinnbildenden Betrachtungen notwendig auf einen Kontext und damit auf eine andere kategoriale Klasse als die des Bildes. Ein materieller Sachverhalt kann so als Bild erscheinen und einen Überschuss des Imaginären entstehen lassen. Mit Gottfried Boehm gesprochen basiert die Logik des Bildes auf einer „nur visuell erschließbaren (Struktur), einer ikonischen Differenz.“5 Bilder sind deshalb nicht völlig unbeschreibbar, sie favorisieren jedoch einen Typ sprachlicher Zuwendung, der sich seiner eigenen Grenzen bewusst ist.6 Ein Bild geht einerseits aus den medialen Eigenschaften, den Darstellungs- und Verfahrensweisen hervor, die es, indem es sich in seiner „Opazität“7 zeigt, immer auch selbst reflektiert. Andererseits präsentiert es sich nicht in seiner Faktizität allein, sondern zeigt zugleich etwas. Gerade weil Bilder Wirklichkeit imaginieren, können sie ihre Betrachter/innen fesseln, mitreißen und verführen. In der imaginären Transformation des bloß Faktischen begründet sich die Mächtigkeit von Bildern, deren Überschuss, ihre semantische Indifferenz bei aller Lesbarkeit. Es ist aufschlussreich, die Selbstreflexion des Bildes als Bild, dessen affektive Dimension und den Überschuss an Sinn in die Analyse der Logik des Bildes einzubeziehen, um die Spannung zwischen dem manifesten Gehalt und den Latenzen des ikonischen Zeigegestus in den Blick zu bringen. Die Fokussierung der Logik der Bilder in ihrer ikonischen Differenz ist insofern keine Anrufung des Mythos der Unmittelbarkeit, der mit dem Bild eng verknüpft wurde, im Gegenteil, sie diskutiert die Möglichkeiten des Bildlichen in spezifi3

Serres 1987, 89.

4

Eine der ersten schriftlichen Formulierungen von Boehms Auseinandersetzung einer bildlichen Logik im Verhältnis von Bild und Sprache findet sich in: Boehm 1978.

5

Boehm 1995, 30.

6

Bei Boehm heißt es: „Wenn sich das Bild im visuellen Vollzug erschließt, sein künstlerisches Sein sich erst im Akt der Wahrnehmung erfüllt, dann kann die Beschreibung nicht hoffen, in Worten ein stabiles Äquivalent, eine Art sprachliches Abbild zu schaffen.“ Boehm 1995, 27. Das Wissen darum, dass kein sprachliches Abbild möglich ist, lässt auch nach den vielfältigen Möglichkeiten des Sprechens über Bilder fragen. Jedoch wird dies hier nicht verfolgt.

7

Das Bild erscheint, indem es seine medialen Eigenschaften zeigt, gerade nicht transparent oder eröffnet einen Durchblick. Es ist opak und zeigt sich selbst als Bild. Vgl. dazu Marin 2001.

77

Elke Bippus

schen historischen und gesellschaftlichen Kontexten. Gerade hierin gibt es eine Parallele zu einem methodischen Ansatz wie er nach dem linguistic turn entwickelt wurde, allerdings mit einer verschobenen Wiederaufnahme. Der linguistic turn hat einen Wechsel „von der Utopie des Möglichen“8 zu einer Wissenschaft vollzogen, die vor allem danach fragt, wie etwas möglich geworden ist und hierdurch dem Werk äußerliche Relationen in ihrer konstitutiven Funktion offen gelegt hat. Mit der Aufmerksamkeit auf die Performativität als einer Logik des Bildes wird die „Utopie des Möglichen“ reaktiviert. Diese entsteht als Spur zwischen Selbst- und Fremdverweis, sie zeigt sich in der ikonischen Differenz. Sie wird lesbar in der Reflexion der Darstellung und den Möglichkeiten ästhetischer Formulierungen in ihren historischen, kulturellen und funktionalen Wechselbeziehungen. Diese Konzeption der Logik des Bildes kann heute auch für die Betrachtung wissenschaftlicher Bilder bedeutsam werden, die experimentelle Phänomene darstellen. Ihre Referenzgegenstände liegen nicht als gegebene Phänomene mit fester und strukturell analysierbarer Struktur vor, sondern sind Effekte komplexer Transformationsprozesse, in denen Ursache und Wirkung nicht eindeutig bestimmbar sind. Bettina Heintz und Jörg Huber sprechen deshalb in ihrem einleitenden Text des Bandes Mit dem Auge denken von einem iconic turn in den Naturwissenschaften, durch den das Modell neu gedacht werden muss, das der Leseweise von Gegenständen zugrunde liegt. Beide unterstreichen die performative Funktion von Bildern und problematisieren deren repräsentative Leistung: Wissenschaftliche Bilder sind Resultate komplexer Transformationsprozesse, in denen technisch erzeugte Ereignisse wie Messdaten, Aufzeichnungen von Signalen oder elektromagnetische Wellen in symbolische Darstellungen übersetzt werden.9 Der Verlust des Referenzgegenstandes macht es notwendig, den Wahrheitsanspruch der Wissenschaft neu zu legitimieren. Der Wissenschaftssoziologe Bruno Latour wendet sich dementsprechend mit seinem Verfahren der „Artikulation“ gegen die Korrespondenztheorie der Wahrheit, welche auf ein substantiell Gegebenes referiert, und versucht, „die ganze Serie der Transformationen, aus denen die Referenz besteht“,10 näher zu bestimmen und kenntlich zu machen. Genau in diesem Zusammenhang kann die Geschichte der Kunst in theoretischer wie praktischer Hinsicht von Relevanz sein. Denn die Selbstreferentialität der Kunst, die für sie seit der Moderne kennzeichnend ist, hat dazu beigetragen, die konstitutive Funktion der Logik des Bildes zu reflektieren.11 Allerdings vermag Kunst es ebenso, die Wege zu verdecken

78 8

Lüdeking 2005, 125.

9

Heintz / Huber 2001.

10

Latour 2002, 181.

11

Die Erforschung der Logik der Bilder, also die Untersuchung des Bildanschaulichen, der Medialität, der bildnerischen Verfahren oder der Darstellungsstrategien, obliegt nicht allein den theoretischen Wissenschaften, sondern auch der Kunst. Marcel Duchamp hat beispielsweise die Bildlichkeit der Sprache und die bildkonstitutiven Anteile der Institution untersucht. Die Russische Avantgarde versuchte mit der Fokussierung formaler Probleme die ideologischen Aufgaben der Kunst in Zeiten der Revolution zu begreifen. In den 1950er Jahren hat der Abstrakte Expressionismus die Medialität, Materialität und Gattungsspezifik erforscht, und damit die Un- und Abhängigkeit der Kunst von gesellschaftlichen Veränderungsprozessen thematisch werden lassen. Ende der 1950er Jahre und in den 1960er Jahren, auf die ich mich in meiner Betrachtung von Zeichnungen beziehen werde, wird die Logik des Bildes in Relation

Skizzen und Gekritzel

und die Betrachter blindlings zu fesseln. Sie verweist gerade hierin auf die Macht von Bildern, Wirklichkeit zu erzeugen. In den letzten Jahren wuchs das Interesse an den ikonischen Bedingungen des Wissens, was dazu führte, dass Transformations- und (Re-)Präsentationsprozesse in den Blick gerückt wurden. In der alltäglichen wissenschaftlichen Darstellungspraxis sind diese Reflexionsbestrebungen jedoch noch marginal und für die Vermittlung wissenschaftlicher Erkenntnisse spielt sie eine untergeordnete Rolle. Wird jedoch auch hier die Logik des Bildes, in ihrer spezifischen Bildlichkeit, in den Mittelpunkt gerückt, dann tritt der Werkzeug-Charakter von Bildern oder deren Funktionalität zugunsten von „prozeduralen und tätigen Qualitäten des Bilderscheinens und Bildsehens“12 zurück. Nicht allein Darstellungsfragen, sondern auch historische, gesellschaftliche, oder auch emotionale und individuelle Rahmenbedingungen werden relevant. Das Bild wird als Tätiges bedacht, das heißt als ein Handelndes in einem spezifischen Zusammenhang. Das Paradigma der „Darstellung“ hat auf der einen Seite den Dialog zwischen den Natur- und Geisteswissenschaften wie denjenigen zwischen Wissenschaft und Kunst befördert. Auf der anderen Seite machen diese Annäherungen eine Präzisierung der Unterschiede von Darstellungsweisen und Bildfunktionen notwendig. Trotz ihrer divergenten Ausrichtung übernimmt Wissenschaft vornehmlich die Funktion der Generierung, der Analyse und Vermittlung von Wissen. Im Unterschied dazu vermittelt sich eine künstlerische Praxis, auch wenn diese auf Recherche basiert, als reflexive Praxis im Ästhetischen und konfrontiert auf diese Weise mit den Grenzen des Wissens und einem Nicht-Wissen. Zugespitzt lässt sich sagen, dass die bildliche Darstellung in den Wissenschaften die Aufgabe hat, einen Sachverhalt aufzuklären. Kunst dagegen behauptet sich seit der Moderne als genuine Schöpfung. Spätestens seit der Mitte des 20. Jahrhunderts wird diese Schöpfung nicht auf das Künstlersubjekt zurückgeführt. Die geschaffene Realität präsentiert sich vielmehr in ihrer imaginären Verfasstheit und ihren kontextuellen Verstrickungen.

Zeichnung als performative Handlung Die Thematisierung des schöpferischen Potentials der Zeichnung erfolgt dementsprechend im 20. Jahrhundert nicht in neoplatonischer Absicht.13 Die Zeichnung gesetzt zur Prozessualität des Machens und zum institutionellen System und seinen Vorgaben. 12

Schürmann 2005, 196.

13

Der disegno und das in ihm formulierte Zusammenspiel von handwerklicher und geistiger Tätigkeit ist historisch unterschiedlich gewichtet worden. In der Kunsttheorie der Renaissance zwischen 1547 und 1607 wurde der disegno als etwas Erzeugendes verstanden. Im Zuge der Bestrebungen, die Kunst vom Handwerk abzusetzen, wurde er vor allem als geistige Tätigkeit beschrieben. Der disegno wurde in einen praktischen und einen imaginativen Zweig unterteilt, in eine äußere Form der Gestaltung, das Zeichnen, und in einen Erkenntnis- oder Denkvorgang. Die Bandbreite der Bedeutungen des Begriffs reicht von der Gleichsetzung: Disegno = Lineamento, bis hin zu einer Konzeption, die dem heute gängigen Terminus Medium entspricht. In einer auf

79

Elke Bippus

80

wird in diesem Sinne nicht als die Idee begriffen, sondern die zeichnerische Praxis wird zu einer Art und Weise, diese zu denken. In diesem Zusammenhang gewann die Reflexion der Darstellung unter ihren medialen Bedingungen an Bedeutung. Das Skizzenhafte der Zeichnung, ihre suchende und tastende Bewegung vermag – im Unterschied zu Bildern und Skulpturen, Objekten und Installationen, die dinghaft auftreten und einen Anspruch auf Realität erheben – eine Prozessualität zu artikulieren, die im Modus der Möglichkeit verharrt. Durch diesen öffnet sich die Zeichnung einer Betrachtung, welche ihre Logik im (nach-)vollziehendem Verstehen wahrnehmend realisiert, das heißt Möglichkeiten gibt und andere in den Hintergrund treten lässt. Wie die (Sprech-)Handlung, an der der Begriff des Performativen ursprünglich entwikkelt worden ist, ist die Zeichnung „selbstreferentiell und wirklichkeitskonstituierend“14 und sie kann als solche aufgrund vor allem institutioneller und sozialer Bedingungen glücken oder missglücken. Auch für die Zeichnung gilt, was Erika FischerLichte für die performative Handlung beschreibt: sie destabilisiert dichotome Begriffsbildungen, sie ist als Handlung geistige Tätigkeit und nicht bloße Materialisierung einer im Geist präexistenten Idee. Sie ist gestalterisches Denken, das nicht auf der Seite der Produktion endet. Cy Twomblys skripturale Malerei, die häufig als Kritzelei charakterisiert wird, reflektiert diesen Prozess. Gekritzel wird wie Kritzeln zumeist in einem abwertenden Sinne benutzt. Jemand sudelt, schmiert oder kliert etwas Unleserliches auf das Papier. Umgekehrt, oder gerade deshalb, kann Kritzelei auch, wie das automatische Schreiben, als ein probates Mittel zur Erfindung neuer Formen fungieren. Ein solches Mittel kann das Kritzeln jedoch nur dann werden, wenn vielfältige Ausdrucksweisen als Techniken angeeignet und internalisiert wurden, sodass sie gleichsam automatisch zum Einsatz kommen können. Cy Twombly hat in diesem Sinne während seines Militärdienstes (1953/54) Zeichnungen im Dunkeln hergestellt. Mit dieser Methode unterbindet er das Zusammenspiel von Auge und Hand, das für die Kontrolle der Geste des Schreibens und Zeichnens gleichermaßen zentral ist. Die Hand allein hat die Verantwortung für die Linienführung. Das Auge, das Roland Barthes in Bezug auf Twombly als Instanz der Vernunft, der Evidenz, der Empirie, der Wahrscheinlichkeit, der Koordination und Imitation bestimmt hat, wird entthront. Twomblys Technik bezieht taktile, auditive und intuitive Aspekte mit ein und betont Prozesse des Tastens und Suchens gegenüber solchen des Identifizierens. Er rückt in seinen Zeichnungen die geistige Tätigkeit als eine händische in den Blick. Denken wird hierdurch nicht als ein ausschließlich intentionaler und instrumenteller Akt vorstellbar, sondern mit handlungs- oder prozessbezogenen Aspekten verknüpft.15

Vitruv zurückgehenden Konzeption wurde disegno in den Rang einer Wissenschaft einer „Scienza delle linee“ (Vasari) gesetzt. Vasari verstand darunter die Kenntnis der regelrechten Naturwiedergabe. Mit dieser Bestimmung hat er, so Wolfgang Kemp, den Begriff von einem Prinzip zu einem mentalen Habitus umgedeutet. Der Begriff bezeichnete nicht länger die forma und practica, sondern das concetto und die idea. Kemp 1974. 14

Vgl. Fischer-Lichte 2005, 33.

15

Denken ist dann als ein Prozess vorstellbar, wie er beispielsweise in dem berühmten Text Heinrich von Kleists Die allmähliche Verfertigung der Gedanken beim Reden zum Ausdruck kommt.

Skizzen und Gekritzel

Untitled von 1954 (Abb. 1) ist eine relativ kleine Arbeit von 73,4 x 91,4 cm. Twombly grundierte eine Leinwand mit Wandfarbe auf die er mit Bleistift zeichnete. Ästhetisch entsteht so der Eindruck einer Kritzelei auf einer Wand. Im Unterschied zu den meisten Graffitis ist Twomblys Zeichnung frei von Symbolen. Kräftige und rhythmische Auf- und Abschwünge des Unterarms wechseln sich ab mit kleinen Krikeleien der Hand. Neben den auf einen Punkt konzentrierten Bewegungslinien treten solche, die in Relation zur Ausdehnung des Blattes stehen. Nur vereinzelt finden sich Gestaltungen, die aufgrund einer Kontur an figurative Darstellungsweisen erinnern. Twomblys Linienführung reagiert auf die Wandfarbe, auf deren Oberflächenbeschaffenheit, die sich eiAbb. 1: Cy Twombly, Untitled. nerseits der Glätte eines Papiers annähert, sich andererseits jedoch deutlich von dieser unterscheidet. Er zeichnet teilweise auf die feuchte Farbe, sodass die Linie gehemmt und umgelenkt wird, abbricht oder sich in der Farbe verliert. Die Wandfarbe selbst wird einbezogen, in ihr materialisiert sich ein nicht-prädikativer skripturaler Ausdruck, der neben die gesetzten Linienführungen tritt. Die Zeichnung macht so sichtbar, dass die Hand des Künstlers nicht von einer Idee geleitet wird, sondern sich in einem Zusammenspiel von Absichten, erlernten Techniken, Kenntnissen, Empfindungen und Materialwirkungen bewegt. In den Verfahrensspuren wird die Unmöglichkeit einer ausschließlich intentionalen Formulierung reflektiert. Lesbar wird dieser nicht-intentionale Ausdruck durch die Analyse der Handlung und „die Reflexion über das Bildanschauliche wie ebenso über das nur Bildmögliche selbst.“16 Twomblys Kritzeleien sind folglich keine unbewussten Akte im Sinne von Telefonzeichnungen, sondern konzentrierte Setzungen von Linien, deren Ausdrucksqualitäten in Abhängigkeit historischer und kultureller Kontexte spezifiziert werden können. Der Künstler greift auf ein Repertoire von Zeichnungsmöglichkeiten zurück. Seine Kritzeleien zeigen die Anstrengungen und Strategien, selbstkontrollierende und konventionalisierte Verfahren aufzugeben. In hochkonzentrierten, suchenden Linien hat er etabliertes Wissen und verinnerlichte Techniken des Zeichnens dekonstruiert, um zur Erfindung neuer Formen fähig zu sein. Dass es bei diesem Prozess nicht notwendig darum geht, das nahe liegende und logische Ergebnis zu erreichen, zeigen die Zeichnungen Twomblys, die nach dem Unvorhersehbaren, dem Überraschenden suchen. Panorama von 1955 und Academy ebenfalls von 1955 sind großformatige Arbeiten (Abb. 2+3).17 In ihrer Größe formulieren sie den Anspruch eines „Werks“. Diese Werke reflektieren sich jedoch, indem, wie bei Untitled von 1954, der Entstehungsprozess ablesbar und selbst zum Bildgegenstand gemacht wird, nicht dem klassischen Werkbegriff eines objekthaften, abgeschlossenen Produkts entsprechend. 16

Imdahl 1995, 308.

17

Panorama hat die Maße 254 x 340,40 cm und Academy die von 191 x 241 cm.

81

Elke Bippus

82

Sie zeigen im Gegenteil, dass ein „Werk“ im Vollzug einer Arbeit entsteht und zwar sowohl auf Seiten der Produktion wie der Rezeption, die das Werk im Zugriff eines Diskurses, einer sinnproduzierenden Lektüre erfährt. Für Panorama nutzt Twombly Wandfarbe, Wachskreide und Kohle, für Academy Wandfarbe, Bleistift, Farbstift und Pastell. Die schwarze Farbe verleiht Panorama die Anmutung einer Schultafel, auch wenn es Twombly vermutlich nicht um diese Assoziation ging. Er wollte lediglich einen neutralen Grund schaffen. Bei den großformatigen Werken arbeitet Twombly im Stehen vor der an der Wand fixierten Leinwand. Die Größe des Formats verhindert eine Übersicht. Hierdurch stellt sich eine, den im Dunkeln ausgeführten Zeichnungen Abb. 2: Cy Twombly, Panorama. ähnliche Situation her. Twombly bedeckt die Fläche mit skripturalen oder graphematischen Zeichen, die flüchtig und unstet, in einem eher nervösen Impuls realisiert scheinen. Im Unterschied zu Untitled sind die Kritzeleien nicht auf die Bildmitte konzentriert. Das große Format fordert offensichtlich andere Beziehungen zwischen Fläche und Bildbegrenzung: In Panorama verteilt Twombly die Kreidestriche in Allover-Technik gleichmäßig über die gesamte Bildfläche. Das Bild wirkt nahezu Abb. 3: Cy Twombly, Academy. in Zeilen aufgebaut. Academy zeigt im Unterschied dazu eine palimpsestartige Schichtung. Viele Kunstkritiker haben den Aufzeichnungscharakter von Twomblys Arbeiten betont und sie als seismographische Bilder bezeichnet. Twombly hat, so Nicola Del Roscio, „eine direkte Verbindung zwischen Hand und Nervensystem hergestellt.“18 In dieser modernisierten Form des Geniegedankens, die einen unmittelbaren Ausdruck des Künstlers postuliert, werden die Materialität, der Kontext und zahlreiche andere konstitutive Faktoren übergangen. An die Stelle der Seele, der Emotion, des Geistes ist das Nervensystem getreten. Twombly setzt jedoch die Beweglichkeit der Linie als eine Bedingung prozessualer Bildgenerierung. Die Energie der Linie mündet dabei nicht in eine plastische Formation, sondern bleibt in Bewegung und Spannung. Die unscheinbaren und flüchtig hingesetzten Linien werden lesbar als Spuren der Übersetzungsprozesse, die zwischen Hand und „Nervensystem“ wirksam waren. Der nachvollziehende Blick folgt den Strichballungen, den flüchtigen Liniengebilden, den Kreis- und Schreibkritzeln, den schwunghaften Verdichtun18

Zitiert nach: Leeman 2005, 31.

Skizzen und Gekritzel

gen oder heftig aufgetragenen Vertikalen und den Worten. Die Lektürerichtung und -folge wird von der Zeichnung im Zusammenspiel mit konventionalisierten und normativen Mustern bestimmt und ist – da die Zeichnung gerade keinen Werkzeugcharakter hat – keiner vom Bild abzulösenden Bedeutung unterstellt.

Schreibtechniken im Labor Können die selbstreflexiven „Werke“ Twomblys für die Betrachtung von Labortagebüchern, Skizzierungen von Experimenten und Forschungsnotizen aus dem Feld der Naturwissenschaft aufschlussreich sein? Im Wissen um funktionale, institutionelle und konzeptuellen Differenzen, möchte ich die Darstellungen dieser unterschiedlichen Felder unter dem Aspekt der Kritzelei vergleichen. Es geht mir dabei nicht um ein Analogiedenken – im Gegenteil, die heuristische Absicht zielt auf Differenzierungen. Primäre wissenschaftliche Aufzeichnungsweisen bezeichnet Hans-Jörg Rheinberger als „Sicherung experimenteller Spuren“ im Unterschied zu Schreiberzeugnissen öffentlicher Kommunikation. Ein Beispiel einer solchen Schreibtechnik ist das Diagramm (Abb. 4), das James D. Watson in einem Brief an den Kernphysiker und Genetiker Max Delbrück aufgezeichnet hat. Dieses „gekritzelte […] Diagramm“, wie es Harry Robin in der Publikation „Wissenschaftliche Illustration“ bezeichnet, zeigt die „Verbindung der wesentlichen Nukleotidpaare“ der Molekülstruktur der Desoxyribonucleinsäure (DNS) in der Visualisierung ihres Entdeckers.19 Das „gekritzelte Diagramm“ ging dabei der Skizze voraus, die Watson und Crick am 25. April 1953 in der Zeitschrift Nature in jenem Artikel präsentieren (Abb. 5), in dem sie ihre Entdeckung über die Struktur und Abb. 4: Brief von James D. Watson an Max den räumlichen Bau der DNA bekannt Delbrück vom 12. März 1953. gaben. Die illustrativ eingesetzte Skizze symbolisiert durch zwei ineinander verschlungene Bänder die aus zwei DNA-Molekülen bestehende Doppelhelix. Den entscheidenden Anstoß zu ihrer Modellbildung erhielten Watson und Crick jedoch von einem Röntgenkristallogramm, das die Physikochemikerin Ro-

19

Thymin (T) mit Adenin links und Cytosin (C) mit Guanin (G) rechts. „Die kurze Linie mit dem Wort »Sugar« (Zucker) weist auf die Verbindung der T-A und C-G-Paare (den »Sprossen«) mit den Stützen (Zucker und Phosphaten) hin, die die leiterähnliche Spiralstruktur bilden.“ Robin 1992, 221.

83

Elke Bippus

84

salind Franklin 1952 (Abb. 6) hergestellt hat. Wie ein unscharfes X sieht das Röntgenbild aus, das laut „Rosalind Franklin und ihrem Mitarbeiter Raymond Gosling ‚markante Merkmale einer schraubenförmigen Struktur‘“ aufweist. Die schematisierte Darstellung der Doppelhelix von Odile Crick, der Frau von Francis Crick, (Abb. 7), welche diese schraubenförmige Drehung in vereinfachender Weise visualisiert, avancierte, so Sabine Flach, „zu einer Ikone der modernen Zivilisation, die die natürliche Ordnung definiert, indem sie sie als und im Bild fixiert; kurz: zur Anschauung bringt.“20 Die Bildreihe zeigt Spuren von Prozessen wissenschaftlichen Denkens: Die verschwommene Fotografie Franklins beförderte scheinbar die Vorstellungskraft. Das Abb. 5: James D. Watson, F. H. C. Crick, im Arbeitsprozess aufgezeichnete DiaMolecular Structure of Nucleic Acids. A gramm bewahrt in seiner skizzenhaften Structure of Deoxyribose Nucleic Acid. Erscheinung gegenüber der schematisierten Darstellung, wie sie in Nature erschien, Spuren des Machens, anders gesagt, des Denkvorgangs und der Visualisierungsprozesse wissenschaftlicher Forschung. Die schematische Darstellung erfuhr schließlich in ihrer, der Kommunikation dienenden Vereinfachung den Status eines „Super-Image“. Sie wurde zu einem kulturellen Symbol, dessen Wirkung weit über den spezialisierten Kontext hinaus reicht. Sabine Flach formuliert die These, dass es „insbesondere in den Repräsentationsverfahren der Molekularbiologie […] um Repräsentation nicht so sehr als Abbild, sondern als Bild [geht]. […] Konstitutiv für diesen Repräsentationsbegriff wird […] die Ermöglichung von Neuem unter den Bedingungen eines differentiellen Anschlusses an das Gewesene. In der Molekularbiologie geht es also in der Repräsentation um die dingliche Realisierung, das heißt um das Wirklichwerden einer Sache.“21 Flachs Beschreibung der Ermöglichung von Neuem zeigt Parallelen zu einer neurobiologischen Bestimmung des Denkens, wie sie Gerhard Roth vertritt: „ein(en) Prozess der Bewältigung neuer bzw. neuartiger Aufgaben auf der Grundlage vorhandenen Wissens und Könnens bzw. als Automatisieren bereits erworbener Fähigkeiten.“22 Roth weicht, da der Begriff des Denkens ungenau sei, auf den Begriff der Intelligenz aus und stellt fest, dass der differentielle Anschluss an Gewesenes, will er über den festgefahrenen Möglichkeitsraum ausschließender und oppositionsbildender Methoden und Techniken hinausweisen, eine Logik der Un20

Flach 2005, 66.

21

Ebd., 68.

22

Roth 2002, 173.

Skizzen und Gekritzel

Abb. 6: Röntgenaufnahme der DNS in

Abb. 7: Modell der DNA Doppelhelix

ihrer A-Form.

wie es in der Originalveröffentlichung in Nature abgebildet ist.

schärfe aufweisen muss, die das Wissen zum Oszillieren bringt und darüber andere Sichtweisen eröffnet. Während die Skizzen von Watson und Crick noch diese Differenz eröffnen, ist Odile Cricks Doppelhelix bereits zum Schema gefügt. Die Zeichnung dient der Veranschaulichung und Vermittlung. Im Unterschied dazu sind auch die einen Werkcharakter beanspruchenden großformatigen Gemälde Twomblys von Unschärfen bestimmt und machen seinen Versuch um eine Präzisierung und Neuperspektivierung sichtbar. Der Künstler nutzt Verfahren des Umwegs, des Umherschweifens der Linie, der Aktion und Reaktion und damit auch Prozesse, die das Einzigartige und das Pränormative (be-)zeichnen. Es verwundert nicht, dass seine Arbeiten als flatterig, huschelig, fahrig, zerstreut, als zwanglos und zwanghaft, als schlecht lesbar, unsauber, gekliert oder geschmiert23 charakterisiert werden. Sie implizieren Unabgeschlossenheit und behaupten sich in einer eigentümlichen Bestimmtheit als unbestimmt. Der Künstler untersucht und erprobt die Ausdrucksdimension der Zeichnung im Gemälde. Gegenüber seinen – den forschenden Prozess (be-)zeichnenden Linien – vermitteln die naturwissenschaftlichen Diagramme (auch das „gekritzelte Diagramm“ von Watson und Crick) den Eindruck gezielter instrumenteller Skiz-

23

Vgl. Sauerbier 2001, 103f.

85

Elke Bippus

zen.24 Dennoch gibt die Analyse primärer Schreibprozesse wissenschaftlicher Arbeit Aufschluss über konkrete Auseinandersetzungen. Sie modifizieren, indem sie auf Spuren des Suchprozesses hinweisen, die Vorstellung von Korrespondenz und reiner Konstruktion und bringen materielle Einschreibungen, Widerstände und Unwägbarkeiten wissenschaftlicher Arbeit ins Spiel. Diese Prozesse des Machens und die Begegnung mit dem Material werden in wissenschaftlichen Schreibtechniken in dem „Zwischenraum“ sichtbar, in dem „die Forschungsgegenstände noch nicht zu Papier geworden [sind] und […] das Papier – das Protokoll, die Notiz – noch Teil der materiellen Einlassung selbst“25 ist. Bislang ist es – und hier trägt die immer noch wirksame Scheidung von Geistesund Naturwissenschaften bei – vornehmlich der Wissenschaftstheorie überlassen, die konstitutiven Bedingungen der Labore, Technologie, der Darstellung oder der historischen und sozialen Kontexte aufzuzeigen. Die Logik des Bildes selbst jedoch und die Spuren des Machens lesbar werden zu lassen, wird in Wissenschaftbildern, die als Veröffentlichung von Resultaten entstehen, zu vermeiden versucht: Die Prozesse des Suchens und Erprobens werden hier getilgt.26 Die Subjektivität, das Machen oder die Modellbildung, die auch für das wissenschaftliche Denken konstitutiv sind, verschwinden hinter der Darstellung des Objekts als einem Gegenstand des Wissens. Im Unterschied dazu geht es in solchen künstlerischen Arbeiten, die das Potential ästhetischer Erfahrung erforschen, genau darum, auch oder gerade im Werk den Denkprozess oder den Moment zur Anschauung zu bringen, in dem die Idee noch nicht Form geworden ist, sich aber in Formungen und Umformungen artikuliert. Dass diese materielle Einlassung sich in der Kunst nicht allein in Skizzen und Notizen zeigt oder in solch performativen Werken wie denjenigen Twomblys möchte ich zum Abschluss diskutieren, indem ich verschiedene Stufen von Working Drawings von Sol LeWitt vorstelle, die in ihrem Titel ihren Anwendungs- und Werkzeugcharakter bezeichnen.

Materielle Einlassungen im diagrammatischen „Werk“

86

Das Zusammenspiel von System, Material und optischem Effekt spielt in Sol LeWitts Working Drawings eine zentrale Rolle. In seinem Werk finden sich neben Zeichnungen mit Werkcharakter flüchtige Skizzen (Abb. 8), Laboraufzeichnungen vergleichbar: In ihren Durchstreichungen, Verwerfungen und Hervorhebungen wie in ihrer heterogenen Linienführung zeigen sie, dass sie eine Idee, ein vages 24

Auch wenn Watsons und Cricks Aufzeichnung im Vergleich zur schematisierenden und abstrahierenden Darstellung Odile Cricks eine Nähe zur Materialität der wissenschaftlichen Arbeit selbst eigen ist und sich in ihr Subjektivität, ein gewisses Suchen und Tasten manifestiert, so tritt auch hier das Sich-Zeigen eines Suchens zugunsten der Visualisierung eines Modells zurück, und die instrumentelle Funktion der Zeichnung wird bestimmend.

25

Rheinberger 2005, 86.

26

Insofern erklärt sich auch das Interesse von Wissenschaftshistoriker/innen an missglückten und fehlerhaften Darstellungen. Vgl. hierzu: Geimer 2002. In den letzen Jahren nahm die mediale Selbstreflexion in wissenschaftlich performativen Darstellungen zu. Vgl. dazu: Peters / Schäfer 2006; Ziemer 2008.

Skizzen und Gekritzel

Konzept festhalten und zu klären versuchen. Solche Zeichnungen, die wie Working Drawing For Cubes within hidden Cubes von 1967 (21,6 x 28 cm) (Abb. 9) die Funktion haben, ein Ergebnis oder den Zwischenschritt eines Entwicklungsprozesses festzuhalten, sind von den suchenden Bewegungen weitestgehend gereinigt: In einer mehr oder weniger übersichtlichen Weise wird ein bereits erreichter Gedankengang aufgezeichnet. Abb. 8: Sol LeWitt, Working Drawing. Diese Zeichnungen sind für den Prozess der künstlerischen Arbeit relevant und zielen nicht von Beginn an auf eine Öffentlichkeit. Strenge Schemazeichnungen wie etwa Nine SquareGrid for Sets A, B, C, D von 1967 (Abb. 10) sind im Unterschied dazu an andere adressiert. Sie haben den Charakter von Anleitungen zum Aufbau eines dreidimensionalen Objekts, das LeWitt in verschiedenen Varianten 1966 hergestellt hat. Diese Zeichnung hat also eine Abb. 9: Sol LeWitt, Working Drawing. For repräsentative Funktion. Allerdings Cubes within hidden Cubes. bringen auch hier einige faszinierende Details – wie die Linienstruktur und die Akzentuierung der Konstruktion, welche die perspektivische Darstellung als eine des Bildes sichtbar macht –, die Bildlichkeit der Blätter ins Spiel. Die Arbeitszeichnung zeigt Spuren des gestalterischen Denkens, wohingegen in der Schemazeichnung und in jener mit dokumentarischer Funktion der Fremdverweis gegenüber dem Selbstverweis überwiegt. Allerdings spielt meines Erachtens bei allen Dreien die Bildlichkeit, die Opazität der Zeichnung eine untergeordnete oder gar keine Rolle. Abb. 10: Sol LeWitt, Working Drawings for Die Blätter sind Arbeitszeichnungen, Set A, B, C, D. die verschiedene Funktionen erfüllen. Sie haben Verweis- oder Werkzeugcharakter. Dagegen gewinnen die streng geometrischen Zeichnungen, obwohl in ihnen gegenüber den skizzenhaften Blättern das Gestische und Subjektive zurückgenommen ist, Qualitäten der Bildlichkeit und Opazität. Als beispielhaft hierfür können LeWitts Wandbilder betrachtet werden (Abb. 11).

87

Elke Bippus

88

Die Wandbilder werden nicht von LeWitt, sondern von Assistenten ausgeführt. Sie sind Realisierungen systematischer Vorgaben. Im Unterschied zu Twomblys Bildern geht es also nicht um den subjektiven Prozess des Machens. So zeigt beispielsweise die Wandzeichnung in den Hallen für Kunst in Schaffhausen ein zentrales Gestaltungssystem LeWitts, das er in Papierzeichnungen auch in verschiedenen Abb. 11: Sol LeWitt, Wandzeichnung. Farbvarianten realisiert hat (Abb. 12).27 In der Wandzeichnung ist es das Material, das die Logik des Systems überschreitet und ein Flimmern und Flirren entstehen lässt. LeWitt (be-)zeichnet mit seiner Arbeit das irrationale Potential von Systemen und streng geometrischen Darstellungen. Denn das Wandbild entsteht aus der Reproduktion eines simplen Systems in entpersonalisierter Umsetzung. Die Produktion ist insofern ökonomisiert und rationalisiert, dennoch öffnet diese diagrammatische Zeichnung in ihrer optischen Präsenz, wenn man so will, unproduktive und nicht vorhersehbare Qualitäten, in denen man sich verliert. Das Wandbild formuliert eine Differenz zur Vorhersagbarkeit des Systems zugunsten einer spezifischen Bilderfahrung, indem es sich nicht in der Reproduktion eines Systems erschöpft. Im Gegenteil, es lässt seine Wirkkraft hervortreten und legt hierdurch das Unvorhersehbare auch diagrammatischer Zeichnungen offen. Die Logik der Wandzeichnungen ist mitbedingt vom Material, Ort und den Lichtverhältnissen, aber auch von der Verstrickung der Betrachter mit ihnen. Die Reflexion dieser Wechselbeziehung ist, anders als bei den Kritzeleien wisAbb. 12: Sol LeWitt, Four basics kinds of senschaftlicher Forschungen, den Lastraight lines. bortagebüchern und anderen Schreiberzeugnissen des wissenschaftlichen Alltags, keine vorläufige, sondern wird mit der Einlassung auf Probleme der Darstellung bewusst gesucht. In diesem Sinne schreibt LeWitt: „Es scheint natürlicher, direkt auf Wänden zu arbeiten als eine Konstruktion zu machen, darauf zu arbeiten und die Konstruktion dann an die 27

Grundlage des Systems sind vier quadratische Felder, die mit vertikalen, horizontalen und diagonalen Linien von links nach rechts bzw. Diagonalen von rechts nach links gefüllt sind. Durch Kombinationen dieser Lineaturen werden systematisch alle möglichen Varianten durchgespielt. An der Zeichnung Four basic kinds of straight lines ist die Regel leicht nachvollziehbar. LeWitt kombiniert so der Reihe nach vertikale und horizontale Linien, vertikale mit den jeweiligen Diagonalen, die Horizontalen mit den Diagonalen usw.

Skizzen und Gekritzel

Wand zu hängen. Die physischen Eigenschaften einer Wand: Höhe, Länge, Farbe, Material, architektonische Bedingungen und Einflüsse sind ein notwendiger Teil der Wandzeichnung. Verschiedene Arten von Wänden schaffen verschiedene Arten von Zeichnungen. Unebenheiten der Wandoberfläche werden gelegentlich offensichtlich, nachdem die Zeichnung fertig ist. Dies sollte als Teil der Wandzeichnung angesehen werden.“28

Bildliche Unschärfe – Arbeit am (Nicht-)Verstehen Die Zeichnung gilt als ein ausgezeichnetes Medium, nicht allein „der Wiedergabe der Natur, sondern auch des Denkens und des Sehens“.29 Sie gilt als Schrift der Bilder, die nie vollständig im Symbolischen aufgeht und ihre Bedingungen und Verfahren reflektiert. Sie führt den Blick hin zum Prozesshaften des Sehens und Zeichnens, sie ist dabei nie bloße Abzeichnung, nie repräsentative Fixierung einer äußeren Form, sondern (Auf-)Zeichnung in einem Wechselspiel von Denken, Wahrnehmen und Handeln. Ihr Potential liegt, wie Horst Bredekamp feststellt, in der „Kraft, Gedanken zu bilden.“30 Dabei zeigen Zeichnungen, wie diejenigen LeWitts, dass dieses Potential nicht auf das Wechselspiel von Künstlerhand und -subjekt beschränkt ist. Die Bilder können zudem auch „die Betrachter in Gefangenschaft nehmen […], weil diese es verstehen, die Wirklichkeit imaginär neu zu gestalten.“31 Die Logik der hier vorgestellten Bilder der Kunst vermittelt die Wissensproduktion und -vermittlung durch Bilder als ambivalent. Sie adressieren sich an ein Denken, das die Möglichkeit der Bilder ergreift, zu Lasten ihrer vermittelnden Veranschaulichung.32 Die hier vorgenommene Differenzierung hat nicht die Absicht, Kunst und Wissenschaft zu polarisieren. Im Gegenteil, die Disziplinen sind – insofern sich künstlerische Arbeiten zunehmend auf wissenschaftliche Verfahren und Erkenntnisse beziehen und umgekehrt die wissenschaftliche Forschung sich in performativen Praktiken darstellt – nicht mehr mittels gängiger Kriterien von Singularität und Subjektivität versus Wiederholbarkeit und Objektivität zu scheiden. Auch interdisziplinäre Forschungen, die ihre heuristischen Kriterien dialogisch verhandeln und befragen, tragen zur Neuperspektivierung der Disziplinen bei. In

89 28

LeWitt 2000, 374. [Übersetzung E.B.].

29

Bredekamp 2005, 156.

30

Ebd., 157.

31

Ebd., 159.

32

Wissen wird anders als Denken durch eine Reihe normativer disziplinärer Praktiken in Umlauf gebracht und gehalten. Das emanzipatorische Potential des Wissens ist immer von einer Beschränkung bedroht, einem sich Einfügen in das, was man weiß, was man gelernt hat. Die gegenwärtige Wissensökonomie befördert genau dies, insofern sie bestimmte Parameter des Möglichen zu stabilisieren und etwa Unproduktivität als störend auszuschließen versucht. Auch die Internationalisierung und Homogenisierung der Ausbildung kann zu einer Normalisierung und Normierung beitragen und birgt, so Simon Sheikh in seinem Artikel Räume für das Denken, „die Möglichkeit, den Erziehungssektor in einen Wettbewerbsmarkt zu verwandeln.“ Sheikh 2006, 120.

Elke Bippus

beiden Forschungsfeldern wird an der Unschärfe von Bildern gearbeitet, nicht um Grenzen oder Spezifika zu verwischen, sondern um die Latenzen von Bildern zu präzisieren und ihre Funktionen wie Wirkkräfte in den Blick zu nehmen: ihre vermittelnden ebenso wie ihre imaginativen Möglichkeiten.

90

Skizzen und Gekritzel

Abbildungsverzeichnis Abb. 1: Cy Twombly, Untitled, 1954,Wandfarbe, Bleistift auf Leinwand, 73,4 x 91, 4 cm, In: Richard Leeman, 2005, Cy Twombly. Malen, Zeichnen, Schreiben, München, S. 28 Abb. 2: Cy Twombly, Panorama, 1955, Wandfarbe, Wachskreide und Kohle auf Leinwand, 254 x 340,4 cm, In: Richard Leeman, 2005, Cy Twombly. Malen, Zeichnen, Schreiben, München, S. 30 Abb. 3: Cy Twombly, Academy, 1955, Wandfarbe, Bleistift, Farbstift und Pastell auf Papier, 191 x 241 cm, In: Richard Leeman, 2005, Cy Twombly. Malen, Zeichnen, Schreiben, München, S. 46 Abb. 4: Brief von James D. Watson an Max Delbrück vom 12. März 1953, In: Harry Robin, 1992, Die wissenschaftliche Illustration : von der Höhlenmalerei zur Computergraphik, Basel, S. 221 Abb. 5: James D. Watson, F. H. C. Crick, Molecular Structure of Nucleic Acids. A Structure of Deoxyribose Nucleic Acid, In: Nature, No. 4356, Vol. 171, April 25, 1953, p. 737 Abb. 6: Röntgenaufnahme der DNS in ihrer B-Form, Ende 1952 aufgenommen von Rosalind Franklin, In: Ernst Peter Fischer, 2003, Am Anfang war die Doppelhelix : James D. Watson und die neue Wissenschaft vom Leben, München, S. 85 Abb. 7: Modell der DNA Doppelhelix wie es in der Originalveröffentlichung in Nature abgebildet ist. Die Darstellung stammt von Odile Crick, der Frau von Francis Crick. In: Nature, No. 4356, Vol. 171, April 25, 1953, p. 737 Abb. 8: Sol LeWitt, Working Drawing (undatiert), Tinte auf Papier, 21,6 x 28 cm, In: Susanna Singer (Hrsg.), 1992, Sol LeWitt Drawings 1958-1992, Eindhoven, Abb. 45 Abb. 9: Sol LeWitt, Working Drawing. For Cubes within hidden Cubes, 1967, Tinte auf Papier, 21,6 x 28 cm, In: Susanna Singer (Hrsg.), 1992, Sol LeWitt Drawings 1958-1992, Eindhoven, Abb. 47 Abb. 10: Sol LeWitt, Working Drawings for Set A, B, C, D, 1967, Series von vier Zeichnungen, jeweils Tinte auf Papier, 49,4 x 49,4 cm, In: Ausstellungskatalog, 1975, Funkties van Tekenen, Functions of Drawing, Rijksmuseum KröllerMüller, Otterlo, Abb. 59 Abb. 11: Sol LeWitt, Wandzeichnung, Foto EB, Hallen für Kunst, Schaffhausen Abb. 12: Sol LeWitt, Four basics kinds of straight lines, 1969, 16-teilige Komposition, Tinte auf Papier, jeweils 20,3 x 20, 3 cm, Gesamtgröße 124,5 x 124, 5 cm, In: Susanna Singer (Hrsg.), 1992, Sol LeWitt Drawings 1958-1992, Eindhoven, Abb. 122

Bibliographie Gottfried Boehm, 1978, Zu einer Hermeneutik des Bildes, in: Hans Georg Gadamer / Gottfried Boehm (Hrsg.), Die Hermeneutik und die Wissenschaft, Frankfurt a.M., S. 444-471.

91

Elke Bippus

92

Gottfried Boehm, 1995, Bildbeschreibung. Über die Grenzen von Bild und Sprache, in: Gottfried Boehm / Helmut Pfotenhauer (Hrsg.), Beschreibungskunst – Kunstbeschreibung: Ekphrasis von der Antike bis zur Gegenwart, München, S. 23-40. Horst Bredekamp, 2005, Die zeichnende Denkkraft: Überlegungen zur Bildkunst der Naturwissenschaften, in: Jörg Huber (Hrsg.), Einbildungen (Interventionen 14), Zürich, S. 155-171. Horst Bredekamp, 2007, Galilei der Künstler: der Mond, die Sonne, die Hand, Berlin. Erika Fischer-Lichte, 2005, Ästhetik des Performativen, 3. Aufl., Frankfurt a.M.. Sabine Flach, 2005, WissensBilder – Die Doppelhelix als Ikone der Gegenwart, in: Elke Bippus / Andrea Sick (Hrsg.), Industrialisierung – Technologisierung von Kunst und Wissenschaft, Bielefeld, S. 64-82. Peter Geimer 2002, Was ist kein Bild? Zur ‚Störung der Verweisung‘, in: Peter Geimer (Hrsg.), Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Technologie und Kunst, Frankfurt a.M., S. 331–341. Bettina Heintz / Jörg Huber (Hrsg), 2005, Der verführerische Blick: Formen und Folgen wissenschaftlicher Visualisierungsstrategien, in: Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen virtuellen Welten, Wien / New York, S. 9-40. Max Imdahl, 1995, Ikonik. Bilder und ihre Anschauung, in: Gottfried Boehm (Hrsg.), Was ist ein Bild?, 2. Aufl. München, S. 300-324. Wolfgang Kemp, 1974, Disegno. Beiträge zur Geschichte des Begriffs zwischen 1547 und 1607, in: Marburger Jahrbuch für Kunstwissenschaft 19 (1974), S. 219-240. Bruno Latour, 2002, Die Hoffnung der Pandora, Frankfurt a.M.. Richard Leeman, 2005, Cy Twombly. Malen, Zeichnen, Schreiben, München. Sol LeWitt, 2000, Wall Drawings, in: Gary Garrels (Hrsg.), Sol LeWitt a retrospective, Ausstellungskatalog, San Francisco Museum of Modern Art. Karlheinz Lüdeking, 2005, Was unterscheidet den ‚pictorial turn‘ vom ‚linguistic turn‘?, in: Klaus Sachs-Hombach (Hrsg.), Bildwissenschaft zwischen Reflexion und Anwendung, Köln, S. 122-131. Louis Marin, 2001, Über die Opazität, in: Louis Marin, Über das Kunstgespräch, Paris, S. 47-65. Sibylle Peters / Martin Jörg Schäfer (Hrsg.), 2006, Intellektuelle Anschauung. Figurationen von Evidenz zwischen Kunst und Wissen, Bielefeld. Hans-Jörg Rheinberger, 2005, Iteration, Berlin. Harry Robin, 1992, Die wissenschaftliche Illustration: von der Höhlenmalerei zur Computergraphik, Basel. Gerhard Roth, 2002, Fühlen, Denken, Handeln. Wie das Gehirn unser Verhalten steuert, 5. Aufl., Frankfurt a.M. S. D. Sauerbier, 2001, Zeichnen – Zeichen zeigen, in: Akademie der Künste, Berlin (Hrsg.), minimal – concept. Zeichenhafte Sprachen im Raum. Symposium anlässlich der Ausstellung »Zeichnen ist eine andere Art von Sprache« Neuere Amerikanische Zeichnungen aus einer New Yorker Privatsammlung, Amsterdam / Dresden, S. 95–118.

Skizzen und Gekritzel

Mirjam Schaub / Nicola Suthor / Erika Fischer-Lichte (Hrsg.), 2005, Ansteckung. Zur Körperlichkeit eines ästhetischen Prinzips, München. Eva Schürmann, 2005, Die Bildlichkeit des Bildes. Bildhandeln am Beispiel des Begriffs Weltbild, in: Klaus Sachs-Hombach (Hrsg.), Bildwissenschaft zwischen Reflexion und Anwendung, Köln, S. 195-211. Simon Sheikh, 2006, Räume für das Denken. Perspektiven zur Kunstakademie, in: Texte zur Kunst, Heft 62, Jg. 16, S. 111–121. Michel Serres, 1980, Der Parasit, Frankfurt a.M. Gesa Ziemer, 2008, Verletzbare Orte. Entwurf einer praktischen Ästhetik, Zürich.

93

Sybille Krämer Operative Bildlichkeit. Von der ‚Grammatologie‘ zu einer ‚Diagrammatologie‘? Reflexionen über erkennendes ‚Sehen‘ Drei Vorüberlegungen bilden den Horizont, vor dem unser Begriff der ‚operativen Bildlichkeit‘ Kontur gewinnen kann.

Erste Vorüberlegung: Jenseits der Dichotomie von Wort und Bild

94

Was von Seiten der Kunst als ein gewisser ‚Ausstieg aus dem Bild‘ diagnostizierbar ist, zeigt sich auf Seiten der Wissenschaften als ein bemerkenswerter Einstieg des Bildes und der Bilderfrage in einen Bereich, in welchem Bilder – wenn überhaupt – meist nur als Illustrationen wahrgenommen wurden. Die Wissenschaften schicken sich an, mit ihren numerischen Simulationen und computergenerierten Visualisierungen eine neue, auf die Versinnlichung von Unsichtbarem zielende Methodik hervorzubringen, die in den Kontexten der Entdeckung neuer Sachverhalte ebenso wichtig ist, wie in den Zusammenhängen ihrer Rechtfertigung. Einher geht damit eine neue Bewusstheit für die Rolle, die Bilder – und zwar immer schon – in unseren Wissenskünsten spielten. Nicht selten sind es gerade Kunsthistoriker, die die Leistungen des Bildes für die Wissenschaft wie für die Geschichte der Wissenschaften rekonstruieren.1 Das Bild und mit ihm die Fragen nach Bedingungen, Reichweite und Grenzen wissenschaftlicher Visualisierung sind zu epistemischen Kernfragen avanciert.2 Im Kielwasser dieser kulturhistorischen und erkenntnistheoretischen Aufwertung des Bildes tritt nun ein Phänomen zutage, das uns im Folgenden beschäftigen wird. Es geht um eine Form von Bildlichkeit, die dem Feld der ‚nützlichen Bilder‘

1

Exemplarisch hierzu die Monographien von Horst Bredekamp 1999, 2004, 2005, 2007.

2

Dafür exemplarisch: Bredekamp / Schneider 2006; Heintz / Huber 2001; Heßler 2006; Mersch 2006; Latour 1996; Naumann / Pankow 2004.

Operative Bildlichkeit

(Gottfried Boehm3), der ‚Gebrauchsbilder‘ (Stefan Majetschak4) zugehörig ist und das wir hier ‚operative Bildlichkeit‘ nennen wollen und wozu wir – in einer zweifellos vereinfachenden Trias – Schriften, Diagramme bzw. Graphen sowie Karten zählen wollen. Intuitiv ist klar, dass wir solche visuellen Hervorbringungen nicht umstandslos jener Form des uns vertrauten Bildseins zuschlagen können, die in einem Gemälde oder einer Fotografie verkörpert ist. Zu offensichtlich ist der ‚Sprachcharakter‘ dieser operativen Gebilde, eine Art von ‚Sprachlichkeit‘ allerdings, die sich – genau genommen – als eine ‚Sprache des Raumes‘ enthüllt. Wenn wir, was eine Sprache ist, am Prototyp des Sprechens orientieren, also an einem Vorgang, der in flüchtiger Akustik und also in zeitlicher Sukzession verläuft, so wurzeln ‚Sprachen des Raumes‘ gerade im Darstellungspotenzial sichtbarer, ‚haltbarer‘ und ‚eingefrorener‘ Relationen, deren Anordnung5 von der Zweidimensionalität der Fläche ebenso zehrt, wie von der Simultaneität des jeweils flächig Dargebotenen; das sind zwei Attribute, die auch für ‚gewöhnliche‘ Bilder gelten. Eine solche Verschränkung des Sprachlichen und des Bildlichen lässt aufmerken; sind wir nicht gewohnt, in nahezu klassisch-kanonischer Typologisierung unserer symbolischen Vermögen, das Diskursive und das Ikonische, das Repräsentieren und das Präsentieren so kategorial wie kategorisch voneinander zu unterscheiden? Diese Verschwisterung von Bild- und Sprachcharakter unterscheidet Phänomene operativer Bildlichkeit etwa von jenen operativ wirksamen Bildern, die durch Computeranimationen und -simulationen entstehen und ein ferngesteuertes Bildhandeln in Medizin, Militär, Forschung und Computerspiel eröffnen, welches etwa Lev Manovich untersucht hat.6 Dass Wort und Bild zwei wohl zu unterscheidende und aufeinander nicht rückführbare semiotische Modalitäten bilden, scheint übrigens durch die Hypostasierung eines ‚pictorial (iconic) turn‘ durchaus bekräftigt, insofern dieser sich schon durch seinen Namen in eine Beziehung zum ‚linguistic turn‘ setzt und dessen Erbe anzutreten durchaus gewillt scheint. Was aber, wenn ‚Sprache‘ und ‚Bild‘, somit das Sagen und das Zeigen nur die begrifflich stilisierten Pole einer Skala bilden, auf der alle konkreten, also raum-zeitlich situierten Phänomene nur in je unterschiedlich proportionierten Mischverhältnissen des Diskursiven und Ikonischen auftreten und erfahrbar sind? Was, wenn es die ‚reine Sprache‘ und das ‚reine Bild‘, die wir als Begriffe zweifellos klar akzentuieren und differenzieren können und vor allem: auch müssen – als raum-zeitlich situierte Phänomene – gar nicht gibt? Bedeutet also der ‚Ausstieg‘ des Bildes aus der Domäne der schönen Künste und sein ‚Eintritt‘ in die Domäne der Wissenskünste und ihrer Geschichte auch, 3

Boehm 2001.

4

Majetschak 2005.

5

Zum Begriff der ‚Anordnung‘: Cancik-Kirschbaum / Mahr 2005.

6

Computersimulationstechniken im Kontext ‚ferngesteuerten Bildhandelns‘ in Militär, Medizin und Forschung, aber auch in den interaktiv erschließbaren virtuellen Räumen in Architektur und Computerspiel, die Lev Manovich erforscht, werden von Werner Kogge 2004, 302ff. „operative Bilder“ genannt. Diese Formen gehören zweifellos zum weiten Feld der Gebrauchsbilder, werden von uns aber nicht zum Phänomen der operativen Bildlichkeit gezählt, welches somit nicht mit den ‚operativen Bildern‘ zu verwechseln ist.

95

Sybille Krämer

aufmerksam zu werden auf eben jene ‚Bilder jenseits des Bildes‘, die zugleich auch ‚diesseits der Sprache‘ sind und die dabei ein Darstellungspotenzial bergen, für das es weder in den mündlichen Sprachen noch in den gewöhnlichen Bildern ein Analogon gibt?

Zweite Vorüberlegung: Über das Räumliche als Darstellungsprinzip

96

Die Euphorie computergenerierter Virtualisierung und Globalisierung, sowie die sie begleitende Immaterialisierungsrhetorik, schienen das Ortsprinzip obsolet zu machen. Und doch kündigt sich – und zwar in vielen Hinsichten – eine Rückbesinnung auf Örtlichkeit und damit auf das Räumliche an: Denken wir nur an die wachsende Rolle von Navigationssystemen, an die rhizomartig wuchernden individuellen Kartographien, an die vorsichtige Rehabilitierung geographischer Verhältnisse auch in geisteswissenschaftlichen Überlegungen, vor allem aber an die Fülle von Literatur, welche sich der Renaissance des Raumes in den verschiedensten Disziplinen widmet.7 Anders allerdings als es Immanuel Kants Transzendentalisierung der Raumkategorie nahe legt8, zielt der zeitgenössische Diskurs – und zwar an vielen verschiedenen Stellen – auf die kulturell-historische Konstitution von Räumlichkeit durch unsere technischen und symbolischen Praktiken. Worauf es uns nun ankommt, ist ein spezifischer Aspekt dieser Wiederentdekkung des Raumes: Er besteht darin, dass das Räumliche zu einem Medium und Darstellungspotenzial avanciert und als ein Ordnungsprinzip unserer symbolischen Welten und unserer Wissensfelder zum Einsatz kommt.9 So, wie die Schrift die Anordnung von Elementen auf zweidimensionalen Flächen nutzt, um etwas darzustellen und – als Architektur feststellbarer und umstellbarer Gedanken – das Dargestellte als Oberfläche eines Textes auch handhabbar und bearbeitbar zu machen,10 so reflektiert sich auch in der Kartographie eine Visualisierungsstrategie, die nicht nur ‚wirkliche‘ Räume zweidimensional und übersichtlich zu vergegenwärtigen erlaubt, vielmehr das Räumliche zu einem Darstellungsprinzip fortbildet, mit dem auch nicht-räumliche Sachverhalte anschaulich gemacht werden. Und das gilt erst recht für Diagramme, in denen sich Schrift und Zeichnung verschwistern, um Relationen zwischen Begriffen, Theorien oder abstrakten Objekten der Matrix des Sichtbaren zuzuführen.

7

Exemplarisch: Borsò / Görling 2004; Hillis 1995; Maresch / Werber 2002; Löw 2001; Schlögel 1999; Soja 1989; Weigel 2002.

8

Dass diese Transzendentalisierung des Raumes allerdings im Schematismuskapitel zu ungemein folgenreichen Einsichten führt, wird später zu zeigen sein.

9

Exemplarisch: Rheinberger / Hagner / Wahrig-Schmidt 1997; auch: Meusburger 2006.

10

Dazu: Krämer 2005.

Operative Bildlichkeit

Dritte Vorüberlegung: Von der Grammatologie zur Diagrammatologie Hat nicht die Philosophie in ihren eigenen Reihen eine Art von sprachlich orientierter Wende zum Visuellen evoziert, indem Jacques Derrida die Schrift in ein Konstitutionsverhältnis zur Sprache treten ließ? Eine Art von ‚pictorial turn‘, bei dem – geschuldet einer gewissen ‚Iconophobie‘ der französischen spätmodernen Philosophen – die bildliche Dimension der Schrift allerdings weitgehend verhüllt und ausgeblendet blieb? Kein Zweifel: die Entdeckung der konstituierenden Rolle der Schriftlichkeit sowohl innerhalb der cultural history im Zuge der Unterscheidung von Schriftlichkeit und Mündlichkeit,11 als auch in der Sprachwissenschaft als Konstitution des linguistischen Objekts ‚Sprache‘ durch ihre schriftliche Darstellung,12 wie schließlich innerhalb der Philosophie in Gestalt des Beinahe-Transzendental Derridas,13 haben den Boden bereitet zu einer medienkritischen Revision des Konzeptes der ‚Sprache‘. Nun überlagern sich alle diese Perspektiven in einem entscheidenden Punkt: Die Schrift kommt dabei primär als eine Gegebenheitsweise von Sprache in den Blick. So können wir auch sagen: In Derridas grammatologischer Fundierung unserer Sprachlichkeit tritt zu Tage, dass hier dem ‚linguistic turn‘ – verknüpft allerdings mit einer entschieden anti-phonozentrischen Geste – immer noch Zuarbeit geleistet wird. Tatsächlich spielen in Derridas ‚Grammatologie‘ lautsprachenunabhängige Praktiken des Schriftgebrauches, wie das mathematische Formalisieren, die logischen Kalkülen, die Programmiersprachen, die musikalischen Notationen und choreographischen Systeme eine eher unbedeutende Rolle. Daher gelangen wir mit Derrida kaum an den Punkt, an dem hervortreten kann, dass – mindestens so stark wie der ‚Phonozentrismus‘ die Signatur abendländischer Metaphysik bedingt hat – ein dezidierter ‚Skriptizismus‘ in der Geschichte der abendländischen Wissenschaften und Philosophie zur Geltung kommt.14 Unsere Vermutung ist also, dass selbst Derrida sich nicht hat vollständig von der Assoziierung der Schrift mit der Sprache lösen können oder wollen. Zweifellos ist jede Notation immer auch als eine diskursive Struktur und Funktion bestimmbar – und geht darin doch nicht auf. So ist es an der Zeit, die Schrift in ihrer ikonographischen Dimension – mithin als ‚Schriftbildlichkeit‘ – zum Fokus zu machen. Indem wir die Schriften einrücken in den Horizont der Kulturgeschichte der Visualisierung und ihre darstellenden und operativen Leistungen hervorgehen lassen gerade aus etwas, das für ihre ‚Bildlichkeit‘ und nicht einfach (nur) für ihre ‚Sprachlichkeit‘ konstitutiv ist, kommen Schriftphänomene mit anderen Gegebenheitsweisen operativer Bildlichkeit in Berührung.

11

Zur Debatte über Orality / Literacy: Goody 1986; Havelock 1963; Ong 1982.

12

Dazu: Harris 1986; Stetter 1997; Günther 1995.

13

Derrida 1974, Derrida 1976, Derrda 1988.

14

Khushf 1993. Zur ‚written language bias‘ in der Sprachwissenschaft auch: Linell 1982; Klein 1985.

97

Sybille Krämer

Ist es also möglich, die Grammatologie hin zu einer ‚Diagrammatologie‘ zu erweitern?15 Können wir die abendländische Episteme (auch) als eine ‚diagrammatologische Vernunft‘ verstehen oder gar ausweisen? Spielen – prosaischer gefragt – in das Sichtbare vergegenständlichte räumliche Strukturen und Schemata kognitiver Sachverhalte nicht nur in der Darstellung, sondern auch beim Erwerb und beim Begründen von Wissen eine grundlegende Rolle? Diese Fragen artikulieren ein Forschungsprogramm; die folgenden Überlegungen bilden allenfalls dessen Ouvertüre; es sind Gedanken, noch vor der Präzision ihrer umfassenden Ausarbeitung.

Was bedeutet ‚operative Bildlichkeit‘? Eine Annäherung in sechs Aspekten Unsere Vorbemerkungen haben Springquellen identifiziert, aus denen das Konzept der operativen Bildlichkeit innerhalb des breiten Stromes der Debatten um visuelle Kulturen sich nährt. Versuchen wir jetzt, den Begriff der ‚operativen Bildlichkeit‘ genauer zu spezifizieren. Es kommt uns darauf an, ihn so anzulegen, dass er die voneinander zu unterscheidenden Phänomene wie Schriften, Diagramme und Karten gleichwohl zu umfassen vermag, ohne dabei seine Spezifität etwa in Differenz zu gewöhnlichen Bildern oder gesprochenen Sprachen einzubüßen. Wir wollen die operative Bildlichkeit in sechs Hinsichten charakterisieren: Es geht um (1) die Flächigkeit und mit ihr verbunden um die Zweidimensionalität und die Simultaneität des Präsentierten; um (2) die Gerichtetheit, mit der auf der Fläche eine Orientierung möglich wird; um (3) den Graphismus, für den die Präzision des Striches die Elementaroperation und Urszene bildet; um (4) die Syntaktizität, welche eine Grammatikalität wie auch die Lesbarkeit einschließt; um (5) die Referenzialität, mit der Repräsentation und transnaturale Abbildung eine Rolle spielen; schließlich (6) um die Operativität, die nicht nur Handhabbarkeit und Explorierbarkeit ermöglicht, sondern der zugleich eine gegenstandskonstituierende, eine generative Funktion zukommt. Alle diese verschiedenen Facetten liefern Tendenzbeschreibungen: Ausnahmen und gegenläufige Beispiele zu finden, wäre immer auch möglich.

98 Flächigkeit Während andere Sinne wie das Ohr oder die tastende Hand ihre Eindrücke nur im zeitlichen Nacheinander sukzessiver Sensationen empfangen, kann das Auge das Vielerlei von nebeneinander Liegendem in einem ‚Augenblick‘ – also gleichzeitig – wahrnehmen. Diese dem Sehen (gegenüber der Aufeinanderfolge von Tast- und Höreindrücken) einzigartig zukommende simultane Präsenz ist von erkenntnistheoretischem Gewicht. Hans Jonas hat uns an dieses Intellektualisierungs- und

15

Frederik Sternfelt 2007 hat eine überaus instruktive, von Peirce ausgehende Studie ‚Diagrammatology‘ vorgelegt; doch Derridas grammatologisches Projekt taucht dabei nicht auf.

Operative Bildlichkeit

Objektivierungspotenzial des Auges nachhaltig erinnert.16 In dem, was sich unseren Augen gleichzeitig und nebeneinander liegend darbietet, gewinnen wir Überblick, wir können Verschiedenes vergleichen und damit Gleichartigkeiten und Abweichungen feststellen, wir können Relationen, Proportionen und Muster in der Fülle des Mannigfaltigen erkennen. Kurzum: Wie kein anderer Sinn ist der Sehsinn prädestiniert, der Analytik unserer Erkenntniskraft durch Ein-Sicht bestmöglich zuzuarbeiten. Um mit Rudolf Arnheim zu sprechen, enthält „die Formwahrnehmung“ bereits „die Anfänge der Begriffsbildung“.17 Gegenüber der Wahrnehmung von Dingen unterscheidet sich das Sehen von Bildern gerade dadurch, dass Bilder uns stets in Gestalt von Flächen begegnen. Die synoptische Gleichzeitigkeit wird dann allerdings noch einmal gesteigert und radikalisiert in Gestalt jener Oberflächen, welche für die operative Bildlichkeit charakteristisch sind. Denn hier kommt eine Art von Flächigkeit zur Geltung, die meist (aber selbstverständlich nicht immer) Verzicht leistet auf eine Imitation der Dreidimensionalität, wie sie etwa perspektivisch orientierten Gemälden oder Zeichnungen eigen ist. Nähe und Ferne im Nebeneinander ist die (fast) alles entscheidende Matrix. Gerichtetheit Räume sind gerichtet: es ist unser Körper, der in dem uns umgebenden Raum für eine elementare Orientierung (etym.: ‚Einosten‘) sorgt, indem vorne und hinten, oben und unten, innen und außen, zentral und peripher ein grundständiges Gefüge von Verhältnissen verkörpert, das bis in vielfältige metaphorische Erweiterungen hinein18 für uns universelle Ordnungsrelationen stiftet. Der für die operative Bildlichkeit charakteristische Verzicht auf die Tiefendimension, die Konzentration auf die Zweidimensionalität der Fläche als Ordnungs- und Anordnungsraum lässt dann umso deutlicher ausgezeichnete Grundschemata des topologisch Verknüpfbaren hervortreten: die Hauptachsen sind dabei oben und unten, rechts und links, inmitten und randständig. Und das alles ist nur möglich, weil so – wie bei allen Bildern – die Fläche der Einschreibung sowohl ausgedehnt, wie auch klar begrenzt ist. Die Gerichtetheit bzw. Ausrichtung der Fläche ist also eine conditio sine qua non operativer Bildlichkeit. Das gilt für die topographischen Karten, deren Konvention jeweils unten und oben mit Süden und Norden verknüpft; das gilt für Diagramme, in denen Schrift und Zeichnung sich so synthetisieren, dass – denken wir an Baum- oder Netzstrukturen – dabei Richtungen hervortreten; das gilt erst recht für Texte, die eine Schreib- und Leserichtung verkörpern. Gerade am Beispiel von Schrift und Text können wir uns vor Augen führen, dass diese ‚Gerichtetheit‘ fundiert ist in der Zweidimensionalität.19 Im Horizont des phonographischen Schriftverständnisses wurde zumeist die Linearität zum

16

Jonas 1997.

17

Arnheim 1972, 37, auch: „Der Gesichtssinn ist….der Hauptbereich des Denkens“, ebd. 29.

18

Zur Rolle des Räumlichen als kognitives Organisationsprinzip: Lakoff 1987, Lakoff 1988.

19

Auf die Zweidimensionalität von Texten haben nachhaltig aufmerksam gemacht: Groß 1990; Raible 1997.

99

Sybille Krämer

definierenden Merkmal von Schrift hypostasiert.20 Doch als ausgedehnte Schriftstücke haben Texte zwar eine ein-sinnige Richtung: die lateinische Schrift etwa verfährt horizontal in Zeilen, traditionelle chinesische Schriften vertikal in Kolumnen. Doch sobald die Textseite als Ganzes in den Blick kommt, tritt untrüglich die Zweidimensionalität der beschriebenen Fläche hervor: In der einen Dimension wird die Richtung der Zeichenabfolge markiert – sei es Zeile oder Kolumne; in der zweiten Dimension aber geht es um die Richtung in der Aufeinanderfolge der Zeilen oder Kolumnen selbst:21 Dabei zeigt sich, dass die links/rechts orientierten Zeilen, zugleich von oben nach unten verlaufen, während die oben/unten ausgerichteten Kolumnen sich von rechts nach links erstrecken.

100

Graphismus „Draw a distinction“22 sagt George Spencer-Brown bei der Einführung seines Kalküls der Form: „Triff eine Unterscheidung“ ist die übliche deutsche Übersetzung,23 die damit gerade den Einzeichnungscharakter dieses Aktes, seine graphische Natur neutralisiert und schwächt. Erhellend sind hier die Unterschiede zwischen Zeichnen und Malen: ‚Malen‘ leitet sich vom Buntmachen und Ausschmücken ab, ‚graphein‘ und ‚Graphismus‘ aber vom Einritzen. Was beim Ritzen mit dem Griffel, aber auch beim Auftragen mit spitzer Feder entsteht, ist – neben dem Punkt – zuerst einmal die Linie.24 Eine Linie interagiert stets mit der Fläche, auf der sie erscheint. Daher auch kennt operative Bildlichkeit keine Monochromie: ein schwarzes Blatt Papier kann ein Kunstwerk sein, nie aber ein Schriftstück oder Diagramm. Linien bilden die archetypische Form klarer Grenzziehung und definiter Formgebung. Der Begriff Disegno kann hier zur Fundgrube werden;25 Horst Bredekamp spricht hier von der Erkenntniskraft der Linie.26 Wir haben die ‚Linearität‘ als Organisationsprinzip von Texten zurückgewiesen; doch dies annulliert keineswegs die Rolle, welche dem augenfälligen Graphismus der Lineatur bzw. des Striches zukommt. Im Spannungsfeld der Hand, die etwas tut und des Auges, das etwas sieht, können wir so weit gehen zu sagen: der Strich bildet das Elementarmedium operativer Bildlichkeit; in ihm auch vereinigen sich das Tun und Operieren mit dem Beobachten. Wir müssen den Strich als die Basishandlung operativer Bildlichkeit ansehen, ob in Gestalt diskreter Anordnung wie bei Notationen, ob als Einschluss von Kontinua und Kurven wie bei Diagrammen, oder als umgrenzte Flächen wie in der Karte, die selbst Höhenunterschiede (heute) durch Anzahlen von Linien repräsentiert. Die Prägnanz des Graphischen bildet das Milieu operativer Bildlichkeit. Der Unterscheidungsreichtum der Linie ist erstaunlich – und tatsächlich hat uns George Spencer-Browns radikales Unterfangen, das Logische auf die Lineatur der Strichoperation zurückzuführen, auf dieses Potenzial nachhaltig aufmerksam 20

Kritisch dazu: Harris 2000, Harris 2005.

21

Harris 1994, 47.

22

Spencer Brown 1977, 3.

23

Baecker 1993, 12.

24

Dazu auch: Kadinsky 1959.

25

Kemp 1974.

26

Bredekamp 2002; dazu auch sein Begriff der ‚denkenden Hände‘ Bredekamp 2005.

Operative Bildlichkeit

gemacht.27 Mehr noch: alle Zeichenpraktiken finden in der elementaren graphischen Markierung, die ein Strich setzt, ihre ‚Urszene‘ und ihren Schlüssel, denn die Linie durchtrennt und zerlegt eine Fläche.28 Diese Grenzziehung29 schafft eine Asymmetrie, die wiederum die Möglichkeit von Bezeichnungen liefert; es ist erst diese „Asymmetrie, die den Strich zur Markierung macht.“30 Die Lineatur des Kreises etwa gebiert den Unterschied zwischen den Punkten innerhalb und außerhalb des Kreises; haben wir eine Strecke, kann sich etwas rechts oder links von ihr befinden,31 kreuzen sich Strecken, kann ein Koordinatensystem entstehen. Syntaktizität Der Strich ist auch das Bildungselement von Syntaktizität: Jede regelhafte Anordnung graphischer Markierungen nimmt von ihm ihren Ausgang. Bei einem künstlerischen Werk ist jedweder Unterschied bedeutsam: daher verkörpern Gemälde – mit Nelson Goodman32 gesprochen – ein dichtes Symbolsystem. Doch die operative Bildlichkeit zehrt – in graduell unterschiedlicher Weise – von einem diskretisierbaren Symbolismus, und sie zeigt hier ihre Verwandtschaft mit der Sprache: Selbst wenn Goodmans strenge Definition der ‚Disjunktivität‘ und ‚endlichen Differenziertheit‘, nach der zwei Zeichen sich in ihren Abstraktionsklassen nicht überschneiden dürfen, sowie überdies zwischen zwei benachbarten Zeichen immer eine Lücke gegeben sein muss,33 nur für Notationen gilt, können wir bei allen Phänomenen operativer Bildlichkeit von einer ‚Syntax‘ sprechen.34 Und das heißt: Operative Bilder werden nicht nur angeschaut, sondern können – und müssen – gelesen werden. Ihre Syntaktizität und ihre Lesbarkeit gehen Hand in Hand. Was das Sehen vom Lesen unterscheidet, ist eine weitreichende Frage. In dem hier interessierenden Zusammenhang bildet den archimedischen Punkt dieser Unterscheidung die Wiedererkennungsleistung, durch welche eine empirisch vorkommende Markierung beim Lesen als Verkörperung eines generellen Typus identifiziert wird: Wir müssen nicht einfach etwas als etwas sehen, sondern etwas als etwas wieder erkennen. Charles Sanders Peirce hat die type-token Relation, also die Elementarrelation diskreter Zeichen, nach diesem Modell entworfen: der empirische Buchstabe wird als Verkörperung eines universellen Typus gelesen.35 Wie tausendfältig voneinander abweichend auch immer der Buchstaben ‚a‘ als empirischer Eintrag vorkommen mag: Lesen wir diesen Buchstaben, so identifizieren wir ihn gerade unabhängig der konkreten Dicke seiner Strichführung, der abweichenden Ausführung seiner Form oder gar der jeweiligen Farbe seiner Anschreibung.

27

Spencer Brown 1977.

28

Becker 1993, 13.

29

Für Spencer Brown eben der Moment, in dem ein Universum entsteht. Dazu: Baecker 1993, 13.

30

Baecker 1993, 22.

31

Mit den Worten Dirk Baeckers 1993, 23 kann die Unterscheidung als Operation definiert (werden), die zwei Seiten schafft.

32

Goodman 1968.

33

Goodman 1968, 130ff. Dazu: Fischer 1997.

34

Unser Konzept von ‚Syntax‘ ist damit weiter gefasst als etwa bei Stetter 2005, 236ff.

35

Peirce 1931-35, 4.537.

101

Sybille Krämer

102

Das Lesen ist die – regelfundierte – Fähigkeit, beim Sehen zugleich absehen und mannigfaltige Aspekte einer sinnlichen Erscheinung vernachlässigen zu können.36 Aber was sehen wir infolge dieser Absehensleistung? Wenn wir annehmen, dass es Universalien gibt, so könnten wir antworten: wir sehen im partikulären ‚A‘ das universelle ‚A‘, platonisch ausgedrückt: wir erkennen, dass eine einzelne Marke ‚an der A-heit teilhat‘. Doch einen Universalienrealismus anzunehmen, sind wir keineswegs gezwungen. Denn wir nehmen beim Textlesen gar nicht die Einzelgestalten der Buchstaben wahr, sondern diese immer nur als Bildungselemente von Buchstabenkonfigurationen, damit von Worten; und es ist dann der Kontext des Wortes, der uns diskriminieren lässt, dass es bei einer Marke um ein ‚a‘ und nicht etwa um ein ähnlich aussehendes ‚d‘ zu tun ist. D.h., beim Lesen sehen wir nicht Einzelgestalten, sondern Relationen. Und eine Relation zu sehen, besser: zu erkennen, gründet darin, die konkrete Erscheinungsweise ihrer einzelnen Bildungselemente zugunsten ihrer Konfiguration und Anordnung vernachlässigen zu können. In diesem Sinne können wir tatsächlich sagen: Wir sehen in einer singulären Einschreibung etwas Allgemeines. Martin Seel hat – zurückgehend auf Richard Wollheim37 – in prägnanter Klarheit drei Grundfälle des Sehens unterschieden,38 die erst in ihrer Trias die Eigenart des Bildersehens ausmachen: Wir sehen etwas, wir sehen etwas als etwas und wir sehen etwas in etwas. Während die erste und zweite Art des ‚etwas‘ und ‚etwas als etwas‘ Sehens auch beim erkennenden Sehen von Objekten im Spiele ist, ist das ‚Sehen von etwas in etwas‘ das Charakteristikum des Bildersehens: Das Bild ist kein Regenschirm, aber wir sehen in den Farben und Formen des Bildes einen Regenschirm. Diese Art eines ‚Sehen-in‘ ist nun auch für die operative Bildlichkeit fundamental, hier aber steht sie dezidiert39 unter dem Vorzeichen, dass das, was wir zu sehen bekommen, etwas Allgemeines sei: Nicht zufällig spricht Frederik Stjernfelt – bezogen auf Diagramme und im Anschluss an Charles Sanders Peirce – auch vom „type-reading“.40 Wenn wir beim Lesen nicht Einzelmarkierungen, sondern Konfigurationen und Relationen sehen, so ist zugleich klar, dass wir in einer empirischen Konfiguration in all ihrer kontingenten Individualität und konkreten Geformtheit etwas Allgemeines sehen. Wir sehen in einem geometrischen Diagramm nicht einfach einen Kreis, sondern den Kreis, identifiziert als eine mathematische Entität, die mit den empirisch auftretenden Kreisen nie zur Deckung kommen kann. Wir ‚sehen‘ etwas Begriffliches. Dieses ‚Sehen eines generellen Objektes‘ ist erstaunlich. Erklärbar und auch möglich ist das nur – und hier sind wir an einer Gelenkstelle unserer Überlegungen zur Diagrammatik –, weil wir zugleich mit den sinnlich-konkreten Repräsentanten im Handlungsraum operativer Bildlichkeit umgehen und experimentieren, sie also ‚behandeln‘ können und dabei 36

Wir wollen also die Frage, ob es so etwas wie eine ‚A-heit‘, die jenseits der empirischen Buchstabenvorkommnisse angesiedelt ist, hier nicht behandeln.

37

Wollheim 1982, 192-210.

38

Seel 2000, 284ff.

39

Vielleicht gilt diese Generalität auch für das Sehen von etwas in Bildern: Denn wir sehen in einem Regenschirmbild, den Regenschirm im Bild und das heißt: wir sehen genau das, was – mehr oder weniger – zum Schematismus der sichtbaren Erscheinung eines Regenschirms gehört. Solcher ‚Schematismus‘ ist immer allgemein.

40

Stjernfelt 2000; Stjernfelt 2007.

Operative Bildlichkeit

dann – verallgemeinerbare – Erfahrungen sammeln. Wir machen den konkreten Kreis zum Repräsentanten der abstrakten Entität, insofern wir mit dem sinnlich sichtbaren Kreis in dieser Weise operativ verfahren. Wir kommen darauf zurück. Zugleich ist damit das Thema der Referenz und Repräsentationalität operativer Bilder aufgeworfen, dem wir uns jetzt zuwenden wollen. Referenzialität Gewöhnliche Bilder zeigen allererst sich selbst – für sie ist nicht ihr Fremdbezug, vielmehr ihr Selbstbezug konstitutiv. Daher greifen Theorien, die Bilder primär durch ihre Repräsentationalität oder gar im Sinne von Abbildern thematisch werden lassen, gewöhnlich zu kurz. Doch bei der operativen Bildlichkeit verhält es sich anders: denn für diese ist der Fremdbezug fundamental. Eine Schrift etwa, die in ihren Strukturen nicht auf etwas der Schrift externes Bezug nimmt und in diesem Sinne eben nicht nur über eine Syntax, sondern auch eine Semantik verfügt, mag ein Ornament sein oder ein Kunstwerk, kaum aber als Schrift zählen.41 Schriften sind immer auch Trans-skriptionen.42 Auch Diagramme repräsentieren Beziehungen zwischen Sachverhalten, seien diese nun empirischer oder theoretischer ‚Natur‘ und finden darin ihren Sinn. Und erst recht beziehen sich Karten auf ein reales oder auch fiktives Territorium. Referenzialität, die Bezugnahme auf ein ‚Außerhalb‘, ist also nicht dispensierbar, wenn es um den Umgang mit operativen Bildern geht. Wir können noch einen Schritt weiter gehen: Nicht nur Referenz und Repräsentationalität, sogar der Abbildcharakter spielt eine Rolle beim Verständnis operativer Bildlichkeit – vorausgesetzt Abbildung wird dabei in einem ‚transnaturalen‘ und ‚projektionsbezogenen‘ Sinne verstanden. So etwa, wie eine Zahlen- oder auch Buchstabengleichung eine geometrische Figur abzubilden vermag, ohne dieser visuell zu ähneln oder so, wie eine Ellipse als ein durch eine bestimmte Projektionsmethode ‚verzerrtes Abbild‘ eines Kreises gelten kann. Noch plastischer begegnet uns dieser Transnaturalismus des Abbildens in der (Land-)Karte: Eine Karte, die das, was kartographiert wird, etwa im Verhältnis 1:1 abbildet, ist ein Unding, dem nicht wenige literarische Anekdoten gewidmet sind.43 Mehr noch: topologische Karten zeigen die Welt aus der Perspektive des ‚apollinischen Auges‘.44 Das aber ist eine Perspektive, die Menschenaugen – vor dem Blick aus Flugzeugen oder auf Satellitenbilder – gewöhnlich verschlossen ist. Auch die Grenzen als vollständige Umgrenzung eines Landes gehören zu dem, was – lebensweltlich besehen – unsichtbar bleibt. Dass Unsichtbares jeweils sichtbar gemacht wird, ist dann – neben Fragen der Projektionsmethode, der Schematisierung und der Generalisierung – auch das entscheidende Argument für den ‚Transnaturalismus‘ der Abbildung, der selbst da greift, wo Territorien auf Karten abgebildet werden.45 „Alle Bilder

41

Dazu der Schriftbegriff, entwickelt in Grube / Kogge 2005, 12 der durch drei Attribute definiert ist: Referenz, aisthetische Präsenz und Operativität.

42

Dazu: Jäger 2002.

43

Beispielhaft: Eco 1990.

44

Dazu: Cosgrove 2001.

45

Mehr dazu: Krämer 2008, 311ff.

103

Sybille Krämer

präsentieren; die meisten Bilder repräsentieren“ fasst Martin Seel zusammen.46 Für die operativen Bilder nun gilt, dass sie in dem, was sie präsentieren, immer auch repräsentieren. Referenz, Repräsentationalität und transnaturalistische Abbildung bereiten den Boden, aus dem dann erwachsen kann, was als eines der wichtigsten Abgrenzungskriterien gegenüber gewöhnlichen Bildern gelten kann: Anders als diese, dafür aber ähnlich den sprachlichen Äußerungen, haben Phänomene operativer Bildlichkeit einen propositionalen Gehalt. Damit kommt immer auch ein Wahrheitsbezug ins Spiel. Sie schaffen visuelle Evidenz – die jedoch auch trügerisch sein kann. Was für schriftliche Äußerungen noch selbstverständlich ist, gilt dann auch für Diagramme oder Karten: Sie können falsche Darstellungen sein. Können wir also so weit gehen zu sagen, dass Phänomene operativer Bildlichkeit eine Domäne ‚visueller Behauptungen‘ bilden?

104

Operativität Schriften, Graphen und Karten stellen nicht nur etwas dar, sondern eröffnen damit Räume, um das Dargestellte auch zu handhaben, zu beobachten, zu explorieren. Und dies gilt umso mehr, wenn dabei zur Anschauung gebracht wird, was anders gar nicht zu Gesicht kommen kann oder wenn stabilisiert wird – denken wir an die Flüchtigkeit von Sprachlauten und musikalischen Tönen – was sonst ephemer, flüchtig und fragil ist. Die operative Bildlichkeit erweist sich dann nicht nur als ein Anschauungsmedium, sondern auch als ein Werkzeug und ein ‚Reflexionsinstrument‘. Ganz so, wie die phonetische Schrift eine grammatische Kartographie der Sprache liefert und damit erst eine Sprache zum beobachtbaren und analysierbaren ‚Gegenstand‘ sich auskristallisieren lässt,47 eröffnen musikalische Notationen und mit ihnen die Partitur nicht nur neue Kompositions- und Aufführungsmöglichkeiten, sondern machen musikalische Zusammenhänge in neuartiger Weise anschaubar, analysierbar und reflektierbar.48 Praktischer gewendet: ein Stadtplan erfüllt nur dann seine Orientierungshilfe, wenn wir unseren Standort in diesem Plan indexikalisch festlegen, uns also innerhalb des Plans verorten können; ein oftmals mühseliges Geschäft, das eine kontinuierliche Interaktion zwischen Karte und Nutzer voraussetzt, der Auge und Hand dabei einzusetzen hat. Mercators Weltkarte gibt Seeleuten die Möglichkeit, durch Operationen auf der Karte ihren Kurs zu errechnen und mit Hilfe des Kompasses auf den markierungslosen Ozeanen auch relativ simpel einzuhalten.49 Doch geht es um mehr als nur um die durch graphische Repräsentation eröffnete Möglichkeit des instrumentellen oder reflexiven Umgangs mit dem Repräsentierten; es geht um Konstitutionsleistungen. In den Termini von Ludwig Jäger: Transkription erweist sich als Konstitution.50 Indem Gattungen operativer Bild-

46

Seel 2000, 271.

47

Krämer 1996, 2003.

48

Dazu: Die Magisterarbeit von David Magnus 2008; Gottschewski 2005.

49

Auf Mercators Weltkarte erscheinen die Loxodrome – gewöhnlich spiralenförmig den Globus überziehend – als Geraden und erleichtern damit die Navigation ungemein: Krämer 2008, 318.

50

Jäger 2002, 30.

Operative Bildlichkeit

lichkeit etwas zur Darstellung bringen, impliziert dies immer auch ein Stück weit die Hervorbringung des Dargestellten. Und das gilt gerade für Wissensdinge und theoretische Gegenstände. Gibt es den Punkt als ausdehnungslose mathematische Entität, ehe dieser als geometrischer Kreismittelpunkt oder Konvergenzpunkt eine diagrammatisch-operative Basis erhält? Gibt es die Zahl Null, ehe mit der Ziffer ‚0‘ gerechnet wird?51 Kann die Entwicklung von Charles Darwins Evolutionslehre verstanden werden, ohne die Rolle der diagrammatischen Baumstrukturen der Entwicklung der Arten mit einzubeziehen, auch wenn die Verzweigungen der Koralle viel eher die Inspirationsquelle abgaben – wie Horst Bredekamp jüngst zeigte?52 Hat es für die Schweiz die Erfahrung, ein Bundesstaat zu sein sowie ein darin fundiertes Nationalbewusstsein als ‚ein Volk‘ zu entwickeln, geben können, ehe die erste topografische Karte die Schweiz als eine einheitliche Eidgenossenschaft vor Augen gestellt hat?53 In ihrem Umfang kaum auslotbar sind die Bezüge zwischen der operativen Bildlichkeit und den epistemischen Gegenständen, denen dadurch ein Platz in unserem Anschauungs- und Handlungskreis zuwächst. Visualisierung, Operationalisierung und Generierung greifen ineinander und gebären im Spannungsfeld von Verkörperung und Entkörperung jenen Status abstrakter bzw. ‚unsichtbarer‘ Entitäten, der Philosophie und Wissenschaft überhaupt erst auf den Weg gebracht hat. Mit unseren Vorannahmen sowie den sechs Attributen operativer Bildlichkeit sind die Voraussetzungen gelegt, nun den Begriff des ‚Diagrammatischen‘ einzuführen, der – zusammen mit der Erweiterung des Diagrammatischen hin zur Idee einer ‚Diagrammatologie‘ – den Fluchtpunkt unserer Überlegungen bildet und zu einer These führt, deren Erörterung uns nun beschäftigen wird. Hier erst einmal die These: Das Diagrammatische ist ein operatives Medium, welches infolge einer Interaktion innerhalb der Trias von Einbildungskraft, Hand und Auge zwischen dem Sinnlichen und dem Sinn vermittelt, indem Unsinnliches wie beispielsweise abstrakte Gegenstände und Begriffe in Gestalt räumlicher Relationen verkörpert und damit nicht nur ‚denkbar‘ und verstehbar, sondern überhaupt erst generiert werden. Die Signatur unserer Episteme verdankt sich in vielen Hinsichten den Kulturtechniken des Diagrammatologischen – bleibe dies nun implizit oder sei es explizit. Den Spuren dieses ‚Diagrammatologischen‘ in philosophischen Texten wollen wir jetzt folgen. Und zwar in vier Schritten: (1) Diagrammatisches Denken. Überlegungen mit Charles Sanders Peirce. (2) Der Hiatus zwischen Anschauung und Begriff, Sinn und Sinnlichkeit und die Idee eines ‚Mittlers‘ zwischen beiden: Kants Schematismuskapitel. (3) Zur diagrammatischen Methode in Platons Menon. (4) Sehen, Sehen als, Sehen in: Zu Ludwig Wittgensteins ‚Enten-Hasen-Kopf ‘.

51

Krämer 2006.

52

Bredekamp 2005.

53

Dazu: Guggerli / Speich 2002.

105

Sybille Krämer

Diagrammatisches Denken. Überlegungen mit Charles Sanders Peirce Das Diagramm im engeren Sinne ist eine graphische Darstellung, die Sachverhalte, insbesondere Relationen etwa zwischen Größen, aber auch zwischen Begriffen und Wissensfeldern, anschaulich vor Augen stellt.54 Das griechische diagramma wird bei Platon55 ursprünglich im Sinne von ‚geometrischer Figur‘ und bei Aristoteles56 dann in der Bedeutung von ‚anschaulicher Beweis‘ verwendet. Das Wort erweitert allerdings schon innerhalb des griechischen Kulturkreises seinen Umfang hin zum Diagramm, verstanden als Anleitung zum Bauen, als gesetzlicher Verordnung, als Inventarliste, Tabelle oder Schema und musikalischer Tonfolgen bis hin zu kartographischen Aufzeichnungen.57 Von Anbeginn also hat das Diagramm die Tendenz, sich über seinen Herkunftsbereich aus der geometrischen Figur hinaus auszudehnen. Angesichts der Bedeutung, welche Diagramme sowohl in historischen wie gegenwärtigen Wissensordnungen spielen, wird sogar von einem ‚diagrammatic turn‘ gesprochen.58 Worauf es uns nun ankommt, ist, dass wir das Diagramm in einer epistemischen Perspektive in den Blick nehmen wollen; das aber ist eine Perspektive, die geprägt ist vom Zusammenspiel zwischen der Visualisierung, der Demonstration und der Produktion neuer Einsichten mit Hilfe von Diagrammen. Eben diese erkenntnistechnische und erkenntnistheoretische Funktion steht im Mittelpunkt des Diagramm-Konzeptes, so wie es in verstreuten (und gerade nicht in den Collected Papers editierten) Schriften von Charles Sanders Peirce Kontur gewinnt. Obwohl Peirce in der Logik mit Graphen diagrammatische Formen der Repräsentation und ‚Kalkulation‘ eingeführt hat,59 interessieren wir uns hier nicht für seine konkreten Diagramme, vielmehr für die Grundlinien seiner Idee, die wir ‚diagrammatisches Denken‘60 nennen können: Für Peirce ist „alles notwendige Denken […] diagrammatisch“ und „da die Sicherheit, die alles andere Denken liefert, sich auf notwendiges Denken stützen“ muss, ist „in diesem Sinne alles Denken direkt oder indirekt von Diagrammen abhängig.“61 Frederik Stjernfelt62 und Michael May63 haben die Konturen dieser Idee bei Peirce vorbildlich herausgearbeitet. Wir wollen zumin-

106

54

Drei Bücher umreißen das Feld einer philosophischen Diskussion des Diagramms: Gehring e.a. 1992; Greaves 2002; Stjernfelt 2007.

55

Etwa: Platon, Politeia 528e-530d; Menon 83b-85e; Euthydemos 290c; Kratylos 436d; Theaitetos 169a. Zu einigen Beispielen der Verwendung von Diagrammen bei Platon: Ueding 1992.

56

Aristoteles, Metaphysik 998a 25; 1014a, 36.

57

Bonhoff 1993, 7ff.

58

Bogen / Thürlemann 2003, 3; dort auch findet sich nicht nur eine vorzügliche systematische wie auch historisch orientierte Erörterung des Diagramms als epistemisches Instrument, sondern auch eine Fülle von Literaturhinweisen zur zeitgenössischen Literatur zur Diagrammatik.

59

Dazu: Hintikka 1997.

60

Der Ausdruck ‚diagrammatisches Denken‘ wurde gebraucht von: May 1995.

61

Peirce 1991, 316.

62

Stjernfelt 2000; Stjernfelt 2007.

63

May 1995.

Operative Bildlichkeit

dest die Kernüberlegungen von Peirce hier zusammenstellen. Sein Ausgangspunkt ist, dass das Denken, gerade dann, wenn es logisch-deduktiv organisiert ist, ein Element der Beobachtung und Anschauung enthält.64 Vor diesem Horizont gewinnen vier Attribute Profil: (i) Ikonizität: Diagramme sind wahrnehmbare Zeichenvorkommnisse. Innerhalb der Peirceschen Trias von Icon, Index und Symbol gehören sie dem Bereich des Ikonischen an. „[...] a diagram is an icon.“65 Damit ist ihre Darstellungsleistung immer mit einer Art von ‚Ähnlichkeit‘ verknüpft, denn für Peirce erlangt das Ikonische seine Bedeutung nicht einfach arbiträr, sondern durch lebensweltlich verbürgte Ähnlichkeit, die jedoch im Falle des Diagrammatischen im weiten Sinne einer Struktur-Ähnlichkeit und also nicht mimetisch oder naturalistisch aufzufassen ist. Zu den Diagrammen – und das ist eine ungemein anregende Erweiterung des Umfangs dieses Begriffs – zählen daher nicht nur die Diagramme im engeren Sinne einer Verknüpfung von schematischer Zeichnung und Schrift, sondern ebenso gut Formeln und Karten.66 (ii) Relationen zeigen: Die vorrangige Aufgabe von Diagrammen ist keine Veranschaulichung von Objekten, sondern die Visualisierung von Relationen zwischen Objekten: „The pure diagram is designed to represent and to render intelligible, the form of relation merely.“ 67 Die Form von Verhältnissen aufzuzeigen, ist also die vornehmste und wichtigste Aufgabe des Diagrammatischen. Insofern Relationen gewöhnlich unsichtbar sind, visualisieren sie etwas, das den Sinnen gerade nicht unmittelbar bzw. auf eine andere Weise zuhanden ist. (iii) Sinnlichkeit des Allgemeinen: Diagramme vermitteln zwischen dem Sensiblen und dem Intelligiblen. Indem sie angeschaut und auch operativ verändert werden können, vergegenwärtigen sie im partikularen Zeichenvorkommnis einen universellen Gegenstand, machen etwas Allgemeines sinnlich erfahrbar. Sie erfüllen damit Aufgaben, die Kant dem Schematismus zugesprochen hat „which is on the one side an object capable of being observed while on the other side it is general.“68 (iv) Schematismus: Diagramme können dadurch Allgemeines zeigen, dass sie ein interpretierbares Symbol bzw. ein Schema schaffen, welches dann das Generelle verkörpert im Unterschied zum konkret eingezeichneten Diagramm. Das konkrete Diagramm verbleibt auf der Ebene des Wahrnehmens; doch indem es gelesen, also auf ein Schema bezogen wird, wird zugleich von allen zufälligen Eigenschaften des konkret hingezeichneten Diagramms abstrahiert: eine Art ‚type64

„[…] selbst ein simpler Syllogismus umfaßt ein Element des Beobachtens.“ Peirce 1933, Bd. III, § 3.363.

65

Zit. nach Stjernfelt 2000, 361.

66

Dieser weite Begriff des Diagramms, den gerade Stjernfelt als Peirces Eigenart herausarbeitet, unterscheidet sich von dem weit engeren Begriff bei Greaves 2002, 3ff., der das Diagramm weitgehend in das Feld seiner geometrischen Herkunft einspannt, an geometrische Eigenschaften einer Darstellung koppelt und daher auch zu seiner These kommt, dass die Formalisierung gegenüber den diagrammatischen Methoden den Sieg davon getragen habe.

67

Peirce 1976, 59.

68

Peirce 1976, 318.

107

Sybille Krämer

reading‘ findet statt, bei dem sich das Diagramm in ein Schema verwandelt, bzw. dieses repräsentiert. (v) Evidenz: Diagramme schaffen Evidenz, indem sie Einsichten ermöglichen, die nicht bereits in die Konstruktion des Diagramms eingeflossen sind.69 Diagramme sind also nicht nur ein Visualisierungselement, sondern auch ein Experimentierinstrument,70 das durch handgreifliche konstruktive Veränderungen an Figuren und Konfigurationen und deren Beobachtung neues Wissen entstehen lässt – und zwar gerade in Bereichen, wo es um so genanntes nicht-empirisches, ‚notwendiges‘ Wissen geht. 71 Für Peirce ist also die Unterscheidung zwischen dem raum-zeitlichen situierten konkreten Diagramm und einem ihm entsprechenden konzeptuellen Schema relevant, welches er wiederum mit dem Kantischen Schematismus in Verbindung bringt. Wir wollen diesem Hinweis folgen. Kants Schematismuskapitel gilt gemeinhin als eine recht ‚dunkle Stelle‘ in der Kritik der reinen Vernunft. Fällt im Horizont der Idee einer Diagrammatik klärendes Licht auf diese Passage?

Schema und Schematismus bei Kant Das kleine Kapitel in der Kantischen Kritik (B 176 – B 187), das sich dem „Schematismus der reinen Verstandesbegriffe“ widmet, gilt als schwer verständlich – und ist von Kant doch als „eines der wichtigsten“ im handschriftlichen Nachlass gekennzeichnet worden.72 Ohne uns auf die nicht geringen Schwierigkeiten dieses Abschnittes einzulassen und ohne auch nur annähernd auf die Vielzahl der Sekundärliteratur zu diesem Komplex eingehen zu können, wollen wir uns dem ‚Schematismus‘ nur soweit zuwenden, dass dabei deutlich werden kann, wieso Kant mit seiner Idee der Schematisierung ein epistemologisches Grundlagenproblem73 – und seine Lösung – erörtert, welches zugleich für die Idee einer Diagrammatik anregend wie grundlegend ist. Für Kant wird Erkenntnis dadurch möglich, dass Begriffe sich auf anschaulich Gegebenes beziehen und dadurch (erst) ‚objektive Realität‘ erhalten und gegenständliche Erkenntnis ermöglichen, anderenfalls blieben diese Begriffe leer und würden dann zum bloßen Gedankenspiel, das einer Erkenntnisfunktion entbehrt.74

108 69

Peirce 1976, 319.

70

„[…] das Deduzieren besteht nämlich im Konstruieren eines Ikons oder Diagramms, dessen Teile sich so zueinander verhalten, dass sie in völliger Analogie zu den Teilen des Denkgegenstandes stehen, sowie im vorstellungsmäßigen Experimentieren mit diesem Bild und im Beobachten des Ergebnisses, um so die unbeobachteten und verborgenen Beziehungen zwischen den Teilen aufzudecken.“ Peirce 1933 § 3.363.

71

Peirce geht so weit anzunehmen, dass die synthetischen Urteile a priori, deren Existenz seit Kants ‚Entdeckung‘ dieser Art Urteile, immer wieder umstritten ist, solche Sätze sind, die in der diagrammatischen Anschauung und Operation ihr Fundament haben, insofern das synthetische a priori dabei zugleich erfahrbar und allgemein ist. Dazu: Stjernfelt 2000, 364.

72

Kant 1928 Nr. 6359, zit. nach Heidegger 1998, 113.

73

Zur Rekonstruktion dieses Grundproblems: Walsh 1957/58.

74

Kant 1956, B 195 (im Folgenden zitiert nach B).

Operative Bildlichkeit

Wie aber soll eine anschauliche Verankerung des Begriffs möglich werden bei den Begriffen, die – anders als empirische Begriffe (‚Hund‘) – gar kein Gegenstück in der Erfahrung haben, denken wir nur an den mathematischen Begriff des Kreises? Gerade bei diesen ‚reinen‘ Begriffen sind Anschauung und Begriff denkbar heterogen: „Nun sind aber reine Verstandesbegriffe, in Vergleichung mit empirischen (ja überhaupt sinnlichen) Anschauungen, ganz ungleichartig, und können niemals in irgend einer Anschauung angetroffen werden.“75 Wie kann also angesichts der kompletten Ungleichartigkeit zwischen Anschauung und ‚reiner‘ Kategorie gleichwohl eine Verbindung hergestellt werden? An dieser Stelle nun fordert Kant, dass „es ein Drittes geben müsse, was einerseits mit der Kategorie, andererseits mit der Erscheinung in Gleichartigkeit stehen muß.“76 Und genau dieses Vermittelnde und auch Mittlere zwischen Begriff und sinnlicher Anschauung, wir können dazu auch sagen: genau dieses Medium, nennt Kant ‚transzendentales Schema‘. Dieses hat die Eigenart „einerseits intellektuell, andererseits sinnlich zu sein.“77 (Herv. SK). Unsere Vermutung nun ist, dass der Schematismus als ein zwischen Sinnlichkeit und Begriff vermittelndes Drittes wesentliche Bestimmungen versammelt, die Peirce dann dem Diagramm zuspricht und die uns zugleich Zeugnis ablegen von den diagrammatologischen Grundlagen der Vernunft. Eigenschaften des Schemas Der Begriff des Schemas verfügt über eine philosophisch-wissenschaftsgeschichtliche Tradition, in der sich vor allem zwei Verwendungen herausgeschält haben.78 Schon Proklos sah in ihm ein Mittleres zwischen Ding und Begriff, Einzelheit und Allgemeinheit; kurzum: die Möglichkeit also, das Gestaltlose als eine Gestalt darzubieten.79 Keine Frage, dass sich bei Kant ein Anklang an diese Idee findet, wenn sein Schematismus zwischen Kategorie und Anschauung zu vermitteln hat. Doch es gibt noch eine weitere Tradition in der Verwendung des Schema-Konzeptes, die das Schema tätigkeitsorientiert als Handlungsanleitung, als Produktionsgesetz und Erzeugungsregel versteht; eine solche Akzentuierung findet sich u.a. bei Francis Bacon.80 Kant nun scheint von beiden Verwendungsweisen inspiriert. Zuerst einmal: der Schematismus ist ein Verfahren der Einbildungskraft.81 Er ist also nicht nur ein Vermögen, sondern eine Tätigkeit und besteht – insofern es sich um die Einbildungskraft handelt – darin, Bilder zu erzeugen.82 Einem Begriff sein Bild verschaffen – das betont Kant expressis verbis83 – nennt er auch das Schema zu diesem Begriff zu entwickeln. Doch wieder entsteht das Ausgangsproblem: 75

B 176.

76

B 177.

77

B 178.

78

Stegmeier 1992, 1246ff.

79

Dazu: Stegmeier 1992, 1248.

80

Dazu: Stegmeier 1992, 1249.

81

B 179/180.

82

Dass der Schematismus mit der Rolle des Bildlichen zu tun hat, hat Heidegger 1998, 90ff. früh schon unterstrichen.

83

B 179.

109

Sybille Krämer

110

Bei nichtempirischen Begriffen, die sich auf etwas beziehen, was in der Erfahrung schlechterdings nicht gegeben ist, wofür es also auch kein Beispiel geben kann, können wir auch kein Bild herstellen: „Dem Begriff von einem Triangel überhaupt würde kein Bild desselben jemals genügen,“84 insofern damit gerade die Allgemeinheit des Begriffs nicht darstellbar ist. Das transzendentale Schema, welches die Anschauungsbasis für erfahrungsunabhängige Begriffe zu sichern hat, kann also – auch dies betont Kant – nicht einfach ein Bild sein. Das, was das Schema vom Bild unterscheidet, bestimmt Kant dadurch, dass ein Bild wirklich, ein Schema aber nur in Gedanken existiert.85 Gleichwohl – und das ist für uns entscheidend – ist dieser ‚Mentalismus‘ nicht das letzte Wort, denn was hier für Kant nur ‚in Gedanken geschieht‘, ist von ihm zugleich durch und durch figürlich, räumlich, handlungstechnisch und damit grundlegend als eine Bewegung spezifiziert, die sich in Raum und Zeit auslegt bzw. einschreibt.86 Klären wir auf, wie das gemeint ist. (i) Figürlichkeit: Kant spricht von einer „figürlichen Synthesis“87 bzw. einer „synthesis speciosa“ und hebt diese eindeutig ab von einer rein intellektuellen Synthesis. Zur Illustration dieser Art von Synthesis bezieht Kant sich auf das Ziehen einer Linie.88 (ii) Handlungs-, Bewegungscharakter: Die Linie gilt ihm nicht einfach als eine räumliche Markierung, sondern als die zeitliche Handlung der Herstellung einer Linie, als eine Bewegung, die die „Beschreibung eines Raumes“ ist und mittels der produktiven Einbildungskraft die Zeit „äußerlich, figürlich“ der „äußeren Anschauung überhaupt“ zuführt.89 Kant schreibt: „Ich kann mir keine Linie, so klein sie auch sei, vorstellen, ohne sie in Gedanken zu ziehen, d.i. von einem Punkte aus alle Teile nach und nach zu erzeugen, und dadurch allererst diese Anschauung zu verzeichnen.“90 In dieser Eigenschaft gilt die Linie als Teil nicht einfach der empirischen Welt, sondern der nichtempirischen Geometrie und der Transzendentalphilosophie. (iii) Monogramm: Dass diese figürliche Synthesis des Mannigfaltigen ein ‚nicht empirisches‘ Produkt der Einbildungskraft ist, bringt Kant auch dadurch zum Ausdruck, dass er das transzendentale Schema als ‚Monogramm‘ kennzeichnet und dieses definitiv vom Bild als einer empirischen Gegebenheit abhebt: „[…] das Bild ist ein Produkt des empirischen Vermögens der produktiven Einbildungskraft, das Schema sinnlicher Begriffe ein Produkt und gleichsam ein Monogramm der reinen Einbildungskraft a priori.“91 An anderer Stelle92 wird noch einmal auf die Differenz zwischen Bild und Monogramm Bezug genommen: „Monogramme“ sind 84

B 180.

85

Diesen Unterschied verkennt Peter Baumanns 1997, 533f. in seinem instruktiven Kommentar, wenn er das „transzendentale Schema“ als eine „Bilderzeugungsmethode“ definiert und in diese Definition auch das „Monogramm“ einschließt, mit dem geometrische Begriffe schematisiert werden.

86

Dazu: Kaulbach 1973, 106.

87

B 151.

88

B 151;155/156.

89

B 156, Anm.

90

B 203.

91

B 181.

92

B 598.

Operative Bildlichkeit

„mehr eine im Mittel verschiedener Erfahrungen gleichsam schwebende Zeichnung“ als ein bestimmtes Bild, wie es „Maler und Physiognomen in ihrem Kopfe zu haben vorgeben.“93 Das bedeutet, Schemata sind die figürlichen Realisierungen begrifflicher Strukturen. (iv) Kunst: Den Schematismus des Verstandes kennzeichnet Kant als „verborgene Kunst in den Tiefen der menschlichen Seele,“ deren wahren Handgriffe wir kaum aufzudecken vermögen.94 Da das Schema selbst erst gewährleistet, dass ‚reine‘ Begriffe eine Bedeutung bekommen, kann es selbst nicht wiederum begrifflich erfasst werden. Unser zeichnerisches, konstruktives Vermögen weist hier den Weg und geht in gewisser Weise der Bedeutung der Begriffe, mithin der Sprache voraus. Erkenntniskonstitutive Kraft des Schemas Schemata, so wollen wir diese Überlegungen zusammenfassen, sind für Kant nicht einfach figürliche Realisierungen einer begrifflichen Struktur, obwohl schon dies überaus aufschlussreich wäre, sondern – da anders Begriffen aufgrund ihrer Geschiedenheit von der Sinnlichkeit gar keine Erkenntnisfunktion zukommen kann – Schemata konstituieren unser erkenntnistheoretisches Vermögen, Begriffe zu bilden und einzusetzen. Vielleicht wird jetzt klar, warum sich mit Kants ‚Monogramm‘ wichtige Grundzüge der epistemischen Bedeutung des ‚Diagramms‘ auskristallisiert haben. Es geht um ein Medium, das als eine Verschwisterung von Sinnlichkeit und Intellektualität überhaupt erst dafür sorgt, dass ‚notwendige‘ mithin allgemeingültige Begriffe in Verbindung stehen mit der Welt der Erscheinungen und für diese dann eine Erkenntnisfunktion übernehmen können, obwohl diesen Begriffen wiederum nichts in dieser Welt entspricht und korrespondiert. Dieser ‚Ort der Vermittlung‘ ist – entgegen den eher statischen Konnotationen des Begriffs des Schemas – weniger eine Struktur als vielmehr die „Kunst“ und das „Verfahren“ graphischer Handlungen eines Subjektes, mit denen Figürliches entsteht, das doch nicht einen konkreten Kreis oder ein bestimmtes Dreieck zeigt und meint, vielmehr die schwebende Mitte aller Kreise und aller Dreiecke zur Erfahrung bringt, mithin auf Kreis und Dreieck als Begriff und theoretische Entität zielt. Mit den Worten von Friedrich Kaulbachs: Kant entfaltet die „Auffassung, daß unser Denken ein beschreibendes Denken insofern ist, als es zugleich mit seinem Anspruch auf gegenständliche Erkenntnis seine Begriffe zu figürlichen Begriffen zu machen hat, um sie auf Objekte in Raum und Zeit zu beziehen.“95 (Herv. SK). Im ‚Monogramm‘ erweisen sich Sinnlichkeit und Intellektualität als komplementär.96 Und in eben dieser Vermittlungs- und ‚Scharnierfunktion‘ zwischen Anschauung und Begriff, die gleichwohl erst beide Seiten als aufeinander beziehbare hervorbringt, vermuten wir auch die erkenntnistechnische Leistung des Diagrammatischen. An dieser Stelle drängt sich übrigens eine Parallele zur Monadologie von Gottfried Wilhelm Leibniz auf, insofern es erst der ‚Besitz‘ eines Körpers ist, welcher 93

B 599.

94

B 181.

95

Kaulbach 1973, 106.

96

Auf diese Komplementarität hat Baumann 1997, 551 hingewiesen.

111

Sybille Krämer

den Monaden ‚Erkenntnis‘ qua Repräsentation der Welt ermöglicht. Und diese, viele Interpreten irritierende Körperlichkeit der ‚immateriellen‘ Monaden, wiederum steht im Zusammenhang zur Leibnizschen Einsicht, dass alle Erkenntnis symbolische Erkenntnis ist, also der raum-zeitlich situierten, wahrnehmbaren Zeichen bedarf. Kaum ein anderer Philosoph – Peirce vielleicht ausgenommen – hat eine so deutliche, die Grundideen der Diagrammatik bergende Handschrift in der Erkenntnistheorie hinterlassen. Doch wir wollen der Spur Leibnizens an dieser Stelle nicht folgen. Stattdessen geht unsere Spurensicherung des Diagrammatischen noch weiter zurück, hin zu den Anfängen der europäischen Philosophie, zu Platon.

Erkenntnis an und mit Figuren: ein Beispiel aus Platons Menon

112

Bei Platon stoßen wir auf eine merkwürdige – allerdings in der Geschichte des philosophischen Denkens nicht seltene – Gegenläufigkeit: Platons philosophisches Anliegen ist die ontologische Auszeichnung der jenseits von Raum und Zeit gelegenen ‚noetischen‘, also nur vernunftmäßig und nicht durch Erfahrung zu erfassenden universellen ‚Gegenstände‘ und eine damit verknüpfte Abwertung des Sinnlichen und erst recht Bildlichen; doch in seiner Einführung und Begründung der noetischen Existenz eben dieser Gegenstände macht er explizit oder implizit Gebrauch von Verfahren, die fundiert sind im Umgehen mit Ordnungsschemata des Räumlichen und bildlich zu Vergegenwärtigendem. Ein ‚diagrammatischer Gestus‘ zeigt sich also in Platons Denken, der in auffälliger Spannung steht zu dessen immateriellem, noetischem Grundzug. Das Liniengleichnis aus dem Menon mag dafür Pate stehen: Mithilfe des Bildes einer hingezeichneten und dann proportional zu unterteilenden konkreten Linie plausibilisiert und erörtert Platon just eine Weltsicht, der alle sinnlich-körperlichen und bildlichen Phänomenen gegenüber den ideellen als niederrangig gelten. Dieser Paradoxie einer mit bildlichen und sinnenfundierten Verfahren erläuterten Nichtbildlichkeit und Nichtsinnlichkeit der Welt können wir uns hier nicht ‚stellen‘. Das zu erörtern, bleibt eine Forschungsaufgabe. Wir wollen uns vielmehr einer Passage bei Platon widmen, in der diagrammatische Verfahren auf eine Weise zum Einsatz kommen, durch die wir etwas über die epistemische ‚Natur‘ des Diagramms erfahren können. Dieses ‚epistemische Moment‘ besteht darin, dass das Diagrammatische – und zwar von Anbeginn – mehr ist als nur die Veranschaulichung von theoretischen Sachverhalten, dass ihm vielmehr elementare Erkenntnisfunktionen zukommen, die darin gründen, dass wir Figürliches sinnlich konstruieren, verändern und beobachten können. Im Menon (82b-84c) demonstriert Platon die ‚Wiedererinnerung‘ (Anamnesis) als eine Erkenntnisquelle anhand eines Gespräches zwischen Sokrates und einem jungen Sklaven, dem die Aufgabe vorgelegt wird, ein Quadrat mit der Seitenlänge Zwei zu verdoppeln, so dass sich also ein Quadrat doppelten Flächeninhaltes ergebe. Die Methode, durch die der Sklave, ‚lediglich‘ durch Fragen von Sokrates gelenkt, zur richtigen Lösung gelangt und dabei auch auf grundsätzlichere mathe-

Operative Bildlichkeit

matische Einsichten stößt (zu denen auch der pythagoreische Lehrsatz gehört), ist eine diagrammatische. Ein Quadrat wird gegeben, der Sklave verdoppelt als erstes die Seitenlängen und muss erkennen, dass das daraus resultierende Quadrat vierfach groß, also zu groß ist. Er probiert eine andere Lösung aus, die wiederum nicht das gesuchte Quadrat ergibt. Schließlich kommt er im Operieren mit der Figur auf die Lösung: Soll der Flächeninhalt eines Quadrats verdoppelt werden, braucht man nur das Quadrat über seiner Diagonalen zu errichten. Alle Einsichten, die erworben werden, entstehen aus der Veränderung und Betrachtung der geometrischen Figur. Fragen wir uns an dieser Stelle genauer: Was eigentlich kann der Sklave im Umgang mit der Figur sehen? (i) Er sieht die mehr oder weniger vollkommen ausgeführte konkrete Figur als Abb.1: Zeichnung aus Menon. ein geometrisches Objekt, als ein QuaABCD = Ausgangsquadrat; drat von bestimmter Ausdehnung. In DBFE = Quadrat doppelten diesem Sehen-als spielen gewisse AttriFlächeninhalts. bute eine Rolle, andere wiederum sind zu vernachlässigen, von ihnen kann abgesehen werden. Wie dick oder dünn die Grenzlinien des Quadrates sind, ob diese tatsächlich gerade eingezeichnet und ob sie wirklich in der Zeichnung genau gleich lang sind etc. ist unerheblich. Aber dass das Quadrat „zwei Fuß“ misst, wie Sokrates sagt, ist wichtig, um einen Größenvergleich mit den neu konstruierten Quadraten sinnvoll treffen zu können. Sodann sieht er, dass das Quadrat konstruktiv verändert werden kann und sieht überdies, wie sich bei diesen Transformationen die Größen zueinander verhalten: Er sieht deren Relationen. Kein Zweifel, dass der Sklave, indem er das Dargestellte als eine veränderliche geometrische Konfiguration sieht, eine Art ‚identifizierendes Sehen‘ vollzieht, in jenem elementaren Sinne, der uns auch vom Objektsehen oder vom Buchstabenerkennen her vertraut ist. Wir erkennen etwas als Quadrat und nicht als Rechteck oder als kleineres oder größeres Quadrat etc. Doch der Witz dieses identifizierenden Sehens ist, dass es sich als ein erkennendes Sehen zu erweisen hat, bei dem neue Einsichten (für Platon: wiedererinnerte Einsichten) zu gewinnen sind. Dies setzt allerdings eine andere, erweiterte Form des Sehens voraus, die wir nicht als Sehen-als, sondern als ein Sehen-in spezifizieren können. (ii) Das ‚Sehen-in‘ wurde in Anschluss an Richard Wollheim97 und Flint Schier98 als eine Art des Wahrnehmens eingeführt und erörtert, die für das Bildersehen grundlegend ist: Wir sehen etwas als Bild und wir sehen etwas in dem Bild, zum Beispiel in den Formen und Farben eines Bildes eine Landschaft. Erin97

Wollheim 1982, 205-226.

98

Schier 1986,13-20, 196-219 zit. nach May 1995, 299.

113

Sybille Krämer

nern wir uns nun, dass für unsere Überlegungen es einen deutlichen Unterschied gibt zwischen ‚gewöhnlichen Bildern‘ und Phänomenen ‚operativer Bildlichkeit‘. Und dieser Unterschied zeigt sich gerade in Bezug auf das Sehen-in: Wir sehen in der diagrammatischen Figur ein mathematisches Konzept; und wir sehen in den Transformationen der Figur den verallgemeinerbaren Lösungsweg eines generellen Problems, d.h. also eine mathematische Einsicht. Die diagrammatische Gestaltung lässt uns einen ‚gestaltlosen‘ epistemischen Sachverhalt sehen. Bezogen auf den Menon-Zusammenhang: das, was der Sklave in dem dargestellten geometrischen Gegenstand sieht, ist ein konzeptueller Sachverhalt. Im geometrischen Diagramm sehen wir in einer gezeichneten Figur einen begrifflichen Zusammenhang. 99

Wittgensteins Reflexionen über Aspektsehen und Kippbilder

114

Wir wollen die Bedeutung der Unterscheidung zwischen dem ‚Sehen-als‘ und dem ‚Sehen-in‘ für die Analyse des Diagrammatischen noch ein Stück weiter verfolgen und wenden uns dafür Ludwig Wittgensteins Erörterung von Kippbildern zu. ‚Sehen‘ bedeutet mehr als ‚visuelle Wahrnehmung‘: es ist mit dem Denken durchaus verbunden100 – das jedenfalls ist eine ‚Botschaft‘, die angelegt ist in jenen Überlegungen, die Wittgenstein im Zusammenhang seiner Auseinandersetzung mit dem Phänomen von Kippbildern in den Philosophischen Untersuchungen101 wie auch in seinen Bemerkungen über die Philosophie der Psychologie102 entfaltet. Genau besehen ist es Wittgenstein dabei nicht um eine Art ‚Wahrnehmungstheorie‘ zu tun. Vielmehr möchte er zeigen, wie komplex die Sprachspiele sind, in denen wir das Wort ‚Sehen‘ gebrauchen103 und dass das, was beim Aspektsehen geschieht, ein ‚Sehen‘, aber auch ein ‚Denken‘ genannt werden kann. Da, wo bei Kippbildern der Aspekt ‚aufleuchtet‘, in und unter dem wir eine Zeichnung jeweils als die Darstellung von etwas Bestimmtem sehen, charakterisiert Wittgenstein dies „wie ein Sehen und wieder nicht wie ein Sehen“104 und stellt dann fest: das Aspektsehen ist „halb Seherlebnis, halb ein Denken“.105 Die Annahme einer Verschwisterung von Wahrnehmen und Denken ist uns im Zusammenhang unserer bisherigen Erörterung des Diagrammatischen, wie auch des Schematismus bei Kant vertraut. Und es geht uns im Folgenden daher nicht um eine (weitere) Vertiefung der Wissensfundierung und Interpretationsgeleitetheit von Sehakten, vielmehr um die Art, wie das von Wittgenstein angeführte und 99

Michael May 1995, 299 hat auf diesen Unterschied zwischen dem Sehen-als und dem Sehen-in von Diagrammen verwiesen und kommt ebenfalls zu der Schlussfolgerung, dass wir „eine bestimmte konzeptuelle Struktur in dem Diagramm“ sehen.

100

Zu dieser Deutung auch: Jantschek 1997, 319.

101

Wittgenstein 1984, Bd. 1, 518ff.

102

Wittgenstein 1984, Bd. 7.

103

Dazu: Kogge (im Druck).

104

Wittgenstein 1984, Bd. 1, 524.

105

Wittgenstein 1984, Bd. 1, 525. Vgl. auch: „Kann ich beim Aufleuchten des Aspekts ein Seherlebnis von einem Denkerlebnis trennen? – Wenn du es trennst, dann scheint das Aufleuchten des Aspekts verloren zu gehen.“ Wittgenstein 1984, Bd. 7, 423, §564.

Operative Bildlichkeit

hingezeichnete Kippbild selbst eine diagrammatische Szene innerhalb seines Textes ‚aufspannt‘ und als solche auch wirksam und damit analysierbar wird. Die schematische Zeichnung kann sowohl als Ente, wie auch als Hase gesehen werden; Wittgestein nennt sie ‚HE-Kopf: „Ich sehe zwei Bilder […] Folgt daraus, daß ich beide Male etwas andres sehe? [...] Der Kopf, so gesehen, hat mit dem Kopf so gesehen auch nicht die leiseste Ähnlichkeit – obwohl sie kongruent sind.“106 Ist es Zufall, dass das Kippbild eine Zeichnung ist, also auf der Linie baAbb. 2: Zeichnung des H-E-Kopfes. siert, so, wie alle Diagrammatik sich dem Medium der Lineatur verdankt? Wir vermuten: wohl kaum, denn der Witz des Kippbildes ist es ja, dass ein und dieselbe Linie, jeweils eine andere Bedeutung bekommt in ihrer Eigenschaft Aufbauelement einer Figur zu sein, in Abhängigkeit von der je gesehenen Gestalt, in die sie vom Betrachter dabei integriert wird.107 Welche Gestalt allerdings erblickt wird, ist keineswegs der Willkür des Betrachters anheim gestellt: Wir können in dem H-E-Kopf einen Hasen oder eine Ente, nicht aber eine Schildkröte sehen.108 Die Art, in der sich das Wahrnehmungsbild organisiert, wechselt also abhängig von dem Schema, das wir in ihm sehen. Bezogen auf den H-E-Kopf: Als Entenschema ist die Zeichnung, der Richtung des Schnabels folgend, nach links orientiert: der ‚Punkt‘, der dann zum Entenauge wird, ‚guckt‘ zum linken Seitenrand. Als Hase wird, was Schnabel war, zum Ohrenpaar, und nun ist die Konfiguration der Zeichnung genau umgekehrt ausgerichtet: der ‚Punkt‘, der nun das Hasenauge markiert, weist zum rechten Seitenrand. Die sichtbaren Linien spielen nicht nur eine unterschiedliche Rolle bei der Gestalterkennung, vielmehr zehrt diese auch davon, dass die Fläche, der sie inskribiert ist, eine jeweils andere Ausrichtung bekommt, mithin andersartig orientiert ist. Aber erscheint, da Enten- und Hasenbild vollkommen deckungsgleich sind, also auch die räumliche Lage und optische Verfassung der die Zeichnung bildenden Elemente dieselbe ist und bleibt, der Wechsel des Aspektes nicht als ein rein mentaler Prozess, als ein genuin geistiger, interner Akt, durch und durch bezogen auf kognitive, innere Vorstellungsbilder? Sind nicht gerade Kippbilder eine vorzügliche Demonstration, dass es allein unser ‚geistiges Auge‘ ist, das beim Sehen aktiv wird, dass es also um mentale Bilder zu tun ist? Wittgensteins Position dazu ist unmissverständlich: „Der Begriff des ‚inneren Bildes‘ ist irreführend, denn das Vorbild für diesen Begriff ist das ‚äußere Bild‘.“109 Wir sollten uns also an die diagrammatische Szene halten, um genaueren Aufschluss darüber zu bekommen, was es bedeutet, dass beim Aspektsehen Sehen und Denken beteiligt sind. 106

Wittgenstein 1984, Bd. I, 521.

107

„Die Linien hängen anders zusammen. Was früher zusammengehörte, gehört jetzt nicht zusammen.“ Wittgenstein 1984, Bd. 7, 419.

108

Jantschek 1997, 318.

109

Wittgenstein 1978, Bd. 1, 523.

115

Sybille Krämer

116

Obwohl Wittgenstein am Beispiel der Kippbilder zu zeigen versucht, dass am Sehen das Denken konstitutiv beteiligt ist, wird zugleich auch klar, dass eben dieses Denken zu seiner Einsicht überhaupt nur kommt durch eine sinnliche Bezugnahme auf und ein tätiges Umgehen mit der angeschauten Konfiguration. Denn da, wo am Beispiel des Kippbildes unverhüllt zutage tritt, dass hier tatsächlich ein ‚Denken‘ elementar beteiligt sein muss, geht es nicht etwa um den Zustand, bei dem wir die Zeichnung entweder – und zwar recht stabil und über einen Zeitraum hinweg – als Ente oder als Hasen sehen; vielmehr zeigt sich für Wittgenstein das Beteiligtsein des Denkens genau beim Wechsel des Aspektes, just in dem Augenblick, in dem sich das wirkliche Umkippen vollzieht, denn diesem Umschalten entspricht ja keinerlei Pendant in einem ‚Umkippen der Zeichnung selbst‘. Wittgenstein stellt fest: Wir können den Aspekt, nicht aber den Aspektwechsel sehen. Doch um diese Fähigkeit zum Aspektwechsel gleichwohl zu erfahren, muss ich mich – wie Wittgenstein betont – „mit dem Objekt beschäftigen… insofern ist das Erleben des Aspektwechsels auch gleich einem Tun.“110 Auf diesen Beschäftigungs- und Tätigkeitsaspekt kommt es uns an. Denn gegenüber dem gewöhnlichen Sehen, bei dem wir flüssig und unproblematisch ein Objekt identifizieren, vollzieht das Aspektsehen eine Transformation, bei der nicht einfach etwas gesehen, sondern etwas anders auf neue Weise und anders gesehen oder – denken wir an Vexierbilder – eine Gestalt überhaupt erst gesehen wird.111 Wittgensteins Diagramm – so wollen wir seine Zeichnung jetzt nennen – eröffnet als visuelle Konfiguration, eingelassen in den Fluss seines Textes einen Operations- und Erfahrungsraum für den Leser, an dem dieser im Umgang mit der Zeichnung die Erfahrung einer Metamorphose macht: Wir machen mit den Augen etwas, schauen die Zeichnung ausgerichtet als Ente nach links guckend an und schauen dann die Zeichnung, ausgerichtet als Hase nach rechts guckend an, vielleicht müssen wir sogar, damit der Hase deutlicher zutage treten kann, die Buchseite etwas drehen. Kurzum: Erst die Beschäftigung und Auseinandersetzung mit dem Diagramm führt zur Elementarerfahrung eines Aspektumschlags, welcher dann evident macht, was Wittgenstein hier sagen will, indem er uns etwas zeigt. Wir haben anlässlich von Platons Menon schon festgehalten, dass der Sklave in der Figur eine konzeptuelle Struktur ‚sieht‘ – allerdings nur in Verbindung mit dem operativen Umgang mit der Figur sowie den ihn zugleich weiterleitenden Fragen des Sokrates. Gleichwohl bleibt das ‚Sehen einer konzeptuellen Struktur‘, eingebettet in eine Handlung mit dem angeschauten Objekt – ein Gedanke übrigens, der auch dem Kantischen Schematismus Pate steht, – ‚irgendwie‘ noch ungeklärt. Sind wir mit der Erörterung des Aspektsehens bei Wittgenstein im Kontext einer diagrammatischen Szenerie einer Erklärung näher gekommen? Es geht um eine epistemische Einsicht, und das in den Text eingebettete Diagramm hat zu zeigen, was zugleich Inhalt dieser philosophischen Einsicht ist – in diesem Falle die Mitbeteiligung des Denkens am Sehen und die darin aufscheinende Komplexität und Verschiedenartigkeit unserer Rede vom ‚Sehen‘. Sehen-als heißt dabei, dass wir die Zeichnung entweder als Enten- oder als Hasenkopf sehen. Das Diagramm zeigt 110

Wittgenstein 1984, Bd. 7, 422.

111

Kogge 2008.

Operative Bildlichkeit

nichts aus sich heraus, sondern erst in der Interaktion mit einem Betrachter, für den es dann die Erfahrung des Aspektwechsels ebenso initiiert wie exemplifiziert. Wir sehen einen Hasen oder eine Ente, und beide Ansichten sind disjunkt, wir können nicht beide gleichzeitig sehen. Der Übergang von der Ente in den Hasen und umgekehrt geschieht, bleibt aber unsichtbar. Doch indem wir uns mit dem Diagramm beschäftigen, kann es zur ‚Bühne‘ werden, auf welcher der ‚Aspektwechsel‘ als ein Geschehen in der Zeit inszenierbar ist und sich vollzieht, sei es in Gestalt eines Widerfahrnisses (spontan kippt das Bild um) oder auch einer intendierten Handlung (ich lasse das Bild umkippen). In der Performanz des Aspektwechsels sehen wir die Zeichnung nicht mehr nur noch als Ente oder Hasen; sondern wir sehen in der Zeichnung die Konzeption des Aspektwechsels im Wittgensteinschen Sinne einer Liaison von Sehen und Denken. Wir haben die Simultaneität des Überblicks an früherer Stelle als eine Leistung der inskribierten Fläche bestimmt, von der alle operative Bildlichkeit zehrt. Doch wir müssen nun einen Schritt weiter gehen: So wie für Kant das Ziehen der Linie ein Prozess in der Zeit ist, ist auch die Betrachtung des H-E-Kopfs inklusive der Aspektwechselerfahrung eine sich zeitlich erstreckende Tätigkeit, die wir mit und an dem Diagramm vollziehen und die alleine – und das ist der Witz der Wittgensteinschen Reflexionen – uns berechtigt, über das zustandsorientierte ‚Sehen-als‘ hinaus, von einem tätigkeitsorientierten Mitbeteiligtsein des Denkens zu sprechen. Wir sehen in dem Diagramm eine zweideutige Zeichnung, die uns die Unmöglichkeit den Aspektwechsel auch sehen zu können, evident macht. Der H-E-Kopf, eingebettet in die Reflexionen Wittgensteins, eröffnet eine Erfahrung, in der ein epistemischer Sachverhalt gezeigt und dadurch plausibel gemacht wird.

117

Sybille Krämer

Abbildungsverzeichnis Abb. 1: Platon, Quadrat, Menon 82e. Abb. 2: Ludwig Wittgenstein, H-E-Kopf, Philosophische Untersuchungen, XI.

Bibliographie

118

Rudolf Arnheim, 1972, Anschauliches Denken. Zur Einheit von Bild und Begriff, Köln. Aristoteles, 1995, Metaphysik, in: Schriften in 6 Bdn, Bd. 5, Hamburg. Dirk Baecker, 1993, Im Tunnel, in: Dirk Baecker (Hrsg.), Kalkül der Form, Frankfurt a.M., S. 12-37. Peter Baumanns, 1997, Kants Philosophie der Erkenntnis: durchgehender Kommentar zu den Hauptkapiteln der „Kritik der reinen Vernunft“, Würzburg. Gottfried Boehm, 2001, Zwischen Auge und Hand. Bilder als Instrumente der Erkenntnis, in: Heintz / Huber 2001, S. 43-54. Steffen Bogen / Felix Thürlemann, 2003, Jenseits der Opposition von Text und Bild. Überlegungen zu einer Theorie des Diagramms und des Diagrammatischen, in: Alexander Patschovsky (Hrsg). Die Bildwelt der Diagramme Joachims von Fiore. Zur Medialität religiös-politischer Programme im Mittelalter, Ostfildern, S. 1-22. Ulrike Maria Bonhoff, 1993, Das Diagramm. Kunsthistorische Betrachtung über seine vielfältige Anwendung von der Antike bis zur Neuzeit, Dissertation an der Universität Münster. Vittoria Borsó / Reinholf Görling, (Hrsg.), 2004, Kulturelle Topographien, Stuttgart. Horst Bredekamp, 1999, Thomas Hobbes visuelle Strategien. Der Leviathan – Urbild des modernen Staates, Berlin. Horst Bredekamp, 2002, Die Erkenntniskraft der Linie bei Galilei, Hobbes und Hooke, in: Richard Hüttel / Barbara Hüttel / Jeanette Kohl (Hrsg.), Re-Visionen. Zur Aktualität von Kunstgeschichte, Berlin, S. 145-160. Horst Bredekamp, 2004, Die Fenster der Monade. Gottfried Wilhelm Leibniz‘ Theater der Natur und Kunst, Berlin. Horst Bredekamp, 2005, Darwins Korallen. Die frühen Evolutionsdiagramme und die Tradition der Naturgeschichte, Berlin. Horst Bredekamp, 2007, Galilei. Der Künstler. Der Mond. Die Sonne. Die Hand, Berlin. Horst Bredekamp (Hrsg.), 2006, Visuelle Argumentationen. Die Mysterien der Repräsentation und der Berechenbarkeit der Welt, München. Eva Cancik-Kirschbaum / Bernd Mahr, 2005, Anordnung und ästhetisches Profil. Die Herausbildung einer universellen Kulturtechnik in der Frühgeschichte der Schrift, in: Diagramme und bildtextile Ordnungen. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 3,1 (2005), Berlin, S. 97-114.

Operative Bildlichkeit

Denis Cosgrove, 2001, Apollo’s Eye - A Genealogy of the Globe in the West, Baltimore. Jacques Derrida, 1974, Grammatologie, Frankfurt a.M. Jacques Derrida, 1976, Die Schrift und die Differenz, Frankfurt a.M. Jacques Derrida, 1988, Randgänge der Philosophie, Wien. Umberto Eco, 1990, Die Karte des Reiches im Maßstab 1:1, in: Umberto Eco, Platon im Striptease-Lokal. Parodien und Travestien, München-Wien, S. 85-97. Martin Fischer, 1997, Schrift als Notation, in: Peter Koch / Sybille Krämer (Hrsg.), Schrift, Medien, Kognition. Über die Exteriorität des Geistes, Tübingen, 83-101. Petra Gehring / Thomas Keutner, u.a. (Hrsg.), 1992, Diagrammatik und Philosophie, Amsterdam. Nelson Goodman, 1968, Languages of art. An approach to a theory of symbols, Sussex. Jack Goody, 1986, The logic of writing and the organization of society, Cambridge. Hermann Gottschewski, 2005, Musikalische Schriftsysteme und die Bedeutung ihrer ‚Perspektive‘ für die Musikkultur. Ein Vergleich europäischer und japanischer Quellen, in: Grube / Kogge / Krämer 2005, S. 253-278. Gernot Grube / Werner Kogge, 2005, Zur Einleitung. Was ist Schrift?, in: Grube / Kogge / Krämer 2005, S. 9-21. Gernot Grube / Werner Kogge / Sybille Krämer (Hrsg.), 2005, Schrift. Kulturtechnik zwischen Auge, Hand und Maschine, München. Mark Greaves, 2002, The philosophical status of diagrams, Stanford. Sabine Groß, 1990, Schrift-Bild. Die Zeit des Augenblicks, in: Georg Christoph Tholen u.a. (Hrsg.), Zeitzeichen. Aufschübe und Interferenzen zwischen Endzeit und Echtzeit, Weinheim. David Guggerli / Daniel Speich, 2002, Topografien der Nation. Politik, kartografische Ordnung und Landschaft im 19. Jahrhundert, Zürich. Hartmut Günther, 1995, Die Schrift als Modell der Lautsprache, in: Obst. Osnabrücker Beiträge zur Sprachtheorie (51), Duisburg. Roy Harris, 1986, The Origin of Writing, London. Eric A. Havelock, 1963, Preface to Plato, Cambridge. Martin Heidegger, 1998, Kant und das Problem der Metaphysik, Frankfurt a.M. Bettina Heintz / Jörg Huber (Hrsg.), 2001, Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Wien / New York. Martina Heßler, 2006, (Hrsg.), Konstruierte Sichtbarkeit. Wissenschafts- und Technikbilder seit der frühen Neuzeit, München. Jaakko Hintikka, 1997, The place of C. S. Peirce in the history of logical theory, in: Jacqueline Brunning / Paul Forster, The rule of reason. The philosophy of Charles Sanders Peirce, Toronto. Ludwig Jäger, 2002, Transkriptivität. Zur medialen Logik der kulturellen Semantik, in: Ludwig Jäger / Georg Stanitzek (Hrsg.), Transkribieren, München, S. 19-41. Thomas Jantschek, 1997, Bemerkungen zum Begriff des Sehen-als, in: Ralf Konersmann (Hrsg.), Kritik des Sehens, Leipzig, S. 299-319.

119

Sybille Krämer

120

Hans Jonas, 1997, Der Adel des Sehens, in: Ralf Konersmann (Hrsg.), Kritik des Sehens, Leipzig, S. 247-271. Immanuel Kant, 1928, Kants gesammelte Schriften, Berlin. Immanuel Kant, 1956, Kritik der reinen Vernunft, Hamburg. Friedrich Kaulbach, 1973, Schema, Bild und Modell nach Voraussetzungen des Kantischen Denkens, in: Gerold Prauss (Hrsg.), Kant. Zur Deutung seiner Theorie von Erkennen und Handeln, Köln, S. 104 – 130. George P. Khushf, 1993, Die Rolle des ‚Buchstabens‘ in der Geschichte des Abendlandes und im Christentum, in: Hans U. Gumbrecht / Ludwig K. Pfeiffer (Hrsg.), Schrift, München, S. 21-34. Wolfgang Klein, 1985, Gesprochene Sprache – Geschriebene Sprache, in: Schriftlichkeit. Zeitschrift für Literaturwissenschaft und Linguistik 59 (1985), Göttingen, S. 9-35. Peter Koch / Sybille Krämer (Hrsg.), 1997, Schrift, Medien, Kognition. Über die Exteriorität des Geistes, Tübingen. Werner Kogge, 2008, Das tätige Auge des Denkens. Aspektwechsel bei Wittgenstein und Fleck, in: Birgit Griesecke (Hrsg.), Die Werkstätten des Möglichen, Stuttgart-Berlin-Köln (im Erscheinen). Werner Kooge, 2004, Lev Manovich – Society of the Screen, in: Alice Lagaay / David Lauer (Hrsg.), Medientheorien. Eine philosophische Einführung, Franfurt a.M. Sybille Krämer, 1996, Sprache und Schrift oder: Ist Schrift verschriftete Sprache, in: Zeitschrift für Sprachwissenschaft 15,1 (1996), Berlin, 92-112. Sybille Krämer, 2003, ‚Schriftbildlichkeit‘ oder: Über eine (fast) vergessene Dimension der Schrift, in: Sybille Krämer / Horst Bredekamp (Hrsg.), Bild. Schrift. Zahl, München. Sybille Krämer, 2005, ‚Operationsraum Schrift‘: Über einen Perspektivenwechsel in der Betrachtung der Schrift, in: Grube / Kogge / Krämer 2005, S. 13-32. Sybille Krämer, 2006, ‚Leerstellen-Produktivität‘: Über die mathematische Null und den zentralperspektivischen Fluchtpunkt. Ein Beitrag zu Konvergenzen zwischen Wissenschaft und Kunst in der frühen Neuzeit, in: Helmar Schramm / Ludger Schwarte / Jan Lazardig (Hrsg.), Instrumente in Wissenschaft und Kunst. Zur Architektonik kultureller Grenzen im 17. Jahrhundert, Berlin / New York. Sybille Krämer, 2008, Medium, Bote, Übertragung. Kleine Metaphysik der Medialität, Frankfurt a.M. Sybille Krämer / Horst Bredekamp (Hrsg.), 2003, Bild Schrift Zahl, München. George Lakoff, 1987, Women, fire and dangerous things. What categories reveal about the mind, Chicago. George Lakoff, 1988, Cognitive semantics, in: Umberto Eco / Marco Santambrogio / Patrizia Violi (Hrsg.), Meaning and Mental Representations, Bloomington. Bruno Latour, 1996, Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften, Berlin. Per Linell, 1982, The Written Language Bias in Linguistic, Linköping. Martina Löw, 2001, Raumsoziologie, Frankfurt a.M.

Operative Bildlichkeit

David Magnus, 2008, Schriftbildlichkeit der musikalischen Notation. Zu einer Piktoralität pragmatischer Prägung, Magisterarbeit in der Philosophie an der FU Berlin. Stefan Majetschak, 2005, Sichtvermerke. Über den Unterschied zwischen Kunstund Gebrauchsbildern, in: Stefan Majetschak (Hrsg.), Bild-Zeichen. Perspektiven einer Wissenschaft vom Bild, München, S. 97-121. Rudolf Maresch / Niels Werber (Hrsg.), 2002, Raum – Wissen – Macht, Frankfurt a.M. Michael May, 1995, Diagrammatisches Denken: Zur Deutung logischer Diagramme als Vorstellungschemata bei Lakoff und Peirce, in: Zeitschrift für Semiotik 17, 3-4 (1995), Tübinge, S. 285-306. Dieter Mersch, 2006, Visuelle Argumente. Zur Rolle der Bilder in den Naturwissenschaften, in: Sabine Maasen / Torsten Mayerhauser / Cornelia Renggli (Hrsg.), Bilder als Diskurse, Bilddiskurse, Weilerswist, S. 95-116. Peter Meusburger, 2006, Wissen und Raum – ein subtiles Beziehungsgeflecht, in: Heidelberger Jahrbücher 49, Heidelberg, S. 269-308. Joseph H. Miller, 1995, Topographies, Stanford. Barbara Naumann / Edgar Pankow (Hrsg.), 2004, Bilder - Denken. Bildlichkeit und Argumentation, München. Walter Ong, 1982, Orality and Literacy. The Technologizing of the World, London / New York. Charles Sanders Peirce, 1991, Naturordnung und Zeichenprozess. Studien für Semiotik und Naturphilosophie, Frankfurt a.M. Charles Sanders Peirce, 1933, Collected Papers of Charles Sanders Peirce, Bd. I-VIII, Cambridge, Mass. Platon 1998, Sämtliche Dialoge in 7 Bdn, Hamburg. Wolfgang Raible, 1997, Von der Textgestalt zur Texttheorie. Beobachtungen zur Entwicklung des Text-Layouts und ihren Folgen, in: Peter Koch / Sybille Krämer (Hrsg.), Schrift, Medien, Kognition. Über die Exteriorität des Geistes, Tübingen, S. 29-41. Hans-Jörg Rheinberger / Michael Hagner / Bettina Wahring-Schmidt (Hrsg.), 1997, Räume des Wissens. Repräsentation, Codierung, Spur, Berlin. Flint Schier, 1986, Deeper into Pictures. An Essay on Pictorial Representation, Cambridge [u.a.]. Karl Schlögel, 1999, Die Wiederkehr des Raums, in: Frankfurter Allgemeine Zeitung, 19.06.1999. Martin Seel, 2000, Ästhetik des Erscheinens, München / Wien. Edward W. Soja, 1989, Postmodern Geographies. The Reassertion of Space in Critical Social Theory, London / New York. George Spencer Brown, 1977, Laws of Form, New York. Werner Stegmaier, 1992, Schematismus, in: Historisches Wörterbuch der Philosophie, Bd. 8, Basel, S. 1246-1261. Christian Stetter, 1997, Schrift und Sprache, Frankfurt a.M. Christian Stetter, 2005, System und Performanz. Symboltheoretische Grundlagen von Medientheorie und Sprachwissenschaft, Weilerswist. Frederic Stjernfelt, 2000, Diagrams as Centerpiece of a Peircian Epistemology, Transactions of the Charles S. Peirce Society 36, 3 (2000), Buffalo, S. 357-384.

121

Sybille Krämer

Frederik Stjernfelt, 2007, Diagrammatology. An Investigation on the Boderlines of Phenomenology, Ontology and Semiotics, Dodreecht. Wolfgang Maria Ueding, 1992, Die Verhältnismäßigkeit der Mittel bzw. die Mittelmäßigkeit der Verhältnisse. Das Diagramm als Thema und Methode der Philosophie am Beispiel Platons bzw. einiger Beispiele Platons, in: Petra Gehring (Hrsg.), Diagrammatik und Philosophie, Amsterdam [u.a.], S. 13- 49. W.H. Walsh, 1957/58, Schematism, in: Kant-Studien 49, Berlin, S. 95-106. Sigrid Weigel, 2002, Zum ‚topographical turn‘: Kartographie, Topographie und Raumkonzepte in den Kulturwissenschaften, in: KulturPoetik Bd. 2, Göttingen, S. 151-165. Ludwig Wittgenstein, 1984, Werkausgabe in 8 Bänden, Frankfurt a.M. Richard Wollheim, 1982, Objekte der Kunst, Frankfurt a.M.

122

Stephan Günzel Bildlogik – Phänomenlogische Differenzen visueller Medien

Die Sprachanalogie der ikonologischen Betrachtung Nach einer ‚Logik‘ von Bildern zu fragen, erscheint auf Anhieb als paradoxes Unterfangen, da Logik zunächst nur sprachlich vorliegt – sei es als Binnenstruktur von Sätzen, sei es als Aufbau einer Argumentation. Eine Bildlogik würde demnach beinhalten, dass Bilder wie gesprochene Worte oder Texte angesehen werden, die eine (vernünftige) Struktur aufweisen. In dieser Weise hat sich die Ikonologie mit Aby Warburg und Erwin Panofsky Bildern angenähert und sie unter dem Blickwinkel von Sprachlichkeit oder vielmehr im Hinblick auf deren ‚Ausdruck‘ behandelt: Wie Panofsky es mit Ernst Cassirer formuliert, sollen Bilder dafür hinsichtlich des ‚symbolischen‘ Gehalts (ihrer Form) untersucht werden.1 Dieser Ansatz ist vor allem von dem Kunsthistoriker Max Imdahl dafür kritisiert worden, dass es sich bei der Ikonologie letztlich noch um Motivgeschichte handle – nur eben um eine, die nicht mehr das Bildsujet, sondern nun dessen Darstellungsweise in Ansehung ihrer betreffenden Stilepoche (als Ausdrucksgehalt) untersucht. Ein Beispiel, das sich bei Imdahl finde, und woran die Differenz zwischen den Fragerichtungen deutlich wird, ist Abb. 1: Giotto, Judaskuss (FreskoausGiottos Fresco der Gefangennahme schnitt), Arenakapelle, Padua (1304-06). Christi in der Arenakapelle zu Padua aus den ersten Jahren des 14. Jahrhunderts.2 Auf ikonographischer Ebene hat man es hier mit der Darstellung des Verrats am Gottessohn durch seinen Jünger Judas zu tun. Auf der von Panofsky sogenannten vorikonographische Betrachtungsebene 1

Einschlägig Panofsky 1998.

2

Vgl. etwa Imdahl 1994.

123

Stephan Günzel

wäre demgegenüber der Umstand zu konstatieren, das hier verschiedene zu sehen sind. Das ikonologische Moment des Bildes ist sodann, dass die Personen allesamt ‚menschlich‘ dargestellt werden und in einem homogenen Raum situiert sind, was dem Stil der Frührenaissance entspricht.3 Imdahl meint nun, dass dieser Befund noch nicht die eigentliche Bildlogik hervorhebt – diese sei vielmehr auf der Ebene zu finden, die er ikonisch nennt und mit der allein bildspezifische Ausdrucksmöglichkeiten fokussiert werden: Am vorliegenden Bild würde dies den Umstand betreffen, dass Jesus höher steht als der Verräter, wodurch der Verratene in seiner Niederlage triumphiert – ein Umstand, der durch die Linie, welche sich von dem schräg gehaltenen Knüppel in der linken Bildhälfte hinter dem Kopf von Christus und dem auf ihn gerichteten Finger in der rechten ziehen lässt, verstärkt werde. Damit zeige sich, dass Bildlogik nicht auf (quasi-)sprachliche Logizität reduziert werden könne: Denn das ‚In-der-Niederlage-erhoben-Sein‘ ist sprachlogisch eine contradictio in adjecto, bildlich hingegen konsistent präsentierbar. Behauptet Imdahl solcherart einen Unterschied der Bild- zur Sprachlogik, so analysiert jedoch nicht nur die Ikonologie, sondern auch noch die Ikonik Bilder in Analogie zur Sprache:4 Zwar werden Bilder bereits in Absehung von ihrer Referenz und dezidiert nicht mehr ‚ikonographisch‘ hinsichtlich einer möglichen Bedeutung der Bildmotive untersucht; aber ebenso wie die Ikonologie in Form eines stilistischen Verweises auf die kunstgeschichtliche Epoche nach der Bedeutung des Bildstils sucht, so fragt auch die Ikonik noch nach einer bildinternen Bedeutungen – oder vielmehr fragt sie in formallogischer Hinsicht nach dem Sinn des Bildes anstatt nach dessen Bedeutung. Auch dieses Verständnis bleibt daher dem Paradigma der Sprache verpflichtet: Der Bildsinn ist hier nichts anderes als mögliche Bedeutung ohne tatsächliche Referenz oder mit Gottlob Frege gesprochen: eine Aussage tritt in diesem Fall als „ungesättigte“ Funktion auf.5 Die Hinwendung der Ikonik zum Bildsinn anstelle der Bildbedeutung stellt somit zwar den Versuch dar, der Leistung des Bildes als einem synchronistischen Präsentationsmedium gerecht zu werden, die Weise, in der das Potential der Bilder analysiert wird, ist letztlich aber nicht bildspezifisch.

Überwindung des sprachlogischen Paradigmas 124 Das besondere Charakteristikum von Bildern ist unzweifelhaft deren Präsentationsfähigkeit. – Auch Imdahl beruft sich darauf, wenn er erläutert, das der Bildsinn von Giottos Tafelbild auf der gleichzeitigen Darstellung zweier sich widersprechender Tatsachen beruht. Doch wie lässt sich diese in ihrer Logik anders fassen als hinsichtlich des von Imdahl identifizierten Sinns oder der bildimmanenten Bedeutung? Eine Antwort findet sich bereits bei Kunsttheoretikern der

3

Panofsky 2006.

4

In dieser Tradition steht insbesondere auch die amerikanische Erneuerung der Ikonologie durch Mitchell 2008.

5

Frege 1990.

Bildlogik – Phänomenlogische Differenzen visueller Medien

Wende zum vorigen Jahrhundert: Alois Riegl und Konrad Fiedler,6 besonders aber Heinrich Wölfflin bemühten sich um eine Bestimmung von Artefakten im Allgemeinen und Bildern im Besonderen, insofern sie gerade keine Anleihe bei einem sprachanalogen Sinn nahmen, sondern bei einem physiologischen; nämlich dem spezifischen ‚Sinn‘, durch den Kunstwerke wahrgenommen werden, also bei Bildern durch das Sehen. Bereits also vor Warburg wird versucht die Logik des Bildes medienspezifisch zu fassen. Dies geschieht, indem Bilder hinsichtlich der Möglichkeit ihres Präsentierens beschrieben werden. Im Vordergrund stehen hierbei die Bilderscheinungen als solche, also etwas, das noch vor der durch Panofsky als Ausgangsbasis identifizierten ‚vorikonographischen‘ Ebene des Bildes liegt: Mit einem zeitgenössischen Begriff gesprochen handelt es sich um die ‚Gestalt‘, das heißt dem, wodurch die Bilderscheinung in ihrer ‚Gestaltung‘ in den Blick genommen werden kann. Die Logik des Bildes besteht nun diesem Ansatz zufolge darin, dass es sinnlich spezifische Grenzen gibt, innerhalb derer sich die Gestaltung von Bildern bewegt. Der Anspruch dieser formalen Ästhetik ist nicht gering und hebt im stärksten Maße auf Bildlogik ab, da es um die äußersten Möglichkeiten der Weise des Erscheinens geht: Also weder um einen speziellen noch um einen bildeigenen Ausdruck, sondern um absolute Möglichkeiten bildlicher Erscheinungen: Es handelt sich um eine transzendentale Logik und damit um die Bedingung der Möglichkeit von Bildlichkeit. Da es sich aber als solche um Sichtbarkeiten handelt, ist diese Logik wesentlich eine Phänomen-Logik.7 Wölfflin zufolge gibt es nach dieser etwa verschiedene Spektren, in denen ein jedes Bildphänomen eingeordnet werden kann: Er erwähnt fünf Paare – oder wie er sie nennt, fünf „Grundbegriffe“ von Bildlichkeit: linear und malerisch, flach und tief, geschlossen und offen, vielheitlich und einheitlich sowie klar und unklar.8 Insbesondere das erste Spektrum lässt sich leicht vermitteln; denn phänomenlogisch muss jede Bilddarstellung die Unterschiede, durch welche eine Gestalt erkennbar wird, entweder durch harte Übergänge (etwa durch eine Linienführung wie in einer Bauzeichnung vorliegt) oder durch weiche (in sich verlaufende Farbübergänge) darstellen. Während Bauzeichnungen am linearen Ende dieses Spektrums liegen, so befinden sich monochrome Bilder am gegenüberliegenden: In diesen sind die Übergänge derart ins Malerische gesteigert, dass es zu keiner Gestaltwahrnehmung mehr kommen kann. Monochrome Bilder markieren damit zugleich eine absolute Grenze von Bildern. Dieses Spektrum kann in erkenntnistheoretischen Begriffen auch als den Übergang von der Darstellung primärer Qualitäten zu derjenigen sekundärer Qualitäten bestimmt werden: Im linearen Bild gibt es (harte) schwarz/weiß-Differenzen im letzteren (weiche) farbliche Übergänge zu sehen. In noch stärkerem Maße als Wölfflins Nomenklatur treffen hierbei die Bezeichnungen von Alois Riegl zu, für den die Darstellung primärer Qualitäten auf haptischtaktile Aspekte der Wahrnehmung beruhen und sekundäre dagegen auf optischvisuellen. Wenngleich Wölfflin die transzendentale Logik der Bilderscheinungen unter Absehung von Sprachanaloga aufgedeckt hat, so ist doch auch diesem Ansatz eine 6

Riegl 1901 und Fiedler 1991.

7

Siehe hierzu grundlegend die Studie von Wiesing 2008.

8

Wölfflin 1915.

125

Stephan Günzel

126

Grenze gesetzt: die Bildlogik bleibt hier letztlich auf bestimmte Bildsorten beschränkt: Im Zentrum steht die realistische Malerei, deren Wandel von der Renaissance zum Barock sich Wölfflin vor allem widmet. Nicht in den Blick kommen dabei die verschiedenen Arten des Bildes oder die letztlichen Unterschiede zwischen ihnen. Damit ist nicht der Unterschied zwischen statischen und bewegten Bildern gemeint, wie sie zur Zeit Wölfflins bereits existent waren. Auch Filmbilder können noch hinsichtlich ihres ‚Realismus‘ mit Abb. 2: Technische Zeichnung einer Wölfflin beschrieben werden; vielmehr Dampfmaschine. ist die mediale Differenz, die sich mit Wölfflin nicht fassen lässt, eine, die zwischen statischen Bildern selbst verläuft: Die Rede ist vom Unterschied des Tafelbildes zu anderen statischen Bildern, insbesondere zur Karte und zur Fotografie. Denn nach Wölfflin würde zwischen einer Fotografie und einem Gemälde kein wesentlicher Unterschied bestehen: Beide können etwa malerisch oder linear sein. Ein Foto ist etwa dann malerisch, wenn die Aufnahme unscharf ist, und linear, wenn das abgeAbb. 3: J. M. W. Turner, Rain, Steam and bildete Objekt fokussiert wurde; ebenso Speed (1844). wie Renaissancegemälde in der Mehrzahl einen linearen Stil aufwiesen und barocke Bilder einen malerischen. Mit Wölfflin lässt sich daher nur das innere Spektrum realistischer oder gegenständlich darstellender Bilder fassen, nicht aber das äußere Spektrum. Dieses ließe sich freilich auch technisch erklären: Eine Fotografie wird auf ganz anderem Wege hergestellt als eine Gemälde. Damit wäre zwar den Medienunterschied erfasst, aber dieser ist wiederum nicht bildlogisch begründet. Die Frage, auf die im Folgenden eine Antwort gesucht wird, lautet daher: Gibt es überhaupt eine Möglichkeit, die mediale Differenz zwischen Bildarten phänomenlogisch zu fassen? Ein instruktiver Versuch hierzu findet sich bei dem Kunsthistoriker Ernst Gombrich, der dies in einem Vortrag von 1974 über Spiegelbild und Landkarte, – fast im Vorbeigehen – leistet.

Bildlogik – Phänomenlogische Differenzen visueller Medien

Die phänomenlogischen Grenzen des Bildmediums In seinem Vortrag weist Gombrich darauf hin, dass es keine Stadtpläne „von Wien im Mondlicht“9 geben könne. Mit dem Aperçu zielt er auf den Umstand ab, dass Karten wie andere Bilder zwar etwas darstellen können, aber sie dies nicht dadurch leisten, dass sie einen Gegenstand in seinem Erscheinungsäußeren zeigen: Dies betrifft nicht nur den Unterschied zwischen der Tages- und der Nachterscheinung, sondern auch den Umstand, dass der Grundriss eines Rathauses, eines Parkplatzes oder einer Schule nur selten in der Farbe der Fassade oder des Straßenbelags wiedergegeben wird. Das Rechteck mag zwar in der Karte in einem ähnlichen Rot gefärbt sein wie der Klinker, aus dem das zentrale Verwaltungsgebäude der Stadt bestehen mag, aber in dieser Farbe werden viele andere oder vielleicht gar alle Gebäudegrundrisse des Stadtplans eingefärbt sein. Kurz gesagt, werden Farben in Karten nicht dazu eingesetzt, um die Eigenschaft eines Gegenstandes aufzuzeigen, oder – in den Worten der Bildsemiotik Nelson Goodmans gesprochen – diese zu exemplifizieren, das heißt, sie im Bild beispielhaft und sozusagen in Form einer ‚Probe‘ vorzuführen.10 Die Farbgebung einer Karte ist vielmehr arbiträr und erfolgt zu Zwecken der Darstellung eines mimetisch nichtähnlichen Sachverhalts, das heißt einer auf Konvention beruhenden Denotation. In erster Linie richten sich die Darstellungen in Karten nach dem Grundsatz einer deutlichen Abgrenzung von Flächen zueinander. Dies gilt für Stadtpläne nun ebenso wie für physische und politische Kartenwerke. Für diese thematischen Karten reichen wenige distinkte Farben aus, um jede möglich Abgrenzungen von Gebieten kenntlich zu machen. Die einzelnen Farben sind hier nach Maßgabe eines starken Kontrasts gewählt und ermöglichen aufgrund ihrer Konventionalität eine eindeutige Abgrenzung.

127

Abb. 4: Weltkarte, politische und militärische Bündnisse (Stand 1988).

In physischen Karten wird demgegenüber zwar versucht, die Wahl der Farben auf möglichst natürlicher Grundlagen zu treffen, doch bleibt auch diese letztlich arbiträr: Zwar werden Blautöne für das Wasser oder Grüntöne für die Vegetation 9 10

Gombrich 1984a, 180. Goodman 1995, 59ff.; zur Repräsentation als Denotation bereits ebd., 15ff.

Stephan Günzel

gewählt, doch schon eine grüne Farbe kann in Landnutzungskarten nicht nur für den Wald oder eine Wiese stehen, sondern wird in topographischen Karten auch dazu verwendet, eine geringe Höhe über dem Meeresspiegel kenntlich zu machen. Im Gegensatz dazu sollen rot und braun eingefärbte Flächen einer höheren Erhebung anzeigen, also Berge, die in Wirklichkeit eine andere Farben haben werden als diejenige, mit der sie in der Karte angezeigt werden. (Dagegen ist Stein in Wirklichkeit zumeist grau.) Erst die Markierungen sehr hoher Lagen können in topographischen Karten wieder als mimetische Darstellungen eingestuft werden, insofern es sich um Gebiete mit Schneevorkommen oder Gletscher handelt.11 Die hierfür verwendete Farbe Weiß ist aber wiederum dem hellen Blau zum Verwechseln ähnlich, das für flache Meeresgebiete verwendet wird.

Abb. 5, 6: Legende für Höhen- und Tiefenangaben in physischen Karten.

128

Somit wird hier weder ausschließlich einer Konvention Folge geleistet noch handelt es sich um eine durchgängig mimetische Darstellung: Zum einen ist der Höhenunterschied zwischen Gletscher und Meer gewaltig, zum anderen wird das Wasser vor Ort nur selten farblos erscheinen, sondern eher grün, blau oder bräunlich. In sattem Blau hingegen wird in physischen Karten der tiefe Teil des Meeres wiedergegeben, der dem möglichen Betrachter in einem U-Boot als schwarz erscheinen dürfte. Der Logik der Farbgebung nach Höhenunterschieden folgend, wäre dieses Erscheinungsschwarz vielmehr die treffende Markierung einer großen Höhe. Der Grundsatz für Farbgebung in physischen Karten changiert hier also zwischen dem Zugeständnis an die Erscheinung abgebildeter Gegenstände und dem Ziel der Karte, dass in der eindeutigen Abgrenzung besteht. Somit gibt es also auch zwischen Karten Unterschiede: Es gibt Karten, die näher an dem Phänomen Bild oder auch dem Extremphänomen der Fotografie liegen als andere, die im phänomenlogischen Spektrum weiter davon entfernt sind. Wie der Titel von Gombrichs Vortrag Zwischen Landkarte und Spiegelbild ausdrückt, sind die beiden medialen Grenzphänomene des Bildes der Spiegel und die Karte; Bilder lassen sich also im Spektrum zwischen diesen beiden bestimmen. Da11

Während sich die farblichen Höhenabstufungen für Meer und Land bezüglich der zunehmenden Werte symmetrisch verhalten, ist die Binnendifferenzierung des Landes dazu aus folgendem Grund gegenläufig: „[D]ie beiden feiner differenzierte Skalen, also die mit Braun- und Grüntönen, [laufen] nicht jeweils in gleicher Richtung von dunklen zu hellen Tönen, sondern einander entgegengesetzt, damit der Wechsel der Grundfarben nicht mit dem stärksten Helligkeitskontrast zusammenfällt.“ Schmauks 1998, 13.

Bildlogik – Phänomenlogische Differenzen visueller Medien

mit versucht Gombrich anzugeben, was noch oder bereits nicht mehr als Bild gelten kann. Wiederum könnte man die beiden Typen daher als eine kunstgeschichtliches oder nun genauer als ein bildtheoretisches Grundbegriffspaar begreifen, welches ein Spektrum umfasst, innerhalb dessen sich alle Bilder einordnen lassen können. Bereits an anderer Stelle hat Gombrich darauf hingewiesen, dass er entgegen radikalkonstruktivistischen Positionen wie derjenigen Goodmans an einem Unterschied zwischen Bild und Karte festhält. Dazu grenzt Gombrich den Kode einer Darstellung von der Konvention ab: Letzteres bezieht sich auf die Voraussetzungen (Wissen, Einstellung und andere Hintergründe) des Rezipienten, während der Kode auf stilistischen Freiheiten des Bildproduzenten beruht.12 Eben hier setzt er an, wenn er Goodman zwar zugibt, dass Bilder ebenso wie Karten „Informationen“ vermitteln, aber die Menge und Qualität der Information, welche durch Karten vermittelt werden kann, größer bzw. höher ist als bei Bildern (er denkt hier vor allem an Fotografien): In einer Karte kann der Bildproduzent jede denkbare Information vermitteln oder sie auch nicht zur Verfügung stellen; bei einer Fotografie hingegen könne zwar der Fotograf Einfluss auf die Bildgestaltung nehmen oder etwa das Objektiv entfernen und das Licht ungesammelt auf den Bildträger treffen lassen, sobald er aber etwas aufnimmt, kann er dieses Etwas nur in den Grenzen der Gestalterscheinung, nicht aber in jeder beliebigen Weise abwandeln.

Das Bild zwischen Karten und Spiegel Nach Gombrich kann als ‚Bild‘ all das klassifiziert werden, was im Phänomenspektrum zwischen Karte(nbild) und Spiegel(bild) situiert ist. Zwar ist die Erscheinung im Spiegel streng genommen kein Bild im Sinne des Mediums, weil die Erscheinung im Spiegel nicht dauerhaft gespeichert werden kann, aber für Gombrich kommt es auf eine bestimmte Leistung des Spiegels an, die dieser mit Bildern gemein hat: die Wiedergabe einer Erscheinung.13 Genau genommen ist der Spiegel also kein Grenzphänomen, sondern liegt bereits – wie das Monochrom im Spektrum zwischen linear und malerisch – außerhalb oder auf der Außenseite der Gruppe all derjenigen Dinge, die Gombrich als Bild auffasst. Das Besondere am Spiegel ist, dass mit ihm das Aussehen eines Gegenstandes unmittelbar wiedergegeben wird. Ein Spiegel gibt alles wieder, was zur „optischen Welt“14 gehört. Bilder hingegen filtern Aspekte der optischen Welt bereits und geben nur bestimmte Merkmale wieder, was Gombrich etwas unspezifisch bisweilen als „Erscheinung“ bezeichnet. Innerhalb der Grenze zum ‚Nichtmehrbild‘ des Spiegels liegen nach Gombrich daher optisch generierte Fotos: Dieses vermitteln „die Erscheinung ei-

12

Vgl. Gombrich 1984b, 275ff..

13

In der Optik werden Phänomene wie Spiegelerscheinungen oder Lichtbrechungen auch als „virtuelle Bilder“ bezeichnet, die im Brennpunkt der gedachten Verlängerung der Lichtstrahlen liegen, so dass sich die Entfernung zum Ort der im Spiegel erscheinenden Objekte genau angeben lässt, ohne dass ein Bildträger vorhanden wäre.

14

Gibson 1973, auf den sich Gombrich hierbei bezieht, spricht selbst von „visueller Welt“.

129

Stephan Günzel

nes Aspekts dieser unserer Welt“15, der abhängig ist von der Beleuchtung, der Linse, aber auch dem Fotomaterial und letztlich dem Fotografen.

Erscheinung (primäre Qualitäten)

Erscheinung (sekundäre Qualitäten)

„optische Welt“

[Bild]

? Karte

Foto Spiegel

Abb. 7: Phänomenlogik des Bildes.

Die Karte bildet für Gombrich das Grenzphänomen am anderen Ende der Skala: Eine Karte präsentiert nach Gombrich kaum Erscheinungsmerkmale, wie sie der Spiegel wiedergibt, sondern vermitteln „Informationen über die feststehenden Züge eines Gebietes“16. Daraus ergibt sich eine mit der Polarität von Erscheinungswiedergabe und Informationsanzeige einhergehende Unterscheidung: Aus der Objektdarstellung in Karten lässt sich eine verlässliche Größenangabe entnehmen, bei Fotografien hingegen kann man die Größe der Objekte allenfalls intuitiv erfassen oder eingeschätzt werden. Fotografien können genau diese Vagheit der Größenbestimmung deshalb aber nutzen, um den Betrachter in die Irre zu führen. Etwa, indem ein kleines Objekt im Bildvordergrund neben einem großen Objekt im Hintergrund gezeigt wird und beide aufgrund fehlender Überlappung und einer schwer einschätzbaren räumlichen Situation im Bild gleich groß dargestellt werden.

130

Abb. 8: Henri Cartier-Bresson, Les Arènes

Abb. 9: Touristische Karte.

de Valence e (1933).

Während ein Spiegel ein Objekt einzig auf Grundlage sekundärer Qualitäten in subjektiver Perspektive wiedergibt, zeigt eine Karte Gegenstände aus objektiver Perspektive und reduziert auf ihre primären Merkmale. Im Sinne Gombrichs tendieren isometrische Bilddarstellungen daher in Richtung ‚Karte‘, zentralperspek15

Gombrich 1984a, 173.

16

Ebd., 180. – „Mit anderen Worten: Sie kümmern sich nicht um die ‚Erscheinung‘.“, ebd.

Bildlogik – Phänomenlogische Differenzen visueller Medien

tivische dagegen in Richtung ‚Spiegel‘. Faktisch kann es Mischungsverhältnisse geben, in denen eine Karte gestaltet sein kann: So sind touristische Stadtpläne oftmals keine rein planemetrischen Darstellungen von Grundstücksverhältnisse und Straßenzüge, sondern zeigen auch perspektivische Ansichten wichtiger Gebäude wie etwa eine Kirche oder ein Schloss. Der Tourist kann nun zurecht erwarten, an dieser Stelle auf ein Gebäude zu treffen, das eine ähnliche Farbe, vor allem aber die gleiche Gestalt besitzt wie die gezeigte Ansicht des Bauwerks im Stadtplan.17

Die Karte zwischen Diagramm und Bild Mit Gombrich lässt sich daher gegen Gombrich sagen, dass es mindestens zwei Möglichkeiten gibt, wie eine Karte des nächtlichen Wiens aussehen kann: Zu denken wäre zunächst an eine Karte, welche einzelne Gebäude gesondert und vielleicht gar in perspektivischer Ansicht hervorhebt zeigt, die nur nachts geöffnet haben, wie Bars oder Diskotheken. Gombrichs Diagnose würde darin treffen, dass diese Gebäude nicht so dargestellt sein werden, wie das Haus in der Nacht aussieht, sondern aus der Karte wäre die Information zu entnehmen, dass die Einrichtung tagsüber geschlossen hat und erst am späten Abend öffnet. Eine ganz andere Möglichkeit ist ein Satellitenfoto, das im Sonnenschatten aufgenommen wurde. Auch wenn es sich um eine Fotografie handelt, so ist die zugrunde liegende Projektion dennoch die Parallelprojektion, weshalb sich aus der Karte Informationen über die (relative) Größe der Objekte und ihrer Lage zueinander entnehmen lassen.18 Gombrichs Bestimmung der Karte dient der Eingrenzung des Phänomenspektrums Bild. Die Karte ist für Gombrich ein Grenzfall des Bildes. Die Karte kann jedoch auch eigenständig und in Entsprechung hierzu definiert werden: Liegt das Spektrum Bild auf einer Skala, deren eines Ende durch den Spiegel und deren anderes durch die Karte definiert wird, so kann die Karte als wiederum zwischen den beiden Extremen des Bildes (oder der Fotografie) auf der einen und des Diagramms auf der anderen Seite liegend begriffen werden. Diese Umstellung lässt sich als eine veränderte ‚Messgrundlage‘ der beiden Skalen begreifen: Mittels beider Spektren kann zwar der Grad einer Ähnlichkeit beschrieben, aber jeweils in einer anderen Hinsicht. Die Maßeinheit in Gombrichs Vorschlag ist die mimetische Entsprechung, welche im Falle des Spiegels größer ist als im Falle der Karte. Im zweiten Fall ist die Maßeinheit die strukturelle Entsprechung, welche im Falle eines Diagramms größer ist als im Falle eines Bildes.

17

Umgekehrt verlangen Schwarzweißfotografien nach Gombrich nach einer regelrecht ‚kartographische‘ Interpretation: So stellt sich der Betrachter eines Schwarzweißbildes nach Gombrich nicht vor, dass „die Bäume blau, die Mauern violett und die Weisen schwarz sind“, ebd., 171, sondern er muss wissen, welchen Farben die Graustufen entsprechen.

18

Papay bezeichnet Satellitenbilder (und Luftaufnahmen) als nur „kartenähnlich“, Pápay 2005, 292, da sie räumlich nicht objektiv oder nicht ‚verallgemeinert‘ seien. Dies trifft jedoch nur auf ‚unbehandelte‘, nicht entzerrte Aufnahmen zu. Im Rahmen der Orthofotografie lässt sich dies leicht bewerkstelligen. Auch die vorliegende Karte der Erde bei Nacht besteht aus zusammengesetzten und ‚bereinigten‘ Aufnahmen.

131

Stephan Günzel

Abb. 10: Earth Observation Group, Nighttime Lights.

Information

Erscheinung

[Karte]

Tabelle Diagramm

Bild Foto

Abb. 11: Phänomenlogik der Karte

132

Nach Charles S. Peirce haben wir in beiden Skalen aber eine Übereinstimmung als „Ähnlichkeit“ beschrieben, die auf „Ikonizität“ beruht:19 Ein „Ikon“ ist für Peirce ein Zeichen, mit dem aufgrund von Ähnlichkeit Bezug genommen wird.20 Die Ähnlichkeit kann aufgrund einer Ähnlichkeit der Erscheinung bestehen oder in der Übereinstimmung von Relationen: „Viele Diagramme ähneln im Aussehen ihren Objekten überhaupt nicht. Ihre Ähnlichkeit besteht nur in den Beziehungen ihrer Teile.“21 Das Diagramm ist solcherart ein Gradmesser der Ausprägung einer Karte, die durchaus bildhafte Elemente besitzen können (wie im Falle der touristischen Karte oder auch physiographische Karten), oder stärker diagrammatisch ausgerichtet sind (wie Karten, welche allein den Umriss der Länder beibehalten, die Fläche aber zur Darstellung nichträumlichen Faktoren nutzen). Der Kartographiehistoriker Gyula Pápay spricht in Anlehnung an Peirce deshalb von einer „dia19

Peirce 1983, 64ff.

20

„Der Begriff des Ikons ist weiter als der Begriff des Bildes. Ikon bezeichnet eine Art der Verwendung von etwas als Zeichen, die unter anderem auch mit Bildern praktiziert wird – aber eben auch mit Diagrammen.“, Wiesing 2005, 125.

21

Peirce 2000, 205 (MS 595 von 1895). – Vgl. auch Bogen / Thürlemann 2003, 9f.

Bildlogik – Phänomenlogische Differenzen visueller Medien

grammatischen Ikonizität“,22 die in vielen Karten anzutreffen sei. So setzen etwa die sogenannten „geometrischen Figurenkarten“ Werte in Flächengrößen um, die dann entsprechend der geographischen, aber unter völliger Absehung des Grenzverlaufs, der Topografie und der tatsächlichen Größe, Informationen repräsentieren; im Beispiel die Häufigkeit der Erwähnung eines Landes in Berichten der New York Times. Das Hauptkennzeichen von Diagrammen ist, dass sie Relationen unter Vernachlässigung der räumlichen Gegebenheiten darstellen: Je diagrammatischer eine Karte ist, desto größer die Abweichung gegenüber ihrer topographischen Repräsentation. Als Visualisierung von Werten können Diagramme aber auch etwas darstellen, das Abb. 12: Erwähnungshäufigkeit in der keinerlei räumliche Entsprechung hat, New York Times im Jahr 1987. wie etwa das Liniendiagramm der Körpertemperatur eines kranken in Form einer Fieberkurve, welche auf der X-Achse die Körpertemperatur im Zeitverlauf der Y-Achse anzeigt. Auch Tabellen können ihrer Funktion nach zur Gruppe der Diagramme gezählt werden, da sie Werte zueinander in Beziehung setzen. Aus bildtheoretischer Sicht sind Tabellen jedoch keine Diagramme, da es sich nicht um eine Visualisierung von Daten, sondern um die Anordnung ‚nackter Daten‘ handelt. (Die Tabelle verhält sich zur Karte daher wie der Spiegel zum Bild.) Eine topographische Karte ist insofern eine diagrammatische Darstellung, als sie in der Visualisierung eines Datensatzes besteht, der jedoch ebenfalls in Tabellenform niedergelegt werden könnte. Denkbar ist eine Liste, in der alle geographischen Koordinaten eines bestimmten Intervalls nach Länge, Breite und Höhe eingetragen sind. Jedes geographische Datum setzt sich demnach aus drei Teilinformationen zusammen, die aber ein gesondertes Datum der Erdoberfläche bezeichnen: Die Höhe eines geographischen Ortes, der durch die Angabe seiner Länge und Breite hinreichend bestimmt wird. Eine Karte ist vom Diagramm her beschrieben daher eine stetige Visualisierung eines diskreten Datensatzes. So schreibt Peirce, das mit geographischen Daten beschrieben wird, „wo irgend etwas, das auf der Erde beobachtet werden kann, zu finden ist“23. Eine Karte kann somit auch als das Bild einer Tabelle aufgefasst werden, weil in ihr die diskreten Werte einer Tabelle zusammengeführt sind und eine kontinuierliche Darstellung ergeben. Wiederum mit Goodman gesprochen besteht der Unterschied zwischen einer Tabelle und einer Karte also darin, dass erste digital (differenziert) ist, zweite analog (dicht).24 Eine

22

Pápay 2005, 93.

23

Peirce, Schriften II, 173. – Die Wissenschaft dieser Datenvisualisierung nennt Peirce etwas eigenwillig „Geik“, ebd., 172, um sie auf eine Ebene mit der Phonetik oder Linguistik zu stellen.

24

Vgl. Goodman 1995, 154.

133

Stephan Günzel

Karte wäre demnach ein analoges Diagramm,25 während die Tabelle ein digitales Diagramm ist.26

Abb. 13: Luftbildaufnahme der Wasser-

Abb. 14: Universal Transverse Mercator

burg Heldrungen im April 1999 (Orthofo-

Grid System.

tografie).

134

Die beiden Pole (Bild und Diagramm bzw. Tabelle), zwischen denen sich eine Karte definieren lässt, können gleichermaßen vor dem Hintergrund der beiden Methoden beschrieben werden, wie moderne Karten zustande kommen: Eine topographische Karte geht heute zu einem Teil auf fotografische Luftbildaufnahmen zurück, zum anderen auf trigonometrische Vermessungen (Geodäsie). Während ersteres vor allem zur Einordnung des geographischen Ortes hinsichtlich der Länge und Breite dient, ist letzteres für die Zuweisung der Höhenmarke wichtig. Systematisch gewendet, bietet die Luftbildaufnahme einen Anhalt, die Karte als Bild einzustufen, die Bodenvermessung hingegen, es als ein Diagramm oder dessen Visualisierung einzustufen. Je nachdem, welcher Art von Information eine Karte nun vermitteln soll, wird eher die eine oder die andere Möglichkeit genutzt werden.27 Aufgrund der fließenden Übergänge zwischen Diagramm und Bild als dem Spektrum, mittels dessen sich das Phänomen der Karte abstecken lässt, tendiert ein Diagramm, wenn es als Karte umgesetzt wird, dazu, Bild zu sein oder bildhaft zu erscheinen. Ein solcher Fall ist die Visualisierung des Napoleonischen Russlandfeldzuges durch den Bauingenieur Charles Joseph Minard, der seine Darstellung selbst als „figurative Karte“ bezeichnet. Mit dieser heute als „Informationsgrafik“28 bezeichneten Darstellungsform wird die Truppenstärke des napoleonischen Heeres im oberen Teil hinsichtlich dreier Aspekte diagrammatisch dargestellt: räumlich, zeitlich und quantitativ. (Gesondert kommt als vierter Aspekt darunter noch der 25

Buci-Glucksmann kann daher hinsichtlich Karten verkürzend behaupten, dass das Diagramm „wesensmäßig analog“, Buci-Glucksmann 1997, 71, sei.

26

Vgl. Goodman 1995, 163. – Ein ‚Flussdiagramm‘ liegt phänomenlogisch damit auf der Grenze zwischen analogem und digitalem Diagramm.

27

Winfried Nöth ist der Ansicht, dass eine Karte aufgrund beider genetischen Aspekte als ein indexikalisches Zeichen anzusehen sei, vgl. Nöth 1998, 35.

28

Bekanntheit erlangte die Karte durch die Arbeiten von Edward Tufte 2002, 41.

Bildlogik – Phänomenlogische Differenzen visueller Medien

Abb.15: Charles Joseph Minard, Carte figurative des pertes successives en hommes de l'Armée Française dans la campagne de Russie 1812-1813 (1861).

Temperaturverlauf hinzu, der dem Prinzip einer Fieberkurvendarstellung folgt.) Während die Truppenstärke und der Zeitverlauf einen nur indirekten topographischen Bezug aufweisen, insofern sie der räumlichen Lokalisierung anhängen, ist die Darstellung der räumlichen Dimension – als dem Hinweg (rot) von der russischen Westgrenze bis Moskaus und zurück (schwarz) – unmittelbar topographisch. Weist das Diagramm von Minard also mindestens einen Aspekt auf, der das Diagramm als Karte qualifiziert, so ist umgekehrt allen physischen Karten mindestens ein diagrammatischer Grundzug eigen: Aufgrund der Abbildung eines dreidimensionalen Körpers in einer zweidimensionalen Fläche müssen die primären Qualitäten der räumlichen Körper transformiert oder vielmehr deformiert werden: Gleich welches Prinzip in der Kartengestaltung angewandt wird, führt die Eigenschaft des Bildträgers dazu, dass im Rahmen der „zweiten“ Geometrie eine Veränderung erfolgt: Eine Karte kann winkeltreu oder flächentreu sein, nie aber beides zugleich. Entweder wird man die Karte zur Navigation auf See, zu Lande oder in der Luft verwenden wollen, und sich darauf verlassen können, dass eine auf der Karte eingezeichnete Linie auch einer geradlinigen Bewegung auf der Erdoberfläche entspricht, oder die Karte dient zur Veranschaulichung territorialer Verhältnisse und überrascht durch die Information, dass der afrikanische Kontinent nicht nur dreimal, sondern siebenmal so groß ist wie Europa – ein Umstand, den klassische Karten nach Mercator nicht gezeigt haben. Jedoch ist diese Karte wiederum unbrauchbar für die Navigation, gleich, wo man sich befindet. Das Diagrammtische aller Karten liegt also in deren „ersten“ Geometrie begründet: Jede Projektion ist als Projektion eine Transformation, die den repräsentierten Gegenstand verändert. Dies galt bereits für das perspektivische Bild; bei der Karte jedoch betrifft diese Modifikation eine Darstellung, die aufgrund der Reduktion auf haptische Merkmale der Objektwelt bereits als objektives Bild auftritt. Bei einer Fotografie würde niemand über die Perspektivität der Aufnahme erstaunt sein, weil die Erscheinungshaftigkeit zum Bild gehört. Anders gesagt, die Relativität, die Bilder aufgrund der Perspektivität des Standpunktes, von wo aus sie etwas als Bildobjekt

135

Stephan Günzel

zu sehen geben, besitzen, resultiert in der Karte aus einer Entscheidung darüber, was an Wissen vermittelt werden soll. Dies schließt nicht aus, dass auch ein Bild solcherart diagrammatische Eigenschaften besitzt, ganz im Gegenteil: die Bedeutungsperspektive ist eine Alternative zur Zentralperspektive, welche die Darstellung mit einer Interpretation versieht. Auch Karten besitzen unter dem Aspekt ihrer Diagrammatik solche Interpretationshilfen: Nur interpretieren sie nicht subjektive Gegebenheiten (Ansichten), sondern objektive (Wissen). Zusammenfassend kann also eine Erweiterung des von Gombrich eröffneten Spektrums vorgeschlagen werden: Bilder bewegen sich erscheinungslogisch zwischen den Eigenschaften einer spiegelbildlichen Reflexion (oder Fotografie) und einer kartographischen Repräsentation. Karten wiederum liegen zwischen dem Bild als dem Grenzphänomen auf der einen und dem Diagramm (ohne die Gruppe der Tabellen) auf der anderen Seite. Damit lässt sich nicht nur die Frage mit „Ja“ beantworten, ob und inwiefern es die Möglichkeit gibt, den Unterschied zwischen verschieden technisch reproduzierten und reproduzierenden Medien phänomenlogisch zu beschreiben, sondern auch zeigen, dass es eine nicht auf Sprachanaloga beruhende Herangehensweise gibt, die Logik der Bilder zu fassen.

136

Bildlogik – Phänomenlogische Differenzen visueller Medien

Abbildungsverzeichnis Abb. 1: Giotto, Judaskuss (Freskoausschnitt), Arenakapelle, Padua (1304-06), Wikipedia Abb. 2: Technische Zeichnung einer Dampfmaschine, Privatslg. Abb. 3: J. M. W. Turner, Rain, Steam and Speed (1844), http://www.ibiblio.org/ Abb. 4: Weltkarte, politische und militärische Bündnisse (Stand 1988), Diercke Weltatlas (Braunschweig: Westermann) Abb. 5, 6: Legende für Höhen- und Tiefenangaben in physischen Karten, Diercke Weltatlas (Braunschweig: Westermann) Abb. 7: Eigene Darstellung. Abb. 8: Henri Cartier-Bresson, Les Arènes de Valence (1933), http://www.magnumphotos.com/ Abb. 9: Touristische Karte, Privatslg. Abb. 10: Earth Observation Group, Nighttime Lights, http://www.artomatic.de/ nach Daten des National Geophysical Data Center (NGDC) Abb. 11: Eigene Darstellung. Abb. 12: Erwähnungshäufigkeit in der New York Times im Jahr 1987, Diercke Weltatlas (Braunschweig: Westermann) Abb. 13: Luftbildaufnahme der Wasserburg Heldrungen im April 1999 (Orthofotografie), Broschüre des Thüringer Kataster- und Vermessungsverwaltung, Luftbilder und Orthofotos im Landesluftbildarchiv (2002) Abb. 14: Universal Transverse Mercator Grid System, Peter Kohlstock, Kartographie. Eine Einführung (Paderborn u.a.: Schöningh 2004) Abb. 15: Charles Joseph Minard, Carte figurative des pertes successives en hommes de l'Armée Française dans la campagne de Russie 1812-1813 (1861), http://www.edwardtufte.com/

Bibliographie Steffen Bogen / Felix Thürlemann, 2003, Jenseits der Opposition von Text und Bild. Überlegungen zu einer Theorie des Diagramms und des Diagrammatischen, in: Alexander Patschovsky (Hrsg.), Die Bildwelten der Diagramme von Joachim von Fiore. Zur Medialität religiös-politischer Programme im Mittelalter, Ostfildern, S. 1-22. Christine Buci-Glucksmann, 1997, Der kartographische Blick der Kunst, Berlin. Konrad Fiedler, 1991, Studien über Hildebrands Problem der Form (Nachlasstext) in: Konrad Fiedler, Schriften zur Kunst, Bd. 2, München, S. 356-389. Gottlob Frege, 1990, Funktion und Begriff (1891) in: Gottlob Frege, Kleine Schriften, Hildesheim / Zürich / New York, S. 125-142. James J. Gibson, 1973, Die Wahrnehmung der visuellen Welt (1950), Weinheim. Ernst H. Gombrich, 1984a, Zwischen Landkarte und Spiegelbild. Das Verhältnis bildlicher Darstellung und Wahrnehmung (1975), in: Ernst H. Gombrich, Bild und Auge. Neue Studien zur Psychologie der bildlichen Darstellung, Stuttgart, S. 169-211.

137

Stephan Günzel

Ernst H. Gombrich, 1984b, Bild und Code. Die Rolle der Konvention in der bildlichen Darstellung (1981) in: Ernst H. Gombrich, Bild und Auge. Neue Studien zur Psychologie der bildlichen Darstellung, Stuttgart, S. 274-293. Nelson Goodman, 1995, Sprachen der Kunst. Entwurf einer Symboltheorie (1968), Frankfurt a.M. Max Imdahl, 1994, Ikonik. Bilder und ihre Anschauung, in: Gottfried Boehm (Hrsg.), Was ist ein Bild?, München, S. 300-324. William J. T. Mitchell, 2008, Bildtheorie, Frankfurt a.M. Winfried Nöth, 1998, Kartensemiotik und das kartographische Zeichen, in: Zeitschrift für Semiotik 20/1-2: Landkarten als synoptisches Medium, Tübingen, S. 25-39. Erwin Panofsky, 1998: Die Perspektive als ‚symbolische Form‘ (1927), in: Erwin Panofsky, Deutschsprachige Aufsätze, Bd. 2, Berlin, S. 664-757. Erwin Panofsky, 2006, Ikonographie und Ikonologie. Bildinterpretation nach dem Dreistufenmodell (1932/55), Köln. Gyula Pápay, 2005, Kartografie, in: Klaus Sachs-Hombach (Hrsg.), Bildwissenschaft. Disziplinen, Themen, Methoden, Frankfurt a.M., S. 281-295. Charles S. Peirce, 1983, Phänomen und Logik der Zeichen (Nachlasstexte), Frankfurt a.M. Charles S. Peirce, 2000, Semiotische Schriften, Bd. 1: 1865-1903, Frankfurt a.M. Alois Riegl, 1901, Spätrömische Kunstindustrie, Wien. Dagmar Schmauks, 1998, Landkarten als synoptisches Medium, in: Zeitschrift für Semiotik 20/1-2: Landkarten als synoptisches Medium, Tübingen S. 7-24. Edward R. Tufte, 2002, The Visual Display of Quantitative Information, Cheshire. Lambert Wiesing, 2005, Ornament, Diagramm, Computerbild – Phänomene des Übergangs, in: Diagramme und bildtextile Ordnungen. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik, 3, 1, Berlin, S. 115-128. Lambert Wiesing, 2008, Die Sichtbarkeit des Bildes. Geschichte und Perspektiven der formalen Ästhetik, Neuauflage, Frankfurt a.M. / New York. Heinrich Wölfflin, 1915, Kunstgeschichtliche Grundbegriffe. Das Problem der Stilentwicklung in der neueren Kunst, Basel.

138

Uli Richtmeyer Logik und Aisthesis – Wittgenstein über Negationen, Variablen und Hypothesen im Bild

Einleitung Das Thema der Negation im Bild lässt sich in der Forschung so schwer überblicken wie die Bildwissenschaften selbst.1 Das hat unter anderem mit den beiden beteiligten Begriffen zu tun. So wie Bilder etwa nach akademischen Disziplinen, geisteswissenschaftlichen Paradigmen und analytischen Terminologien2 differenziert werden können, weist auch der Begriff der Negation verschiedene Provenienzen auf: er reicht von der mathematischen und philosophischen Logik über verschiedene Begriffsentlehnungen3 bis hin zur expliziten „Bildlogik“.4 Aus Platzgründen möchte ich auf diesen Komplex nicht näher eingehen, sondern vielmehr direkt eine bestimmte Lesart der Bildnegation vorstellen, die sich wesentlich auf ausgewählte und einschlägige Zitate Ludwig Wittgensteins stützt. Dabei zeigt sich allerdings, dass Wittgensteins Werk den vermiedenen Überblick nahezu vollständig integriert – und an vielen Stellen sogar noch überschreitet. So verfügt es etwa über einen Pluralismus der Bildbegriffe, einen diskursiven wie ikonischen Negationsbegriff sowie zusätzlich exemplarische Bilderörterungen und Illustrationen. Kurzum, auch Wittgensteins vielschichtige Untersuchungen zur Bildlogik können nur reduziert wiedergegeben werden. So soll in einem ersten Schritt dargestellt werden, welche Formen der Bildnegation Wittgenstein seit seinen frühesten Tagebuchnotaten vertritt oder vielmehr 1

Überblicke über die Bildwissenschaften finden sich etwa bei Scholz 2004, Kap.1 und Scholz 2000; Wiesing 2005, Kap.1 u. 2; Sachs-Hombach 2001, 14 ff.; aber auch SachsHombach 2004.

2

Der anthropologische, semiotische und phänomenologische Ansatz teilen eine Begriffstrias: Das Dargestellte, die Darstellung und das Darstellende; Zeichenträger, Intension, Extension sowie Bildträger, Bildobjekt, Bildsujet.

3

Reinhard Brandt nennt die Bilder der künstlerischen Avantgarde „bildgewordene Bildnegation[en]“, Brandt 2004, 178; während Gernot Böhme den Bildbegriff unter Hinweis auf spezifische Bildnegationen für die Avantgarde sichern möchte. So spricht er von Bildern, „die nichts darstellen, nichts sagen, nichts bedeuten“ Böhme 2004, 7.

4

Ein Terminus der wiederum bevorzugt von Bildwissenschaftlern und Philosophen mit mathematischem Werdegang verwendet wird: Gold 1995, Mersch 2003, Schreiber 2004, 92.

139

Uli Richtmeyer

hinterfragt. Dabei geht es vor allem um den Nachweis eines thematisch roten Fadens, der die unterschiedlichen Erörterungen bis in die Spätphilosophie durchläuft: Während Wittgenstein das Wesen der Negation und ihre bildlichen Varianten aus den verschiedensten Perspektiven problematisiert, gelangt er regelmäßig auf den fundamentalen Gegensatz zwischen der bildkonstitutiven Rahmung und einer gerade noch bildlich zu nennenden Auslassung, die mit der Apostrophierung der zeigenden Materialität bereits ein Nicht-Bild verkörpert. Diese Relation möchte ich als die von Wittgenstein zwar durchgehend thematisierte, aber letztlich nicht explizierte bildlogische Negation aufweisen. In einem zweiten Schritt soll die These vertreten werden, dass schwache (konträre) Negationen wie die Variablen und Hypothesen in vorrangig schematisierten Bildern keineswegs bloß Resultat zeichenhafter Konventionalisierungen sind, sondern in ihren spezifischen Qualitäten auf die bildlogische Negation und damit die Logik des bildlichen Zeigens aufbauen. So verdankt sich die Mehrdeutigkeit der Bild-Variable binären Relationen innerhalb der jeweiligen Darstellungskonvention ebenso wie ikonischen Qualitäten, die der Funktion der Auslassung in der Bildnegation entsprechen. Ähnliches kann in einem dritten Schritt am Beispiel der Bild-Hypothese gezeigt werden, deren spezifische Wahrscheinlichkeit ebenfalls auf dem für das ikonische Zeigen fundamentalen Verhältnis von Rahmen und Auslassung gründet, insofern schematisierte Darstellungen über Auslassungen etwa die Perforation der Linie betreiben. Wittgensteins Überlegungen zur Bild-Hypothese beziehen sich zwar nicht durchweg auf das Phänomen der Auslassung im Bild, aber wo sie es tun, machen sie die Beziehung zur Bildnegation deutlich. Werden Variablen und Hypothesen im Bild untersucht und als Konsequenzen einer genuin bildlogischen Negation interpretiert, so lässt das Rückschlüsse auf das Verhältnis von Aisthesis und Diskursivität im Bild zu, das in der Zusammenfassung bilanziert werden soll. Es betrifft wiederum die epistemischen Qualitäten der Bilder und die bildlichen Qualitäten epistemischer Prozesse, da mit der Möglichkeit einer Differenzbildung qua Negation ein expliziter Rationalitätsstatus des Bildes postuliert wird.

Formen der Negation von Bildern 140 Wittgensteins Aussagen zum Problem der Negation im Bild erfolgen über seine Lebenszeit hinweg regelmäßig, allerdings ohne eine bestimmte Richtung besonders zu privilegieren. Selbst eine wegen ihrer Entschiedenheit häufig zitierte Aussage der frühen Tagebücher löst die Frage der Negierbarkeit des Bildes keineswegs, sondern öffnet sie vielmehr erst: „Kann man denn ein Bild verneinen? Nein. [...] Ich kann nur verneinen, dass das Bild stimmt, aber das Bild kann ich nicht verneinen.“5 5

Wittgenstein Tagebücher, 123 (26.11.1914). Wittgensteins Texte werden nach der Suhrkamp Werkausgabe und ihren Ergänzungen (z.B. Vorlesungen) zitiert. Ausnahmen bilden die Bemerkungen und das The Big Typescript, die nach der von Michael Nedo herausgegebenen Wiener Ausgabe zitiert wurden. Die Ziffer nach dem Titel gibt – wo nicht anders ausgewiesen – eine Seitenzahl wieder.

Logik und Aisthesis

Wittgenstein fächert das Thema der Negation des Bildes hier in zwei deutlich unterscheidbare Varianten auf: Das Resümee, wonach ich nur verneinen kann, dass das Bild stimmt, aber nicht das Bild selbst, betrifft den Status des Bildes im Bildgebrauch. Wenn das Bild in seiner Gebrauchsweise als Unzutreffendes exponiert wird, so findet eine pragmatische Bildnegation statt, die die Bildlichkeit des Bildes selbst allerdings nicht betrifft. Wo verneint wird, dass das Bild stimmt, handelt es sich um eine im Bildgebrauch erfolgende Ergänzung, die am sonst affirmativen Bild – denn „das Bild kann ich nicht verneinen“ – vorgenommen wird. Wittgenstein bestätigt somit die grundsätzlich affirmative Struktur des Bildes 6 und damit die These seiner Nichtnegierbarkeit, zeigt aber auch eine selbstverständliche Negation des Bildes im Kontext seiner Gebrauchsweisen auf. Die pragmatische Bildnegation Das Thema einer Negation des Bildes im Bildgebrauch variiert Wittgenstein bis in die Spätphilosophie der Philosophischen Untersuchungen: „Denken wir uns einen Boxer in bestimmter Kampfstellung. Dieses Bild kann nun dazu gebraucht werden, um jemand mitzuteilen, wie er stehen, sich halten soll; oder, wie er sich nicht halten soll [...].“7 Die Negation im Bildgebrauch bleibt dem Bild offenbar äußerlich. Wenn in Wittgensteins spätem Beispiel das Bild „dazu gebraucht“ wird, um „jemand mitzuteilen [...], wie er sich nicht halten soll“, so wird dabei nicht eigentlich das Bild negiert, auch nicht das bildlich Dargestellte, sondern es wird vielmehr mit dem Bild etwas negiert, das heißt eine illustrativ ratgebende Funktion des Bildes für bestimmte Handlungskontexte wird bestritten. Diese Negation mit dem Bild gilt aber nur situativ und temporär. Denn es ist durchaus möglich, dass der Boxer in einer bestimmten Dramaturgie des Kampfes die gezeigte Position vermeiden soll, in anderen Verläufen aber nicht, weil sie dort sogar empfohlen wird. Auch im Bildgebrauch lassen sich offenbar zwei Varianten der Negation unterscheiden: erstens im Bildgebrauch mit dem Bild negieren (also innerhalb einer Argumentation auf das Bild verweisen und dafür votieren, dass eine Handlung anders ausgeführt werden soll, als sie auf dem Bild zu sehen ist) und zweitens im Bildgebrauch das Bild negieren (also eine spezifische Handlung ausführen, um genau das zu tun, was das Bild nicht kann: sagen, dass es nicht stimmt), indem etwa ein mündlicher oder textueller Kommentar angefügt oder sogar eine graphische Durchstreichung des Bildes vorgenommen wird. Die bildpragmatische Negation mit Bildern lässt diese in ihrem Status unbeanstandet, denn sie ist eine Handlung, die das Bild bloß als Instrument verwendet.8 Die bildpragmatische Negation von Bildern betrifft direkt den Status des Bildes, denn sie ist eine Handlung, die das 6

„Erst Negationen erlauben Dichotomisierung und die Erzeugung von Differenzen. Dagegen fügen sich Bilder keiner strikten Differenzbildung: Sie haben eine prinzipiell affirmative Struktur.“, Mersch 2003, 34. Zum „affirmativen Charakter“ als Kennzeichen der „Bildlogik“ vgl. Mersch 2007.

7

Wittgenstein 1984, Philosophische Untersuchungen § 22, Nachtrag; vgl. Wittgenstein 2001, The Big Typescript, 172.

8

So etwa in der Gebrauchstheorie des Bildes, wo mit Bildern erklärt wird, „wie etwas nicht sein [...] oder nicht gemacht werden soll“, Scholz 1991, 126. Der entsprechend instrumentale Charakter des Bildes kommt bei Nyíri 2002 leider zu kurz.

141

Uli Richtmeyer

142

Bild zum Objekt hat. Für das Thema der bildlogischen Negation käme allenfalls die zweite Variante in Frage, sie ist näher am Bild, das heißt sie konfrontiert die affirmative Struktur des zeigenden Bildes mit Negationshandlungen, die das Bild selbst betreffen. Ihre Differenzierung soll nun anhand von weiteren WittgensteinNotaten unternommen werden. „Was ist der Unterschied zwischen den beiden Vorgängen: Wünschen, dass etwas geschehe – und wünschen, dass dasselbe nicht geschehe? Will man es bildlich darstellen, so wird man mit dem Bild des Ereignisses Verschiedenes vornehmen: es durchstreichen, es abzäunen, und dergleichen.“9 Dass der Unterschied zwischen den beiden Wünschen überhaupt „bildlich dargestellt“ werden kann, ist irritierend und zunächst nur metaphorisch zu verstehen: gemeint ist dann die Übersetzung von Position und Negation in ein sprachliches Bild. Beansprucht wird aber auch die buchstäbliche Lesart, denn statt irgendeines sprachlichen Bildes wählt Wittgenstein ausgerechnet ein solches, in dem ein Bild die Hauptrolle spielt. Statt an diesem Bild nun Position und Negation auszuweisen, führt Wittgenstein es in eine offene Aufzählung anscheinend bildpragmatischer Operationen, von denen die erste eine Negation des Bildes und die zweite eine bestätigende Hervorhebung meint, während der dritte Hinweis die Aufzählung für weitere, ungenannte Varianten des Bildhandelns öffnet. Die Operationen ‚Durchstreichen‘ und ‚Abzäunen‘ (durch einen Rahmen hervorheben) spielen selbst wiederum – obwohl sie nun Handlungen am Bild sind – auf Maßnahmen der Verbildlichung bzw. Bildkonstitution an. Ihr genuin ikonischer Charakter wäre deshalb vom diskursiven Kommentar oder beigefügten Text der Bildpragmatik systematisch zu trennen. Würden Durchstreichungen und Einkreisungen bloß als zeichenhafte Entsprechungen eines konventionalisierten Bildgebrauchs gelten, der als wort- oder textsprachlicher Kommentar an der diskursiven Logik des Sagens orientiert ist, käme etwa die bildkonstitutive Funktion der Rahmung zu kurz.10 Handlungen der Bestätigung und Verneinung von Bildern, die direkt dem Repertoire des Verbildlichens entstammen, machen die Grenze zwischen Bildgebrauch und Bild durchlässig.11 Bestimmte Handlungen der Bildnegation – wie die Durchstreichung – können als Imitationen genuiner Gesten der Bilderzeugung gelten. Solch eine implizite Ikonizität der Bildpragmatik würde wiederum eine implizite Bild-Negation bezeugen, die von der affirmativen Struktur des zeigenden Bildes gewöhnlich überdeckt bleibt und sich erst in der Bildpragmatik exponiert.

9

Wittgenstein 1984, Philosophische Untersuchungen, § 548; vgl. Wittgenstein 2001, The Big Typescript, 81.

10

Die Rahmung findet sich bei Wittgenstein oft an der Grenze zwischen Sprache und Bild, wobei das Bild z.B. eine deiktische Sprache illustriert: „Und das Einordnen ist, als ob man eine Linie um die Sache herum zieht, so wie man manchmal eine Linie um die Ergebnisse einer Berechnung zieht, um sie dadurch als endgültig zu kennzeichnen. Aber das lässt sie auch auffallen; es ist eine Weise, Nachdruck auf sie zu legen. Und das ist es, was der Ausdruck ´Das ist das` tut: Nachdruck auf das ´das` legen.“, Wittgenstein 1984, Braunes Buch, 250.

11

Hierzu liefert Peter Gold ein Beispiel, wenn er unterscheidet, ob die Durchkreuzung auf einem Verkehrsschild auflackiert oder mit Klebeband ausgeführt wurde, Gold 1995, 244.

Logik und Aisthesis

Anders verhält es sich mit der Operation der „Abzäunung“, denn sie bringt eigentlich erst das Bild in seiner affirmativen Gestalt hervor. Gleichwohl will Wittgenstein in einem Beispiel aus den Vorlesungen wissen, ob sich das Prinzip der Rahmung auch umkehren lässt, ob die Hervorhebung auch die eines Negats sein kann, womit die Rahmung auf ihre Eignung befragt wird, eine bildlogische Negation auszuführen: „Den Gebrauch des Negationszeichens festsetzen heißt bestimmen, was in die Klammern von ‚~ ( )‘ eingesetzt werden kann. [...] Nehmen wir an, ich würde einen Kreis zeichnen und sagen, überall im Universum dürfe es Äpfel geben, nur nicht in diesem Kreis – könnte das nicht dasselbe bedeuten wie ‚nicht Apfel‘?“12 Der gezeichnete Kreis meint eine Verbildlichung ohne Verbildlichtes. Er stellt nur noch das bildkonstitutive Prinzip der Rahmung als notwendige Hervorhebung von Bildlichkeit aus, sodass Wittgenstein mit seinem Beispiel letztlich fragt, ob eine Negation auf der Basis bildkonstitutiver Strukturen möglich ist. Der gezeichnete Kreis wird dabei zu einer anderen graphischen Formulierung eines konventionellen Negationszeichens, das auf zwei Bedingungen basiert: Einem Kommentar, der angibt, dass das im Kreis Befindliche als negiert verstanden werden soll, und einer wortsprachlichen oder graphischen Einsetzung des jeweiligen Negats. Das Beispiel zeigt jedoch schnell, dass die Konventionalisierung des gezeichneten Kreises keinen funktionierenden Ersatz des üblichen Negationszeichens und seiner Klammer ergibt. Geschieht die Einsetzung wie im Beispiel vorgeschlagen mündlich, benötigt sie nicht mehr die zeichenhafte Repräsentation eines Bildes, hier wird der Kreis zum unnötigen Zeichen zwischen negierendem Kommentar und kommentiertem Negat. Geschieht die Einsetzung des Negats (z.B. Apfel) graphisch, wird es vom Kreis positioniert, er verschafft dem Negat eine bildliche Präsenz, dessen affirmative Struktur nur nach dem Modell der bildpragmatischen Negation zu negieren wäre: Durch einen Kommentar, der sagt, dass es nicht stimmt, oder der in diesem besonderen Fall sogar hätte behaupten müssen, dass an der Stelle des Bild-Apfels kein Apfel ist, außerhalb des Kreises aber schon. (Analog der paradoxen Komplexität von Magrittes Pfeifenbild.) Bleibt der Rahmen aber konsequent leer wie die Klammer im Beispiel, wird er zu einem Meta-Ausdruck, der kein „Muster“ mehr rahmt,13 sondern nur noch auf das bildkonstitutive Element der Rahmung selbst verweist. Die Frage nach der Negierbarkeit des Bildes verschiebt sich dann zu der hypothetischen Anordnung der bildlichen Erzeugung eines Nicht-Bildes oder einer Bild-Auslassung. Das Beispiel thematisiert die Position im Bild als eine leere. Hätte Wittgenstein vorgeschlagen, alles was nicht im Kreis ist, existiert nicht, dann wären Kreis und Apfel ein Bild, dessen affirmative Struktur mit der pragmatischen Negation nicht in Widerspruch stünde.14 Wittgenstein zielt aber genau auf diesen Widerspuch ab: der leerbleibende Rahmen zeigt ein Nichts als ein Bild – und stellt damit sich selbst 12

Wittgenstein 1989, Vorlesungen, 335.

13

„Wenn man [...] sagt ´Ich bemerke die bestimmte Farbe dieser Wand`, so ist das, wie wenn man, sagen wir, ein schwarzes Rechteck zeichnet, das einen kleinen Flecken der Wand einschließt und dadurch jenen Flecken als ein Muster für weiteren Gebrauch bestimmt.“, Wittgenstein 1984, Braunes Buch, 271.

14

Das macht etwa ein analoges Bildbeispiel in Spencer Browns: Laws of Form, vgl. Lüdeking 2006, 152.

143

Uli Richtmeyer

als eine Grenze aus.15 Rahmung und Auslassung bezeichnen den größten Widerspruch, der sich in einem Bild fixieren lässt, weil sie an den Fundamenten des Bildes rütteln: Der Rahmen konstituiert das Bild, die Auslassung lässt es verschwinden. Anders ausgedrückt: in Wittgensteins Beispiel bleibt trotz größter Reduktion das Bildliche dominant. Darin kündigt sich eine grundsätzliche Eignung der vorgeschlagenen Meta-Form für das Thema der Bild-Negation an. Die Vorlesungen nennen ebenfalls ein Beispiel, in dem „wir, anstatt uns mit der Negation in einer Wortsprache zu befassen, sehen, wie sie in einer Bildersprache verwendet wird. Das heißt, anstatt das Wort „nicht“ zu gebrauchen, wollen wir ein Bild zeichnen.“16 Von der Bildersprache wechselt Wittgenstein hier zwar zu „körperlichen Zeichen“, allerdings um an ihnen ein Problem aller zeigenden Medien und damit auch des Bildes zu reflektieren: sobald wir konkrete Negationen vornehmen und nicht nur eine hypothetische Metaform entwerfen, entsteht das Problem, dass jenseits einer bildpragmatischen Negation kein solitäres Bild-Negat möglich ist. Das Bild kann scheinbar keine Darstellung negativer Tatsachen leisten.

144

Die Darstellung negativer Tatsachen im Bild Neben der grundsätzlichen Differenzierung zwischen der affirmativen Struktur des Bildes und der bildpragmatischen Negation wird das Thema der Negation des Bildes bei Wittgenstein noch auf eine dritte Weise variiert, wenn es um die Darstellung negativer Tatsachen im Bild geht: „Man könnte auch auf einem Bild eine negative Tatsache darstellen, indem man darstellt, was nicht der Fall ist.“17, heißt es in einer frühen Tagebuchnotiz von 1914 und eine folgende Notiz unterscheidet bereits diese darstellungslogische von der bildpragmatischen Negation: „Dass zwei Leute nicht kämpfen, kann man darstellen, indem man sie nicht-kämpfend darstellt, und auch so, indem man sie kämpfend darstellt und sagt, das Bild zeige, wie es sich nicht verhält. Man könnte mit negativen Tatsachen ebensogut darstellen wie mit positiven [...].“18 Wittgensteins frühe These ist, dass es eine bildliche Darstellung negativer Tatsachen gäbe, die sich von der bildpragmatischen Negation trennen lässt. So „sagt“ man nun nicht mehr, „das Bild zeige, wie es sich nicht verhält“, sondern „das Bild sagt gleichsam: ‚so ist es nicht‘“.19 Das Bild soll also die Negation selbst vornehmen können, wodurch die negative Tatsache eine bildliche Präsenz erhält, die „gleichsam“ in einem positiven Satz besteht. Allerdings wird Wittgenstein diese These der bildlichen Darstellbarkeit negativer Tatsachen nach den noch suchenden Bemerkungen der frühen Tagebücher später selbst revidieren und zu der Einsicht gelangen, dass man „das Bild nicht verneinen kann“. Die enge Verbindung zwischen Satz und Bild, die den frühen 15

„Wenn ich sagen will ‚er ist nicht in diesem Kreis ‘ so kann ich das freilich so darstellen, dass er irgendwo außerhalb ist, aber dann tritt der Kreis doch wieder in der Darstellung auf.“, Wittgenstein 2001, Bemerkungen, 56.

16

Wittgenstein 1989, Vorlesungen, 221.

17

Wittgenstein 1984, Tagebücher, 110 (30.10.1914).

18

Ebd. 112 (1.11.1914).

19

„Wenn ein Bild auf die vorhin erwähnte Weise darstellt was-nicht-der-Fall-ist, so geschieht dies auch nur dadurch, dass es dasjenige darstellt, das nicht der Fall ist. Denn das Bild sagt gleichsam: „so ist es nicht“, und auf die Frage „wie ist es nicht?“ ist eben die Antwort der positive Satz.“, ebd. 114 (3.11.1914).

Logik und Aisthesis

Wittgenstein an eine bildliche Darstellung negativer Tatsachen glauben lässt, wird nach dem Tractatus wieder aufgegeben, an ihre Stelle treten, wie z.B. später im Big Typeskript, vermehrt Gebrauchsaspekte des Bildes: „Ich kann ein Bild davon zeichnen, wie Zwei miteinander fechten; aber doch nicht davon, wie Zwei miteinander nicht fechten (d.h. nicht ein Bild, das bloß dies darstellt). ‚Sie fechten nicht miteinander‘ heißt nicht, dass davon nicht die Rede ist, sondern es ist eben davon die Rede und wird (nur) ausgeschlossen.“20 Die Darstellung negativer Tatsachen durch Bilder wird dann erst durch einschlägige Handlungen der Bildrezeption möglich, eine Einschätzung, die bis in die Philosophischen Untersuchungen wiederholt wird, wo es heißt, dass „ein gemaltes oder plastisches Bild [...] jedenfalls nicht hinstellen (kann), was nicht der Fall ist“.21 Wittgenstein ist jedoch damit nicht zufrieden, denn die Frage, ob es neben der nie ausgeschlossenen bildpragmatischen Negation auch eine darstellungslogische geben könnte, beschäftigt ihn weiterhin. So hebt er auch schon im Big Typeskript Bilder hervor, die zeigen sollen, „wie es sich nicht verhält“: „Es wird eine andere Art Porträt entworfen, durch ein Bild, was zeigen soll, wie es sich nicht verhält, als durch eines, was zeigt wie es sich verhält.“22 Diese „andere Art“ kann eigentlich nur darin bestehen, dass das Bild für die bildpragmatische Verneinung konzipiert wird, denn das besagte Porträt wird mit der Absicht „entworfen“, etwas nicht Zutreffendes zu zeigen. Andererseits muss für die bildpragmatische Negation keine besondere Bildeignung vorliegen, denn sie kann ja unterschiedslos von jedem Bild sagen, so soll es nicht sein. Zwar stört es nicht, wenn das Bild darstellungslogisch vorwegzunehmen versucht, was die bildpragmatische Negation dann expliziert, doch ist für den Vollzug der Negation in diesem Fall der nachgeordnete Kommentar entscheidend. Selbstverständlich werden sich die entworfenen Porträts also unterscheiden, aber da Wittgenstein kaum angeben kann wie, scheint eine rein bildlogische Negation jenseits von Bildpragmatik und intendierter Darstellungslogik nicht möglich zu sein. Eine frühe Tagebuchbemerkung zeigt nun eine Annäherung an dieses von Wittgenstein fortwährend umkreiste Thema auf, die einen graphischen Kontrast und eine Form der Bildkombinatorik betont: „Denk an die Darstellung negativer Tatsachen, durch Modelle etwa: So und so dürfen zwei Eisenbahnzüge nicht auf den Gleisen stehen. Der Satz, das Bild, das Modell sind – im negativen Sinn – wie ein fester Körper, der die Bewegungsfreiheit der anderen beschränkt, im positiven Sinne, wie der von fester Substanz begrenzte Raum, worin ein Körper Platz hat.

145

Abb. 1: Komplementäre Darstellung eines Rechtecks.

20

Wittgenstein 2001, The Big Typescript, 83. Das Beispiel gibt es auch zu küssenden Leuten, vgl.: ebd. Bemerkungen, 56.

21

Wittgenstein 1984, Philosophische Untersuchungen § 520; Wittgenstein 2001, The Big Typescript, 76.

22

Wittgenstein 2001, The Big Typescript, 82, identisch in ebd. Bemerkungen, 55.

Uli Richtmeyer

Diese Vorstellung ist sehr deutlich und müsste zur Lösung führen.“23 Zunächst verweist das ausgegebene Thema der „Darstellung negativer Tatsachen“ selbst hier wiederum auf einen spezifischen Bildgebrauch, der erläutert, dass auf einem bestimmten Bild Eisenbahnzüge zu sehen sind, die so und so auf den Gleisen stehen. Wittgenstein wechselt jedoch schnell das Thema, um eine gänzlich andere Lesart der Negation im Bild zu offerieren, die gerade durch ihre „Deutlichkeit“ überzeugen und „zur Lösung führen“ soll. Diese Deutlichkeit verdankt sich der angebotenen Illustration, die auch den Themenwechsel vollzieht. Denn die Darstellbarkeit negativer Tatsachen im Bild wird hier dadurch dokumentiert, dass sich das Thema der Darstellung negativer Tatsachen im Bild bildlich darstellen (illustrieren) lässt. Es handelt sich demnach auch nicht mehr um die Darstellung einer negativen Tatsache im Bild, sondern um die Darstellung der Bild-Negation selbst. Die These soll anhand einer Bildanalyse erläutert werden. Wittgenstein bedient sich in seiner Illustration einer Darstellungsweise aus dem technischen Zeichnen, bei der die offene Außengrenze der Schraffur in der linken Abbildung angibt, dass es sich um eine ausgewählte Partie eines größeren, durchbrochenen Körpers handelt, während die begrenzte Schraffur der rechten Abbildung einen rechteckigen Körper im Schnitt zeigt. Die Illustration betreibt also nicht einfach nur die wechselnde Hervorhebung der Konturlinie eines Rechtecks, bei der einmal dessen Außenfläche, einmal dessen Innenfläche betont wird, denn das hätte auch in einer einzigen Abbildung über verschiedene Schraffuren dargestellt werden können (s.u. die dritte Kreisdarstellung). Statt dieser flächigen Interpretation, die die Kontur des Rechtecks als Gemeinsamkeit beider Abbildungen auffassen würde, wählt Wittgenstein eine räumliche, die den Unterschied hervorhebt und trotz identischer Abmessungen zwei verschiedene Rechtecke postuliert. Denn sieht man die beiden Abbildungen als Darstellungen von „Körpern“ an, wie es der Text ja auch fordert, so wird nicht mehr die Geometrie des Rechtecks betont, sondern dessen Zugehörigkeit zu zwei verschieden dimensionierten Volumen, an die es als jeweilige Außenfläche gebunden ist. Es entsteht so die Differenz zwischen Hohlform und Vollform, wie sie der späte Wittgenstein noch im sogenannten Braunen Buch wiederholen wird:24

146 Abb. 2: Hohl- und Vollform.

So weist Wittgensteins Illustration aus den frühen Tagebüchern drei systematisch relevante Ebenen auf. Einerseits zeigt sie zwischen Hohlform und Vollform eine „vergleichbare“ Differenz, die als Antagonismus auftritt und in dieser schlichten 23

Wittgenstein 1984, Tagebücher, 119 (14.11.1914).

24

Die Bildlegende lautet: „i) wäre das Bild der Hohlform und der Vollform, bevor sie zusammengefügt werden. Wir sehen hier zwei Kreise und können sie vergleichen. ii) ist das Bild der Vollform in der Hohlform. Da ist nur ein Kreis, und was wir das Futteral nennen, betont ihn nur, oder wie wir manchmal sagten, legt Nachdruck auf ihn.“, Wittgenstein 1984, Braunes Buch, 261.

Logik und Aisthesis

Perspektive spricht das Beispiel im „negativen und positiven Sinne“ von Körpern. Die Relata sind selbstverständlich austauschbar, denn der Antagonismus besteht ja unabhängig davon, welche Seite nun positiv oder negativ genannt wird, sodass sich dieses Verständnis der Illustration offensichtlich noch an den Konventionen des technischen Zeichnens orientiert, in denen eine entsprechende Festlegung auf Hohlform und Vollform vorgenommen wird. Solche Darstellungskonventionen würden wiederum auf eine bildpragmatische, keine bildlogische Negation verweisen. Auf einer zweiten Ebene des Beispiels ist es Wittgenstein aber doch wichtig, dass nur die linke Abbildung als Darstellung negativer Tatsachen gilt. Sie ist nicht nur das negative Bild eines Körpers, sondern wird als negatives Bild selbst „wie ein fester Körper“ interpretiert, „der die Bewegungsfreiheit der anderen beschränkt“. Dem Bildrahmen werden damit jene Qualitäten zugeschrieben, die den Hohlkörper der technischen Darstellung auszeichnen würden, sodass seine Hohlform oder, wie es später heißt, das Futteral nur noch die Rahmung einer Leere vornimmt, bzw. in die Flächigkeit des Bildes übertragen, eines Bild-Nichts, einer Auslassung. Die Auslassung wird wie im Beispiel der Hohlform als eine Leere angegeben, die auch ontologisch vom Körper-Rahmen verschieden ist und sich als selbst nicht dargestelltes, sondern nur umgrenztes Nichts außerhalb seiner Struktur befindet. Auf dieser zweiten Ebene löst sich die Abbildung aus ihrem konventionellen Antagonismus und verweist, indem sie die Analogie zur technischen Körperdarstellung als Assoziationsmöglichkeit nutzt, zugleich aber auch überschreitet, auf einen bildinternen Antagonismus, der nun zwischen körperlich assoziierter Rahmung und einer bildhaften Leere besteht. Erst diese Relation soll als Beispiel für die bildliche Darstellung negativer Tatsachen dienen, so wie nur die linke Abbildung das Beispiel für ein Bild im „negativen Sinne“ ist. Aber auch für diese zweite Lektüre der Illustration stellt sich die grundsätzliche Frage, ob das negative Bild ohne den angefügten Kommentar verstanden werden kann. Auch ist nicht klar, ob der bildinterne Antagonismus nur den Kontrast zwischen Farbauftrag und fehlendem Farbauftrag meint, der der rechten Abbildung dann ja ebenfalls zugestanden werden müsste. Die Illustration kann noch auf eine dritte Weise ausgelegt werden, wenn man sich an den Umkehreffekten des graphischen Kontrastes orientiert. Die Unterscheidung zwischen Hohlform und Vollform lässt sich auch bei inverser Lesart der Darstellung beibehalten. Die Festlegung der Konvention regelt ja nur, dass jene Vertauschung zwischen ihnen nicht stattfinden soll, die durch einen elementaren Effekt bildlicher Darstellung immer möglich ist. Zweifellos kann aber auch die rechte Abbildung inversiv gesehen die gleiche Hohlform ergeben, wie vormals die linke, etwa wenn man in ihr ein weißes Blatt sieht, aus dem eine rechteckige Fläche ausgeschnitten wurde und das auf einem schraffierten Untergrund liegt. Umgekehrt kann auch die linke Abbildung der gleichen Inversion unterzogen werden, wenn die weiße Fläche des Rechtecks wiederum als ausgeschnittenes Papier verstanden wird, das auf einem schraffierten Untergrund liegt. Diese Überlegung impliziert aber eine systematisch bedeutsame Konsequenz: Zwar kann die Inversion zum Anlass einer Vertauschung von Hohlform und Vollform werden, d.h. sie würden den Abbildungen in umgekehrten Sinne zugeschrieben, aber Wittgen-

147

Uli Richtmeyer

148

steins entkonventionalisierte Interpretation der beiden Abbildungen als negatives und positives Bild lässt keine gleichartige Vertauschung zu. Während die Konvention der technischen Darstellung eine der beiden austauschbaren Abbildungen als Hohlform festlegt, ist Wittgensteins Interpretation dieser als eines negativen Bildes nicht disponibel. Eben das kann mit dem für die bloße Demonstration des leeren Rahmens ja überflüssigen Nebeneinander der beiden Zeichnungen erwiesen werden. Die rechte Abbildung zeigt zwar eine Vollform im Sinne der technischen Zeichnung, im Textkommentar spricht Wittgenstein sie jedoch bereits als Inversion der Hohlform an, also als eine kontrastierte Variante des negativen Bildes, was daran zu sehen ist, dass sich die beiden erläuternden Halbsätze fast identisch wiederholen. Beide gehen von einer Umgrenzung aus, wobei die subtile aber entscheidende Differenz nur darin besteht, dass der „feste Körper“ des negativen Bildes im Versuch seiner inversiven Variation zur „festen Substanz“ wird und die umschlossenen „anderen“ zu einem „begrenzten Raum, worin ein Körper Platz hat“. Im Textkommentar zeigt sich so bereits, dass die invertierte Vollform zwar als Hohlform gelten kann, dass sie dann aber die Qualitäten des negativen Bildes verfehlt. Wittgensteins Auffassung der linken Abbildung als eines negativen Bildes ist also eindeutig, ohne im Sinne der technischen Darstellung konventionell zu sein. Wäre sie nur konventionell, dann könnten Hohlform und Vollform, negatives und positives Bild gemäß der elementaren Kontraste graphischer Darstellungen verlustfrei vertauscht werden und ebenfalls die umgekehrte Anordnung konventionalisieren. Tatsächlich scheitert aber, wie in Wittgensteins Text-Bild-Beispiel demonstriert wird, die Inversion des negativen Bildes, während die der konventionalisierten Hohlform gelingt. Der demonstrierte Verlust ergibt sich dabei keineswegs aus der Helligkeit der Bildfläche oder dem fehlenden Farbauftrag im negativen Bild, denn die invertierte Hohlform der rechten Abbildung würde als weißes Papier mit rechteckiger Aussparung auf einem schraffierten Hintergrund ebenso funktionieren wie auf der Textur einer unbemalten Leinwand. Entscheidend ist vielmehr die strukturelle, ontologische oder, wie Wittgenstein sich ausdrückt, logische Zugehörigkeit des Rahmens, die nicht neutral aufgefasst wird, sondern grundsätzlich von zwei verschiedenen Seiten aus erfolgt: einmal als Setzung eines festen Körpers, der die Bewegungsfreiheit „der anderen“ beschränkt und das umschlossene Blattweiß als Auslassung analog eines Durchblicks und damit als etwas Anderes versteht wie beim negativen Bild, und andererseits im unvermeidlich positiven Sinne, den noch die invertierte Hohlform nicht ablegen kann, weil sie den Rahmen als Konsequenz einer besetzten Fläche zeigt, wo er das Resultat der Einnahme eines „Platzes“ durch einen Körper ist und sich durch die Zugehörigkeit zu deren Präsenz von der umgebenden „Substanz“ abgrenzt. Zwar kommt Wittgensteins negatives Bild nicht ohne den erläuternden Text aus, doch möchte er sich wesentlich von der Evidenz der Illustration leiten lassen: Die Möglichkeit der inversiven Lektüre, die mit dem Nebeneinander der Abbildungen besonders anschaulich zur Verfügung steht, soll präzisieren, was unter dem negativen Bild zu verstehen ist. Die inversive Deutung der Illustration enthält also den Ansatz einer Explikation, die tatsächlich jedoch vom Text vorgenommen wird. Mit der Illustration wird so letztlich behauptet, dass eine Bildfolge einen bildlichen Antagonismus formulieren kann, der den externen Kommentar der Bildpragmatik zumindest für die Negation überflüssig macht.

Logik und Aisthesis

Die Frage ist allerdings, ob die Verdoppelung der Kombination von Auslassung und Rahmen für die einfache Bildnegation ebenso wichtig ist wie für ihre Illustration als Thema. Wittgenstein erläutert in einer zeitnahen Formulierung auch die Bedingungen einer einfachen Bildnegation: „‚Nicht p‘ und ‚p‘ widersprechen einander, beide können nicht wahr sein; aber doch kann ich beide aussprechen, beide Bilder gibt es. Sie liegen nebeneinander. Oder vielmehr ‚p‘ und ‚~p‘ sind wie ein Bild und die unendliche Ebene außerhalb dieses Bildes (logischer Ort). Den unendlichen Raum außerhalb kann ich nur mit Hilfe des Bildes herstellen, indem ich ihn durch dieses begrenze.“25 Damit sind die Bedingungen für eine Negation im Bild formuliert. Erstens: die sich widersprechenden Bilder liegen (anders als beim Kontrast des Vexierbildes)26 nebeneinander. Zweitens: die Relation dieser Bilder ist der zwischen einem Bild und einer logischen Position jenseits des Bildes vergleichbar, einem Nicht-Bild oder Außerhalb des Bildes, das aber nicht als dessen räumliche Umgebung, also auch nicht nach dem Verhältnis von Vorder- und Hintergrund verstanden werden soll. Diese paradoxe Bestimmung wird im dritten Satz präzisiert. Es ist das, was mit dem Bild als die Grenze des Bildes aufscheint, sich der Verbildlichung entzieht, gleichzeitig aber erst mit dem Bild sichtbar wird und sogar nur „mit Hilfe des Bildes her[ge]stell[t]“ werden kann. Eben deshalb handelt es sich um eine bildspezifische und im eigentlichen Sinne bildlogische Negation, weil sie erst mit dem zeigenden Bild sichtbar werden kann.27 Bezogen auf die angeführte Zeichnung handelt es sich um die graphischen und bildkonstitutiven Elemente der Einrahmung und der Auslassung. Und mit ihnen gründet sich die bildlogische Negation auf die aisthetischen Qualitäten des Bildes. Wenn die bildlogische Negation im Verhältnis zwischen der affirmativen Struktur des Bildes, in diesem Fall der Rahmung und dem Nicht-Bild (der Auslassung) besteht, dann lässt sie sich zwar aufweisen, ihr fehlt aber offenbar die Vielgestaltigkeit der bildpragmatischen Negation. Sie mutet geradezu statisch an, weil sie keinen Wandlungen unterliegt und keinen Plural der Anwendung zuzulassen scheint. Damit ist auch gesagt, dass die bildlogische Negation als Meta-Form so „sinnlos“ ist wie der Begriff der logischen Kontradiktion im Tractatus. Sinn erhält die BildKontradiktion demnach erst, wenn das Verhältnis von Rahmen und Auslassung in die Konkretion bildlicher Darstellungen überführt werden kann. Hierfür finden sich bei Wittgenstein zwei bevorzugte Anwendungsfelder: die Bild-Variablen und die Bild-Hypothesen, die die bildlogische Negation auf verschiedene Weise variieren.

25

Wittgenstein 1984, Tagebücher, 117 (9.11.1914).

26

Dem entspricht Wittgensteins spätere Unterscheidung zwischen optischen und begrifflichen Aspekten. Während das bekannte Hase-Ente-Bild wie andere Vexierbilder die kontrastierenden Elemente in die gleiche graphische Linienführung verlegt, befinden sie sich etwa beim Doppelkreuz nebeneinander.

27

Der Widerspruch zwischen Rahmen und Auslassung ist nicht „gleichberechtigt“: „Zwar lassen sich Widersprüche malen oder abbilden, wie das ganze Thema der Paradoxie von Figur und Hintergrund beweist, doch stets so, dass entweder beide Momente des Widerspruchs gleichberechtigt und affirmativ zu sehen sind, oder in Form einer Vexierung, eines Aspektwechsels [...].“, Mersch 2003, 34.

149

Uli Richtmeyer

Auslassung und Bild-Variable

150

Beim Thema der Variabilität und Hypothetizität des Bildes werden dem zeigenden Bild scheinbar nur diskrete Darstellungsansprüche der diskursiven Logik abverlangt. Man kann Variablen und Hypothesen dabei als schwache Negationen interpretieren, die nicht das Bild, aber doch das bildlich Dargestellte negieren, insofern sie in ihm bestimmte Positionen abschwächen und zurücknehmen. So soll die Bild-Variable Mehrdeutigkeit anzeigen, die Bild-Hypothese Wahrscheinlichkeit ausdrücken. Ich möchte nun zeigen, dass solche schwachen Negationen in den Beispielen Wittgensteins auf der oben dargestellten bildlogischen Negation gründen, sodass in ihnen letztlich nicht die Diskursivität, sondern die Ikonizität dominiert. Im Zusammenhang mit seinen Überlegungen zum „unvollständigen Bild“ schildert Wittgenstein entsprechend variable Auslassungen, wobei noch zu berücksichtigen ist, dass sie bei diesem und den folgenden Beispielen nicht mehr direkt mit dem Rahmen, sondern einem figurativen Bildarrangement kontrastieren: „Wenn ich das Gesichtsbild nicht vollständig beschreibe, sondern nur einen Teil, so ist es offenbar, dass in der Tatsache gleichsam eine Lücke ist. Es ist offenbar etwas ausgelassen. Wenn ich ein Bild dieses Gesichtsbildes malte, so würde ich die Leinwand an gewissen Stellen durchschauen lassen. Aber die Leinwand hat ja auch eine Farbe und füllt den Raum aus. Nichts könnte ich nicht an der Stelle lassen, wo etwas fehlt. […] Heißt das, dass die Beschreibung den Raum, soweit sie ihn nicht mit Konstanten erfüllt, mit Variablen erfüllen muss?“28 Für das Thema der schwachen Negation im Bild formuliert Wittgensteins Beispiel zwei Aspekte von systematischer Relevanz. Erstens: die Umstände, die zum Einsatz einer Bild-Variablen führen können, werden hier innerhalb einer Suchbewegung aufgespürt. Das ist ein anderes (und hier auch heuristisches) Vorgehen als jenes, wonach Bilder in wissenschaftsrelevanten Darstellungen nach einem vorliegenden Katalog von konventionalisierten Zeichen definiert werden. Das heißt, Wittgenstein schildert hier nicht den Fall, wonach einfach bestimmte Darstellungsweisen (wie Auslassungen) unter der Angabe geeigneter Interpretationsregeln als bildlicher Ausdruck von Variabilität eingesetzt werden.29 Dies führt zu dem zweiten, systematisch relevanten Aspekt des Beispiels. Der Wunsch nach einer bildlichen Darstellung von etwas Nicht-Beschreibbaren wird nicht durch die NeuKonzeption eines bildlichen (oder nahe liegend: zeichenhaften) Darstellungsmittels realisiert. Die Auslassung wird nicht einmal aus Verlegenheit „gewählt“, vielmehr setzt an ihrer Stelle der Vorgang der Darstellung vorübergehend aus. So entsteht der größtmögliche Kontrast der zu bildlichen Darstellungen denkbar ist: das Nicht-Bild, das hier zugleich das Bild und einen im Bild sichtbaren „logischen Ort“ außerhalb des Bildes meint.30 Dabei kann die Auslassung nur unter Einschränkun28

Wittgenstein 1984, Philosophische Bemerkungen, 115.

29

Wie z.B. Peter Gold „negierte Bilder“ nur unter strikter Einhaltung „eines zuvor ausdrücklich festgelegten Interpretationsrahmens“ für möglich hält, Gold 1995, 245.

30

Waldenfels führt in einem Beispiel aus der Malerei an, wie das bildkonstitutiv Unsichtbare einer im Bild sichtbaren Auslassung „gleichen“ kann: „Das Ereignis des Sichtbarwerdens ist der blinde Fleck, der nicht selber im Blickfeld auftaucht und ins Bild kommt und der doch nicht nichts ist. Das Unsichtbare gleicht dem Mont Sainte

Logik und Aisthesis

gen als der „logische Ort“ des Nicht-Bildes gelten, weil sie selbst im Bild liegt und durch eigene Färbung und Materialität unvermeidlich an dessen Zeigen teilnimmt. Allerdings erhält die Variable ihre adäquate Position zu Recht innerhalb des Bildes, denn eine Randposition würde den grundsätzlichen Widerspruch an dem sie partizipiert aufheben, weil sie die Auslassung eindeutiger den Kriterien der Zugehörigkeit oder Unzugehörigkeit unterwirft.31 Nur im Bild nimmt die Auslassung die für Variablen erforderliche und genuin ikonische Mehrdeutigkeit an. Im Begriff der Bild-Variable überschneiden sich somit zwei Bestimmungen: Einerseits ist sie ein konventionalisiertes Element, das sich in einem Gegensatz zur Konstanten befindet und ihr gegenüber Mehrdeutigkeit symbolisiert. Gleichzeitig gelangt sie aber nicht einfach durch den souveränen Gebrauch der bildlichen Darstellungsmittel ins Bild, vielmehr partizipiert sie an den Bedingungen der Bildkonstitution. Anders als die Variable in einer mathematischen Gleichung verdankt sich die Mehrdeutigkeit einer Bild-Variablen nicht nur den Konventionen einer spezifischen Symbolisation, sondern ebenfalls der Logik jener Bedingungen, die das bildliche Darstellen ermöglichen: etwa die Beteiligung einer zeigenden Materialität. So profitiert die Bild-Variable letztlich davon, dass sie sich als Auslassung ebenso wenig vollständig in die Darstellungslogik des Bildes integrieren lässt, wie sie einer bloßen Konventionalisierung von Darstellungsmitteln entstammt. Der Charakter der Variabilität ergibt sich im Bild aus diesem Changieren zwischen diskursiven und ikonischen Strukturen. Das Thema der Bild-Variable kennt Abstufungen, die genau diesen Doppelcharakter unterschiedlich betonen. So führt Wittgenstein ein ähnliches Beispiel unvollständiger Bilder aus dem Bereich der Plastik an: „Ich könnte ja z.B. die Gesichtsbilder plastisch darstellen, etwa in verkleinertem Maßstab durch Gipsfiguren, die ich nur so weit ausführe, als ich sie wirklich gesehen habe, und den Rest etwa durch eine Färbung oder Ausführungsart als unwesentlich bezeichne.“32 Dieses Beispiel hebt an der Auslassung die Darstellungsabsicht hervor und suggeriert damit eine freie Verfügbarkeit über ihre Variabilität, die durch „Färbung oder Ausführungsart“ zusätzlich stilisiert wird, wodurch die Auslassung als Variable gemalt würde. Die Darstellungsabsicht wird ebenfalls dadurch betont, dass die Auslassung notwendig in einem figurativen Arrangement oder eine Bildumgebung erscheint, die ihr den Charakter vollständiger Intentionalität verleiht. So etwa bei einem „Porträt, in dem z.B. die Augen nicht gemalt wurden.“33 Aber auch dort, wo bereits das farbige Nichts auf der bemalten Leinwand den Eindruck einer intendierten Darstellung erweckt. Eine Variable wird die Auslassung somit deshalb, weil sie eine Farbe aufweist und damit an der farbigen Malerei teilnimmt, ob sie jedoch tatsächlich der Darstellung angehört und ihrer Intention folgt, bleibt fraglich.

Victoire, den Cézannes Malerei umkreist und am Ende mehr und mehr ausspart. Die weißen Flächen auf der Leinwand gehören zum Bild wie die Stille zum Klang.“, Waldenfels 2004, 66. 31

Das wäre im Wittgenstein-Kontext ausführlicher zu untersuchen, man denke nur an die Unzahl praktischer Versuche (Photographie, Architektur) und theoretischer Einlassungen zum Thema der „unscharfen Ränder“.

32

Wittgenstein 1984, Philosophische Bemerkungen, 97.

33

Ebd. 115.

151

Uli Richtmeyer

152

Das wird deutlich, wenn man von den Beispielen aus der Malerei zu denen monochromatischer und speziell nicht-figurativer, technischer Zeichnungen wechselt. Da Farbe hier nur den monochromatischen Farbauftrag der Linie meint, ist die ausgelassene Fläche vom zeichnerisch definierten Hintergrund farbig nicht mehr zu unterscheiden. Flächen ohne Farbauftrag könnten in Zeichnungen die Oberfläche eines Körpers, den benachbarten Hintergrund, eine Fläche, die ein weiteres Objekt verdeckt, die neutrale Zeichenfläche und auch ein Nichts im Sinne einer Auslassung bezeichnen. Das Nichts ist auch hier nicht nur eine Variable innerhalb einer intendierten Darstellungslogik, sondern zugleich Hereinnahme der Grenze des Bildes – also eine Form jener Negation, von der Wittgenstein in den frühen Tagebuchaufzeichnungen gesprochen hatte. Und dieser diskursiv / aisthetische Doppelcharakter der Auslassung lässt sich nicht reduzieren: „Denken Sie sich ein Porträt, in dem ich den Mund weglasse, so kann das zweierlei bedeuten: erstens, der Mund ist weiß wie das blanke Papier. Zweitens: wie immer der Mund ist, das Bild ist immer richtig.“34 Das Bild ist immer richtig, weil sich auch die Weglassung im Bild befindet und somit an dessen affirmativer Struktur partizipiert. Damit bedeutet das figurative Arrangement die Position Mund. Gleichwohl zeigt das blanke, unbezeichnete Papier aber noch sich selbst und holt damit eine Zweioder Mehrdeutigkeit ins „richtige Bild“, die sich der Sichtbarkeit der Grenze des Bildes verdankt. Dem entspricht Wittgensteins Schwierigkeit, seine übersichtliche dichotomische Anordnung durchzuhalten, weshalb sie in einen augenscheinlichen Widerspruch führt: entweder kann das Bild „zweierlei bedeuten“ oder die zweite Bedeutung schließt die erste mit ein. Der Widerspruch lässt sich nicht aufheben, denn er entstammt der Mehrdeutigkeit des Bildbeispiels: zwar ist jedes Bild immer richtig und damit stellt die zweite Option eine umfassendere Aussage dar, die auch die erste integriert, gleichwohl ist das „blanke Papier“ im Bild auch ein Nicht-Bild, das die Trennung des Bildes in „zweierlei“ Bedeutungen rechtfertigt. Als Bild-Variable steht die Auslassung in einer binären Relation, die sich aus dem Kontrast zum Farbauftrag ergibt und verfügt zugleich über eine Mehrdeutigkeit die aus der Bildkonstitution entstammt. Grundsätzlich stellt sich dabei die Frage, ob das Nichts etwa in stark konventionalisierten technischen Darstellungen seine aisthetische Mehrdeutigkeit verlieren kann und ob umgekehrt die Auslassung als rein konventionelles Element noch Variabilität aufweist. Wittgensteins Beispiel zu Auslassungen in technischen Zeichnungen spricht das Problem an: „Was heißt es, wenn ich, eine Zeichnung in der darstellenden Geometrie betrachtend, sagte: ‚Ich weiß, dass es hier weitergeht, aber ich kann es nicht so sehen‘? Heißt es einfach, dass mir die Geläufigkeit des ‚Auskennens‘ fehlt? Nun, diese Geläufigkeit ist gewiss eines unserer Kriterien. Das Kriterium ist eine gewisse ART des sich Auskennens. […]“35 Die hier beschriebene Differenz verläuft zwischen Wissen und Sehen. Ohne das vertraute Sprachspiel (Bildspiel)36 sehe ich im Bild etwas, das sich dem Wissen 34

Wittgenstein 1984, Wiener Kreis, 40.

35

Wittgenstein 1984, Letzte Schriften zur Philosophie der Psychologie § 649; vgl. ebd., Philosophische Untersuchungen, 534 f.

36

Die Frage, ob Wittgenstein unter Sprachspielen auch „Bildspiele“ versteht, vgl. Scholz 2004 wird in der Forschung kontrovers diskutiert. Die Einführung des Sprachspielbegriffs im Braunen Buch geht allerdings ganz selbstverständlich davon aus, dass verschiedene Zeichensprachen als Sprachspiele gelten: „Wenn wir in der Schule

Logik und Aisthesis

entzieht und es überbietet. „Weiß“ ich das Dargestellte jedoch, weil ich die Darstellungskonventionen kenne und sie anwenden kann, so stimmt meine „Bildlektüre“ mit dem Sichtbaren nicht überein, weil sie dieses reduziert. Ich sehe dann immer noch mehr in der Auslassung als mir die Bestimmungen der Konvention vorgeben, weil das Sehen am Bild doch mehr und anderes wahrnimmt, als bloß wissend gedeutet werden kann. Die Werkzeichnung konventionalisiert aber nur einen Effekt, der monochromatischen Zeichnungen wesentlich ist – weshalb auch figurative Darstellungen diesen Konflikt entstehen lassen: „Wenn ich in einem Bild ein Tier von einem Pfeil durchbohrt sehe, weiß ich nur, dass die Pfeilspitze mit den Federn zusammenhängt, oder sehe ich’s – Ich verhalte mich zu diesen Stücken, wie zu einem Pfeil, d.h.: ich sage nicht nur, als wär’s die Zeichnung einer Maschine, die ich entziffere, ‚Diese beiden Stücke gehören zusammen, es geht hier ein Stab durch‘; sondern, gefragt ‚Was sahst du auf dem Bild?‘, antworte ich gleich: ‚Ein Tier von einem Pfeil durchbohrt.‘ “37 Auch die figurative Zeichnung kann mit dem Nichts des Blattes bedeuten und es als Darstellungsmittel einsetzen. Am Beispiel des vom Pfeil durchbohrten Tieres, das Wittgenstein oft wiederholt, geschieht die Darstellung durch das Nichts besonders raffiniert. Indem die Auslassung die Linie des Pfeils unterbricht, zeigt sie sich nicht nur als ein den Körper eines Tieres bedeutendes Nichts, sondern ebenfalls als ein visueller Ort, an dem ein ebenfalls nicht zu sehender Pfeil verläuft. Das Nichts multipliziert hier seine Darstellungskapazität, weil es an einer Bildstelle zugleich Mehreres bedeutet. Das Nichts des Blattes, das ohne eingezogene Linie einfach ein Blattweiß oder Bildträger wäre, wird durch den Farbauftrag der Linie zum Linien-Negat – das heißt es erhält die Funktion eines Kontrastmittels zugewiesen, das durchaus in einer binären Differenz erscheint. Innerhalb dieser gehört es aber gleich doppelt der Darstellung an: als konturierte Figur und abgegrenzter Hintergrund. So erhält das Nichts in der monochromatischen Zeichnung zugleich eine funktionale Mehrdeutigkeit, die das linear Dargestellte und die Mehrdeutigkeit der Linie übersteigt und ihre Herkunft in den Bedingungen bildlichen Zeigens hat. Anders ausgedrückt: Das Zeigen des Bildes kann als Mittel der Negation nur das Nicht-Zeigen beanspruchen, das nicht im Bild möglich ist, sondern nur dort, spezielle technische Zeichensprachen lernen, wie den Gebrauch von Diagrammen und Tabellen, darstellende Geometrie, chemische Formeln, etc., lernen wir weitere Sprachspiele.“, Wittgenstein 1984, Braunes Buch, 122; vgl. Wittgenstein 2001, The Big Typescript, 145. 37

Wittgenstein 1984, Letzte Schriften zur Philosophie der Psychologie § 641. Die Variation des Zitats in den Philosophischen Untersuchungen, 535, 537; wandelt das Blattweiß möglicherweise in Schwärze um, wenn es das Beispiel als Silhouette imaginiert, am Aufbau und der Fragestellung ändert sich dadurch aber nichts. Tangiert wird nur der Begriff des Bildträgers, denn wenn das als Positiv oder Negativ ausgeschnittene Papier jeweils die Position des Farbauftrags einnimmt, dann wird die ausgeschnittene Auslassung zu einem Nichts, dem auch die Materialität eines Bildträgers fehlt, gleichwohl es seine Mehrdeutigkeit beibehält: im Durchblick der Silhouette kann die Leere Tierhals und Pfeil zugleich bedeuten und trotzdem auch Nichts sein. Damit knüpft Wittgenstein gleich doppelt an eine frühe Überlegung aus den Aufzeichnungen über Logik (1913) an: „Der Tatsache, dass ein Punkt schwarz ist, entspricht eine positive Tatsache, der, dass ein Punkt weiß (nicht schwarz) ist, eine negative Tatsache.“, ebd. 197; auch wenn ich, wie es im Tractatus heißt, „...auf einen Punkt des Papiers zeigen [kann], ohne zu wissen, was weiß und schwarz ist“, ebd.

153

Uli Richtmeyer

wo das Bild nicht ist. Dem korreliert die Auslassung, auch wenn sie wiederum doppelt bestimmt ist, als instrumentalisierter Effekt der Differenzbildung in schematisierten Bildern und als materielle Voraussetzung von Bildlichkeit. So profitiert die Variabilität der Auslassung von der Bild-Negation. Sie zeichnet sich durch ein kontrastierendes Nebeneinander aus, das sich in den Beispielen zur Bild-Variable zwischen der Auslassung und einem gemalten Bildarrangement zeigt. Während in der Malerei der Farbauftrag die Auslassung begrenzt und damit an die Stelle des Rahmens tritt, diffundiert der Kontrast in monochromatischen Zeichnungen. Der Auslassung als dem logischen Ort des Nicht-Bildes steht nun als bildkonstitutiver Antagonist nur die Linie gegenüber, woraus sich eine diskursiv stark stilisierbare Streuung ergibt: die Auslassung tritt zwar noch im Bild, aber doch beidseitig konturierender Linien auf. Im Falle der Bild-Hypothese greift sie dann zusätzlich in deren Verlauf selbst ein.

Auslassungen und Bild-Hypothesen „Auf einem Ruinenfeld werden Bruchstücke von Säulen, Kapitälen, Giebeln ausgegraben, und man sagt: Das war ein Tempel. Man ergänzt die Bruchstücke, füllt in Gedanken die Lücken aus, zieht die Linien nach. Das ist ein Gleichnis der Hypothese.

154

Abb. 3 a-e: Säulen.

Die Hypothese unterscheidet sich vom Satz durch ihre Grammatik. Sie ist ein anderes grammatisches Gebilde.“38 Bemerkenswert ist, dass Wittgenstein in diese Überlegung eine Illustration einfügt (Säule a), die anscheinend nur die Anekdote der zusammengefügten Fundstücke anschaulich machen soll. Ihr Status bleibt jedoch ungeklärt: Ist sie die Illustration eines „Gleichnisses einer Hypothese“ oder ist sie als Illustration selbst auch ein Gleichnis? Ist sie etwa das „andere grammatische Gebilde“ von dem Wittgenstein hier spricht? Tatsächlich geht Wittgenstein in einer Textstelle des Big Typeskript davon aus, dass eine Zeichnung „das beste Gleichnis für jede Hypothese, und selbst ein Bei38

Wittgenstein 1984, Wiener Kreis, 210.

Logik und Aisthesis

spiel“ 39 sein kann, sodass man fragen muss, worin denn dann die Hypothetizität des (gezeichneten) Bildes besteht? Und gibt die Möglichkeit von Bild-Hypothesen nicht wiederum einen Hinweis darauf, dass bildlogische Negationen möglich sind? Immerhin geht es bei Hypothesen – wie bei der Negation auch – um Weisen der Zurücknahme des Bildes: man will zeigen und nicht zeigen zugleich. Wittgensteins Beispiel macht dies gleich doppelt deutlich, weil es zwei Hypothesen vereinigt. Erstens wird die Mitteilung gemacht, dass die beiden gefundenen Säulenbruchstükke zusammengehören, zweitens wird eine Vermutung über die Beschaffenheit des fehlenden Bruchstücks angestellt, die über eine bloße Fortsetzung, wie sie von der Hypothese der Zusammengehörigkeit ja bereits impliziert wird, hinausgeht. Denn die Hypothese der Beschaffenheit besagt nicht nur, dass das fehlende Bruchstück formal den anderen Stücken gleicht, also etwa die gleiche Verteilung von Kanneluren aufweist, sondern auch, dass sich keine Stäbe in den Kanneluren befinden, dass das mittlere Säulenstück keine Schwellung (Eutasis) aufweist etc. Trotz ihrer inhaltlichen Verschiedenheit nutzen beide Hypothesen jedoch ein graphisch analoges Prinzip der linearen Auslassung, das einmal in der quasi-konventionalisierten Auslassung erscheint, die zwischen den Bruchlinien auftritt, und zum anderen in einer reduktiven Differenzierung von Linien besteht, die ebenfalls den Kontrast von Farbauftrag und Auslassung stilisiert. Zunächst verwendet die Bild-Hypothese ein aus dem technischen Zeichnen bekanntes Verfahren der Unterbrechung eines maßstäblich dargestellten Körpers aus Platzgründen durch eine von ein oder zwei Bruchlinien gekennzeichnete Auslassung. Zwar wird dieses Wittgenstein gut bekannte Verfahren40 hier nicht im Sinne der technischen Zeichnung eingesetzt, vielmehr sogar verfremdet und damit variiert, doch ist das Prinzip der graphischen Darstellung das gleiche: Man zeigt durch eine Weglassung Zusammengehörendes, auch wenn der Anlass hierfür nicht mehr das Fehlen von Platz, sondern das Fehlen eines abzubildenden Artefakts ist. Der Einsatz von Bruchlinien versucht also etwas in der Darstellung Fehlendes zu zeigen, das sich bei ausgeführter Wiedergabe direkt an der Position der Auslassung befunden hätte. Der hypothetische Modus dieser Auslassung wird in den Konventionen des technischen Zeichnens dabei durch eine kategorial abweichende Linienart markiert. Denn in technischen Zeichnungen besitzt die Bruchlinie eine reguläre graphische Irregularität, weil sie als lockere Freihandzeichnung ausgeführt wird und zugleich auf deren Anmutung verpflichtet bleibt. So steht es trotz strikter Regelhaftigkeit der Darstellung dem Zeichner frei, Position, Ausmaß und Grenzverlauf der Weglassung selbst festzulegen. Während in der technischen Zeichnung zudem alles exakt reguliert ist, von der Stärke der Linien bis zur Länge, Form und Position der Maßpfeile, gehört es zur regulären Irregularität der Bruchlinie, dass sie durch ihre Ausführung unwiederholbar erscheint. Die Bruchlinie verweist so auf zwei Bereiche, die sich der Konventionalisierung der Darstellung entziehen: Auf der Ebene ihrer auf Unwiederholbarkeit verpflichteten Ausführung sind dies

39

„Das beste Gleichnis für jede Hypothese, und selbst ein Beispiel, ist ein Körper mit seinen nach einer bestimmten Regel konstruierten Ansichten aus den verschiedenen Punkten des Raumes.“, Wittgenstein 2001, The Big Typescript, 88.

40

Wittgenstein hat dieses Verfahren z.B. in einer besonders aufwendigen technischen Zeichnung eingesetzt: vgl. Wuchterl / Hübner 1991, 38.

155

Uli Richtmeyer

156

die Singularität des Linienverlaufs und seine Willkür, und auf der Ebene dessen, was sie mittels dieser ihr eigentümlichen Hervorhebung´ darstellt`, ein Nicht-Bild im Bild. Wenn die Bruchlinie vom Gezeichneten etwas abtrennt, so rahmt sie eigentlich invers den dargestellten Gegenstand selbst ein und lässt das, was ihm ‚fehlt‘, das dargestellte Nicht-Dargestellte mit dem Blatthintergrund verlaufen (Säule b). Auch dort, wo in technischen Zeichnungen der eingesparte Platz zur Einfügung einer weiteren Ansicht genutzt wird (Säule c), orientiert sich die Hypothese der Zusammengehörigkeit, also die graphische Darstellung eines Gegenstandes mittels Auslassung an der Reduktion auf das Bild-Nichts, wie sie zuletzt an der Nivellierung der Grenze zwischen bedeutetem Blattweiß und neutralem Blattweiß zum Ausdruck kommt. Obwohl gerade technische Zeichnungen hoch konventionalisiert sind, arbeiten sie nicht mit der ebenso denkbaren Schwärzung der ausgelassenen Fläche (Säule d), die die Darstellungsintention: Formulierung eines Zusammenhangs, der trotz Kürzung der maßstäblichen Wiedergabe ersichtlich sein soll und in diesem Sinne hypothetisch ist, viel präziser ausdrücken kann, weil sie eine klare Grenze zum Blattweiß zieht und zumindest den Bereich, in dem sich die Darstellung des Gegenstandes bei ausreichender Blattgröße befinden würde, markiert. Es fällt also auf, dass die Tendenz zur ununterscheidbaren Reduktion einer Darstellung auf das Bild-Nichts fast alle Konventionalisierungen von Bild-Hypothesen durchzieht (Ausnahme ist nur die von Wittgenstein separat untersuchte Multiplizität der Ansichten). Diese Tendenz lässt sich am Beispiel ebenfalls an der Hypothese der Beschaffenheit erkennen. Der Zwischenraum der Auslassung wird in Wittgensteins Beispiel von gestrichelten Linien durchzogen, um zu zeigen, wie man sich das Bruchstück vorzustellen hat, das „in Gedanken die Lücken aus(füllt)“. Mit dem Einsatz perforierter Linien wird wiederum die Auslassung als Fundament der Hypothetizität aufgegriffen, und nicht etwa die sowieso schon für besondere Hervorhebungen geeignete Freihandlinie (Säule e), obwohl diese sich, zumindest auf einer rein konventionellen Ebene für die gleichen Darstellungen eignen würde. Die graphische Diversität der Linien ist selbstverständlich regelhaft: „Die Hypothese ist ein logisches Gebilde. D.h. ein Symbol, wofür gewisse Regeln der Darstellung gelten.“41 Regeln der Darstellung konventionalisieren dabei z.B. Linientypen: „Die Linie ist der tatsächliche Verlauf, soweit er überhaupt beobachtet wurde. Die Linien , . . . , .. .. , stellen Darstellungsversuche dar, denen ein mehr oder weniger großes Stück des ganzen Beobachtungsmaterials zu Grunde liegt.“42 Allerdings kann der lineare Farbauftrag die Aufgabe der Darstellung von Hypothetizität allein nicht erfüllen. Denn die Darstellung von „Versuchen“ basiert hier auf der Demontage der Linie und ihrer Überführung in den grundsätzlichen Kontrast von Farbe und Nichts. Während also nur der „tatsächliche Verlauf “ eine volle Linie beanspruchen darf, wird jede Darstellung eines „Darstellungsversuchs“ vom Nichts des Bildes demontiert und von stilisierten Auslassungen zersetzt. Als

41

Wittgenstein 1984, Philosophische Bemerkungen, 283.

42

Ebd. 284.

Logik und Aisthesis

Faustregel könnte gelten: Je mehr Lücken eine Linie integriert, je weniger Farbe sie mit Strichen oder gar Punkten aufträgt,43 um so „hypothetischer“ ihr Gebrauch. Es handelt sich gleichwohl um zwei verschiedene Formen der Reduktion des Bildes anhand seiner Linien. Die eine lässt sich Wittgensteins Auseinandersetzung mit Bertrand Russells und Gottlob Freges Theorie der Kardinalzahlen entnehmen, wo in mehreren Vorlesungen die Differenz zwischen einer geometrischen und einer „grob gezeichneten“, physischen Linie besprochen wird. Die geometrische Linie gilt als „eine Linie, die im Gegensatz zu einer gezeichneten Linie keine Breite hat.“ Als Ausdruck für die „Möglichkeit einer Zuordnung“ verhält sie sich zur gezeichneten Linie „wie ein dünner Faden [zu] einem dicken Strick“. Mit dem Schwund der Farbe nimmt der Möglichkeitssinn zu: „Eine geometrische Linie ist jedoch nichts weiter als die Möglichkeit der Zeichnung einer wirklichen Linie“.44 Als reine Möglichkeit ist sie dann allerdings auch nicht mehr darstellbar. Deshalb kann der zeichnerische Ausdruck von Hypothetizität besser durch die Perforation der Linie erzeugt werden, insofern die Reduktion nun in den Verlauf selbst eingreift. Hierbei wird wiederum die jeweils dünnste Linie perforiert. Dass es sich dann bei der unterbrochenen Linie um eine von Auslassungen zersetzte Linie handelt, lässt sich daran erkennen, dass auch die Auslassungen ´auf Linie` sind. Die Konvention setzt Linienstücke und Punkte nicht übereinander, sondern in Folge. Durch das Auf-Linie-sein bleibt die Auslassung eingebunden in die Rahmung der benachbarten Punkte oder Striche. Die zur Vollständigkeit des Rahmens fehlenden Seiten werden zwar nicht ausgeführt, aber durch die Breite und Verlaufsrichtung der Linie vorgegeben. Deshalb findet sich bei hypothetischen Darstellungen mittels perforierter Linien auch kein versetzter Verlauf: -.-.-. oder -_-_-, obwohl er die Darstellungsabsicht und ihre Konventionalisierung in keiner Weise beeinträchtigen würde. Erst die Zurücknahme der Farbe ins Bild-Nichts stellt jenen graphischen Differenzierungsreichtum bereit, der notwendig ist, um in zeichensprachlichen Konventionen diverse Bild-Hypothesen zu formulieren. Verfahren einer additiven Potenzierung der Linie durch Überkreuzungen: ++++, Überlagerungen: #### oder Verbreiterungen: ==== ergeben kein adäquates Differenzierungsspektrum, weshalb sie in schematisierten Zeichnungen auch nicht zum Einsatz kommen. Ihnen fehlt – obwohl es sich auch bei der Auslassung doch immer nur um die Evokation des gleichen Kontrastes (zwischen Bild und Nichts) handelt – eine ähnlich scharfe Präzision, wie sie ausgerechnet der Hypothese zukommt. Allenfalls schwach konventionalisierte künstlerische Zeichnungen können mit der summativen Überlagerung von Linien den Eindruck eines „Darstellungsversuchs“ erwecken, ihre Expressivität wird dann aber schnell gestisch, sodass sie eher den Prozess einer skizzenhaft überlieferten Suche referieren, statt als eine Aussage über eine spezifische Wahrscheinlichkeit zu gelten. So werden etwa bloß Annäherungen (wo sich die meisten Linien überkreuzen, soll die gemeinte Kontur verlaufen) oder Varianten (wenn man etwa die Laokoon-Gruppe zugleich mit mehreren leicht ver-

43

Entsprechend lautet Wittgensteins Kommentar zur Dicke des Farbauftrags: „Es ist z.B. unmöglich, die Ungenauigkeit des unmittelbar Gesehenen auf der Zeichnung durch dicke Striche und Punkte darzustellen“, ebd. 271.

44

Alle Zitate des Absatzes aus: Wittgenstein 1989, Vorlesungen, 352 f., vgl. Wittgenstein 2001, The Big Typeskript, 404.

157

Uli Richtmeyer

158

setzten Armhaltungen zeichnet, um für eine vermutliche Originalversion zu plädieren) artikuliert.45 Die entscheidende Differenz zur Bild-Hypothese besteht aber darin, dass sie mit dem Hypothetischen zugleich den Status der Hypothetizität auszudrücken wünscht, wie er bereits vom Nicht-Bild in der Auslassung realisiert wird und von der perforierten Linie dann konventionalisiert werden kann. Die von Wittgenstein verwendeten Bruchlinien und Strichlinien haben ihre Herkunft aber offenbar in den Konventionen des technischen Zeichnens. Damit stellt sich die grundsätzliche Frage, ob sich die Bild-Hypothese vollständig aus einer Darstellungskonvention ergibt oder ob sie auch funktional an allgemeinen Phänomenen bildlicher Präsenz partizipiert. Zwar gibt es „Regeln der Darstellung“, aber damit ist ja nicht gesagt, dass diese Regeln auch die beanspruchten Möglichkeiten bildlichen Darstellens konstituieren. Da schon der Wechsel zwischen vorhandenem und fehlendem Farbauftrag (in allen erdenklichen Varianten) für alles Bildliche fundamental ist, könnte seine Stilisierung in der darstellenden Geometrie eigentlich nur als ein sekundärer Effekt gelten. Der Farbauftrag in der Zeichnung kann zudem unabhängig von Stilisierungen unterschiedlich erfolgen (bereits dadurch, dass er auf dem Papier unregelmäßig haftet) sodass die Fragmentarisierung von Linie, Zeichnung und Bild auch ungeplant und unkoordiniert auftritt.46 Auch fällt auf, dass es weder technische noch figurative Zeichnungen gibt, in denen sich die selbstverständliche Hierarchie der Linien umkehrt. Immer ist die durchgezogene und volle Linie als Antithese zum Nichts des Hintergrundes und als Darstellung des „tatsächlichen Verlaufs“ zu verstehen. Selbstverständlich kennt auch die technische Zeichnung Differenzierungen über die Strichstärke (Körperkanten dick, Hilfslinien dünn). Abstufungen des graphischen Repertoires die der Darstellung von Hypothetizität dienen, werden aber grundsätzlich durch Auslassungen im linearen Farbauftrag oder dargestellten Gegenstand gewonnen. Zwar kann eine Bild-Hypothese bei Wittgenstein noch durch eine weitere, bildtheoretisch ebenso fundamentale Maßnahme erzeugt werden, nämlich durch die Multiperspektivität verschiedener Ansichten,47 hier würde die mögliche Hypothetizität aber nicht mehr die Darstellungsmittel betreffen, sondern auf das Thema der Bildfolgen und die Bildkombinatorik verweisen. Bei Wittgensteins Bild-Beispielen handelt es sich außerdem nicht um technische Zeichnungen, auch wenn sie oftmals einem technischen Abbildungsparadigma verpflichtet bleiben, das Wittgenstein als eine der beiden „Quellen“ seines Bildbegriffs angibt.48 Da Wittgenstein nur Elemente und Abbildungsformen tech45

Vgl. zu Problemen der Visualisierung in der virtuellen Archäologie auch den Aufsatz von Stefanie Samida: Zwischen Scylla und Charybdis: Digitale Visualisierungsformen in der Archäologie in diesem Band.

46

In diesem Sinne sind Wittgensteins eigene Hand-Zeichnungen auf unkonventionelle Weise hypothetisch zu verstehen, da sie durchgehend sehr dünn und fragmentarisch gezeichnet waren, vgl. Roser 1996, 6.

47

„Eine Hypothese könnte man offenbar durch Bilder erklären. Ich meine, man könnte z.B. die Hypothese ´hier liegt ein Buch` durch Bilder erklären, die das Buch im Grundriss, Aufriss und verschiedenen Schnitten zeigen.“, Wittgenstein 2001, The Big Typescript, 87; identisch in Wittgenstein 1984, Philosophische Bemerkungen, 284.

48

Wittgenstein 1984, Wiener Kreis, 185. M. Kroß hat diese bildtechnischen Aspekte unterschätzt, Kroß 2002; McGuinness erwähnt eine entsprechende biographische Prägung, McGuinness 1992, 110.

Logik und Aisthesis

nischer Zeichnungen frei variiert, werden die Regeln der Abbildung und ihr spezifisches Sprachspiel der „Bildlektüre“49 nicht befolgt, sodass die Hypothetizität der Auslassung hier keineswegs schon konventionell vorliegt, sondern in der Möglichkeit einer bildlogischen Negation gründet.

Zusammenfassung Bilder sind aisthetische, keine diskursiven Medien. Für sie gilt daher der Modus des Zeigens, der auch ihr Verhältnis zur Negation prägt, denn „das Zeigen (hat) eine andere Logik als das Sagen – es duldet keine Negation“.50 Da dem zeigenden Medium als grundsätzliche Negationsmöglichkeit nur das Nicht-Zeigen bleibt, das jedoch auf eine Aufhebung von Medialität und eine vollständige Zurücknahme der Bildlichkeit hinausläuft, ist die Kontradiktion im Bild unmöglich.51 Obwohl sich das Verhältnis zwischen Bild und Nicht-Bild dem Grundsatz nach nicht verbildlichen lässt, kehrt es als ein ikonisch fundamentaler Kontrast zwischen Rahmung und Auslassung in Wittgensteins Beispielen regelmäßig wieder. Die Möglichkeit dieses Kontrastes könnte man nun damit erklären, dass Bilder nicht nur über die Logik des Zeigens verfügen, da Medien auch der Dichotomie diskursiver und aisthetischer Formate zufolge nie eindeutig bestimmt sind: „Das bedeutet, allgemein ausgedrückt: Medien gleich welcher Art haben es sowohl mit Aisthetischem als auch mit Diskursivem zu tun“,52 auch wenn im aisthetischen Medium Bild das Zeigen dominiert.53 Andererseits lässt sich das grundlegend bildlogische Negationsverhältnis zwischen Rahmung und Auslassung auch nicht als Effekt beteiligter diskursiver Strukturen lesen. So kann auch der Hinweis auf die inkommensurablen Komponenten des Bildes die bildlogische Negation nicht begründen, er gibt aber die Bedingungen ihrer Heuristik an. Das lässt sich bei Wittgenstein beobachten, der das Thema der Negation mit dem des Bildes ausgerechnet so verbindet, dass am zeigenden Bild Probleme der diskursiven Logik und des allgemeinen Negationsbegriffs reflektiert werden. Dass Bilder für die Reflexion des Negationsbegriffs qualifiziert sind, obwohl sie doch, wie Wittgenstein sagt, nicht verneint werden können, liegt eben an den heuristischen Qualitäten, die ihnen in der Überschneidung diskursiver und aisthetischer Strukturen zukommen. Was in diesen Überschneidungen auf bildspezifische Weise geschieht, zählt zur Logik des Bildes, sodass die methodische Schwierigkeit darin besteht, die Logik des Bildes präziser von der sie prägenden Logik des Zeigens zu trennen, ohne sie durch eine Logik des Sagens bloß zu ersetzen. Denn da die Logik des Zeigens auch in ihrem Verhältnis zur Negation für alle aisthetischen 49

Wittgenstein 1984, Letzte Schriften über die Philosophie der Psychologie §§ 640, 648, 657; ebd. Bemerkungen über die Philosophie der Psychologie 2, § 447.

50

Mersch 2004, 111.

51

„Man kann nicht das contradiktorische Negative sondern nur das conträre zeichnen (d.h. positiv darstellen).“, Wittgenstein 2001, Bemerkungen, 56.

52

Mersch 2003, 16.

53

So „... kommt es auf den primären Modus an, der die Formate beherrscht“, Mersch 2004, 110.

159

Uli Richtmeyer

Medien gleichermaßen gilt,54 muss die Spezifik der Bildlogik genauer begründet werden – sonst hätte das Fehlen der Negation am Bild die gleichen Ursachen und Qualitäten wie am Ton – und das hätte z.B. die Konsequenz, dass es keine genuin bildlogische Negation gäbe. Zur Logik des Bildes gehören die spezifischen Überschneidungen zwischen Diskursivem und Aisthetischem besonders dann, wenn sie einerseits genuin aisthetische Qualitäten erst sichtbar machen und damit andererseits die Darstellung bestimmter diskursiver Qualitäten überhaupt erst ermöglichen. Beides lässt sich bei Wittgenstein am produktiven Verhältnis zwischen der schwachen Negation und der eigentlichen Bildnegation zeigen. Denn wo Bild-Variablen und -Hypothesen schwache (konträre) Negationen darstellen, gelingt ihnen das nur, indem der „logische Ort“ außerhalb des Bildes in Form stilisierbarer Verweise in die Darstellungsebene hinein verlegt wird.55 Weil das Nichts im Bild etwas sein könnte, das tatsächlich vom Bild ausgeschlossen ist, hält sich auch in der schwachen (konträren) Negation der Hinweis auf die Kontradiktion, die damit überhaupt erst sichtbar wird. Zudem partizipieren schwache Negationen am paradoxen Status der Auslassung, insofern er die Möglichkeit schafft, ihren konträren Charakter zu verbildlichen. So ist etwa die spezifische Mehrdeutigkeit der Variable, die nicht die generelle hermeneutische Mehrdeutigkeit des Bildes ist,56 an die Tatsache gebunden, dass das Nichts im Bild diesem als Angehörendes widerspricht und als Widersprechendes angehört. Das Verhältnis von ikonischer Aisthesis und diskursiver Logik stellt sich dann am Beispiel schematisierter Bilder so dar: Die Auslassung fügt sich nicht den zweistelligen Relationen der binären, diskursiven Logik des Sagens, sondern bewahrt in ihnen die Vieldeutigkeit aisthetischen Zeigens. Von dieser Vieldeutigkeit profitieren die diskursiven Ansprüche an das Bild, indem sie sich vor allem durch eine Zurücknahme ins Bild-Nichts der Auslassung differenzieren. Damit generiert sich eine wesentliche Differenzierungsmöglichkeit in schematisierten Bildern gerade aus der bildlogischen Negation. Mit Hypothese und Variable wird im Bild die Bildlogik leitend, auch wenn die Negation im Bild nur in einem Wechselspiel zweier Logiken sichtbar ist.

160

54

„Das Fehlen der Negation gilt für sämtliche Bildmedien, nicht nur Malerei und Fotografie, sondern auch für Film und Video, sogar für sämtliche aisthetischen Medien, also ebenfalls für Töne und Klänge, für den Gebrauch des Körpers im Tanz etc.“, Mersch 2003, 34.

55

Auch so bestätigt sich Wittgensteins Diktum: „Den Begriff der Negation /Verneinung/ besitzen wir nur in einem Symbolismus.“, Wittgenstein 2001, The Big Typescript, 83.

56

„[...] wie immer das Bild geschaffen ist, immer kann es auf verschiedene Weise gemeint sein“, Wittgenstein 1984, Philosophische Bemerkungen, 65.

Logik und Aisthesis

Abbildungsverzeichnis Abb. 1: Wittgenstein 1984, Tagebücher, S. 119 (14.11.1914). Abb. 2: Wittgenstein 1984, Braunes Buch, S. 261. Abb. 3 a: Wittgenstein 1984, Wiener Kreis, S. 210. Abb. 3 b-e: Eigene Darstellung.

Bibliographie Gernot Böhme, 2004, Theorie des Bildes, München. Reinhard Brandt, 2004, Das Bild: Gesehen und erkannt, in: Sachs-Hombach 2004, S. 170-182. George Spencer-Brown, Laws of Form, Gesetze der Form, Lübeck 1997. Peter Gold, 1995, Bild und Negat, in: Klaus Sachs-Hombach (Hrsg.), Bilder im Geiste, Amsterdam, S. 235-255. Matthias Kroß, 2002, Wittgensteins Techniken oder der Ingenieur als Philosoph, in: Rudolf Haller (Hrsg.), Wittgenstein und die Zukunft der Philosophie, Wien, S. 197-205. Karlheinz Lüdeking, 2006, Bildlinie / Schriftlinie, in: Karlheinz Lüdeking, Die Grenzen des Sichtbaren, München, S. 145-158. Brian McGuinness, 1992, Wittgensteins frühe Jahre, Frankfurt a.M.. Dieter Mersch, 2003, Wort, Bild, Ton, Zahl – Modalitäten medialen Darstellens, in: Dieter Mersch (Hrsg.), Die Medien der Künste. Beiträge zur Theorie des Darstellens, München, S. 9-49. Dieter Mersch, 2004, Bild und Blick. Zur Medialität des Visuellen, in: Christian Filk / Michael Lommel / Mike Sandbothe (Hrsg.), Media Synaesthetics, Köln, S. 95-122. Dieter Mersch, 2007, Blick und Entzug. Zur Logik ikonischer Strukturen, in: Gottfried Boehm / Gabriele Brandstetter / A. von Müller (Hrsg.), Bild – Figur – Zahl, München. János K. Nyíri, 2002, Pictures as Instruments in the Philosophy of Wittgenstein, in: Rudolf Haller, Wittgenstein und die Zukunft der Philosophie, Wien 2002, S. 328-336. Andreas Roser, 1996, Wittgensteins Zeichnungen im Cornell-Film, in: Gianluigi Oliveri (Hrsg.), From the Tractatus to the Tractatus and Other Essays, Wittgenstein Studies, Bd. 2, Passau. Klaus Sachs-Hombach, 2001, Bildbegriff und Bildwissenschaft, Saarbrücken. Klaus Sachs-Hombach, 2004, Wege zur Bildwissenschaft, Köln. Oliver R. Scholz, 2000, Bild, in: Karlheinz Barck u.a. (Hrsg.): Ästhetische Grundbegriffe, Bd. 1, Stuttgart / Weimar, S. 618-669. Oliver R. Scholz, 1991, Bild, Darstellung, Zeichen, Freiburg, München; vgl. die stark überarbeitete 2. Aufl. 2004, Frankfurt a.M. Peter Schreiber, 2004, Das Bild in der Mathematik, in: Sachs-Hombach 2004, S. 84-95.

161

Uli Richtmeyer

Bernhard Waldenfels, 2004, Das Bild in der Philosophie, in: Sachs-Hombach 2004, S. 53-68. Lambert Wiesing, 2005, Artifizielle Präsenz, Frankfurt a.M. Ludwig Wittgenstein, 1984, Werkausgabe in 8 Bänden, Frankfurt a.M. Ludwig Wittgenstein, 2001, Wiener Ausgabe, Frankfurt a.M. Ludwig Wittgenstein, 1989, Vorlesungen 1930-1935, Frankfurt a.M. Kurt Wuchterl / Adolf Hübner, 1991, Wittgenstein, Hamburg.

162

Astrit Schmidt-Burkhardt Wissen als Bild. Zur diagrammatischen Kunstgeschichte

Das Nicht-Wissen entblößt. Dieser Satz ist der Gipfel, muss aber so verstanden werden: es entblößt, doch ich sehe, was das Wissen bis dahin verbarg, aber wenn ich es sehe, weiß ich es. Am Ende weiß ich, aber was ich wusste, entblößt das Nicht-Wissen von neuem. Georges Bataille, L'expérience intérieur

Diagrammatic Turn Lange haben wir darauf gewartet. Jetzt ist er da, der diagrammatische Hype.1 Kaum ein aktueller Sammelband zur Bild- oder Kunstwissenschaft, in dem der Begriff Diagramm nicht fällt. Eine Lawine an Magister- und Doktorarbeiten zu diesem Thema rollte gerade an. Neologismen wie „Diagrammatik“, als Adaptierung der grammatikalischen Sprachlehre zu einer Diagrammlehre, oder „Diagrammatologie“, in Anlehnung an Derridas Grammatologie gebildet, dürfen in den neueren Publikationen nicht mehr fehlen.2 Unvermeidlich wirft diese in Mode gekommene Terminologie die Frage nach den Ursachen und Hintergründen auf, die das derzeit boomende Interesse am Diagramm begründet haben. Zur Erinnerung: Während Ulrike Maria Bonhoff sich 1993 noch genötigt sah, ihre Dissertation mit dem Titel Das Diagramm. Kunsthistorische Betrachtung über seine vielfältige Anwendung von der Antike bis zur Neuzeit zu rechtfertigen, war 1

Für Hinweise und Auskünfte danke ich Gerhard Dirmoser, Martina Hessler, Regine Lassen, Dieter Mersch und Annámaria Szöke.

2

Der Begriff Diagrammatik (franz. diagrammatisme) wurde von Félix Guattari in die poststrukturalistische Philosophie eingeführt; vgl. Deleuze 2005, 169; Deleuze 1977, 128. Zu Diagrammatologie vgl. Szöke 1998.

163

Astrit Schmidt-Burkhardt

164

es im Zuge der epistemologischen Krise der Kunstwissenschaft zehn Jahre später problemlos möglich, den diagrammatic turn auszurufen.3 Den Weg dorthin hatte zwar Annámaria Szökes Pionierbüchlein Diagram (Budapest 1998) gewiesen, doch wurde davon kaum Notiz genommen. Gleichwohl stellt sich die Frage, ob nicht vielmehr jene Kunsthistoriker die diagrammatische Wende eingeleitet haben, die weniger Diagramme zum Gegenstand ihrer Untersuchung erhoben, als vielmehr selbst Diagramme entwarfen, um den Aufbau ihrer Argumentation visuell zu stützen. So hatte etwa Alfred H. Barr jr. in den dreißiger Jahren mit hellsichtiger ZeitgenosAbb.1: Rosalind E. Krauss, Diagramm zur senschaft auf eine Visualisierung der Skulptur im erweiterten Feld. Kunstgeschichte hingearbeitet.4 Seine paradigmatischen Charts machen ihn zu einem veritablen Vorläufer der New Art History. Unter neuen Vorzeichen griff dann Rosalind Krauss diesen Ansatz auf und suchte mit ihren schematischen Zeichnungen zum erweiterten Feld der Skulptur einen Problemkomplex graphisch anschaulich zu machen (Abb. 1).5 Die historische Voraussetzung für den momentanen diagrammatischen Hype, also den Anstoß für das Interesse am Diagramm bzw. an diagrammatischen Problemen bildet der Strukturalismus, wie er in den späten sechziger Jahren aufkam und mit Jean Piaget, Ferdinand de Saussure, Claude Lévi-Strauss oder dem frühen Roland Barthes identifiziert wird. Mit dem Strukturalismus setzte sich – zeitgleich mit dem angloamerikanischen linguistic turn – der mächtige Imperativ der Sprache durch.6 Die gesamte kulturelle Produktion wurde in Begriffen von Art und Language sowohl verstanden wie verhandelt. Das heißt, alles wurde nun als ein Zeichensystem aufgefasst, das auf arbiträren, diakritischen Signifikanten beruht. Deren Fähigkeit, Bedeutung zu erzeugen und damit Sinn zu stiften, konnte von der referentiellen, mimetischen Funktion der Zeichen völlig getrennt werden. Übertrug man diesen strukturellen Ansatz auf die visuellen Phänomene, dann ließen sich Bilder, Filme, Architektur, Fotos und Skulpturen nicht mehr nur betrachten, sondern vielmehr auch wie ein Text dechiffrieren.7 Kunsthistoriker vom Schlage Ernst Gombrichs hatten das Bilderlesen längst – gleichsam avant la lettre – thematisiert, indem sie kognitionswissenschaftliche Erkenntnisse in ihre kunsttheoreti3

Vgl. Bonhoff 1993, 1; Bogen / Thürlemann 2003, 3.

4

Vgl. Schmidt-Burkhardt 2005, 114-184.

5

Vgl. Krauss 2000, 338-340. Krauss orientierte sich bei ihrem Entwurf eines „diskursiven Feldes“ als Quadrat der Gegensätze am Schema L von Jacques Lacan. Vgl. Prange 2003, 65-72. Erinnert sei auch an Robert Flecks Vortrag Das Diagramm, die Analogie, die Hysterie. Logique de la Sensation – Gilles Deleuze, François Lyotard und die Malerei, den er 1983 in Wien hielt. Damals visualisierte Fleck nationale Denkstile anhand von schematischen Zeichnungen.

6

Zur kritischen Schriftkonzeption des französischen Strukturalismus vgl. Mersch 2002.

7

Vgl. Jay 1997, 158f.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

schen Überlegungen einfließen ließen. Bilder werden demnach „nicht in einem Zuge“, sondern „stückweise“ erschlossen, also sukzessive gelesen, um in der Terminologie von Gombrich zu bleiben. Gombrich betont die Analogie zwischen dem Lesen von Texten und dem Lesen von Bildern, die in dem vorausschauenden Orientierungsbemühen eines das Text- bzw. Bildfeld abtastenden Auges besteht.8 Aus diesem Verständnis vom Bilderlesen ist schließlich auch Gombrichs strukturelles Interesse an alternativen Visualisierungsmodi erwachsen, in denen Text und Bild als Hybridform zusammenkommen: Diagramme, Schemata und Landkarten.9 Doch erst Richard Kostelanetz zog aus der „Lektüre“ von visuellen Medien die Konsequenzen und begann, unter dem Einfluss der Künstlergruppe Art & Language, die Sprache mehr und mehr als eine visuelle Form der argumentierenden Darlegung zu betrachten. In seiner Anthologie Essaying Essays. Alternative Forms of Exposition von 1975 befinden sich neben den klassischen Textbeiträgen deshalb auch zahlreiche Diagramme. Die Charts sind wie Texte zu lesen, schreibt Kostelanetz in der Einleitung.10 Als alternatives „bildgebendes Verfahren“ eröffnen sie neue konzeptuell angelegte Denkräume und Leseflächen, ein Verfahren, zu dem sich Kostelanetz nicht zuletzt auch durch das nummerische Gliederungsverfahren von Ludwig Wittgensteins Tractatus Logico-Philosophicus (1921) bestätigt sah, das er mit Vignetten verglich.11 Der diagrammatische Raum erhebt sich freilich nicht aus dem zweidimensionalen kartographischen Raum. Dieser komprimiert vielmehr verschiedenste semantische Ebenen. Anders gesagt: Die Verflachung des Denkraums in die zweite Dimension wird durch die reflexive Tiefe des Diagramms, die sich als semantische Dichte niederschlägt, wieder aufgehoben. Durch die neue Offenheit gegenüber der Sprache war es möglich, das Diagramm als Text-Bild-Hybrid aus einem anderen Blickwinkel zu betrachten, das heißt in diesem Fall selbstverständlich zu lesen. Die diagrammatischen Visualisierungsansätze schienen die große Alternative zum Text zu sein, da sie buchstäblich eine alternative Betrachtung narrativer Ansätze erlaubte.

Was ist ein Diagramm? In der semiotischen Diagramm-Theorie lassen sich zwei Positionen unterscheiden, die einerseits mit Charles Sanders Peirce und andererseits mit Nelson Goodman identifiziert werden können. Peirces breite Rezeption, die ihn zum „Haustheoretiker“ der diagrammatischen Forschung in den Bildwissenschaften avancieren ließ, setzte erst mit der postumen Veröffentlichung seiner Schriften und Manuskripte

8

Vgl. Gombrich 1978, 271f. In dem englischen Originaltitel How to Read a Painting klingt erneut die populärwissenschaftliche Aufklärungsrhetorik der so genannten „how to do it books“ an, die Bücher wie How to Study Pictures (New York 1905) von Charles H. Caffin oder How to Read a Book (New York 1940) von Mortimer J. Adler zu veritablen Bestsellern machte.

9

Vgl. Gombrich 1984a; Gombrich 1984b.

10

Vgl. Kostelanetz 1975, 6f.

11

Ebd., 3.

165

Astrit Schmidt-Burkhardt

166

in den dreißiger Jahren ein.12 Darin enthalten sind auch die berühmten Überlegungen zum Ikon, Index und Symbol.13 Peirces triadische Einteilung in ikonische, indexikalische und symbolische Zeichen wird durch das spezifische Verhältnis des jeweiligen Zeichens zu seinem Referenten begründet. Stark vereinfacht beruht diese Objektrelation beim Ikon auf einer Ähnlichkeit oder Analogie, beim Index auf einem Modus oder Kontext und beim Symbol auf einer Konvention oder Denkgewohnheit. Das Diagramm ordnete Peirce aufgrund seiner strukturell-abstrakten Ähnlichkeit mit dem Referenzobjekt den ikonischen Zeichen und damit im weitesten Sinne der Gruppe der Bilder zu. Goodman hingegen spitzte seinen Vergleich zwischen einem Bild und einem Diagramm auf die für ihn so zentralen Frage zu: Was unterscheidet ein Bild des Fudschijamas von Hokusai von einem Elektrokardiogramm, das die Herztöne bildnerisch darstellt? Für Goodman war die Antwort klar. Der Unterschied zwischen einem piktorialen und einem diagrammatischen Schema ist syntaktischer Natur.14 In der Tuschzeichnung von Hokusai gehören die Größe des Bildes, die Dicke der Linien, deren Farben und Intensität sowie die Materialität des Zeichenpapiers zu den konstitutiven Merkmalen der Darstellung. Anders das Diagramm. Bei der graphischen Repräsentation der Herzschläge sind zwar die konstitutiven Merkmale des Bildes noch kontingent vorhanden, für die Semantik des diagrammatischen Schemas allerdings spielen sie keine Rolle. Das Elektrokardiogramm wird ausschließlich vom Koordinatenraum her definiert und ist gewissermaßen auch nur aus dieser Perspektive zu lesen. Seine konstitutiven Merkmale bilden allein die Abszisse und Ordinate. Mit dieser Unterscheidung, die Goodman 1968 im Rahmen seiner Theorie von „vollen“ und „abgeschwächten“ Symbolen in Languages of Art weiter ausgeführt hat, wurde eine scharfe Trennlinie zwischen piktorialen und diagrammatischen Schemata gezogen, die von der Kunstgeschichte hierzulande zunächst nicht zur Kenntnis genommen wurde, obwohl Goodmans wissenschaftlicher Bestseller 1976 eine zweite Auflage in Amerika erlebte und seit 1973 in der wenig gelungenen deutschen Erstübersetzung von Jürgen Schlaeger bzw. seit 1997 in der zweiten und deutlich besseren Übertragung von Bernd Philippi vorliegt. Erst in den 1990er Jahren setzte auch in Deutschland eine breite Rezeption von Goodmans bildtheoretischen Überlegungen ein. In der deutschsprachigen Kunstwissenschaft wird derzeit mit drei DiagrammBegriffen oder -definitionen operiert.15 Die erste, implizit von Peirce inspirierte Bestimmung des Diagramms stammt von Felix Thürlemann und geht in das Jahr 1990 zurück: „Das Diagramm, auch Schema genannt,“ schreibt Thürlemann, „ist eine Diskursform, die darauf abzielt, Strukturen der Inhaltsebene auf der Aus12

Vgl. Bucher 2007, 120.

13

Vgl. das Kapitel „The Icon, Index, and Symbol“, in: Hartshorne / Weiss 1932, 156-173.

14

Goodman 1997, 212f.

15

An die semantische Bandbreite des griechischen Diagramm-Begriffs hat Ulrike Marie Bonhoff erinnert, indem sie einen etymologischen Ansatz verfolgt. Demnach kann mit Diagramm 1. eine geometrische Figur, 2. ein Symbol von griechischen Bauinschriften, 3. eine gesetzliche Verordnung oder ein Edikt, 4. eine Tabelle bzw. Liste, 5. das Schema einer musikalischen Tonfolge und 6. eine kartographische Aufzeichnung gemeint sein. Vgl. Bonhoff 1993, 7f.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

drucksebene möglichst direkt darzustellen.“16 Gemäß Thürlemanns semiotischer Diagramm-Definition wird der Inhalt nach Außen in ein sichtbares Feld verlagert. Es geschieht also eine Transferleistung, deren Kapazität ungenügend erfasst wird, wenn es nur darum gehen soll, den Inhalt „direkt darzustellen“. Unterstellt man der Einfachheit halber einmal, dies wäre problemlos möglich: Heißt das dann in der Konsequenz, dass die nicht visualisierte Inhaltsebene immer indirekt ist – sozusagen im Gegensatz zur direkten Darstellung des Diagramms? 2003, also 13 Jahre nach dieser ersten Definition, gibt uns Thürlemann darauf eine Antwort. Im Rahmen seiner Proklamation des diagrammatic turn, die er zusammen mit Steffen Bogen verfasst hat, heißt es – unter expliziten Rückgriff auf Peirce – von Diagrammen, dass sie „kommunikative Instrumente mit nicht ersetzbaren Leistungsmerkmalen“ sind.17 Gemäß dieser Bestimmung wird den Diagrammen eine eigenständige Kompetenz zugebilligt, die über den Text und das Bild je für sich betrachtet hinausweist. Das Leistungsmerkmal des Diagramms liegt nach Thürlemann und Bogen schlicht darin, dass das Diagramm die konkurrierende Beziehung von Bild und Text ignoriert. Erst im genuinen Zusammenspiel von visuellen und narrativen Elementen entwickelt das Diagramm seine Qualität. Zwischen Bild und Text besteht keine Werthierarchie. Für dieses paritätische Verhältnis hat die Literaturwissenschaft in den neunziger Jahre Begriffe wie Iconotext oder Visiotype geprägt.18 Die zweite Diagramm-Definition stammt von Gottfried Boehm. Sie ist im Grunde lapidar, aber genau darin liegt ihre bemerkenswerte Stärke: „Diagramme sind wirkliche, wenn auch betont kognitive Bilder, weil sie eine ganz unglaubliche Veranschaulichung abstrakter Zahlengrößen zustande bringen können.“19 Der Diagramm-Urtyp, der Boehm vor Augen schwebt, ist die Statistik. Er greift damit unausgesprochen auf die Goodmansche Definition des diagrammatischen Schemas zurück. Der Statistik gelingt es „Handelsvolumen, Tonnagen, Güter, Frequenzen in Bezug auf Zeitspannen etc. in eine visuelle Konfiguration“ zu übersetzen, „die zeigt, was man aus bloßen Zahlenkolonnen niemals lesen könnte.“20 So Boehms Bestimmung des Diagramms als kognitivem Bild, das Mengenwerte in anschauliche Größenordnungen übersetzt. Beide Diagramm-Definitionen, die semiotische Bestimmung von Thürlemann/ Bogen und die mathematische Bestimmung von Boehm, treffen in unterschiedlicher Gewichtung auch auf kunsthistorische Diagramme zu. Diese scheinen bei der Bedeutungsproduktion eine immer wichtigere Rolle zu spielen. Wenn zutrifft, was László Beke für die New Art History prognostiziert hat, dann eröffnet diese „Neue Kunstgeschichte“ für die Auseinandersetzung mit nichtlinearen Erklärungsmodellen eine interessante Perspektive. Sie versucht nämlich das Diagramm als Denkraum nach allen epistemologischen Richtungen hin auszuloten.21 Die dritte Diagramm-Bestimmung hält bewusst in der Schwebe, ob wir das Diagramm als Bild betrachten sollen oder nicht; unausgesprochen balanciert sie 16

Thürlemann 1990, 182.

17

Bogen und Thürlemann 2003, 2.

18

Vgl. Wagner 1997.

19

Boehm 2004, 42.

20

Ebd.

21

Vgl. Beke 2003, 395.

167

Astrit Schmidt-Burkhardt

Goodmans polarisierende Unterscheidung aus. Diese Position wird neuerdings von Steffen Bogen vertreten, der in seinen 2005 veröffentlichten Aufsatz über Schattenriss und Sonnenuhr für sich in Anspruch nimmt, erste „Überlegungen zu einer kunsthistorischen Diagrammatik“ anzustellen und damit so etwas wie eine bildtheoretische Grundlagenarbeit zu leisten.22 Bogen definiert den Begriff des Diagrammatischen „möglichst allgemein“. Dieser Schachzug erlaubt es ihm, zweigleisig zu fahren. Bogen kann sich so auf sein „dezidiert kunsthistorisches Projekt“ zurückziehen und das ästhetische Bild, das zurzeit etwas aus dem Fokus des Faches geraten ist, gegen das Diagramm verteidigen. Andererseits hält er sich den Weg zu einer allgemeinen Bildgeschichte offen, in der die signifikante Rolle des Diagramms als kognitivem Bild unbestritten ist.23 Das bildtheoretische Spannungsfeld besteht hier zwischen dem Ästhetischen einerseits und dem Kognitiven andererseits, und es lässt sich nicht einfach aufheben. Schließlich kann man die Spaltung von Bild und Text nicht nur als rigiden oppositionellen Dualismus verstehen, sondern auch als bipolares Beziehungsgeflecht. Der Systemanalytiker Gerhard Dirmoser hat dies anhand eines Schemas aufgezeigt, das seit Juni 2005 im Internet steht. Seine multiperspektivisch angelegte Schema-Studie mit dem Titel Das Diagramm ist (k)ein Bild dividiert die Diskussion über den Bildbegriff in 32 vordefinierten Sektoren nach den unterschiedlichsten Aspekten auseinander, ohne dass daraus klar hervorgeht, ob sich die Anhänger mit der Auffassung „Das Diagramm ist ein Bild“ durchsetzen können oder deren Kontrahenten, die das genaue Gegenteil behaupten (Abb. 2). Unsere Problemstellung Ein Diagramm ist (k)ein Bild

Literatur: Bild-Anthroplogie / Hans Belting Marc Augé, D. Freedberg, G. Didi-Huberman Ethnographische Perspektiven auf Raum, Bild und Wissen (Vorträge) / Ina-Maria Greverus, Susanne Regener, Michi Knecht Strukturale Anthropologie I / C. Lévi-Strauss Traurige Tropen / C. Lévi-Strauss Anthropologie und Bild (Beitrag) / C. Wulf (CW) Descartea´Irrtum – Fühlen, Denken und das menschliche Gehirn / Antonio R. Damasio (RD) Bild und Kult / Hans Belting Katholischer Piktorialismus. Religion als Stil bei Lars von Trier und Tom Tykwer / Gertrud Koch Traurige Tropen / Claude Lévi-Strauss Innere Bilder im Lichte des imagic turn / Ferdinand Fellmann Bildlichkeit / Manfred Faßler

Ein Überblick als Gedächtnistheater Studie zum Stand der Bildwissenschaften Kunst im Kontext diagrammatischer Studien Eine multiperspektivische Reflexion über Bildbegriffe Zweifellos wissen wir immer weniger, was ein Bild ist (R. Bellour) (BE) Beitrag für eine Ausstellung in der Galerie Maerz – Linz 12.2005 zum Thema „Concept“ (Kurator Gerhard Brandl)

Ausgangsidee und Archiv - Recherche und Vernetzung: Gerhard Dirmoser

Literatur : Performativität und Medialität / (Hg.) Sybille Krämer Performativität und Medialität – IWK-Workshop Störung u. Transparenz. Skizze zur performativen Logik des Medialen (Beitrag)/ Ludwig Jäger (LJ) Pragmatismus und Performativität des Bildes / (Beitrag) / Lambert Wiesing Kunst als Erfahrung / John Dewey Kunst leben / Richard Shusterman Die Bildlichkeit des Bildes – Bildhandeln als Beispiel des Begriffs Weltbild (Beitrag) / Eva Schürmann !! Bildhandeln / Hg. Klaus Sachs-Hombach Picturing Performance – The Iconography of the Performing Arts / Thomas F. Heck

Literatur: Linien – Ästhetische und epistemische Dimensionen der Zeichnung (Tagung 11.2004) Vom Disegno zum Diagramm (Podium) Schattenriß und Sonnenuhr: Formen von Kunst und Wissenschaft zwischen Bild und Diagramm/ (Beitrag) / Steffen Bogen !! Punkt und Linie zu Fläche / Kandinsky Periphere Aspekte des Zeichnerischen – Künstlervereinigung Maerz 1998 Linz Die algorithmische Revolution (Ausstellung ZKM) Die Zeichnung – Grenz- und Fließfigur des Denkens / Tagung 10.2004 Wien A Post Card from Raphael (Beitrag) / Christopher Wood (Die Zeichnung als eigenständiges Werk) Der Strich, die Spur (Beitrag) / G. Didi-Huberman Schriftbildlichkeit (Beitrag) / Sybille Krämer Geschriebene Welten – Arabische Kalligraphie

Literatur: Dogma 95 – Zwischen Kontrolle und Chaos Latenz und Bewegung im Feld der Kultur. Rahmungen einer performativen Theorie des Films (Beitrag) / Gertrud Koch (GK) Deanimated (Katalog) – Martin Arnold ---- MA (Beitrag) Akira Mizuta Lippit (AL) Future cinema (Katalog zur Ausstellung) Der groteske Zeichentrickfilm in der historischen Emotionsforschung (Beitrag) / B. Lindner Die Wirklichkeit der Bilder (Beitrag) / G. Böhme Animation now! / Ed. Julius Wiedemann Kino Spüren / Christian Mikunda Bildräume und Raumbilder / (Hg.) Gerald Raunig New Screen Media / (Ed.) M. Rieser, A. Zapp The Architecture of Image / Juhani Pallasmaa Die Kunst der Augentäuschung / J. Tesch u.a. Der fotografische Akt / Philippe Dubois

Literatur (2) : What Do Picture Want? The Lives and Loves of Images / W.J.T. Mitchell Comics richtig lesen / Scott McCloud Comics neu erfinden / Scott McCloud Ikonologie des Performativen / (Hg.) Christoph Wulf, Jörg Zirfas Der Gebrauch der Fotografie / Kunstf. Bd. 171 Heinz-Norbert Jocks – Versuch über die Fotologie Performance und Bild – Performance als Bild / (Hg.) Christian Janecke Bild und Handlung (Vortrag 06.2005 IFK Wien) / Horst Bredekamp

Die Finanzierung erfolgte ohne Gelder der Kulturverwaltung Stand der Einarbeitung 06/2005 / Version 3.0 D Im Internet 06/2005 / Erstpräsentation 12/2005 Galerie Maerz / Detailvorstellung 12/2005 TransPublic

Performance-Sicht (II)

Tanztheorie body research Dromologie Zeittheorien Theaterwissenschaft

Hinweise/Anmerkungen und Anforderung des Files: [email protected] / G. Dirmoser Waltherstr. 2 – 4020 Linz

Literatur: Zur Kunst des formalen Denkens / (Hg.) Rainer E. Burkard, Wolfgang Maas, P. Weibel Geist und Natur / Gregory Bateson Ökologie des Geistes / Gregory Bateson SONIC – visuals for music / Ed. R. Klanten u.a. Sonic graphics – seeing sound / Matt Woolman Visuelle Musik in der Erlebnisgesellschaft (Vortrag) / Hans Dieter Huber Ornament, Diagramm, Computerbild – Phänomen des Übergangs. Ein Gespräch der Bilderwelten des Wissens mit Lambert Wiesing

Musiktheorie / Musiksemiotik Elektroakustik Wahrnehmungstheorie zur Architektur Technoculture-Diskurs Strukturalismus (Diskurs) Systemtheorie / System-Diskurs Selbstorganisationstheorie Symboltheorien des Wissens Formalwissenschaften Komplexitätstheorie

26 Tanzsicht

Für Studienzwecke (Überarbeitungen) wird das Original-PowerPoint-File zur Verfügung gestellt. Plazierungen im Internet, Ausdrucke und die Verteilung in Papierform (4x A0 oder A1) sind erwünscht.

Geschwindigkeitssicht

Dank an: Josef Nemeth (+), Boris Nieslony, Astrit Schmidt-Burkhardt, Kristóf Nyíri, Bruno Latour, Peter Weibel, TransPublic, Walter Pamminger, Tim Otto Roth, Gerhard Lischka, Steffen Bogen, Walter Ebenhofer, Dietmar Offenhuber, Oliver Grau, Franz Reitinger, Lydia Haustein, Katharina Struber, Bernhard Cella, Sabine Zimmermann, Oliver Schürer, Thomas Macho, Stefan Neuner, Ingo Nußbaumer, Wolfgang Georgsdorf, Gerhard Brandl / Im Gedenken an: Josef Lehner (+) (Entwickler von Semanet) Mit ein Anlaß: 25 Jahre Atelier Wels

Sicht der Animation

Bildwissenschaft zwischen Reflexion und Anwendung / 24.-28.09.2003 Magdeburg P. Schreiber, W. Nöth, W. Schnotz, S. Majetschak !, F. Fellmann, Th. Knieper & M.G. Müller (KM)(MG), I. Därmann, K.F. Röhl, F. Nake, T.O. Roth, (D. Münch), Eva Schürmann !! (ES), Th. Hensel, H.D. Huber (HH), (Th. Lentes), L. Wiesing, (M. Plümacher), K. Lüdeking, (J. Steinbrenner), Sachs-Hombach, R. Posner, Ch. Forceville, V. Gottschling, P. Ohler & G. Nieding, R. Höger, (M. Harth), (M. Behr), C. Doelker !(DO), R. Hopkins, (D. Schmauks), W. Hofmann, Chr. Maar & E. Pöppel, G. Pápay !, K. Rehkämper (KR), J. Hyman, D.M. Lopes, S.P. Ballstaedt !, R.P. Gorbach, M. Scholz, (G. Jäger), D. Wiedemann, S. Schwan, H.J. Wulff & J. zu Hüningen, H. Wahl, Th. Van Leeuwen !!, A. Schelske, B. Berendt, J. Schirra, S. Schlechtweg, L. Priese, Th. Strothotte, Th. Knieper, Eli Rozik

Radio-Sicht

Performance-Sicht (I)

Bildwissenschaft? Eine Zwischenbilanz / 21.-23.4.2005 IFK Wien Hans Belting, Thomas Macho, Christiane Kruse (KU), W.J.T. Mitchel, Horst Wenzel (HW), Elisabeth Samsonow, Peter Geimer, Klaus Krüger (KÜ), Martin Schulz, Beat Wyss (WY), Gabriele Werner !!, Hans Dieter Huber, Gottfried Boehm

soziale Sicht

(BE) Symbolische Bilder einer kollektiven Praxis Bild und Kult (BE)

(WL) ... Das ist auch die anthropologische Bedeutung des Bildmediums: Könnte der Mensch keine Bilder herstellen, könnte er nur sehen, was anwesend ist. Seine sichtbare Welt wäre identisch mit seiner Umwelt. Durch die Bilder ändert sich so gesehen seine Umwelt.

(BV) Mit der Kamera kann der 1984 werden von Bill Hillier & Julienne Hanson Bildermacher gleichzeitig in „the social logic of space“ Schwellenanalysen beobachten und teilnehmen präsentiert, die Netzgraphen für räumliche Bild als symbolische Einheit (BE) Betrachtungen nutzen.

Der Kultcharakter (des Bildes) scheint im Mittelater im Vordergrund gestanden zu sein (BE)

Therapeutischer Diskurs disability studies Gestalttherapie Psychodrama / Psychotechniken Heilpädagogik Systemtheorie Tanztheorie Kognitionswissenschaften Kognitionstheorien AI/KI-Forschung

(BE) Der soziale Raum erweiterte sich durch die Bilder und die Rituale, die an Bildern vollzogen wurden, um den Raum der Toten.

Ikone: Kultbild, geweihtes Tafelbild der orthodoxen Kirche

(WL) Platons Mimesistheorie

Literatur: IFK – Kulturen des Blicks (Beitrag) / H. Belting Bildverstehen in der KI: Konzepte und Probleme (Beitrag) / Andreas Schierwagen Bildbeschreibung als Verbindung von visuellem und sprachlichem Raum / Jörg R. J. Schirra Blinde Seher – Die Wahrnehmung von Wahrnehmung in der Kunst des 17. Jahrhunderts / Peter Bexte Brains on Fire – Bilder in der Neurobiologie / Randolf Menzel (RL), David Poeppel (DP) Bildlichkeit und logisches Denken / Uwe Oestermeier

Vergl. dazu den Therapieansatz von L. Wittgenstein

Ikonodule: Bilderverehrer Ikonodulie: Bildverehrung

(AG) Bereich der nicht-mimetischen Künste (wie: die technische Zeichnung, das Diagramm)

mimetische Sicht

mythische Sicht

Religös motivierte Bilderstürmerei

Bilder als Zeichen der Zugehörigkeit

28 pragmatistische Sicht Rollensicht

Mentale Bilder

29 Sicht der Gehirnfunktionen

(SH) Medialität mentaler Bilder

(BE) Es (ein Bild) entsteht als das Resultat einer persönlichen oder kollektiven Symbolisierung.

Bilder in der Behindertenarbeit

mythologische Sicht 31 Sicht der Verwandlung magische Sicht

Magische Bildauffassung Magische Bilder

Bildmagie Bildzauber

Bilderkosmos Bilder haben Macht auf Körper, Seele, Geist (GB)

(SB) Im Diagramm und nicht allein in verbalen Stellungnahmen verdichtet sich die Verheißung (oder Drohung), Welt systematisieren und kontrolliert transformieren zu können.

Transformationssicht Abfallsicht (JW) Schon magische Praktiken sind häufig mit visuellen Praktiken durchsetzt. (BE) Animation, die wir als Relikt einer „primitiven“ Weltanschauung verdächtigen, zieht auch heute den Vorwurf auf sich, einer magischen Identität von Bild und Abgebildeten gedient zu haben

Mythogramme (SH)

Bilder öffnen die Augen (GB)

30 KI/AI Sicht

Bild und Kult (BE) (GD) Man könnte glauben, daß uns das Diagramm von einer Form zu einer anderen führt, etwa von der Vogel-Form zu einer Regenschirm-Form, und in diesem Sinne als ein Agens der Transformation wirkt (zu Bacon). (Vergl. Eisenman) Morphing als Bildtransformation

Gebrauchstheorie der Bilder

1934: Konzept zur Sociometry von Jacob Levy Moreno

Ober- und Unterflächen / Bild und Flächen in der Neurobiologie (Sektion) – Bilder als Aufdecker und Verhüller von Komplexität

Sicht der Stimme 31 Sicht der Oralität

(BE) Einem lebendem Menschen Schaden zuzufügen, indem man von ihm im Bild ein Double herstellte und sich insgeheim daran verginge

Ereignissicht I Sicht der Immersion

Sicht der Erzählung Narrative Sicht

formale Sicht

Belichtungszeit Beleuchtungszeit Filmzeit Abtastzeit s.l.

Siehe: Prozeßsicht Sicht der Zeichen (2) Siehe: Sicht der Sicht der Vereinbarung Bildgrammatik & Syntax Sicht der Steuerung Kreislaufsicht / Sicht der Wechselwirkung

Mapping: Abläufe, Einflüsse, Synchronopse, …

(BE) … da wir nicht anders als mit bewegtem Auge sehen können, mit dem wir auch die Oberfläche der Stillen Bilder abtasten

Für die Sinnentstehung ist allerdings entscheidend, im Bild den Akt des Sehens wieder zu beleben, der darin angelegt ist (GB)

Simulative Funktion der Surrogat-Bilder (PL)

(GD) Wenn die Geometrie nicht Malerei ist, so gibt es spezifisch pikturale Anwendungen der Geometrie

(JW) Schon Muybridge arrangierte seine Bewegtbilder zu komplexen Bildtafeln bzw. Bilderarrangements (BE) Zum Kino: … Manovich spricht in diesem Sinne von einem „dynamischen Bildschirm“, dessen Betrachter immoblisiert werden muß.

Simulierte Bilder

1984 erscheint F. Vesters Buch „Neuland des Denkens“, daß 1999 unter „Die Kunst vernetzt zu denken“ neu aufgelegt wird. Grundlage war sein Buch „Das kybernetische Zeitalter“ (1974). (SM) Die Wahrheit liegt im System / Daher die Sicht der Diagrammatik

(PW) Ein Bild ist ein System wie ein biologischer Organismus

Prozessanalysen und ISO-Zertifizierungen im Bereich der Wirtschaft (ARIS als Beispiel)

(BV) Oder es kann einfach das Verstreichen der Zeit sein, das im Video sichtbar wird.

(SM) chronologische Diagramme

(AG) Leonardo sah sich gezwungen, das scheinbar Unmögliche, nämlich die „bildhafte Rekonstruktion der hypothetisch gedachten Prozesse zu versuchen“. Dabei bediente er sich des diagrammatischen Darstellungsmodus.

(BE) Symbolische Handlungen, die wir im Umgang mit den Bildern vollziehen

Die Repräsentation relevanter Handlungsskripts kann auch graphisch erfolgen

(SB) Unverfügbar /vs/ handhabbar: Pragmatische Qualitäten des Diagrammatischen

(SH) Englischer Empirismus: Die mentalen Bilder galten als die elementaren Einheiten der kognitiven Prozesse. Als abstrakte Kopien der konkreten Sinneseindrücke übernahmen sie die Funktion von Begriffen

Sicht der Notation

(BE) Im Standbild ist die Bewegung des Lebens eingefroren.

(GD) Das Diagramm muß im Raum und in der Zeit begrenzt bleiben, es darf sich nicht über das ganze Gemälde hin ausbreiten, das wäre eine verpfuschte Arbeit (zu Bacon)

(BE) Die Zeichentheorie gehört zu den Abstraktionsleistungen der Moderne, denn sie trennte die Welt der Zeichen von der Welt der Körper in dem Sinne, daß Zeichen in sozialen Systemen zu Hause sind und auf Vereinbarung fußen. Sie wenden sich an eine kognitive statt an eine sinnliche, körperbezogene Wahrnehmung. (BÖ) Diese Überwindung einer hypertrophen Semiotik verlangt aber nach einer Phänomenologie des Bildes. (SH) Formale Regeln des Bildaufbaus (siehe: Bildsyntax)

(AG) Bildliche Freilegungen von Funktionsprinzipien und -zusammenhängen (WL) Ein anderes Beispiel der Bildlichkeit ohne Zeichencharakter sehe ich in bestimmten, digitalen Simulationen. Simulationen versuchen geradezu programmatisch einen Gegenstand zu simulieren, d.h. im Nursichtbaren nachzubauen. ... Simulierte Autos: Das Bildobjekt ist konstruiert und über Software gesteuert, aber es ist kein Zeichen, sondern eben ein künstlicher, mittels Bilder hergestellter Gegenstand. ... Es ist ein Virtueller Gegenstand (und nicht ein virtuelles Zeichen) (DG) Sollte auch am Bsp. GIS diskutiert werden (Vektortopologie, Orthophoto, ...)

(SH) In der formalen Ästhetik hat Riegl die Qualitäten des Malerischen und des Haptischen unterschieden, die Wölfflin zu einem umfangreichen Kategoriensystem formaler Eigenschaften pikturaler Relationen erweitert hat.

Bild als körperliche Sensation Diagramm als Grundraster Diagramm als Grundrhythmus Bild als Echtzeitereignis Bild als wissenschaftliche Basis

(SB/FT) Die besondere Stärke der genuinen Diagramme beruht dennoch auf dem, was man ihre pragmatische Potenz nennen könnte. Mehr als andere Diskursformen sind Diagramme darauf hin ausgelegt, Nachfolgehandlungen nach sich zu ziehen. … Das Diagramm erscheint wie ein Umschlagplatz des Sinns. (SH) Insofern auch die Bildkommunikation eine Form des Handelns darstellt, ließe es sich als spezieller Fall des imaginativen Personenverstehens auffassen

Bild als technische Simulation Bild als Energiefluß Bild als Impuls Bild als Akt

Bild als Handlung Bild als Zeigehandlung Bild als Performance Bild als Sendung

Theatersicht II

(BE) Wo der Bildzauber ausgefallen ist, habe die Rolle des Künstlers begonnen

(BE) Bildkörper und Bildzauber

Verwendungszusammenhang der Bilder

1965: Stanley Milgram beginnt seine small-world Experimente in Havard

Skript-Sicht

Sicht der comic strips

(SH) Malakt, Bildzeigeakt, … (Vergl. Gestaltungsgesten)

Zu (BE): Anthropologische Grundlagen der Bildverwendung (BE) Wir leben mit Bildern und verstehen die Welt in Bildern.

(GD) Einer aktuellen Terminologie folgend könnte man sagen, daß Cézanne einen analogen Gebrauch der Geometrie macht und keinen digitalen. Das Diagramm oder das Motiv wären analog, während der Kode digital ist. Die „analoge Sprache“, so sagt man, entstamme der rechten Gehirnhälfte – oder besser: dem Nervensystem -, die „digitale Sprache“ aber der linken. Die analoge Sprache wäre eine relationale Sprache, die die Ausdrucksbewegungen, para-sprachlichen Zeichen, die Atemzüge und Schreie etc. umfaßt. … Allgemeiner noch erhebt die Malerei die Farben und Linien zum Status einer Sprache, und dies ist eine analoge Sprache. Man kann sich also fragen, ob nicht Malerei stets die analoge Sprache schlechthin gewesen sei.

Anmerkung: Die Sicht der Oralität wurde neu plaziert

Visionäre Ekstase ist die Erfahrung, daß ein Bild vom ganzen Körper des Sehenden Besitz ergreift (BV)

(SH) pictorial speech acts (Kjorup)

Sicht der Partitur

Bewegungssicht / Dynamik Sicht der Beschleunigung

(SH) Film stellt Bewegung durch Bewegung dar

Prozesse des Visuellen (HB)

(SB) Zur Diagrammatik: … Der zweite, auf den motorischen Ausgang des Körpers Das visuelle Kurzzeitgedächtnis ist ein ausgerichtete Vorgang stiftet die diagrammatischen Momente: Hier wird die wichtiger Teil der menschlichen Intelligenz. Grenze zwischen einem unbeeinflußbaren Ablauf und einer kontrollierten Bislang ging man davon aus, daß verschiedene Handlung bearbeitet. Teile des Gehirns daran beteiligt sind. Neue Ortlos, ohne Existenz eines Originals, wird das Studien (04.2004) zeigen jetzt: Nur ein winziger (SB) In den Beispielen (inkl. Geschäftsdiagramme) zeichnet Bild zu einer Schnittstelle für die Handlungen Abschnitt des Gehirns ist für die kurzfristige sich ein übergeordnetes pragmatisches Potential des verschiedener Personen in Echtzeit (PW) Bildaufnahme verantwortlich. (Spiegel) diagrammatischen Prinzips ab, das sich grundlegend von der eidetischen (BE) „Das Bild im Allgemeinen gibt es nicht. (SB) … das diagrammatische Prinzip ist Wahrnehmung Unser mentales Bild ist immer ein Rückfluß“ unterscheidet. geeignet, das Einschreiben formaler (remanence), ist „Spur und Schrift“ der Bilder, die Relationen operativ auf das Handeln Über das Bild können telematisch Handlungen an uns die aktuellen Medien vermitteln. in der Welt zu beziehen und dabei einem weit entfernten Ort ausgeführt werden (PW) unverfügbare Abläufe mit kontrollierbaren Nachweis der „Suchtverankerung“ mit Hilfe der Computertomographie: 2 Bereiche im (WL) ... Zeichen werden immer nur durch Verwendung Handlungen zu verschränken. Gehirn zeigen nach der Präsentation der jeweiligen Bilder (alkoholische Getränke etc.) zu Zeichen. Zeichen fallen nicht vom Himmel. ... Die signifikant gesteigerte Aktivitäten. Bestimmte Süchte sind also Verwendung kann auch wieder eingestellt werden. u.a. über relevantes Sinnesmaterial verankert (Bilder, Gerüche, …). In der Kunst des 20.Jhd (und auch in den Neuen Medien) Entwöhnung: Man lernt die Anwesenheit der Suchtgegenstände haben wir eine Vielzahl von Bildern, die Zeichen sein (BE) Die technischen Bilder haben das Verhältnis zu akzeptieren. könnten, aber gar nicht dazu verwendet werden. Diese zwischen Artefakt und Imagination zugunsten der Bilder werden ausschließlich um ihrer Sichtbarkeit Imagination verschoben und fließende Grenzen zu Willen verwendet. (DG) Vergleiche Fragen des Erscheinens ! den mentalen Bildern ihrer Betrachter geschaffen

(BE) Man ging in vielen Kulturen Götterbilder an den Orten besuchen, an denen sie residierten.

(FR) Im mythischen Denken, so könnte man sagen, nimmt die Bildlichkeit des Bildes von dessen Gegenständlichkeit Besitz. Im ästhetischen denken greift demgegenüber die Gegenständlichkeit des Bildes auf dessen Bildlichkeit zu.

Sicht des Aktes

(NY) Es gibt Bilder, die wir überhaupt nicht deuten, auf die wir, im Gegenteil, in unmittelbarer Weise reagieren.

Bildpragmatik

Bildgebrauch

Sowohl phylo- als auch ontogenetisch steht am Anfang unseres Umgangs mit Bildern stets der animistische Glaube, daß ein Bild auf irgendeine geheimnisvolle Art und Weise etwas von dem enthält, was es abbildet. (KL) (BE) Das kollektive Imaginäre (etwa im Mythos)

Das Rastertunnelmikroskop erzeugt ein Bild, das mindestens vier hintereinander ablaufende Transferprozesse durchläuft, bevor wir es wahrnehmen (W. M. Heckl)

So gesehen kann man die von Nietzsche und Ricoeur beschriebenen Verfahren der Konfiguration, der Refiguration und der Transfiguration jeweils als diagrammatische Operation verstehen (MB)

Sicht der Flußdiagramme Vergleiche: historische Sicht Siehe: Virtualität

25 Systemische Sicht

26 zeitliche Sicht

Sicht der Abfolge Ablaufsicht Sicht der Reihung Sicht der Bänder

Abdruck als Prozeß (DH)

Bildpraxis

(GD) Kurz, vielleicht ist gerade der Begriff von Modulation überhaupt (und nicht von Gleichartigkeit) dazu angetan, uns die Natur der analogen Sprache oder des Diagramms begreiflich zu machen. Die Malerei ist die analoge Kunst schlechthin.

kybernetische Sicht Vergleiche: historische Sicht

(PW) Der berühmteste Videokünstler der Welt (Nam June Paik) hat nie ein Bild gemacht !

27 Prozeßsicht

(SB) Die diagrammatischen Merkmale erlauben es … eine zweite künstliche Welt parallel zur wirklichen Welt zu errichten.

Prozeßcharakter des Handelns Siehe auch: politische Sicht Siehe auch: machttheoretische Sicht Siehe auch: historische Sicht

Bildzweck / Bildfunktion

Im Hören produzierte Bilder (Hörbilder)

Sprechende Bilder

dynamische Netzgraphen zu sehen

Sicht des Handelns – der Praxis

1987 Für die soziologischen Methoden der Netzwerkanalysen stehen noch keine graph. Tools zur Verfügung.

Du sollst dir kein Bild machen (FT) Zwei Namen: Sie haben zum einen Hans Belting, der die christliche Kunst vom Allerhöchsten (GB) in der Form des wundertätigen Einzelbildes, des Kultbildes, untersucht hat, und Sie haben zum anderen Wolgang Kemp, der die christliche Kunst in den von (SH) Bilderverbot als zentrales Instrument ihr geschaffenen Bildsystemen dargestellt hat. (Vergl. Zu Kemp: Kontextstudie) monotheistische Religionen durchzusetzen Die semantischen Implikationen der verschiedenen syntagmatischen Hostieneisen Darstellungsformen sind eine Dimension, die die Kunstgeschichte bislang noch viel zu wenig reflektiert hat. (BE) Menschen isolieren innerhalb ihrer visuellen Aktivität, die ihr Lebensgesetz ausmacht, jene symbolische Einheit, die wir „Bild“ nennen. Der Doppelsinn innerer und äußerer Bilder ist vom Bildbegriff nicht zu trennen und verrät gerade dadurch dessen anthropologische Fundierung. Sicht der Kognition

(BW) die gesetzte Linie / Die abgesetzte Linie / Diskontinuitäten

Das Schreiben (mit der Hand) ist so lustvoll wie das Tanzen (BW)

(GD) In der Einheit von Katastrophe und Diagramm entdeckt der Mensch den Rhythmus als Materie und Material (zu Bacon, Pollock, Morris Louis) …. Das Diagramm drückt mit einem Zug die ganze Malerei aus, d.h. die optische Katastrophe und den manuellen Rhythmus. Und die aktuelle Evolution des abstrakten Expressionismus vollendet diesen Prozeß, indem sie Verwirklicht, was bei Pollock noch bloß Metapher war: (1) Extension des Diagramms auf die räumliche und zeitliche Gesamtheit des Gemäldes; (2) Aufgabe jeder visuellen (EA) Dieser offene Diagrammatismus, … setzt Souveränität … (3) Erzeugung von Linien, die „mehr als eine völlige Verschiebung der traditionellen Idee Linien sind, …. der Zeichnung voraus. … Die Zeichnung muß als die gegenseitige Bestimmung der Oberflächen in einem afokalen und azentrischen all-over verstanden werden, das Gestalt und Umriß auf die geleiche Ebene stellt …. Matisses Werk stellt somit die Formkunst der Kunst in Frage.

(JW) Das Besondere am Film, das den Film als etwas Eigenes im Rahmen einer Bildwissenschaft auszeichnet, ist die Tatsache, daß das Filmbild ein „Bild zwischen Bildern“ ist. (2)

(SB) Der Begriff „Diagramm“ bezeichnet … weniger das abgeschlossene Ergebnis der Formgebung, als vielmehr den Prozeß der kontrollierten (Re)Konstruktion, bei dem nicht nur Relationen der Formgebung in der Fläche, sondern auch Relationen der Formgebung in der Zeit relevant werden. 2002 - auf der ars electronica sind

Habitusanalysen mit Bildmaterial (U. Wuggenig)

(SB) Mediative Diagramme: Eine unveränderliche, von Gott gesetzte Ordnung der Welt sollte in eine innere Ordnung der Bilder überführt werden.

(BL) Religion, Wissenschaft und Kunst: drei verschiedene Muster, Bilder zu machen Mimetische Bilder

(SH) Der Simulationstheorie geht es um die elementare menschliche Fähigkeit, sich in den anderen mit der Absicht hineinzuversetzen, sein Verhalten zu verstehen

(BE) Körperbemalung und Gesichtsmaske liefern endlich auch einen Schlüssel für die Hintergründe der Blickbeziehung, die wir zu Bildern unterschiedlichster Art unterhalten, indem wir sie unwillkürlich animieren. Wir fühlen uns von ihnen angeblickt. Dieser Blicktausch, der in Wahrheit eine einseitige Operation des Betrachters ist, war dort ein echter Blicktausch, wo das Bild von der Lebendmaske oder vom bemalten Gesicht erzeugt wurde. (Vergl. Didi-Huberman: Das Ding/Bild Mapping: Kreisdiagramme blickt uns an) Der Blick zum Himmel (SR) Die Silhoutte ist das Diagramm eines Portraits (AG) Kosmologische Funktionsdiagramme Bilder im Kontext von Thearpien (AG) Kosmologische Systematisierungsbeschreibungen

Kulturanthropologie Strukturalismus (Diskurs) Mythos-Diskurs Dekonstruktivismus Gedächtnistheorien Alchemie, Hermetik Esoterik-Debatte / New-Age-Diskurs Psychologie Performative Theorien Ethnologie Analytische Philosophie Sprachphilosophie Rhetorik / Topik Sprachwissenschaft / Linguistik Strukturalismus Sprechakttheorie Pragmatik/Interaktions- und Konversationsanalyse Soziolinguistik Linguistic performance theory Literaturwissenschaft Literature discourse Linguistic turn (Diskurs)

Bilder der Religionen Bilder der Frömmigkeit

(BL) Du sollst dir kein Bildnis machen in irgendeiner Gestalt

(AG) Christel Meier zählt die Gruppe der geometrischabstrakten Diagramme zu den nicht-mimetisschen Künsten

Bildlinie / Schriftlinie (KL)

(JW) Filmtheorie in einer Art einer „Linguistik des Films“ zu machen, ist darum m.E. sinnlos (und die Versuche der 1960er-Jahre haben ausreichend gezeigt, daß sich hier Sackgassen auftun). Man sollte davon ausgehen, daß es so etwas wie eine „Sprachlichkeit des Films“ gibt, aber das ist eine symbolische Form, die nicht identisch ist mit der, die die natürlichen (?) Sprachen haben.

Ablaufsicht (komplexe Abläufe)

Simulationssicht

2002 erscheinen Bücher wie „Linked“, NEXUS – Theory of networks“, Netzwerke, ....

Verehrung von Bildnissen

Ikonostase: dreitürige Bilderwand Zwischen Gemeinde- und Altarraum in der orthodoxen Kirche

30 Verhaltenssicht

Sicht des Blicks (II) Sicht der Therapie / Therapeutische Sicht Siehe auch: Körpersicht, Erziehungssicht etc. Siehe auch: Psychoanalytische Sicht

Fragen einer Semiotik des Films – einer

Form- und Stilgeschichte des Films versuchen heute nicht mehr, das Filmische als Analogon des Sprachlichen aufzuziehen (JW)

(BE) Das Fernsehen veränderte als Sammelort und als Abfallort der Bilder auch die Wahrnehmung des einzelnen Bildes. Als Passe-partout für vergängliche Bilder macht es den Platz für immer neue Bilder frei, die wir nicht aufbewahren und nicht kaufen müssen, weil sie im Pauschalangebot angeliefert und gleichzeitig beseitigt werden.

Bild und Religion (SH)

Gruppenbilder

Zeitlupenstudien

Die Linie erzeugt die Unterscheidung (KL) (Ziehen einer Grenze / Grenzlinie) draw a distinction Auch die Verbindungslinie spannt sich zwischen diskreten Einheiten auf (DG)

(BE) Träume und Fiktionen im Film

Filmsprache (JW) (NY) Ich möchte da – mich auf die entsprechenden Gedanken von Price, Stokoe und Beardon berufend – folgende Formulierung wagen: Während das unbewegte Bild den Wörtern der Wortsprache entspricht, entspricht die Animation den Sätzen. Die animierte ikonische Sprache ist sowohl in ihren intuitiven als auch in ihren konventionellen Elementen ein reicher, dichter Bedeutungsträger ….

Halbbilder

(BE) Das Bewegungsbild und die 3D-Animation sind technologische Verfahren, um das Leben der Körper im Bild zu simulieren.

(BE) In der Kunstgeschichte geht es meistens um die Funktion bestimmter Bilder und um die Funktionen von Bildern in bestimmten sozialen Situationen. (KL) Hans Belting begründet seine Theorie des Bildes aus einem „anthropologischen“ Interesse

rituelle Sicht

Weitere Plakatstudien: www.servus.at/kontext/ars/ http://www.servus.at/kontext/ausstellungskunst/art_in_context.htm

Könnte die Zeichnung als jene Schaltstelle , die in der Klassik das Denken mit dem Handwerk verknüpft, zum privilegierten Medium einer genuin ästhetischen Erkenntnis avancieren? Die Linie (und damit die Zeichnung) bietet für die Diagramme einen wichtigen Zugang (sei es als trennende oder als verbindende Linie, Kräfteverhältnisse etc.)

(BE) M. Augé spricht von „Koinzidenz von Bildern“, die dadurch eintritt, daß der Betrachter seine Bilder mit jemand anderen teilt und sie resozialisiert, ohne dabei aus sich selbst herauszutreten

Innere und äußere Bilder als Resultat persönlicher Symbolisierungen (anthropologisch zu verstehen)

theologische Sicht

Weitere relevante Tagungen (n. ges.): Das Bild in der Wissenschaft / 15. – 17.12.2004 Berlin Horst Bredekamp, Werner Busch, Suzanne Anker, Gerd Kempermann, Wolf Singer, Christian Griesinger, Christoph Sensen, Alfred Nordmann, Othmar Marti, Karl Clausberg, Raphael Rosenberg, Harmut Hecht, Friedrich Vollhardt, Philipp Weiss, Thomas Fink, David Poeppl (DP), Wolfgang Heckl, Peter Geimer, Michael Hagner, Klaus Schwamborn, Peter Becker, Angela Fischel, Gottfried Boehm, Jörg Kotthaus, Jochen Henning, Karl Schawelka, Wilhelm Krull, Barbara Stafford

Formen, die eher für Tätigkeiten als für Beschreibungen von Dingen stehen (MS)

Siehe auch: Sicht der Sorge kulturtheoretische Sicht

anthropologische Sicht / ethnologische Sicht

Linie und Spur

Einzelbilder (Dia) erzählen (documenta XI) Die Flüchtigkeit der Fernsehbilder

Ein ganz anderer Animationsbegriff: (NY) … Collin Beardon vertritt bereits (BE) Bildwahrnehmung, ein Akt der Animation. seit mehreren Jahren sehr entschieden ist eine symbolische Handlung, welche in den die Auffassung, daß die eventuelle verschiedenen Kulturen oder in den heutigen Mehrdeutigkeit der Bilder durch eine Bildtechniken auf ganz verschiedene Weise geglückte Animation aufgehoben eingeübt wird. werden kann; daß wo das unbewegte Fotorealistische Animation (FK) Bild oft der Deutung bedarf, das bewegte Bild sich selbst deutet. Computerbild Wiederholraten

Zeichen & Zeichnung – Workshop über mehrere Jahre IWK Wien 2000 - 2002 Wolfgang Pircher, Oliver Schürer, Christa Kamleithner, Walter Pamminger, Karl Hildebrandt, Eva Waniek, Jürgen Lenk, Marianne Kubaczek, Markus Arnold, Harald Katzmair, Wolfgang Neurath, u.a.

(GD) Was aber ein analoges Diagramm im Gegensatz zu einem digitalen oder symbolischen Kode ist, bleibt schwer zu erklären. Heute kann man sich auf Klangbeispiele aus dem Synthesizer beziehen. Die analogen Synthesizer sind „modulatorisch“: Sie bringen heterogene Elemente in unmittelbare Konnexion, sie führen zwischen diesen Elementen eine an sich unbegrenzte Konnexionsmöglichkeit ein,….

Zeichnungen in der Moderne. Vom Disegno zum Diagramm Wolfgang Kemp, Monika Brandmeier, Werner Busch, Helmut Draxler, Sabine Flach, Sabine Mainberger, Ralph Ubl

Performative Bildanalyse

Sozialwissenschaftliche Bildwissenschaften Bilderzeugung im sozialen Raum (BE)

29 sozio-logische Sicht

(historische) Anthropologie Bildanthropologie Ethnologie Theologie / New-Age-Diskurs Ethnographie Performance Studies Ethnography Kulturanthropologie Medienanthropologie sociology and performance Soziologischer Diskurs Exotismusdiskurs Tribalismus-Debatte (Stammeskultur) Strukturalismusdiskurs (Spielregeln der Kunst)

Bildgedächtnis – Bildvergessen. Survival of the Images / 24. – 26.9.2004 Göttweig M. Wagner, K. Sachs-Hombach, Gustav Frank, Jeff Bernard, Carola Muysers, Zsuzsanna Kondor, Robert F. Riesinger (RI), Pablo Schneider, Reinhard Krüger, Gottfried Kerscher, Johannes Domsich, K. Nyiri, Bernhard Rieder, Pia & Sonja Kral, Klaus Rehkämper, Roland Graf, Theresia Hauenfels, Anja Zimmermann, Gregor M. Lechner, Caroline Seidler, Harald Krämer, Christiane Kruse, Andreas Schelske, Elisabeth Oy-Marra, Christian Bracht, Uwe Schögl, Manfred Behr, Nicole Mehring, Benjamin Burkhardt

Jehle, Sabine Slanina, F. Teja Bach, Christopher Wood

(GD) Es gibt eine diagrammatische Linie, die Linie der Distanz-Wüste, und ebenso Laufende Bilder (Phasenbilder) Phasenbilder bei M. Duchamp einen diagrammatischen Fleck, den über rotierende Trommel und den Futuristen Fleck des Farb-Graus. … (in 20 Einzelbildern eine Raytracing - Strahlverfolgung (FK) Bildfolge /vs/ Einzelbild Treppe herab Filmbildfolgen Ein „elektronischer“ Strahl, der bewegte /vs/ steigend) (FK) (BE) Palimpsest aus Filmbildern Bildkette mathematische Objekte trifft statische Bilder Bildsequenz Bewegte Projektionen (zB. Scanner) Standbild, Zeitlupe Bildraffer Bildgeschichten mittels

Picturing Performance (Buch)

Die Zeichnung / Grenz- und Fließfigur anschaulichen Denkens / 14. - 16.10.2004 IFK Wien Hans Belting, Friedrich Teja Bach (TB), David Rosand, Christopher Wood, Wolfram Pichler, Christoph Sattler, Steffen Bogen, Georges Didi-Huberman, Gerhard Neumann, Juliane Vogel, Ralph Ubl, Stefan Neuner, Gottfried Boehm

(PW) Es gibt eine anthropologisch fundierte enge Verwandtschaft zwischen Bild und Ton, die ich einfach als Physik des Signalcharakters definiere. Mit ein und demselben Signal kann man ein Bild oder einen Ton machen, d.h. Sehen von Tönen und das Hören von Bildern ist anthropologisch in eine physiologische Struktur eingebaut.

Linien – Ästhetische und epistemische Dimensionen der Zeichnung (Tagung 11.2004 Berlin) Werner Busch, Karlheinz Lüdeking, Barbara, Georg Witte, Wittmann, Peter Geimer, Uwe Fleckner, Carolin Bildlinie – Schriftlinie (Lüdeking) Meister, Éric Alliez, Sabine Mainberger, Oliver

Radiosity - Strahlungsverfahren (FK) Fragen der Difusion des Lichts

28 Performativität als Sicht

Tableau Vivants (Inszenierte Bilder)

UnSICHTBARes / 30. – 31.10.2004 ZKM Karlsruhe Olaf Breidbach (OB), Hans Diebner, Florian Dombois (FD), Dagmar Gerthsen, Wolfgang M. Heckl, Thilo Hinterberger, Thomas Keller, Carlos Ulises Moulines (CU), Jochen Ziegenbalg, Anne Niemetz & Andrew Pelling, Heinz Otto Peitgen (OP), Klaus Podoll, Hanns Ruder (RU), Philipp Sarasin (PH), Bernd Thaller (TH), Gabriele Werner (GW), Stephen Wolfram

Sicht der Rhetorik

(BE) Abbild als Zauber

sprachliche Sicht (II) Siehe auch: Radio-Sicht

Bildrhetorik

Studium oraler Kulturen mittels überlieferter/erhaltener Bildmaterialien

Bei der dramaturgischen Funktion (der Diagramme) geht es zur Hauptsache darum, abstrakte Relationen und Prozesse in Szene zu setzen (also mit Kant zu reden: dem Begriff (SH) Filmbilder erhalten durch zur Anschauung zu verhelfen) (MB) die Einbettung in weitere Bilder eine narrative Struktur

Beim diagrammatischen Bau der Rede kommt es auf die „Stellung“ der Worte an (MB) Vergl. W. Pamminger und die Übertragung der Rhetorik-Prinzipien auf die Typographie

Sicht der Ähnlichkeit & Mimesis

Literatur: mise en scène – Theater und Kunst / Beitrag: Theater der Bilder / Wolfgang Kralicek (WK) Ludwig Wittgensteins Denkweg / Stefan Majetschak (MJ) Bilder, Ähnlichkeit und Perspektive – Auf dem Weg zu einer neuen Theorie der bildhaften Repräsentation / Klaus Rehkämper Leib- und Bildraum – Lektüren nach Benjamin / (Hg.) Sigrid Weigel Die Medien der Künste – Beiträge zur Theorie des Darstellens / (Hg.) Dieter Mersch >Bilder nachstellen< und >Bilder nachstellen< / (Beitrag) / Christian Janecke

Film als Lichtwesen Film braucht die Projektion

Sicht der Musik

Superzeitlupe

Siehe auch: Sicht der Behinderung Siehe auch: Transportsicht Siehe auch: Sicht der Performativität Siehe auch: Sicht der Geste Siehe auch: Sicht der Typographie

Die spezielle Diskursformation des Films als diagrammatische Operation (MB)

Funktion von diagrammatischen Operationen im Film (MB)

Performative Theorien aus der Kulturwissenschaft Performativitätsdiskurs Performance Studies Sprechakttheorie Sprachspieltheorie / Praxeologie Feministische Theorien (J. Butler) Pragmatismus Symbolischer Pragmatismus Pragmatisch-hermeneutische Wende Rollentheorie (T. Sarbin) Medientheorie Mediendiskurs Medienwissenschaften Medienanthropologie Kommunikationstheorie

In Auszügen berücksichtigte Konferenzen/Tagungen: Linien – ästhetische und epistemische Dimensionen der Zeichnung / 25. – 27.11.2004 Berlin Werner Busch (WB), Wolfgang Kemp, Karlheinz Lüdeking (KL), Barbara Wittmann (BW), Peter Geimer (PG), Uwe Fleckner, Carolin Meister, Éric Alliez (EA), Sabine Mainberger (SM), Oliver Jehle, Sabine Slanina, Friedrich Teja Bach, Christopher Wood, Monika Brandmeier, Helmut Draxler, Sabine Flach, Ralph Ubl, Georg Witte

168

27 filmische Sicht (RB) Wichtig natürlich die Wissenschaft der bewegten Bilder, die Film- und Fernsehwissenschaft. Das „kinema“, der Einbruch der Bewegung in die sonst statischen Mal- und Standbilder, ist m.E. die wirkliche ikonische Wende der Neuzeit; ...

Netzdarstellungen im Kunstfeld – ein Beitrag zur Diagrammatik / G. Dirmoser (DG) Vom Nutzen schematischer Zeichnungen – ein Beitrag zur Diagrammatik / G. Dirmoser www.servus.at/kontext/diagramm/ performance-art Kontext (Plakat-Studie) / G. Dirmoser, B. Nieslony Verben im Kontext (Plakat-Studie) / Denken (ein semantisches Netz) / G. Dirmoser, B. Nieslony Studie Stadtwerkstatt-TV (u.a. zu den ars electronica TV-Projekten) / G. Dirmoser Gestalterische Gesten (Plakat-Studie zur ars electronica 2003/2004) / G. Dirmoser Die Fachliteratur wird radial im Bereich der inhaltlichen Sektoren aufgelistet

Literatur: Die Sprache der Göttin / Marija Gimbutas Literatur und Zeichnung : Franz Kafka (Vortrag) / Gerhard Neumann Theory an Application of Diagrams – 1st Intern. Conference, Diagrams 2000 (AI Lecture Notes) Diagrammatic Representation and Inference / 2nd Intern. Conference, Diagrams 2002 Diagrammatic Representation and Reasoning (Ed.) M. Anderson, B. Meyer, P. Olivier Wissensbasierte 3D-Analyse von Gebäudeszenen aus mehreren frei gew. Stereofotos / O. Grau Das Schweigen des Bildes (Beitrag) / Günter Wohlfahrt (WO) Kunst der Aufführung – Aufführung der Kunst / Hg. E. Fischer-Lichte, C. Risi, J. Roselt Zur Narrativik der Bilder und zur Bildhaftigkeit der Literatur – Plädoyer für eine Text-Bildwissenschaft (Vortrag) !! / Horst Wenzel (HW) Rhetorik des Bildes (in: Der entgegenkommende und der stumpfe Sinn) / Roland Barthes De figura – Rhetorik – Bewegung – Gestalt / Gabriele Brandstetter

Film, Video, TV (I)

Filmsemiotik Filmtheorie cinema studies Psychoanalyse (Lacan-Schule) Prozeßtheorien

Rhythmussicht / Ornamentsicht

auditive Sicht

Bildraffer

Hochgeschwindigkeitsfotografie (SH) Bilder als wissenschaftliche Basis

Literatur/Autoren die für die Strukturierung dieser Studie wichtig war(en): Gilles Deleuze (GD), M. Serres (MI), Georges Didi-Huberman (DH), Horst Bredekamp (HB), Gottfried Boehm (GB), Hans Belting (BE) (IFK), Martin Kemp (MK), Boris Nieslony (BN), Astrit Schmidt-Burkhardt (ASB), Dieter Mersch (ME), Petra Gehring (GE), Steffen Bogen (SB), Sybille Krämer (SK), Eva Schürmann (ES), Felix Thürlemann (FT), John Willats(WJ), Peter Galison (GA), W.J.T. Mitchell (JM), Peter Weibel (PW), Bernd Weidenmann (WE), Wolfgng Ullrich (WU), Peter Sloterdijk (PS), Bill Viola (BV), E.H. Gombrich (HG), Bernhard Waldenfels (BW), Andreas Gormans (AG), Friedrich Kittler (FK), Barbara Maria Stafford (MS), Theo van Leeuwen & Gunther Kress (LE), Franziska Brons (FB), Hans Jürgen Wulff (JW), Michael Sukale (MS), Éric Alliez (EA), Bruno Latour (BL), Gernot Böhme (BÖ), Kristóf Nyíri (NY), Manlio Brusatin (BR), Vilém Flusser (VF), Paul Virilio (PV), Linda Hentschel (LH), Klaus Sachs-Hombach (SH), Oliver Grau (OG), Franz Reitinger (FR), Ferdinand Fellmann (FF), Tim Otto Roth (OR), Andreas Schierwagen (AS), Stefan Römer (SR), Mathias Bauer (MB), Wolfgang Pircher (PI), Thomas Macho (TM), Mathias Vogel, Walter Pamminger (WP), Reinhard Brandt (RB), Wolf Singer (WS), Semir Zeki (SZ), Peter Geimer (PG), Ingo Nußbaumer (IN), Willibald Sauerländer (WS), Roland Posner (RP), Roberto Casati (RC), Karlheinz Lüdeking (KL), Matthias Bauer (BA), John Michael Krois (JK), Axel Müller (AM), Annamária Szöke, Evelyn Dölling (ED), Ulrike Ritter, Lambert Wiesing (WL), Getrud Koch (KO), Hans Dieter Huber (HH), Gregory Bateson

(BE) Der Kinosaal als ein öffentlicher Ort der Bilder Belichtungszeit Lichtbilder Beleuchtungszeit Filmzeit Sicht der bewegten Bilder Abtastzeit (BE) In einen Bilderfluß eintauchen

25 akustische „Sicht“

Choreographie-Sicht

Sicht der Linie Sicht der Zeichnung (II)

Zur Methode: Als Ausgangsordnung dient die Struktur der Verben-Studie. Vergl. dazu Methoden der „grounded theory“.

Bild als Sozialfrage Bild als Sendung Bild als Vorstellung Bild als Vermittlung Bilder als Verhaltensregler

Bilder als Erzählung (SB/FT) … die Rhetorik beschäftigt sich unter dem Stichwort ekphrasis schon früh mit Fragen der Übersetzbarkeit des Bildes in die Schrift.

Sicht der Lachkultur 32 spielerische Sicht Wettkampfsicht / Sicht d. Spielens Sicht der Interaktivität

(BE) Die großen Altarbühnen, die eigens für den Wiederauftritt der Ikonen gebaut wurden, waren in Rom und Venedig nichts anderes als die Installationen dieser Zeit.

Viele der Diagrammtypen finden sich auch als Spiele umgesetzt

(SH) … demgemäß wäre die Frage nach einer Bildrhetorik eine Frage nach der Möglichkeit, mit visuellen Darstellungsmitteln einen argumentativen Zusammenhang zu entwickeln oder zumindest zu unterstützen. (SH) Ein Bildel

(BÖ) Ein Hauptparadigma für meine Analyse von Atmosphären ist … die Kunst des Bühnenbildes. (Beleuchtung, die ein bestimmtes Klima erzeugt …)

Bildbasierte Spiele (Spielkarten, Brettspiele, Computerspiele, …

Bild als Therapie

Sicht der Inszenierung Performativitätsdiskurs Theatertheorie Theaterwissenschaft Theateranthropologie dramatic discourse performance studies performance theory Spieltheorie Sprachspielansatz Postmoderne Sichten Anthropologie (des Lachens)

Siehe: Unterhaltungssicht Der Bereich der Spiele hat in einigen Bereichen die ältesten „Diagramme“ zu bieten. Siehe: sportliche Aspekte Siehe: Schnittstellensicht Netze als Grundstrukturen vieler Spiele Siehe: Sicht der Wahrnehmung

Sicht der Theaterwissenschaft 32 Theatersicht / Opernsicht Sicht der Darbietung

Siehe auch: Sicht der Mode

(BE) Bildwissenschaft als Kulturwissenschaft: diese Frage impliziert die Notwendigkeit, sich erst einmal über den Gegenstand der Kultur und ihre wissenschaftliche Analyse zu verständigen. Das fängt damit an, für den Begriff von Bildkulturen eine Übereinkunft zu gewinnen. (BE) Das Weiterleben aber kann auf versteckten Wegen und sogar gegen den Willen einer Kultur geschehen, die sich in anderen Bildern eingerichtet hat. Solche Prozesse berühren Fragen des kulturellen Gedächtnisses, in dem Bilder ihr eigenes Leben führen

(FR) Interessanter als das spezifische Sein der Bilder, scheint mir die Beobachtung zu sein, daß nicht alle, aber doch entschieden mehr Bilder, als man gemeinhin anzunehmen pflegt, einmalige kulturelle Zeugnisse und Leistungen darstellen ...

(WL) Zur Richtung „visual studies“: Sie verfolgt ein anderes Konzept als die angesprochenen philosophischen Bemühungen um die Grundlegung einer allgemeinen Bildwissenschaft, indem es ihr um die ganz konkreten alltäglichen Visualisierungsformen in ihrer jeweiligen kulturellen Einbettung geht.

(WL) Der Gedanke der visual studies besteht nun darin, daß man sagt, das eigentlich Relvante in der Kultur ist das Sichtbare. Wirkungsgrad des Bildlichen auf Kultur, Gesellschaft und Wissenschaft Bildfragen – als tragende Visual Culture (HH) Voraussetzung von Kultur (HB)

Siehe auch: Identitätssicht

01 kulturtheoretische Sicht

(SH) kulturell bedingte Darstellungsstile Bilder und Zeichen wurzeln tief in (SH) Wahrnehmung als vergangenen Kulturen kulturrelatives Phänomen

(SH) Sie sprechen häufig davon, daß das menschliche Sehen und Erkennen von Bildern kulturinvariant sei. Gehen Sie hier von anthropologischen Konstanten aus? (RB) Ich halte diese Feststellung wichtig gegenüber Auffassungen, gemäß denen unsere Welt durch Symbolsysteme, speziell die Sprache, konstituiert wird. Unsere Raum- und Zeitorientierungen sind jedoch wie bei allen Säugetieren symbolunabhängig (!) (SB) Visuelle Kulturen lassen sich in ihrer historischen Entwicklung und systematischen Ausdifferenzierung als spezifische Zusammenführung von diagrammatischen und eidetischen Momenten (singulärer Erscheinungen) beschreiben.

in der ihm aufgetragenen Rolle immer schon einen „Bildentwurf“

Bühnenbild

(BE) Das Bild am Körper – Die Maske

(BE) Die Maske ist ein Pars pro toto für die Verwandlung unseres eigenen Körpers in ein Bild. Wenn wir aber an unserem und mit unserem Körper ein Bild herstellen, dann ist es nicht ein Bild von diesem Körper.

(SH) Wollen Sie sagen, daß das, was die Bilder auszeichnet – im Gegensatz zu anderen Zeichen -, vor allem in der besonderen Aufgabe besteht, die sie innerhalb unserer conditio humana innehaben? (BE) Ich glaube, das kann ich mit ja beantworten. (BE) Es geht nicht nur um eine akademische Frage, sondern die Bildwissenschaft ist auch eine Reaktion auf eine kulturelle Wende, auf die wir wissenschaftlich reagieren ( .... auf die visuelle Produktion)

Kulturwissenschaften Kulturphilosophie Kulturanthropologie Schwarze Kulturtheorie cultural studies (Diskurs) Kulturgeschichte kontextbewußte Theorien Neosituationismus-Diskurs Postmoderne-Diskurs cultural turn

(BE) Erst durch die Maskierung wird es (das Gesicht) zu dem sozialen Zeichenträger, als das es funktioniert.

(BE) Im Bezugsfeld von Körper und Bild bedarf die Gesichtsmaske der besonderen Aufmerksamkeit, die ihr Thomas Macho gewidmet hat.

(BE) Man kann wohl so weit gehen, (BE) Das echte Gesicht ist nicht jenes, das die Maske verbirgt, (BE) Das Ornament ist in diesem Sinne, gegen Porträts überhaupt als Masken zu verstehen, Sondern jenes, das die Maske erst erzeugt, wenn man echt im seinen geläufigen Sinn, nicht Schmuck, sondern die vom Körper unabhängig geworden und Sinne der sozialen Intention versteht. eine mediale Technik im Dienste der Bildgenese auf ein neues Trägermedium übertragen Deshalb ist die Maske auch der Auftakt für eine Disziplinierung des des Körpers. So wird der Körper der Natur entzogen natürlichen Gesichts, das sich maskenhaft stilisiert, um der Codierung worden sind. (BE) Blickerfahrung, die vom Gesicht und einer symbolischen Ordnung eingegliedert. zu entsprechen, die in der aufgesetzten Maske angelegt ist. ausgeht (BE) Jede Mimik löst das Bild auf …, Der Körper ist bei dieser Bildgenese gleich mehrfach während die Maske das Gesicht auf beteiligt, weil er nicht nur Bildträger, sonder auch (BE) Die Transformation des Gesichts zur Maske zwingt aber den ein einziges maßgebliches Bild festlegt. Bildproduzent ist … Träger zur Reduktion des lebendigen „Mienenspiels“, dessen Ausdruckswandel in der Maske zugunsten eines stabilen Ausdrucks (BE) Die Maske war eine epochale Erfindung, unterdrückt wird. (Vergl. N. Elias) (FT) Gerade der Aspekt der Syntagmatisierung spielt in welcher die Ambivalenz des Bildes, eine in Warburgs Beschäftigung mit dem so genannten Abwesenheit sichtbar zu machen, ein für alle Interesse an Kontext-Fragestellungen in Kunst und Mnemosyne-Atlas in seinen letzten Lebensjahren eine mal eingerichtet ist. Wissenschaft führten nicht nur mich zu netzförmigen ganz entscheidende Rolle. Es wäre ein wunderbarer Wie das Bild lebt die Maske von der Abwesenheit. (FT) Was bisher bei der Beschreibung dieses Stoff für eine Untersuchung, darzustellen, wie Warburg – Repräsentationstechniken. Übertritts ins Museum zu kurz gekommen ist, als privater Kurator seiner Wunderkammer – aus (FT) Dieses Projekt, historische ist der Aspekt der Resemantisierung, den die einzelnen fotografierten Bildern immer wieder Bilderwände quasi wie komplexe Texte oder Bildwerke dadurch erfahren, daß sie in einen Bildsatzgefüge mit unterschiedlicher Bedeutung als „Bildsatzgefüge“ auf ihre jeweilige Bedeutung neuen Kontext eingeordnet werden. Metadiskurs über die betroffenen reproduzierten hin zu untersuchen, möchte ich mich in meinen (GD) zu Michelangelo (Heilige Familie) – pikturales Faktum: Dieser neue Kontext wird durch den jeweiligen Bestand Bilder geschaffen hat .... zukünftigen Forschungen stärker widmen. …. Die Formen können dann figurativ sein und die Personen der an einem bestimmten Ort musealisierten Bilder Anmerkung: Die Diagrammatik interessiert sich (Vergl. kontextualisierende Methoden bei Wittgenstein etc. ) noch narrative Beziehungen besitzen, alle diese Verbindungen wechselseitig geschaffen. Die Bilder werden an einer also für Kontext bzw. Zusammenhang verschwinden zugunsten eines „matter of fact“, eines spezifisch Wand meist nach dem Verfahren der Pendant-Hängung pikturalen (oder skulpturalen) Verbunds, der keine Geschichte zu syntagmatisch größeren Gebilden, zu „Bildsatzgefügen“, mehr erzählt und nichts als eine eigene Bewegung repräsentiert könnte man sagen, zusammengestellt. und und scheinbar willkürliche Elemente in einem einzigen kontinuierlichen Guß gerinnen läßt. (Vergl. S. Bogen und (AG) Diagramme sind immer auch Bilder, F. Thürlemann) Nutzung des Kontextes (der Situation) die unmittelbar auf andere Bilder, nämlich zur Generierung komplexer Diagramme (SH) Bildexterne Bilder im Sinne zeitgemäßer Vorstellungen (FR) Was sind Bilder in bestimmten (Eisenman) Bestimmungsfaktoren reagieren. Kontexten zu leisten im Stande?

Sicht der Situation

01 kontextuelle Sicht

Bild als Artikulation Bild als Erzählung Bild als Überredungsform Bild als Zauber Bild als Verwandlung Bild als magische Präsenz Bild als Wesen Bild als Geheimcode Bild als symbolische Verdichtung Diagramm als Bildrhetorik

(BE) Auf dieses Problem reagierte die Barockmalerei, als sie sich zum offiziellen Spiegel von privaten Visionen erklärte. Durch ihre theatralische und halluzinatorische Inszenierung weckte sie beim Kirchenvolk den Eindruck, vor solchen Werken persönliche Visionen zu empfangen.

(BE) Schauspieler als Typus der „Bildbedingtheit menschlichen Daseins“ (zu H. Plessner) (BE) Der Schauspieler verkörpere (BE) Verkörperung

Literatur: Kulturtechnik / Bild – Schrift – Zahl / Hg. Sybille Krämer, Horst Bredekamp (Helmholtz-Zentrum für Kulturtechnik) Das Bild als Environment (Beitrag) / Franz Gertsch (in: Das Gedächtnis der Malerei) Culture Jamming. Mit Bildern gegen Bilder (Projekt) / Asko Lehmuskallio Korrespondenzen – Visuelle Kulturen zwischen Früher Neuzeit und Gegenwart / (Hg.) Alex Fliethmann, Matthias Bickenbach Der zweite Blick – Bildgeschichte u. Bildreflexion (Hg.) Hans Belting, Dietmar Kamper Hören uns Sehen – Schrift und Bild – Kultur und Gedächtnis im Mittelalter / Horst Wenzel

(JW) Eine weitere ... Ebene ist der Kontext der Szene. Viele Dinge des sozialen Lebens sind szenischer Natur, und die Situation ist eine elementare Größe lebensweltlicher Wahrnehmung

Sicht der Liveness Sicht der Maskierung (Maske)

Bild als Szene Bild/Diagramm als Spiel Bild als Interaktion Bild als Darstellung Bild als Schauspiel Bild als Theater

Bild als Standortfaktor Bild als Kultur Bild als Verbund Bild als Environment

Abb 2 Ge ha d D mose Das D ag amm s k e n B d De a 22

Vgl. Bogen 2005.

23

Vgl. Schmidt-Burkhardt 2005, 25-39; 429-446. Aus Peircescher Perspektive gewinnt Bogen dem Diagramm als kognitivem Bild zusätzlich eine logisch-eperimentelle Facette ab. Vgl. Bogen 2007.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

kann aber auch nicht in der rhetorischen Frage What Do Pictures Want? aufgehen, also ob Bilder auch Diagramme sein wollen, eine Fragestellung, die William J. Tom Mitchell in seiner jüngsten Buchpublikation insinuiert.24 Viel grundsätzlicher stellt sich nämlich das Problem, was diagrammatische Bilder unter epistemologischen Vorzeichen überhaupt zu leisten imstande sind. Antworten darauf sollen im Folgenden anhand von prototypischen Beispielen gattungstheoretisch diskutiert werden. Im Fokus steht die interne Funktionalität von diagrammatischen Wissensbildern. Diese werden in Hinblick auf ihre räumlichen Beziehungen, auf ihre strukturelle Gliederung und auf ihr verabsolutierendes Gefüge analysiert.

Wissen als Koordinatenraum Wissensbilder, so wie sie hier verstanden werden, sind keine Legitimationsbilder, wie wir sie von der Naturwissenschaft her kennen.25 Naturwissenschaftliche Wissensbilder zielen auf eine indexikalische Qualität und Evidenz, deren Ziel und Zweck in der Wissenschaft begründet liegt.26 Im Gegensatz zu den naturwissenschaftlichen Wissensbildern sind die historiographischen Wissensbilder ikonische Kondensate. Sie haben zumeist eine lange Vorgeschichte, die sich nicht so sehr in Bildern wohl aber in der Recherche, in Reflexionen und schließlich in der zeitintensiven Abfassung eines Textes ereignet hat. Historiographische Wissensbilder sind folglich epistemologische „Nachbilder“, die Quintessenz der Forschung als Diagramm. Sie stehen also nie am Anfang, immer nur am Ende eines wissenschaftlichen Prozesses. Ein Beispiel dafür ist der Architekturbaum, den Banister Fletcher zwischen 1905 und 1921 für die sechste Auflage seiner Architekturgeschichte Abb. 3: Banister Fletcher, Der Architekturgezeichnet hat (Abb. 3). Raum und Zeit, baum. das Nebeneinander und seine Auflösung im Nacheinander, bilden das Koordinatensystem der diagrammatischen Historiographie. Nur wenn diese Koordinaten gesichert sind, lässt sich geschichtli-

24

Vgl. Mitchell 2005.

25

Zu den unterschiedlichen Facetten des Wissensbildes vgl. Raulff / Smith 1999.

26

Zur Debatte über den Stellenwert des Bildes in der Naturwissenschaft vgl. Galison 2002.

169

Astrit Schmidt-Burkhardt

170

ches Wissen installieren.27 Sigfried Giedion erklärte die zeitliche Festlegung zum historiographischen Paradigma schlechthin: „Daten sind der Maßstab des Historikers, mit ihnen misst er den geschichtlichen Raum aus. An sich und mit einer einzelnen Tatsache verknüpft, sind Jahreszahlen so sinnlos wie die Nummern eines Trambillets. In Zusammenhängen erfasst, d. h. verbunden mit Geschehnissen in horizontaler und vertikaler Richtung, grenzen sie die historische Konstellation ein. In diesem Falle werden Jahreszahlen bedeutungsvoll. Die Daten, wann und wo bestimmte Erscheinungen auf verschiedenen Gebieten auftauchen oder sich durchsetzen, liefern Bedeutungszusammenhänge, die objektiven Einblick in die Entwicklung geben.“28 Giedion hatte sich in seinem kulturgeschichtlichen Hauptwerk Mechanization Takes Command (1948) für eine „anonyme Geschichte“ ausgesprochen, die erst historische Strukturen und deren wechselnde Konstellationen herausarbeiten konnte, indem sie vom Individuum abstrahierte. Giedions geschichtstheoretischer Konfigurationsraum wird von den beiden Koordinaten Stilgeschichte und Typologie bestimmt: „Die Stilgeschichte behandelt ein Thema in horizontalen, die Typologie in vertikalen Schnitten. Beide sind notwendig, damit die Dinge im historischen Raum gesehen werden können.“29 Giedion favorisierte also die typologische Betrachtungsweise. Typologie, so wie sie von ihm verstanden wurde, stellt angesichts der „Mannigfaltigkeit von Dingen“ nicht das „regulative Prinzip der Vernunft“ dar, zu dem sie Kant erklärt hatte.30 Sie meint schlicht ein methodisches Denkwerkzeug, das es erlaubt, subtile Veränderungen, Verschiebungen, Entwicklungen, kurz die „Schicksalslinie“ der historischen Phänomene über einen weiten Zeitraum zu verfolgen. Voraussetzung dafür sind „Überblick“, „simultanes Sehen“ oder „Zusammenschau“.31 Auch wenn Giedion durch seine Wortwahl implizit die Ikonisierung von Geschichte anspricht, er hat nie in dieser Richtung weitergeforscht. Dennoch konzentrieren sich seine Anstrengungen auf die kausale Beziehungsstiftung, auf die Markierung signifikanter Konstellationen im Koordinatenraum einer textbasierten Kulturgeschichte. Das historiographische Wissensbild ist ein „Konfigurationsraum“ (Bachelard), der durch das In-Beziehung-Setzen von Daten und Fakten Sinneffekte erzeugt. Die Sichtbarkeit von Zahlen, Namen und Begriffen, die an ein zweidimensionales Zeichensystem gebunden ist, eröffnet einen kognitiven Denkraum, der konventionelle Vorstellungen von Wissensbildern zu sprengen vermag, sobald man damit ein System aus kausal-logischen Relationen des Nacheinander, der Über- und Unterordnung erstellt. Es kommt auf die topologische Relationalität der Daten an. Dabei genügt es nicht wie bei Max Deri, einfach einen Rasterraum zu skizzieren und darin am Beispiel der Malerei des 19. Jahrhunderts einen Zweiländer-Vergleich über einen Zeitraum von 100 Jahren anzustellen (Abb. 4). Um die Verstrickungen im künstlerischen Feld offen zu legen, muss man zumindest rudimentäre Beziehungen zwischen Angaben herstellen, wie dies etwa Stephan Bann für die Avantgarde 27

Vgl. Schmidt-Burkhardt 2007.

28

Giedion 1987, 29.

29

Ebd. 28.

30

Vgl. Kant 1998.

31

Vgl. Giedion 1987, 28.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

mit Hilfe von Zickzacklinien versucht hat, sodass das internationale Agieren der verschiedenen Kunstströmungen in den sich kreuzenden Linien anschaulich wird (Abb. 5). Im Raume lesen wir die Zeit, heißt der Titel von Karl Schlögels geopolitischer Zivilisationsgeschichte, die anhand von Landkarten, Stadtplänen oder Fahrplänen die Welt zu entziffern sucht.32 Versucht man nun in Banns diagrammatisch angelegtem Raum zeitspezifische Momente herauszulesen, dann wird die territoriale Verlagerung avantgardistischer Aktivitäten ins westliche Ausland in Folge des kulturpolitischen Kahlschlags der Nationalsozialisten nach 1933 zum sichtbaren Faktum. Die nach innen gerichtete Differenzierungsmechanik im diagrammatischen Koordinatenraum zielt Abb. 4: Max Deri, Übersichts-Tabelle von auf ein Regelwerk der Geschichte ab. Frankreich und Deutschland. Raum und Zeit bilden also die ordnenden Strukturfaktoren. Hinzu kommt der Faktor Menge. Die Informationsflut kennzeichnet generell das Wissensbild. Dennoch ist sie kein konstitutives Merkmal. Das historiographische Wissensbild bleibt Wissensbild, ob nun mit selektiven Informationen bestückt oder mit überbordendem Datenmaterial ausgestattet.33 Wissen existiert damit in drei For- Abb. 5: Stephen Bann, Konstruktivistische men: in Sätzen, Ziffern und Bildern. Bewegungen zwischen 1920 und 1965. Sätze zielen auf die diskursive und narrative Darstellung ab. Ziffern reduzieren Mengenangaben auf diskrete Zahlengrößen, und Bilder erzeugen Wissen, indem sie Fakten in ein räumliches Verhältnis setzen. Thesenhaft zugespitzt könnte man sagen, die diagrammatische Dramaturgie der Daten erlaubt es, Wissen neu zu reflektieren – von der Produzentenseite aus im „bildnerischen Denken“ (Klee), von der Rezipientenseite aus im „visual thinking“ (Arnheim).

32

Vgl. insbesondere das Großkapitel „Kartenlesen“, in: Schlögel 2003, 81-259.

33

Vgl. dazu die große Bandbreite der Geschichtsdiagramme von George Maciunas, die vom spärlichen Informationsgerüst bis zum dichten Datenteppich reicht. Abb. in: Schmidt-Burkhardt 2003.

171

Astrit Schmidt-Burkhardt

Wissen als Struktur

172

Das Diagramm ist folglich ein Darstellungsmodus, der es erlaubt, kognitives Wissen als visuelle Praxis zu vermitteln. Es gestattet mit Fragestellungen bildnerisch zu experimentieren.34 Im Schaubild erhält der Innenraum des Denkens eine Außenseite. Als sichtbarer Denkraum unterliegt er wiederum äußeren, eben optischräumlichen Gesetzen. Auf die ordnende Raum- und Zeitkoordinate kann dennoch verzichtet werden. Trotzdem geht es, wie auch beim Koordinatensystem, prinzipiell um Ordnung, doch ist diese Ordnung nicht notwendig räumlicher, sie kann auch differenzierender Natur sein. Der Unterschied erlaubt eine Differenzierung zwischen topologischem und strukturellem Wissensbild. Im Gegensatz zum topologischen Wissensbild arbeitet das strukturelle mit Kategorien. Dabei kommt es nicht so sehr darauf an, was zu sehen ist, sondern wie sich die Begriffe zueinander verhalten. Es geht also auch hier um die direkte Darstellung von Relationen zwischen einzelnen Elementen, um diagrammatische „Demonstrationen“ (Kant), mit denen Erkenntnisse ihre Anschaulichkeit gewinnen. Diagramme als abstrakte Transkriptionen von theoretischen Konzeptionen und wissenschaftlicher Literatur gehören zum klassischen Repertoire der Wissensvermittlung.35 Auch der Sozialforscher Giorgio Tagliacozzo setzte sie im Rahmen seiner Lehrtätigkeit für Anschauungszwecke wiederholt ein. Im Wintersemester 1958/59 hielt Tagliacozzo an der New School for Social Research in New York eine Vorlesungsreihe zum Thema The World of Modern Knowledge. Integration of Science and the Humanities ab. Dem hektographierten Werbeflugblatt ist zu entnehmen, dass Tagliacozzos kostenpflichtige Lehrveranstaltung zur Ideengeschichte darauf abzielte, die „Entwicklung“, die „Struktur“ und das „Panorama“ der modernen Wissenswelt zu analysieren. Speziell wollte sich Tagliacozzo den engen Beziehungen zwischen nichteuklidischer Geometrie, symbolischer Logik, der Relativitätstheorie und Quantentheorie, der Psychoanalyse, Gestalttheorie und der modernen Kunst widmen, alles Disziplinen, die aus seiner Sicht das moderne Wissen konstituierten. Zum Auftakt der Vorlesungsreihe am 29. September dozierte Tagliacozzo über „Knowledge as image“.36 Unter den Zuhörern befand sich auch der spätere Fluxus-Künstler George Brecht, der von den Schemata, die Tagliacozzo auf die Tafel zeichnete, immerhin so beeindruckt war, dass er sie in seine Mitschrift kopierte und dann, wie das Baumstumpfschema, Anfang Oktober 1958 in sein Notizbuch klebte (Abb. 6). Der Begriff „Knowledge as image“ steht dabei an einer kompositorischen Schnittstelle des arboresken Schemas, nämlich dort, wo sich das mehrgliedrige Wurzelsystem zum massiven Stamm verdichtet. An dieser Schnittstelle treffen unterschiedliche Wissensqualitäten aufeinander, das empirische „Wissen von“ etwas (knowledge of) und die „Kenntnisse in“ diversen Wissenssparten (knowledge about). Kunst und Wissenschaft werden im Hinblick auf ihre Kompetenz in Fragen der Wissensvisualisierung gleich eingestuft. Der gravierende Unterschied besteht allerdings in ihren 34

Zum Diagramm als einem veritablen Denkwerkzeug und „Beweismittel“ vgl. Baigrie 1996.

35

Vgl. Gormans 2000, 52f.

36

Vgl. Brecht 1991, 118.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

Resultaten. Die Kunst erzeugt affektive, die Wissenschaft informative Bilder. In einer anderen Zeichnung hat Brecht das Baumstumpfschema in ein Netzdiagramm konvertiert, mit dem „Individuum“ als zentralen Knoten (Abb. 7). Ob Brecht bei diesem Schema nur abzeichnete, was Tagliacozzo an die Wandtafel schrieb, oder seinerseits gestalterisch tätig wurde und womöglich Tagliacozzo zu anschaulichem Denken inspirierte, ist schwer zu entscheiden. Fest steht, dass Brecht am 6. Oktober 1958, also während der zweiten Vorlesung von Tagliacozzo, dessen und sein distinkt abweichendes Verständnis vom präeuklidischen, vom euklidischen und nichteuklidischen Weltbild anhand von zwei kleinen Diagrammen fixierte und damit einen eigenen Standpunkt bezog (Abb. 8).37 Mit dem Imperativ des Selbstdenkens beginnt jedes strukturelle Wissensbild. Tagliacozzo seinerseits begann sich im Anschluss an diese Vorlesungsreihe mehr und mehr für die Visualisierung der Ideengeschichte zu interessieren. Anregungen dazu holte er sich aus unterschiedlichsten Richtungen: etwa aus der Tier- und Pflanzentaxonomie, aus Untersuchungen zum Metabolismus der Gewächse, von Ernst Cassirers Philosophie der symbolischen Formen, Susanne Langers dichotomer Unterscheidung zwischen Sprache und Bild als diskursiven und präsentativen Symbolismus, von Ludwig von Bertalanffys General System Theory oder von Herbert Reads These, dass innerhalb der menschlichen Bewusstseinsentwicklung das Bild der Idee vorausgeht.38 Read erteilte mit seiner Ansicht von der ikonischen Priorität bei kognitiven Prozessen dem sprachlichen Determi37

Vgl. ebd., 121.

38

Vgl. Tagliacozzo 1993, 7.

Abb. 6: George Brecht, Notizbuch.

Abb. 7: George Brecht, Notizbuch.

173

Abb. 8: George Brecht, Notizbuch.

Astrit Schmidt-Burkhardt

174

nismus des Denkens, wie ihn etwa die Psycholinguistik favorisierte, eine klare Absage. Er begründete dies mit der Vorwegnahme wissenschaftlicher Ideen durch die bildende Kunst.39 Für das bildliche Denken bot sich Tagliacozzo der Baum als Archetypus des diagrammatischen Symbolsystems regelrecht an. Mit dieser Bildform konnte er alle Wissenszweige erfassen, mit ihr ließ sich aber auch direkt in Erkenntnisformen – im Sinne einer mentalen Operation verstanden – eingreifen.40 Im Frühjahr 1959 gewann Tagliacozzo schließlich die Architektin Hildegarde Bergheim zur graphischen Umsetzung seines Wissensbaumes als breitstämmiges Gewächs, das so fest geerdet ist, dass es ohne Wurzeln auskommt (Abb. 9). Tagliacozzos Wissensbaum setzt sich aus zwei klar unterscheidbaren Astsystemen zusammen, die ihrerseits als Bäume konzipiert waren: der Wissenschaftsbaum links und der Kunstbaum rechts des Hauptstammes (Abb. 10). Die Dichotomie als Prototyp der Deduktion hat in der abstrakten Grundform des Baumes ihre anschauliche Entsprechung. Das Baumschema erAbb. 9: Giorgio Tagliacozzo, Wissensbaum. laubt über die Astgabel eine Ausdifferenzierung, die sich über die Äste und Zweige immer weiter verfeinern lässt. Die Möglichkeit, jede Systemstelle in diesem Verteilernetz mit geradezu mathematischer Topik zu bestimmen, hat unzweifelhaft ihren Reiz. Die rationalisierte Form einer deduktiven Logik erlaubt es, die Entwicklung Schritt für Schritt, Phase für Phase definieren und verfolgen zu können. Das Ordnungsgefüge eines Baumes ist jedoch nur hinsichtlich seiner Dreiteilung in ‚Wurzeln‘, ‚Stamm‘ und ‚Ästen‘ klar. Dagegen ist das unregelmäßige und letztlich unberechenbare Astsystem mit seinem hohen Verzweigungsgrad und seiner Abb. 10: Giorgio Tagliacozzo, Kunstbaum. Raumausdehnung fraktalen Systemen eminent ähnlich. Um Tagliacozzos Wissensbaum dennoch eine übersichtliche Struktur zu verleihen, ließ Bergheim alle Äste gabelförmig, wie bei einem Spaliergewächs, emporwachsen. So kommt es auf den verschiedenen taxonomischen Ebenen immer wieder zur Teilung der Äste aber nie zu einer Überschneidung.

39

Vgl. Read 1961.

40

Vgl. etwa Cernuschi 1996; Siegel 2004; Wendler 2003.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

Tagliacozzos Wissensbaum basiert auf fünf Axiomen, die dem Baum als kommentierender Text zur Seite gestellt sind. Erstens versiegen führende intellektuelle Trends nie, sondern setzen sich unendlich fort, indem sie sich an die veränderten Verhältnisse anpassen. Daraus ergibt sich zweitens, dass unterschiedliche Denkströmungen parallel auftreten und sich jeweils in nur eine Richtung entfalten können. Drittens bilden einzelne Disziplinen wie etwa Ökonomie, Ethik oder Psychologie eine Summe aus verschiedenen und unterschiedlich alten Denkströmungen, deren gemeinsamer Nenner lediglich auf analogen Themenstellungen und Begrifflichkeiten beruht. Um einer semantischen Unschärfe vorzubeugen, ist der Baum so angelegt, dass die einzelnen Wissenskulturen jenen großen Strömungen zugeordnet sind, denen sie vorwiegend angehören. Viertens folgt aus den ersten drei genannten Axiomen, dass das Panorama zeitgenössischen Wissens immer auch ein historisches Panorama ist, dass taxonomische oder integrative Modelle scheitern müssen, da sie auf Disziplinen und nicht auf parallel existierenden Denkströmungen beruhen und schließlich, dass im Wissensbaum einzelne Disziplinen an verschiedenen Stellen genannt werden. Fünftens ist der Wissensbaum historisch, da er chronologisch angelegt ist; er ist taxonomisch, weil er klassifiziert; er ist integrativ, da die vereinheitlichende Struktur des Baummodells es erlaubt, Beziehungen, Kombinationen, Ableitungen und Affinitäten zwischen einzelnen Wissenszweigen sichtbar zu machen; er ist semantisch, weil er Veränderungen innerhalb einzelner Disziplinen im Rahmen der Wissensevolution zum Ausdruck bringt; er ist aus ersichtlichen Gründen pädagogisch und er ist heuristisch im Sinne einer imaginativen Recherche.41 Auf der Grundlage dieser Axiomatik entwickelte Tagliacozzo sein strukturell angelegtes Panorama weiter. Hinzu kam 1961 ein glücklicher Fund: die Schriften des längst vergessenen Neapolitanischen Philosophen Giambattista Vico, dessen Wiederentdeckung im großen Stil sich Tagliacozzo zur Lebensaufgabe machen sollte. Tatsächlich gingen von Tagliacozzo maßgebliche Impulse für die amerikanische Vico-Forschung aus. Mit der Gründung eines eigenständigen Instituts sowie der Herausgabe einer Zeitschrift im wissenschaftlichen Feld wurde diese fest verankert. Bestätigung und Bestärkung erhielt Tagliacozzo in seiner Arbeit an dem Wissensbaum von Vicos Hauptwerk La Scienza Nuova (erste Ausgabe 1725, endgültige Fassung 1744) sozusagen post factum. Vico war im Zuge seiner Rekonstruktion der „poetischen Weisheit“, als Weltanschauung der archaisch-heidnischen Welt verstanden, sichtlich bemüht, die Wissenschaften in ein System zu bringen. Dazu wählte er die in seiner Zeit virulente Metapher des Baumes, anhand der sich die Entwicklung hin zur poetischen Weisheit veranschaulichen ließ. Nach Vicos Verständnis ist jeder Ursprung roher Natur, und so geht denn auch die „poetische Weisheit“ geradewegs auf die rohe Metaphysik zurück, die den Stamm bildet. Daraus entwickelt sich ein poetischer, sprich geisteswissenschaftlicher Ast mit den Disziplinen Logik, Moral, Ökonomie – hier als Lehre von der Ordnung der Familie als Hausgemeinschaft verstanden, die zwischen dem Einzelnen und dem Staat

41

Dieser klein gedruckte Kommentar kann in Tagliacozzo 1993, 8 nachgelesen werden.

175

Astrit Schmidt-Burkhardt

vermittelt42 – und Politik einerseits sowie andererseits ein naturwissenschaftlicher Ast mit der ebenfalls als poetisch charakterisierten Physik, unter der Vico die ganze Natur, das heißt eben auch die menschliche Physis versteht. Diese poetische Physik wiederum bildet die Mutterwissenschaft für Kosmographie und Astronomie, aus der die beiden historiographischen Tochterdisziplinen Chronologie und Geographie hervorgehen.43 Bemerkenswert ist, dass Vico im Rahmen seiner schematischen Darstellung von den theoretischen und den praktischen Disziplinen der Kunst keinen Platz eingeräumt hat. Der Wissensbaum auch Baum der „poetischen Weisheit“ genannt, wurde von Vico – wie gesagt – nur als Metapher gebraucht. Das Sinnbild war dennoch prägend. Vico zog es zur strukturellen Gliederung seiner ideenreichen Schrift heran, die er als früher Vertreter eines „wilden Denkens“ nur mit Mühe ordnen konnte, zumal sich das grobe Raster, das der Baum bot, zur Erfassung des inneren Zusammenhangs einer hochkomplexen Sachlage nur bedingt eignete. Von dem für heutige Leser nicht immer leicht nachzuvollziehenden Aufbau des Buches ließ sich Tagliacozzo jedoch wenig abschrecken und übersetzte 1989 das metaphorische Bild in ein anschauliches Baumsymbol (Abb. 11). Für uns spielt es dabei keine Rolle, dass er den geisteswissenschaftlichen Hauptast bei Vico in vier paritätische Äste aufspaltete. Diese Modifikation ist darauf zurückzuführen, dass Tagliacozzo die mangelhafte Übersetzung des altitalienischen OrigiAbb. 11: Giorgio Tagliacozzo, Vicos Baum naltextes ins Amerikanische benutzte.44 der "Poetischen Weisheit". In unserem Zusammenhang zählt vielmehr: für Tagliacozzo wurde Vicos Baum der „poetischen Weisheit“ zur absoluten Referenz seiner Klassifikation der Wissenskulturen. Beide, Vico und Tagliacozzo, treten als Klassifizierer wie als Deszendenztheoretiker auf.

176 42

Die politische Ökonomie, als Volkswirtschaft verstanden, wird erst im Laufe des 18. Jahrhunderts geläufig. Den ersten Lehrstuhl für diese Wissenschaft erhielt der VicoSchüler Antonio Genovesi 1754 in Neapel. Vgl. Hösle 1990, XCIV.

43

Vgl. § 367 in: Vico 1990, 164.

44

In der altitalienischen Originalausgabe Principi di Scienza Nuova, Neapel 1744, 132, heißt es nämlich: „[…] dobbiamo per tutto ciò dar’ incominciamento alla SAPIENZA POETICA da una rozza lor Metafisica; dalla quale, come da un tronco si diramino per un ramo la Logica, la Morale, l’Iconomica, e la Politica tutte Poetiche; e per un’ altro ramo tutte eziandio Poetiche la Fisica, la qual sia stata madre della loro Cosmografia, e quindi dell’ Astronomia; che ne dia accertate le due sue figliuole, che sono Cronologia, e Geografia.“ Vgl. dazu Tagliacozzo 1993, 1, der § 367 in: Vico 1968, zitiert. In dieser, wie auch der früheren Fassung der Übersetzung von 1948 ging die „poetische“ Eigenschaft der Physik unter bzw. wurde der Chronologie und der Geographie zugeschrieben.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

1989, nach dreißig Jahren Denkpause, entwickelte Tagliacozzo eine zweite Fassung seines Wissensbaumes, die er diesmal von dem amerikanischen Architekturprofessor Donald Kunze in eine Graphik übertragen ließ (Abb. 12).45 Dieser neue, merklich ins Querformat gedehnte Wissensbaum lehnt sich in seiner Bildsprache deutlich an Bergheims gestalterische Vorgaben von 1959 an (Abb. 9). Tagliacozzo ergänzte den Untertitel mit der Formulierung Genetische Geschichte der menschlichen Einbildungskraft. Darin kommt das Bemühen zum Ausdruck, sich hier noch einmal an einem Universalbaum des Wissens zu versuchen. Neu ist auch der klein

Abb. 12: Giorgio Tagliacozzo, Wissensbaum.

gedruckte Beisatz „Alle Hauptprodukte der Einbildungskraft, die je hervorgebracht wurden, neigen dazu, ad infinitum fortzubestehen“.46 In dieser leicht zu übersehenden Anmerkung verleiht Tagliacozzo seiner 1959 formulierten Ausgangsthese vom Weiterleben geistiger Traditionen den Status einer wissenschaftlichen Tatsache. Dass die überarbeitete Fassung des Wissensbaumes von 1989 hier und da etwas ausdifferenzierter ausfällt, dass Umstellungen und Korrekturen vorgenommen wurden, versteht sich von selbst. So tauschte Tagliacozzo beispielsweise beim Kunstbaum die einst von Susanne Langer übernommene philosophische Terminologie „presentational“ und „presentational-discursive“ gegen „imaginative universals“ und „imaginative-abstract universals“ aus (Abb. 13). Mit dieser neuen Begrifflichkeit – teils an Vico angelehnt, teils selbst geprägt – sollte eine klare Unterscheidung zwischen der unaufgeklärten Kunst im „Zeitalter der Götter“ und der weitgehend rationalen Kunst im „Zeitalter der Wissenschaft“ getroffen werden.47 Gegensatzbildungen wie diese hatten im Kunstdiskurs des 20. Jahrhunderts vor allem dazu gedient, neue ästhetische Trends von alten abzuheben. Tagliacozzo indessen nutzte die terminologische Gegensatzbildung, um innerhalb seines Wissensbaumes Vergleiche zwischen dem Kunstbaum einerseits und dem Wissenschaftsbaum andererseits zu begünstigen.48 45

Zu Kunzes jüngster Auseinandersetzung mit Vico vgl. Kunze 2005 (dort weitere Literaturhinweise).

46

„All major products of imagination, once born, tend to survive indefinitely.“

47

Vgl. Tagliacozzo 1993, 19.

48

Ebd.

177

Astrit Schmidt-Burkhardt

Bemerkenswert sind aber nicht nur die Abweichungen bei dem überarbeiteten Kunstbaum von 1989. Bemerkenswert sind auch die Konstanten. So trägt Tagliacozzo der Dynamik der Kunstentwicklung nach 1959 keine Rechnung mehr. Für ihn hört die Moderne mit dem „Abstrakten Impressionismus“ auf, eine Fehldeklarierung, die er 1989 zwar zu „Abstrakter Expressionismus“ korrigiert, so als ob damit schon alles gesagt sei. Womöglich hielt sich Tagliacozzo aber auch mit dem neu hinzugefügten Seitenarm „Later Trends …“ eine Hintertür offen, wodurch postmoderne Kunstrichtungen in sein figuratives Denkmodell eingeschleust werden konnten.

Wissen als Verabsolutierung

178

Diagramme sind ein bewährtes Medium der Konzeptarbeit. Sharon Helmer Poggenpohl und Dietmar R. Winkler erkennen darin sogar ein Instrument zur „Erschaffung der Welt“ und lassen uns so den diagrammatischen Schöpfungsakt als intellektuelle Genesis begreifen.49 Das Beispiel Poggenpohl/ Winkler macht aber auch auf ein prinAbb. 13: Giorgio Tagliacozzo, Kunstbaum. zipielles Problem aufmerksam: Diagramme erzeugen Weltbilder im Sinne von Weltanschauung. Diagramme, ob als topologische oder als strukturorientierte Wissensbilder, folgen bei der Bedeutungsproduktion keiner objektiven Verbildlichungsstrategie. Sie sind ein von darstellenden und ideologischen Parametern durchzogenes System. In diesem Sinne lassen sich die Konfigurationen von Wissen als Repräsentation eines Weltbildes erklären. Bewusst oder unbewusst werden sie mit ideologischen Werten aufgeladen, die als Metarahmen auf das Diagramm zurückwirken. Als Ordnungssysteme vermitteln sie implizit Ideologeme. Diese sind im Diagramm quasi kontingent angelegt. Es besteht eben ein gravierender Unterschied, ob man zur „Erschaffung der Welt“ ein hierarchisches Baummodell, ein egalitäres Kreisschema oder ein rhizomatisches Netzdiagramm wählt.50 Weltbild soll hier aber auch noch in einem anderen Sinne verstanden werden und zwar als explizite Darstellung von Weltanschauung. In der Soziologie sind ideologisch-ikonische Schemata als Zwiebel-, Pyramiden-, Schichtenmodelle, Basis-Überbau-Konstruktionen etc. geläufig. In der Kunstwissenschaft stellen dia49

Vgl. dazu das von Poggenpohl / Winkler 1992 herausgegebene Themenheft „Diagrams as Tools for Worldmaking“.

50

Vgl. dazu die Analyse der Diskursstrukturen von Flusser 1998.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

grammatische Weltbilder eher die Ausnahme dar. Unser Beispiel stammt von dem Architektur- und Kunsthistoriker Paul Ligeti. Von ihm erschien in Ungarn kurz vor dem Höhepunkt der Weltwirtschaftskrise, 1926, Új Pantheon felé a kultúrák élete a müvészet tükrében. In Deutschland kam das Werk kurz nach dem Höhepunkt der Weltwirtschaftskrise, 1931, in der erweiterten Fassung Der Weg aus dem Chaos heraus – ein stattlicher Band, der das Weltgeschehen aus dem Rhythmus der Kunstentwicklung her zu deuten versucht. Wie im Untertitel anklingt, gehört Ligeti zu den Anhängern der zyklentheoretisch angelegten Geschichtsphilosophie à la Oswald Spengler. Gemäß der mathematisch konstruierten Modelltheorie von Geschichte wird von einer gesetzmäßigen Wiederholung historischer Prozesse ausgegangen. Unterstellt wird dabei eine Selbstregulierung von Geschichte. Mit ihr kommt die Problematik der Großperiodenberechnung und der Phasenverschiebung ins Spiel. Im Ergebnis entsteht ein Bild von sich überlagernden Sequenzen (Abb. 14). Die Welle ist das Symbol einer rhythmischperiodischen wie gleichermaßen unumkehrbaren Entwicklung. Epochale Zäsuren sind auf der Zeitlinie eingetragen. Der Wandel findet hier lediglich innerhalb eines gleich bleibenden formalen Strukturablaufs statt. Probleme werden verschoben und verlagert und so immer wieder aufs Neue abgearbeitet. Die historische Reorganisation ba- Abb. 14: Paul Ligeti, Stil und Welle. siert einzig auf der Transformierbarkeit von Problemlagen. Jeder Ansatz eines Fortschrittsoptimismus wird auf diese Weise im Keim zerstört. Die geschichtsphilosophische Metaerzählung dreht sich lediglich um den festgelegten Paradigmenwechsel von aufsteigenden und rückläufigen Konjunkturen. In diesem fixen Modus ist die hochstilisierte Selbstbeschreibung eines Gesellschaftssystems eingeschrieben, in der Geschichtserfahrung als Differenzerfahrung weiterwirkt.51 Gegenüber der Zyklentheorie lässt sich einwenden, dass deren Logik und Psychologie einem individuellen Denkmuster folgt, welches mit seiner mathematischen Durchrhythmisierung von historischen Prozessen eine objektive Gültigkeit in Anspruch nimmt. Ernst Cassirer spricht in diesem Zusammenhang von „reinen Idealrelationen“.52 Auch die Kurve und, in ihrer seriellen Verlängerung, die Welle repräsentiert eine Idealrelation. Die Welle ist die Regel, die das Geschichtsbild bestimmt. Sie behauptet ein Gleichmaß der historischen Entwicklung, in deren permanenter Wiederholung etwas Obsessives mitschwingt. Als statistischer Datentyp schränkt die Kurve obendrein den Interpretationsspielraum massiv ein. So gesehen rückt Ligetis zyklentheoretische Darstellung in die Nähe eines mythischen Weltbilds, das sehr schnell ins totalitaristische Fahrwasser gerät. Geht nämlich die graphische Überzeugungsstrategie auf, dann scheint nur der Faschismus in der Lage zu sein, der vorprogrammierten „zivilisatorischen Verwüstung“ entgegenwirken zu können. 51

Vgl. Luhmann 1985.

52

Vgl. Cassirer 1910, 449-459.

179

Astrit Schmidt-Burkhardt

180

Im Zusammenhang mit Ligetis illustrierter Wellen-Theorie fallen zwei „schematische Bilder“ aus dem Rahmen, die einer ideologischen Ikonographie zuzuarbeiten scheinen (Abb. 15). Mit abstrakten graphischen Mitteln werden hier drei bzw. vier Weltanschauungen schablonenhaft skizziert, die in dem Zeitraum zwischen dem Ende des Impressionismus und der Fertigstellung von Ligetis deutschem Buchmanuskript im Winter 1930/31 vorherrschen. In der oberen Schemazeichnung werden die schwungvollen Wellen, die Ligeti in zwei Dutzend Kurvendiagrammen dem Leser als historiographisches Musterbild eingeprägt hatte, nun zu schnurgeraden Linien geglättet. Die Kombination aus mehreren dünnen und nach außen zu sich verdickenden Geraden erinnert an Abb. 15: Paul Ligeti, Die drei Integrationseinen Strichcode, der von sechs vertikatendenzen. len Linien unterteilt wird. Im Vergleich dazu weckt die untere Schemazeichnung allenfalls Assoziationen mit Lochkarten oder Morsezeichen. Die horizontalen Linien zerfallen in kurze, unregelmäßige Striche. Ovale Rahmenformen teilen das Strichmuster in mehrere Zonen auf; indem sie sich überschneiden, ergeben sie ein lockeres Geflecht aus horizontalen und vertikalen Verknüpfungen. Doch welches Weltbild bzw. welche Weltanschauung soll mit diesen schlichten Strichen, Linien, und Kreisformen visualisiert werden? Das obere Modell repräsentiert die so genannte „gesunde Gesellschaft“, als Mehrebenensystem. Für Ligeti bestand sie aus einer breiten Mittelschicht – hier als viele dünne Linien symbolisiert. Darüber bzw. darunter ist mit je zwei dicken Linien die Ober- bzw. Unterschicht angedeutet. Die Übergänge zwischen den verschiedenen Gesellschaftsschichten sind fließend, wie an den unterschiedlichen Strichstärken abzulesen ist. Nationalstaatliche Unterschiede, anhand vertikaler Grenzlinien markiert, sind auf ein Minimum reduziert. Die Differenzen sind so subtil, dass sie Ligeti mit den harmonisch verlaufenden Abstufungen eines Farbenspektrums vergleicht.53 Dementsprechend gelingt es der „gesunden Gesellschaft“ soziale Gegensätze nach innen durch fließende Übergänge abzubauen und nach außen hin keine internationalen Differenzen aufkommen zu lassen. Dagegen besteht die „zersetzte Gesellschaft“, deren Beginn mit dem Ende des Impressionismus datiert wird, aus hemmungslosem Individualismus, wie das untere Schema zu verdeutlichen sucht.54 Drei Weltanschauungen werden für das zerrüttete Gemeinwesen verantwortlich gemacht, die Ligeti zu einer verabsolutierenden Bildformel verdichtet hat. Für die „zersetzte Gesellschaft“ ist symptomatisch, dass die tragende Mittelschicht zerrieben wird. Partiell gelingt es ihr, in der Oberschicht aufzugehen, der überwiegende Teil driftet jedoch in die Unterschicht ab. Die Folge dieser Zersetzungstendenzen ist eine soziale Polarisierung, die Integrationstendenzen nach sich ziehen 53

Vgl. Ligeti 1931, 305f..

54

Vgl. ebd., 253.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

und zwar auf internationaler Ebene. Im Sinne des Marxismus bildet das Proletariat die neue Unterschicht, während sich die neue Oberschicht zur herrschenden Klasse formiert und als solche den Spätkapitalismus verkörpert. Diese unüberbrückbaren gesellschaftspolitischen Fronten führen in dem Schema zur Blockbildung zwischen zwei topologisch definierten Klassen-Räumen. Mit scharfer Kritik an der Mehrwert-Ideologie einerseits und an der gleichmacherischen Nivellierung von physischer und geistiger Arbeit andererseits versucht Ligeti die konträren Positionen zu zähmen.55 Aus dem „Wellengesetz der Geschichte“ glaubt er zweierlei ableiten zu können: zum einen die Pflicht, Zinserträge von akkumuliertem Kapital an Mittellose auszuzahlen, zum anderen die „ethische“ und damit meint er die „kollektiv“ ausgerichtete „Regenerierung“ der Oberschicht.56 Ideologisch leiten Ligetis holzschnittartig skizzierte Thesen zum Faschismus über, dem die Fähigkeit zugesprochen wird, die aufgestauten Energien zum Klassenkampf absorbieren zu können. Ausgehend von der geschwächten Mittelschicht vereint der Faschismus die gegensätzlichen Klassen zumindest auf nationaler Ebene, ein Phänomen, das durch drei vertikale Ovale symbolisiert werden soll.57 Ligeti ist sich der Gefahr bewusst, die in einer derartigen Abkapselung des faschistischen Staates liegt. Umgekehrt weist er den paneuropäischen Gedanken als ungebremstes Machtstreben des Großkapitals mit aller Entschiedenheit zurück.58 In Italien und Deutschland ist die Situation angeblich anders. Mit der Bereitschaft, sich übernational zu organisieren, eröffnet der Faschismus dort der Mittelschicht ansatzweise eine politische Perspektive.59 Trotz dieses pro-faschistischen Schwenks versucht Ligeti, eine parteilose Position zu suggerieren, indem er zur nationalsozialistischen Doktrin auf Distanz geht. Ihr Idealismus sei zu reaktionär, ihr Nationalismus zu sehr auf Isolation hin angelegt, lautet seine Kritik, die weit gemäßigter ausfällt als gegenüber dem Marxismus oder dem Kapitalismus. Am Schluss seines Überblickbandes mit dem programmatischen Titel Der Weg aus dem Chaos zeichnet Ligeti dann den Weg ins Chaos vor und zwar als gewaltvollen Kampf zwischen den drei Hauptideologien Marxismus, Kapitalismus und Faschismus. Ligeti spricht von „Erschütterungen der nächsten Jahre“, vom „Kampf “ der ideologischen Kräfte, von der großen „Gefahr“ einer Wiederholung der Ereignisse von 1914-18 und situiert dementsprechend seine Schrift in den „Vorabend“ tief greifender Auseinandersetzungen, die, zieht man die logischen Konsequenzen aus seiner Zeitdiagnose, nur auf einen neuen Weltkrieg im Sinne einer Ideologieschlacht hinauslaufen können.60 In diesem fatalistischen Szenario ist auch eine zivilisationsgeschichtliche Zukunftsperspektive angelegt.61 Am zeitfernen Horizont taucht die „gesunde Gesellschaft“ sozusagen als einfaches Streifenmuster wieder auf. Soviel zur ideologischen Mustererkennung bei Ligeti.

55

Vgl. ebd., 260f.

56

Vgl. ebd., 305.

57

Vgl. ebd., 264.

58

Vgl. ebd., 267f.

59

Vgl. ebd., 268.

60

Vgl. ebd., 254f.

61

Vgl. ebd., 291-296.

181

Astrit Schmidt-Burkhardt

Resümee

182

Die rekursiven Wissensbilder in der Geisteswissenschaft operieren mit Fakten. Sie sind in der Regel akkumulativ, das heißt der mittels Koordinaten definierte Konfigurationsraum zeichnet sich durch eine hohe Datendichte aus. Die Aufgabe des topologischen Wissensbildes besteht in der räumlichen Systematisierung von Informationen und Rationalisierung sachlicher Beziehungen. Ihre Kapazität liegt sowohl in der Vermittlung als auch in der Theoriebildung. Das sichtliche Bemühen, die letztlich unauslotbare historische Fülle mit Hilfe eines formalen Rasters zu bändigen, zielt darauf ab, dem faktenlastigen Wissensbild ein memorierbares Ordnungsmuster zu verleihen. Kriterien des Ästhetischen fließen in diese Anstrengung ein, um das Wahrnehmungsmuster des Betrachters zu verbessern, denn neurobiologisch gesehen prägen sich regelmäßige Formen leichter ins Gedächtnis ein als „chaotische“ Netzstrukturen. Wissen als intellektueller Produktionsfaktor bedarf stets besonderer Verhältnisse der Generierung, Verteilung und Bewahrung.62 Schon lange vor dem Iconic Turn der Kulturwissenschaften spiegelt dabei die diagrammatische Gestaltung der Wissensproduktion auf geradezu aberwitzige Weise die in der Wirtschaft angestrebten Effizienzgewinne wieder. Das faktenreiche Diagramm folgt dem Diktat ökonomischen Effizienzstrebens: Es geht um schnelleres Wissen, um wirksamere Erfassung, eben um Mehrwissen. Wenn beispielsweise ein „Wissensarbeiter“ wie George Maciunas große Informationsmengen in sein Schema einfließen lässt, dann versucht er dem Druck zeitnaher, das heißt hochaktueller Datenlagen mit Hilfe eines quasikompletten Überblicks standzuhalten.63 Im Gegensatz zu den topologischen Wissensbildern arbeiten die strukturellen Wissensbilder mit Kategorien. Sie eröffnen ein Experimentierfeld für konzeptuelle Gedankenkonstruktionen. Logisch-kausale Ordnungen erzeugen nicht nur ikonische Denkmodelle, sie selbst sind eine Art Denkstil, der sich bildnerischer Mittel bedient. In diesem Sinne gleicht der Philosoph einem Zeichner, der alle Zusammenhänge aufzeichnet, so wie dies Wittgenstein mit etwa tausend Skizzen praktiziert hat.64 Dabei sind strukturelle Wissensbilder in ihren Bemühungen um generelle Aussagen so subjektiv gefärbt wie ansatzweise die raumbezogenen Wissensbilder.65 Dies lässt sich an der Klassifikationstheorie von Tagliacozzo ablesen: Sie beruht obendrein auf einem Zirkelschluss. Von der Annahme einer Evolution ausgehend suchte Tagliacozzo nach einem Ordnungsmuster in der Natur, das seine Annahme wiederum bestätigte. Er fand es im Baum als dem diagrammatischen Archetypus schlechthin. Das Baummodell bot sich als Klassifikationssystem der Wissenskulturen deswegen an, weil es als hierarchisch abgestuftes Verteilernetz auf anschauliche Weise den Gedanken einer steten Weiterentwicklung des Wissens, als Höherentwicklung verstanden, verdeutlichen kann. Gegenüber der Verräumlichung von Wissen und der strukturell ausdifferenzierten Wissensordnung erscheinen verabsolutierende Modellsysteme seltsam abstrakt. Als Beleg dafür wurden die

62

Vgl. Willke 2002.

63

Vgl. dazu auch Schmidt-Burkhardt 2003.

64

Vgl. Wittgenstein 1994, 37.

65

Zum Diagramm als einer durch und durch „politischen Angelegenheit“ vgl. die im Anschluss an Michel Foucault formulierten Überlegungen von Deleuze 1977, 128.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

Weltbilder von Ligeti angeführt. Mit wenigen Strichen schafft es der Architekturund Kunsthistoriker, Weltanschauungspolitik zu betreiben. Dabei greift er auf die suggestiven Mittel einer „Ästhetik von Unten“ zurück. Der Begriff „Ästhetik von Unten“ wurde im späten 19. Jahrhundert von dem Physiker und Philosophen Gustav Theodor Fechner zur Abgrenzung gegenüber der schöngeistigen „Ästhetik von Oben“ geprägt, wie sie die traditionelle Philosophie und die Literaturwissenschaft fast ausschließlich im Zusammenhang mit Kunst diskutierte. Die Schönheit von wissenschaftlichen Theorien und, daraus abgeleitet, von Ideologien wurde in der „Ästhetik von Oben“, die induktiv ausgerichtet war, konsequent ausgeklammert. Demgegenüber ist die „Ästhetik von Unten“ experimentell angelegt. Sie betrachtet das Schönheitserleben als das, was es empirisch ist: als alltägliches psychologisches Phänomen, das man in Experimenten analysieren kann.66 Die Versuche belegen, dass einfache, klare, homogene Formen positive Assoziationen beim Betrachter auslösen, und in diesem ganz spezifischen Sinne, wirkt Ligetis schlichtes Musterbild einer „gesunden Gesellschaft“ befremdlich schön. Ligetis Schemazeichnung baut darauf auf, dass Visualisierung zur politischen Mehrheitsbildung führt, zu einer ideologischen Konsensfähigkeit, die auf dem ästhetischen Assoziationsprinzip beruht. Hinter der totalitären Wirkungsstrategie seiner Schemata steckt eine bildpolitische Dimension, die mitnichten unterschätzt werden darf.

183

66

Vgl. Fechner 1876, 1-7.

Astrit Schmidt-Burkhardt

Abbildungsverzeichnis Abb. 1: Rosalind E. Krauss, Die Originalität der Avantgarde und andere Mythen der Moderne, hrsg. v. Herta Wolf, Amsterdam und Dresden 2000, S. 340 Abb. 2: Gerhard Dirmoser, Das Diagramm ist (k)ein Bild (Detail), 2005, CDRom, Astrit Schmidt-Burkhardt, Salzburg Abb. 3: Banister Fletcher, Der Architekturbaum, in: Fletcher, A History of Architecture on the Comparative Method for Students, Craftsmen, and Amateurs, 6. Auflage, London 1921, S. iii Abb. 4: Max Deri, Übersichts-Tabelle von Frankreich und Deutschland, in: Deri, Die Malerei im XIX. Jahrhundert. Entwicklungsgeschichtliche Darstellung auf psychologischer Grundlage, Bd. 2, Berlin 1923, Taf. I Abb. 5: Stephen Bann, Konstruktivistische Bewegungen zwischen 1920 und 1965, in: Bann (Hrsg.), The Tradition of Constructivism, New York 1974, S. XVIIII Abb. 6: George Brecht, Notizbuch, Okt. 1958 – April 1959, o. S., Manuskript, The Gilbert and Lila Silverman Fluxus Collection, Detroit Abb. 7: George Brecht, Notizbuch, Okt. 1958 – April 1959, o. S., Manuskript, The Gilbert and Lila Silverman Fluxus Collection, Detroit Abb. 8: George Brecht, Notizbuch, Okt. 1958 – April 1959, o. S., Manuskript, The Gilbert and Lila Silverman Fluxus Collection, Detroit Abb. 9: Giorgio Tagliacozzo, Wissensbaum, 1959, Offsetdruck, 70,5 x 115 cm, Privatslg. Abb. 10: Giorgio Tagliacozzo, Kunstbaum (Detail aus: Wissensbaum, 1959) Abb. 11: Giorgio Tagliacozzo, Vicos Baum der „Poetischen Weisheit“ (Detail aus: Wissensbaum, 1989, Offsetdruck, 75 x 113,5 cm, Privatslg.) Abb. 12: Giorgio Tagliacozzo, Wissensbaum, 1989, Offsetdruck, 75 x 113,5 cm, Privatslg. Abb. 13: Giorgio Tagliacozzo, Kunstbaum (Detail aus: Wissensbaum, 1989) Abb. 14: Paul Ligeti, Stil und Welle, in: Ligeti, Der Weg aus dem Chaos. Eine Deutung des Weltgeschehens aus dem Rhythmus der Kunstentwicklung, München 1931, Abb. 143 Abb. 15 Paul Ligeti, Die drei Integrationstendenzen, in: Ligeti, Der Weg aus dem Chaos. Eine Deutung des Weltgeschehens aus dem Rhythmus der Kunstentwicklung, München 1931, Abb. 301.

184

Bibliographie Mortimer J. Adler, 1940, How to Read a Book, New York. Brian S. Baigrie (Hrsg.), 1996, Picturing Knowledge. Historical and Philosophical Problems Concerning the Use of Art in Science, Toronto. László Beke, 2003, Postmoderne Phänomene und New Art History, in: Hans Belting / Heinrich Dilly / Wolfgang Kemp / Willibald Sauerländer / Martin Warnke (Hrsg.), Kunstgeschichte. Eine Einführung, 6. Aufl., Berlin, S. 379-399.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

Gottfried Boehm, 2004, Jenseits der Sprache? Anmerkungen zur Logik der Bilder, in: Christa Maar / Hubert Burda (Hrsg.), Iconic Turn. Die neue Macht der Bilder, Köln, S. 28-43. Steffen Bogen / Felix Thürlemann, 2003, Jenseits der Opposition von Text und Bild. Überlegungen zu einer Theorie des Diagramms und des Diagrammatischen, in: Alexander Patschovsky (Hrsg.), Die Bildwelt der Diagramme Joachims von Fiore. Zur Medialität religiös-politischer Programme im Mittelalter, Ostfildern, S. 1-22. Steffen Bogen, 2005, Schattenriss und Sonnenuhr: Überlegungen zu einer kunsthistorischen Diagrammatik, in: Zeitschrift für Kunstgeschichte, Bd. 68, H. 2 (2005), S. 153-176. Steffen Bogen, 2007, Logische und ästhetische Experimente. Diagramme bei Peirce und Duchamp, in: Angela Lammert / Carolin Meister / Jan-Philipp Frühsorge / Andreas Schalhorn (Hrsg.), Räume der Zeichnung, Berlin / Nürnberg, S. 38-56. Ulrike Maria Bonhoff, 1993, Das Diagramm. Kunsthistorische Betrachtung über seine vielfältige Anwendung von der Antike bis zur Neuzeit, München. George Brecht, 1991, Notebooks II. October 1958–April 1959, Köln. Sebastian Bucher, 2007, Das Diagramm in den Bildwissenschaften. Begriffsanalytische, gattungstheoretische und anwendungsorientierte Ansätze in der diagrammtheoretischen Forschung, in: Ingeborg Reichle / Steffen Siegel / Achim Spelten (Hrsg.), Verwandte Bilder. Die Fragen der Bildwissenschaft, Berlin, S. 113-129. Charles H. Caffin, 1905, How to Study Pictures, New York. Ernst Cassirer, 1910, Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Existenzkritik, Berlin. Alain Cernuschi, 1996, L’arbre encyclopédique des connaissances. Figures, opération, métamorphoses, in: Roland Schaer (Hrsg.), Tous les savoirs du monde. Encyclopédies et bibliothèques, de sumer au XXIe siècle, Paris, S. 377-382. Gilles Deleuze, 1977, Kein Schriftsteller: ein neuer Kartograph, in: Gilles Deleuze / Michel Foucault, Der Faden ist gerissen, Berlin, S. 101-136. Gilles Deleuze, 2005, Acht Jahre danach, in: Gilles Deleuze, Schizophrenie & Gesellschaft, Texte und Gespräche von 1975 bis 1995, Frankfurt a.M., S. 168-178. Gustav Theodor Fechner, 1876, Vorschule der Ästhetik, Bd. 1, Leipzig. Vilém Flusser, 1998, Kommunikologie, Frankfurt a.M. Peter Galison, 2002, Images Scatter into Data. Data Gather into Images, in: Bruno Latour / Peter Weibel (Hrsg.), Iconoclash, Cambridge, Mass. / London, S. 300323. Sigfried Giedion, 1987, Die Herrschaft der Mechanisierung. Ein Beitrag zur anonymen Geschichte, Frankfurt a.M. Ernst H. Gombrich, 1978, Vom Bilderlesen, in: Ernst H. Gombrich, Meditationen über ein Steckenpferd. Von den Wurzeln und Grenzen der Kunst, Frankfurt a.M., S. 263-277. Ernst H. Gombrich, 1984a, Das Bild und seine Rolle in der Kommunikation, in: Ernst H. Gombrich, Neue Studien zur Psychologie der bildlichen Darstellung, Stuttgart, S. 135-158.

185

Astrit Schmidt-Burkhardt

186

Ernst H. Gombrich, 1984b, Zwischen Landkarte und Spiegelbild: Das Verhältnis bildlicher Darstellung und Wahrnehmung, in: Ernst H. Gombrich, Bild und Auge, Stuttgart, S. 169-211. Nelson Goodman, 1997, Sprachen der Kunst. Entwurf einer Symboltheorie, Frankfurt a.M. Andreas Gormans, 2000, Imaginationen des Unsichtbaren. Zur Gattungstheorie des wissenschaftlichen Diagramms, in: Hans Holländer (Hrsg.), Erkenntnis, Erfindung, Konstruktion. Studien zur Bildgeschichte von Naturwissenschaften und Technik vom 16. bis zum 19. Jahrhundert, Berlin, S. 51-71. Charles Hartshorne / Paul Weiss (Hrsg.), 1932, Collected Papers of Charles Sanders Peirce, Bd. 2, Cambridge, Mass., S. 156-173. Vittorio Hösle, 1990, Einleitung: Vico und die Idee der Kulturwissenschaft. Genese, Themen und Wirkungsgeschichte der Scienza nuova, in: Giovanni Battista Vico, Prinzipien einer neuen Wissenschaft über die gemeinsame Natur der Völker, Teilbd. 1, Hamburg, S. XXXI-CCXCIII. Martin Jay, 1997, Den Blick erwidern. Die amerikanische Antwort auf die französische Kritik am Okularzentrismus, in: Christian Kravagna (Hrsg.), Privileg Blick. Kritik der visuellen Kultur, Berlin, S. 154-174. Immanuel Kant, 1998, Anhang zur transzendentalen Dialektik, in: Immanuel Kant, Kritik der reinen Vernunft, Hamburg, S. 708-756. Richard Kostelanetz, 1975, Innovations in Essaying, in: Richard Kostelanetz (Hrsg.), Essaying Essays. Alternative Forms of Exposition, New York, S. 1-9. Rosalind E. Krauss, 2000, Skulptur im erweiterten Feld, in: Rosalind E. Krauss, Die Originalität der Avantgarde und andere Mythen der Moderne, Amsterdam / Dresden, S. 331-346. Donald Kunze, 2005, The Big Architectural Adventure of Giambattista Vico, in: Built Environment, Bd. 31, Nr. 1 (2005), London, S. 49-59. Paul Ligeti, 1931, Der Weg aus dem Chaos. Eine Deutung des Weltgeschehens aus dem Rhythmus der Kunstentwicklung, München. Niklas Luhmann, 1985, Das Problem der Epochenbildung und die Evolutionstheorie, in: Hans Ulrich Gumbrecht / Ursula Link-Heer (Hrsg), Epochenschwellen und Epochenstrukturen im Diskurs der Literatur- und Sprachhistorie, Frankfurt a.M., S. 11-33. Dieter Mersch, 2002, Was sich zeigt. Materialität, Präsenz, Ereignis, München. W.J.T. Mitchell, 2005, What Do Pictures Want? The Lives and Loves of Images, Chicago. Uwe Pörksen, 1997, Weltmarkt der Bilder. Eine Philosophie der Visiotype, Stuttgart. Sharon Helmer Poggenpohl / Dietmar R. Winkler, 1992, Diagrams as Tools for Worldmaking, in: Visible Language, Bd. 26, Nr. 3-4, Sommer-Herbst (1992), Providence, RI. Regine Prange, 2003, Das strukturale Unbewusste als postmodernes Sujet. Zur Lacan-Rezeption von Rosalind Krauss, in: Peter J. Schneemann / Thomas Schmutz (Hrsg.), Masterplan. Konstruktion und Dokumentation amerikanischer Kunstgeschichten. Akten des internationalen Kolloquiums 1. und 2. April 2000 Villa Mettlen in Muri bei Bern, Bern, S. 63-83.

Wissen als Bild. Zur diagrammatischen Kunstgeschichte

Ulrich Raulff / Gary Smith (Hrsg.), 1999, Wissensbilder. Strategien der Überlieferung, Berlin. Herbert Read, 1961, Bild und Idee, Köln. Karl Schlögel, 2003, Im Raume lesen wir die Zeit. Über Zivilisationsgeschichte und Geopolitik, München / Wien. Astrit Schmidt-Burkhardt, 2003, Maciunas’ Learning Machines. From Art History to a Chronology of Fluxus, Berlin. Astrit Schmidt-Burkhardt, 2005, Stammbäume der Kunst. Zur Genealogie der Avantgarde, Berlin. Astrit Schmidt-Burkhardt, 2007, Gezeichnete Geschichte. Im Koordinatenraum der Faktographie, in: Angela Lammert / Carolin Meister / Jan-Philipp Frühsorge / Andreas Schalhorn (Hrsg.), Räume der Zeichnung, Berlin / Nürnberg, S. 25-37. Steffen Siegel, 2004, Wissen, das auf Bäumen wächst. Das Baumdiagramm als epistemologisches Dingsymbol im 16. Jahrhundert, in: Frühneuzeit-Info (Wien), Jg. 15, H. 1+2 (2004) S. 42-55. Annamária Szöke, 1998, Diagram. Diagramok: Gondolat-térképek, Budapest. Giorgio Tagliacozzo, 1993, The Arbor Scientiae Reconceived and The History of Vico’s Resurreaction, Atlantic Highlands, NJ. Felix Thürlemann, 1990, Vom Bild zum Raum. Beiträge zu einer semiotischen Kunstwissenschaft, Köln. Giovanni Battista Vico, 1968, The New Science, Ithaca, NY. Giovanni Battista Vico, 1990, Prinzipien einer neuen Wissenschaft über die gemeinsame Natur der Völker, Teilbd. 2, Hamburg. Peter Wagner (Hrsg.), 1996, Icons – Texts – Iconotexts. Essays on Ekphrasis and Intermediality, Berlin. Reinhard Wendler, 2003, Versuch einer Kunstgeschichte des Baumdiagramms, Berlin (Magisterarbeit Humboldt-Universität zu Berlin). Helmut Willke, 2002, Dystopia. Studien zur Krisis des Wissens in der modernen Gesellschaft, Frankfurt a.M. Ludwig Wittgenstein, 1994, Vermischte Bemerkungen. Eine Auswahl aus dem Nachlaß, Frankfurt a.M.

187

Birgit Schneider Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des „digitalen Bildes“

Digitale Bilder als Simulakra?

188

Im vorliegenden Band wird die „Logik der Bilder“, also die „konsistente Erzeugung von Sinn aus genuin bildnerischen Mitteln“,1 hinsichtlich wissenschaftlicher Bildlichkeit verhandelt und nach dem Spezifischen visueller Wissensformen in den Naturwissenschaften gefragt. Einen stetig anwachsenden Bestandteil naturwissenschaftlicher Bilderzeugnisse stellen hierbei digitale Bildverfahren dar. Aus diesem Grund wurde inzwischen von verschiedenen Seiten die Frage aufgeworfen, was das Spezifische digitaler Bilder im Zusammenhang von Naturwissenschaften und Technik sei und zum Teil auch an Fallstudien entwickelt und überprüft.2 Gibt es charakteristische Leistungsmerkmale digitaler Bilder, welche neue bildliche Möglichkeiten erschließen, sei es auf rein technischer Ebene, epistemisch oder ästhetisch? Und wie wirken sich diese Charakteristika im Zusammenspiel mit wissenschaftlichen Bildpraktiken aus? Zu Beginn werden einige Brennpunkte der Debatte um den Status digitaler Bilder nachgezeichnet. Diese Debatte wird in den unterschiedlichen Disziplinen seit bald vier Jahrzehnten geführt, sie begann also bereits lange bevor digitale Bilder zu einem wichtigen Bestandteil der alltäglichen Wahrnehmung wurden. Eine erste Bestimmung – sieht man einmal von den in ihrer Zeit noch recht allein stehenden Schriften Marshall McLuhans ab – fand im Umkreis von Max Bense in den fünfziger und sechziger Jahren unter den Stichworten Ästhetik und Programmierung statt.3 Hier wurde eine Computergrafik verhandelt, die sich noch nicht auf den gläsernen Displays von Monitoren abspielte, sondern deren Ausgabegeräte Plotter und Drucker und deren Material Farbe und Papier waren (Abb. 1). Eine erneute Debatte über Bilder aus dem Computer, welche die frühen Diskussionen teilweise 1

Boehm 2004, 28.

2

Z.B. in dem Sammelband Heintz / Huber 2001; Heßler 2006; Hinterwaldner / Buschhaus 2006; Elkins 2007.

3

Vgl. Bense 2004.

Wissenschaftsbilder zwischen digitaler Transformation und Manipulation

verdeckte, setzte ein, als digitale Bilder in Form von Computerdisplays auf den Schreibtischen außerhalb der Zusammenhänge von Informatikfakultäten und Laboratorien auftauchten und auf diesem Weg ins Bewusstsein einer breiteren Öffentlichkeit traten. Als der einflussreiche Ausgangstext dieser Debatte gilt Jean Baudrillards bereits 1978 verfasstes Buch Agonie des Realen, welches Abb. 1: Computergrafik mit dem Titel eine kritische Auseinandersetzung mit „Raumgitter“ von Georg Nees. den Neuen Medien unter den Stichwörtern des „Simulacrums“, der Virtualität und der Hyperrealität begründete.4 Wenig später begann Paul Virilio Neue Medien in ihrer Rolle der Derealisierung und Entmaterialisierung zu problematisieren, und Vilém Flusser versuchte die Auflösung des Punktuniversums der neuen Bildwelten im großen Rahmen zu verorten. Die These, dass „die Bilder der Medien mächtiger und wirklicher geworden sind als die Wirklichkeit selbst“5, wurde bald nicht mehr nur auf die Bilder des Fernsehens bezogen, sondern auch auf die Bilder aus dem Computer und speziell den „Cyberspace“, der als Erfüllung von Baudrillards These gelten konnte. Seither steuerten die Philosophie und Bildwissenschaft, die Kunstgeschichte, Informations- und Medientheorie sowie die Semiotik ganz unterschiedliche Aspekte in der Frage um den Status digitaler Bilder bei, wobei die Thesen nur selten anhand von empirischem Material überprüft wurden. Schnittpunkt war hierbei einerseits die beschworene Krise der Repräsentation, die entweder als Verlust oder Befreiung bewertet wurde. Die Bildwelten, anhand derer diese frühe Debatte entweder implizit oder explizit geführt wurde, berührten in dieser frühen Phase, sieht man einmal von den Apfelmännchen der Chaostheorie ab, kaum die Felder einer durch digitale Techniken sich verändernden wissenschaftlichen Bildlichkeit, sondern waren vor allem populärkulturellen Anwendungsgebieten, wie Animationsfilmen, Computerspielen, Bildmanipulation und Cyberspaceanwendungen entlehnt, die sich unter dem Begriffen der Virtualität und Simulation verhandeln ließen. Die unter diesen Stichworten geführte Diskussion digitaler Bildwelten in Folge von Baudrillard prägt zum Teil bis heute das Nachdenken über digitale Bilder und verstellt so weiterhin den Zugang für eine Diskussion der epistemischen Konsequenzen digitaler Bilder in den Wissenschaften. Denn diese lassen sich aufgrund ihrer breit gefächerten Anwendungsgebieten und dem konkreten Instrumentcharakter des Computers für die wissenschaftliche Forschung kaum sinnvoll mit Begriffen wie „Virtualität“ fassen. Wissenschaftliche Visualisierung erscheint hier als genau gegenläufiges Prinzip. Im zweiten Teil des Artikels wird deshalb eine zur Hyperrealitätsdebatte quer liegende Theoretisierung digitaler Bilder aufgezeigt, welche für die Analyse wissenschaftlicher, computergenerierter Bilder geeigneter ist und den komplexen Praktiken der Referenz epistemischer Bilder gerechter wird. 4

Baudrillard 1978.

5

Baudrillard 1972.

189

Birgit Schneider

Bilder unter Generalverdacht oder „das prekäre Bild“

190

In vielen Äußerungen der seit Baudrillard in Kulturwissenschaften, Medientheorie und Philosophie geführten Debatte zum digitalen Bild trifft man auf ein Unbehagen, welches die Autoren im Angesicht digitaler Bilder befällt und welche als Langzeitwirkung der 1970er-Jahre-Ideologiekritik gelten kann, die den Massenmedien und der Massenkultur entgegengebracht wurde. In Folge der perfekten, bunten, schillernden Oberflächen digitaler Bilder wurde häufig bemängelt (Abb. 2), man könne sich nicht mehr sicher sein, ein „Bild“ anzuschauen, wenn man seinen Blick auf etwas richtet, das so aussieht wie ein „Bild“.6 Mit der Frage, ob digitale Bilder überhaupt Bilder seien, trat der Medienphilosoph Vilém Flusser in den 1980er Jahren im „Univer- Abb. 2: Beispiel einer typischen 3D-Grafik sum der technischen Bilder“ an die Le- zur Verdeutlichung von Raytracing. ser, indem er schreibt: „Sieht man sich die technischen Bilder näher an, so erweist sich, dass sie überhaupt keine Bilder sind, sondern Symptome von chemischen oder elektronischen Prozessen.“7 Der Status digitaler Bilder wurde demzufolge immer wieder als „prekär“ eingestuft – also als zweifelhaft, heikel und schwierig. Die Einschätzung des Prekären entwächst der Frage nach einer Bildontologie, die fragt, „was ist das digitale Bild?“. Was dem digitalen Bild einen ontologisch so heiklen Status verleiht, wird in der Verbindung des digitalen Bildes zwischen dem, „was sich zeigt“ und dem Code, der nicht sichtbar ist, verankert. Was sich an der Oberfläche zeige, sei das Bild, nicht jedoch die Kette alphanumerischer oder hexadezimaler Zeichen oder die Ebene von „Null und Eins“ (Abb. 3). Ebenso blieben die Prozesse, die den Code verarbeiten bzw. verrechnen, verborgen, und dies auch im Anbetracht von Hardware und Silizium, welches der physikalische Träger der Codes ist. Das Verhältnis von Bildcode, Bild und Bildträger brachte folglich mit den digitalen Bildern ein ungelöstes Krisenmoment in die Reflexion über Bilder. Eine Antwort auf dieses ungelöste Verhältnis lautet, dass mit dem digitalen, flüchtigen Bild referenzlose Abb. 3: Bildcode eines GiF-Bildes. 6

So z.B. Reiche 1996, 59.

7

Flusser 1996, 40.

Wissenschaftsbilder zwischen digitaler Transformation und Manipulation

Zeichen und körperlose Bilder sichtbar würden und für das digitale Bild, dem es zudem an einem festen Bildträger mangele, der Status eines Originals nicht mehr geltend gemacht werden könne. In dieser Diskussion besteht das Prekäre an digitalen Bildern also in ihrer Doppelbödigkeit, die im Spannungsverhältnis zwischen den Codes und der Visualisierung dieser Codes als Bilder angesiedelt ist. Die Verlustgeschichte der Referenz und der Materialität stellte zwangsläufig eine Bewertung digitaler Bilder dar. Am Gegenpol der „flüchtigen“ und „referenzlosen“ Bilderscheinung steht das materiell besitzbare, abbildende Bild, an welchem sich das digitale Bild messen soll. Gegenüber dieser traditionellen Vorstellung eines Bildes, das seine „Wahrheit“ aufgrund seiner Fixiertheit auf Papier oder Leinwand nicht mehr einbüßen kann, musste es zu einem grundsätzlichen Glaubwürdigkeitsproblem digitaler Bilder kommen. Digitale Bilder im Gegensatz zum Tafelbild müssen sich dem Vorwurf einer Travestie stellen, da sie angeblich immer ein Wechselspiel betreiben zwischen dem, was sie zeigen und dem, was sich hinter ihnen verbirgt, also zwischen der Sichtbarkeit des Bildes und der Unsichtbarkeit des Codes und dieses Spiel nie zur Ruhe kommt.8 Das postulierte Krisenmoment der Debatte gründet bekanntermaßen auf einer sehr alten Bildtheorie, auf dem Urbild-Abbild-Paradigma, welches, obwohl es anhand der traditionellen Bildmedien entwickelt wurde, nun auch für die Bilder aus dem Computer gelten soll. Innerhalb dieses Paradigmas werden allerdings die Probleme des ohnehin engen Schemas sichtbar: Denn die zeichentheoretische Konsequenz für das digitale Bild ist ja gerade die Auflösung des Urbild-Abbild-Paradigmas. So kommt es zu dem Paradoxon, dass einerseits immer noch der Glaube an die bildliche Repräsentation herrscht und an den digitalen Bildern durchgespielt wird, während die Unzulänglichkeit dieses Paradigmas, auf welche bereits für viele andere Bildformen immer wieder hingewiesen wurde, durch das digitale Bild doch ganz offensichtlich aus den Angeln gehoben wird. Das Glaubwürdigkeitsproblem wird besonders kritisch, wenn die Ebene der Manipulierbarkeit digitaler Bilder angesprochen ist. Während die Wahrheit, so Jens Schröters Zusammenfassung dieser Auffassung in dem von ihm herausgegebenen Sammelband „Analog/Digital“, als analog gelte, werde das Digitale gemeinhin mit Manipulation gleichgesetzt. William T. Mitchell hatte die digitalen Bilder in seiner frühen Studie über Computergrafik deshalb einem postfotografischen Zeitalter zugeschlagen, in welchem der indexikalische Weltbezug des Fotos verloren gegangen sei.9 Der zugrunde liegende Plot dieser Verlustgeschichte spannt sich auf zwischen einem früheren Zeitalter der Bilder, als diese noch etwas darstellten, und der nun herrschenden Phase, in welcher ihr vormaliger Weltbezug gekappt wurde.10 Sinnfälligerweise bezeugt Mitchell seine Argumentation mit Beispielen der manipulierten Pressefotografie. Für digitale Bilder kommt es so zu einem Unsichtbarkeitsproblem auf mehreren Ebenen:11 Genau wie die Codes und die ablaufenden Prozesse nicht einsehbar sind, bleibt auch ihre Manipulation verborgen. Aufgrund dieser Unsichtbarkeiten 8

Vgl. Dotzler 2001.

9

Mitchell 1994.

10

Vgl. zu diesem Thema Wetzel / Wolf 1994.

11

Vgl. hierzu auch Heßler 2006.

191

Birgit Schneider

sowie der Flüchtigkeit und der angeblichen Immaterialität digitaler Bilder wurden sie deshalb wiederholt mit dem Generalverdacht der Täuschung belegt. Täuschend seien sie, da sie einerseits ihre Digitalität verschleierten, also von ihrer Konstruiertheit und Technik ablenkten, dabei jedoch in der Ästhetik des Perfekten auf der Bühne erschienen. Ihre Perfektion, die als vollkommene digitale Mimesis gedacht wurde, führe nämlich dazu, vom Betrachter mit unmittelbarer Sichtbarkeit verwechselt zu werden, was technische Anwendungen wie der Flugsimulator und Computerspiele belegten (Abb. 4). Das Medium würde übersehen und das technische Schillern für wirklich genommen. Doch auch die Täuschung ist Effekt des alten Paradigmas. Denn die Ästhetik des Perfekten, Schillernden und Glänzenden, des Bunten, Digita- Abb. 4: Cockpitansicht des Lufthansa Fluglen, welches doch „nur“ künstlich ist, simulators zum Flugtraining. wird so auf das alte Bild der von Zeuxis gemalten Trauben zurückgebracht, nach welchen die Tauben hungrig pickten. Digitale Bilder seien deshalb Trugbilder und Simulacren, also irreleitende Götzenbilder. In einer frühen Darstellung des Verfahrens holographischer Bilder wurden die mehrfachen Ebenen digitaler Bilder und ihr Effekt der Täuschung besonders plastisch ins Bild gesetzt. Hierbei entschied man sich für das Motiv einer russischen Puppe: Abb. 5: „Holographisches Gedächtnis mit So wie die russische Puppe ein Sinn- Laserstrahl und Fotozellen“. bild für Täuschung ist, indem die eine Puppe wie die Schichten einer Zwiebel immer eine weitere enthält und am Ende schließlich leer ist (Abb. 5), obliegt der Betrachter eines digitalen Bildes einer leeren Täuschung.12

192

„Das digitale Bild gibt es nicht“ Einen radikalen Schlussstrich unter die zeichentheoretisch-ontologischen Verhandlungen digitaler Statusfragen versuchte der Medientheoretiker Claus Pias 2003 zu setzen. Mit ironischer Rhetorik schraubte er die Gedanken der Debatten um die Referenzlosigkeit digitaler Bilder weiter, indem er zwingend schlussfolgerte, es gäbe keine digitalen Bilder. Mit dieser These torpedierte Pias die Unsicher-

12

Zum medialen „Striptease“ vgl. Dotzler 2001.

Wissenschaftsbilder zwischen digitaler Transformation und Manipulation

heit, ob digitale Bilder überhaupt Bilder seien, indem er der Diskussion einfach ihren Gegenstand entzog.13 Der Ausdruck „es gibt“ muss hier als ein der visuellen Präsenz verwandter Begriff aufgefasst werden. Im Fall von Pias wird diese visuelle Dimension des Gegebenen jedenfalls offensichtlich und die Aussage „das digitale Bild gibt es nicht“ könnte mit „man sieht keine digitalen Bilder“ ersetzt werden. Auf Seiten des menschlichen Rezipienten seien die digitalen Bilder analog, da digitale Daten immer analog gezeigt und gesehen würden. Ein Bit – so Pias – hätte „noch niemand in freier Wildbahn“14 gesehen. Auch sei es den „logischen Notationen“15 egal, worauf sie gespielt würden. Logisch seien sie austauschbar, sodass etwa eine Sounddatei als Textdatei oder eine Bilddatei als Kurvendiagramm angezeigt werden könnten, da in den Notationen selbst keine Semantik existiere. Wo die Diskussion um den ungelösten Status digitaler Bilder die Spannung zwischen Bild und Bildcode in der Schwebe hielt, brach Pias die Seinsfrage der Bilder herunter auf ihre sichere, ja banale Ebene. In Anlehnung an Fritz Heiders Unterscheidung von Form und Medium differenziert er zwischen dem Digitalen als Medium und dem Bild als eine Form, in welcher die digitalen Informationen gebunden sind: „Es gibt keine Daten ohne Datenträger. Es gibt keine Bilder ohne Bildschirme.“16 Durch diese Argumentation war der Wortverbindung der „digitalen Bilder“ ihr Sinn entzogen, welche auf diese Weise auch als ein Grund für die unfruchtbare Diskussion um die Ontologie des digitalen Bildes aufscheint. Die Verwechslung des Bildcodes mit dem Bild als einem originalen und damit besitzbaren Gegenstand ist dabei für die Bilddiskussion spezifisch und legt noch einmal die Tradition offen, in der die Erwartungen an ein Bild zwischen den Polen von Urbild und Abbild geknüpft sind. Im Vergleich mit der langen Geschichte von Musik und ihrer Notation kann dies deutlich gemacht werden: So wie es keinen Sinn macht, die Musik in den Noten zu suchen, ist es obsolet, das digitale Bild im Code bzw. das „notationale Bild“17 in der Bildnotation zu vermuten. Es gibt also weiterhin Bilder aus dem Computer und es gibt Bildcodes, als welche die Bilder gespeichert werden. Zusammenfassend lässt sich festhalten, was an der Diskussion um das Prekäre selbst so prekär ist: Zum einen verharrt diese Debatte in einer Bildtheorie, die, wenn nicht für Bilder überhaupt, so doch insbesondere für digitale Bilder unzulänglich ist. Die Rückbesinnung auf die platonische Bildvorstellung zwischen Abbild und Urbild legt eine Fährte in die computergenerierten Bildwelten, welche an den neuralgischen Punkten digitaler Bilder in den Wissenschaften vorbeizielt. Bei diesen muss das Verhältnis von Urbild und Abbild nämlich von nachgeordnetem Interesse sein zugunsten der praktischen Operabilität der digitalen Verfahren und ihrer Erkenntnisleistung. Die Unzulänglichkeit des Ansatzes zeigt sich auch im aufgerufenen Bildmaterial. Cyberspace, Telepräsenz, manipulierte Pressebilder, 13

Pias 2003; Wolfgang Hagen publizierte einen Artikel, in dem er zum selben Ergebnis über eine quantenmechanische Argumentation kommt, Hagen 2002.

14

Pias 2003, § 50.

15

Ebd. § 17.

16

Ebd. § 53.

17

Zum Begriff des notationalen Bildes vgl. Kogge 2005.

193

Birgit Schneider

Computerspiele und die Animationsfilme der Unterhaltungsindustrie sind die Felder, auf welche sich die Diskussion des Prekären bezieht. Mit diesem Paradigma im Kopf kann jedoch die Spezifik des Zusammenspiels von Codes, Computer und Bildern nicht annähernd in den Blick gebracht werden. Und schließlich, so erfrischend für diese Diskussion Pias Argumente auch sind, ein Brückenschlag zwischen Empirie und Theorie, der für die Analyse der digitalen Techniken in ihren Auswirkungen auf wissenschaftliche Bildlichkeit erforderlich ist, ist auch bei ihm nicht angelegt.

Die Operationalität algorithmischer Bilder

194

Digitale Bilder leisten grundsätzlich Verschiedenes: Sie bilden Sichtbares ab oder machen Unsichtbares sichtbar, sie visualisieren Datensätze, dynamische Prozesse und Datenstrukturen, simulieren Physiken, kartieren Messdaten, tabellieren, verrechnen, werten statistisch aus. Im einen Fall nehmen sie die Werkzeugpalette der Malerei in sich auf, im nächsten die Optik der Fotografie oder die optische Physik der Refraktion und in einem anderen das gesamte Arbeitsfeld des Diagramms und der Modellierung. Sie begegnen uns als Computergrafik, Simulation, Datenvisualisierung und Bildgenerierung. Was kann also auf die Frage nach dem Spezifischen digitaler Bilder geantwortet werden? Auch wenn die Verbindung des Adjektivs „digital“ mit dem Nomen „Bild“ inzwischen fest in den alltagssprachlichen Gebrauch übergegangen ist und hier vor allem als Synonym für Digitalfotografie benutzt wird, hat diese Verknüpfung in der theoretischen Diskussion noch weitere problematische Konsequenzen. Denn was mit dem Sprechen über digitale Bilder in den Blick gerät, sind zuerst die digitalen Bildcodierungen, also das, wofür Dateianhängsel wie JPG, EPS oder TIFF stehen. Doch auch wenn die Digitalisierung von Bildern zu Datensätzen eine kulturhistorische Leistung war, so ist sie doch bloß Bedingung für die Verfügbarmachung von Bildern im Computer. Für eine spezifische Logik digitaler Bilder erscheint so weniger die Frage interessant, was digitale Bilder sind, sondern vielmehr, was digitale Bilder machen. Anstelle einer Betrachtung der still gestellten Bilddatensätze, müssten hierzu vielmehr die Algorithmen analysiert werden, die mit diesen Datensätzen operieren. Anders formuliert, der diskretisierte, digitale Zustand der Daten und Bilder liefert die Voraussetzung für eine sehr viel weiter reichende Konsequenz, indem dieser einen besonderen Zugriff auf Daten durch Programme erlaubt und Bilder einer technischen Verarbeitung zugänglich macht. Das Spezifische an digitalen Bildern liegt in ihrer Operationalität und Prozessierbarkeit. Diesem Umstand wird die Informatik gerecht, die digitale Bilder unter dem Stichwort des Image oder Signal Processing, also der „Bildverarbeitung“ verhandelt. Bildverarbeitung meint nun das, was vorher negativ wertend „Manipulation“ hieß, also die Software, welche Filter, Informations-Visualisierungen, Statistik oder automatische Bildinterpretation zur Anwendung bringt. Indem der Computer die universelle Maschine ist, die Datensätze in enormem Tempo verrechnen und manipulieren kann, werden die oftmals bereits aus früheren Techniken bekannten Verfahren

Wissenschaftsbilder zwischen digitaler Transformation und Manipulation

beschleunigt und enorm produktiv gemacht. Und bei diesen Prozessen kann neues epistemisches Wissen in Form von neuartigen Bildern freigesetzt werden. Wenn mit Bilddaten in der soeben beschriebenen Weise operiert und gerechnet wird, dann steht dies im Falle wissenschaftlicher Bilder oftmals für äußerst komplexe Transformationsprozesse. Ein besonders plastisches Beispiel sind Programme, die dazu dienen, Klangstrukturen zu visualisieren, bzw. Bilder in Töne zu verwandeln. Gleichzeitig illustrieren solche Anwendungen auf plakative Weise die zuvor zitierte Feststellung einer logischen Austauschbarkeit der semantisch freien, digitalen Codes. Derartige Programme zur Analyse von Daten können nicht nur in analoger Weise Töne in Bilder transformieren und beispielsweise Töne als Tonkurven schreiben, wie es bereits Oszillographen taten oder Chladni mit seinen mit Sand bestreuten Metallplatten18, sondern sie eröffnen darüber hinaus eine freie Zuordnung von Tönen und Bilder, ein nach immer neuen Parametern verfahrendes Interpretieren von Daten. Programme wie beispielsweise metasynth, welches Bilder in Töne transformieren lässt, bieten die Möglichkeit, jedes beliebige Bild oder eine Serie bewegter Bilder in Musik zu verwandeln. Bilder sind Instrument und Interface zugleich, eine Notation, die den Ausgangspunkt für Tonereignisse bildet (Abb. 6). Wenngleich Farbe, Helligkeit und Anordnung die Klangfarbe, Lautstärke und Tonhöhe relativ konventionell steuern – so steht ‚schwarz‘ beispielsweise für ‚leise‘ und das Bild wird von links nach rechts abgespielt –, so erzeugt doch die Art und Weise, wie komponiert wird und die Notation gleichzeitig spielbar und manipulierbar ist, eine neue Erfahrung der Komposition. Was im künstlerischen Bereich das alte Phantasma einer Verschaltung der Sinne technisch einzulösen scheint, wird auch im wissenschaftlichen Kontext methodisch eingesetzt. So wie die Sonifikation für bestimmte Daten eine Versinnlichung erzeugt, die Datenstrukturen über das Gehör analysierbar macht und Charakteristika erkennen lässt, die bei einer Visualisierung verborgen geblieben waren,19 werden andersherum mit der Methode der Visualisierung neue Ana- Abb. 6: Programmoberfläche MetaSynth. lysen von Klangereignissen ermöglicht. Eine derartige Methode hat zum Beispiel der Informatiker Michael Casey von der Goldsmiths University in London entwickelt: Anders als die Notenschrift, die ebenfalls bereits Klang abbildet, werden bei diesem Verfahren Musikstücke mit-

18

Ernst Florens Friedrich Chladni veröffentlichte im Jahr 1787 seine Erkenntnisse darüber, wie auf einer mit Sand bestreuten Platte je nach Schwingung Muster (Chladni’sche Klangfiguren) entstehen, indem man z.B. an der Platte mit einem Geigenbogen entlang streicht.

19

Der Geigerzähler ist eins der frühesten Instrumente, das mit Sonifikation arbeitet. Berühmt wurde 1997 das „Quantum Whistle“, als zwei Physiker nach monatelangen Versuchen, mit einem Oszilloskop die vorhergesagte Oszillation der Quantentheorie nachzuweisen, erfolglos geblieben waren und begannen, sich ihre Messungen anzuhören und auf diese Weise die gewünschte Beobachtung machten.

195

Birgit Schneider

196

tels Computerberechnungen so beschrieben, dass sie automatisch wieder erkannt werden können. Die Methode macht sich das Prinzip der Ähnlichkeit zu nutze, indem die Ähnlichkeiten eines Stückes, die das Stück jede Hundertstelsekunde mit sich selbst hat, ermittelt und dann in ein farbiges Bild übersetzt werden, das so eindeutig ist wie ein Fingerabdruck (Abb. 7). Der Hintergrund dieser Forschungen ist nicht nur musikwissenschaftlicher Natur, sondern auch für die internationalen Standards von MPEG interessant, wo es genau darum geht, digital komprimierte Musikbeschreibungsformate zu finden. Im Falle von Caseys musikalischen Fingerabdrücken handelt es sich um im höchsten Maße errechnete Bilder, um Transformationen von Daten zu Bildern, die gleichzeitig eindeutig und doch in ihrem Aussehen vielgestaltig sind. Die Besonderheit in der algorithmischen Transformation von Musikstücken zu Bildern liegt darin, dass einerseits der Code gehört werden kann, während das Ergebnis auf der anderen Seite sichtbar gemacht wird. Die Referenz der Bilder liegt hierbei nicht in unsichtbarem Code, sondern im hörbaren Abb. 7: Vier Visualisierungen mittels der Klang einer Sounddatei. Die Bedingun- klanganalytischen Methode von Micheal gen und Möglichkeiten dieser maschi- Casey. nellen und operativen Transformation liefert die Mathematik im Rechner. Das farbige Bild einer musikalischen Komposition steht so für eine Erkenntnis und zeigt, wie digitale Bildverfahren ein in der Tat neues Wissen aus Daten, in diesem Fall Klangdaten, herstellen – und dies als Ergebnis eines komplexen Prozesses der Sichtbarmachung, der originär auf einer digitalen, mathematisierten Praxis fußt. Um das produktive Zusammenspiel von Codes, Programmen und ihrer Visualisierung zu fassen, spricht der Informatiker und Computerkünstler der ersten Stunde, Frieder Nake, von „algorithmischen Bildern“.20 In der Wortverbindung des algorithmischen Bildes steckt nun nicht bloß die Frage, was es bedeutet, Vorgänge in Zahlen zu übertragen und Bilder, Daten oder auch Modelle der Welt mittels Algebra im Computer nachzubilden, sondern welche Konsequenzen es hat, diese Datensätze mittels Algorithmen zu bearbeiten. Indem er dem algorithmischen Bild das Begriffspaar Oberfläche und Unterfläche zur Seite stellt, will er diesem spezifischen Umstand digital erzeugter Bilder Rechnung tragen, eine Abstufung, die einem später in ähnlicher Weise bei Lev Manovich begegnete, der von einem cultural layer und einem computer layer spicht.21 Die Interpretation des Bildes ge20

Etwa Nake 2007.

21

Der Medientheoretiker und Informatiker Lev Manovich fasste die Beziehung zwischen Bild und digitalem Code mit dem Begriff des „Transcoding“, wonach ein digitales Bild aus einem „cultural layer“ und „computer layer“ besteht, Manovich 2001, 45. Friedrich Kittler machte den Unterschied von berechnetem Bild und errechnetem Bild, Kittler 2004. Siehe auch: Kittler 2002.

Wissenschaftsbilder zwischen digitaler Transformation und Manipulation

schehe von zwei Seiten her: von ihrer Oberfläche (der Kultur) sowie von ihrer Unterfläche her, den Programmen (der Tiefenstruktur). Das digitale Bild könne vom Computer und vom Menschen „gelesen werden“, die „Fläche des Bildes [kann] von zwei Instanzen betrachtet und verändert werden“22. Durch die Codierung wird das Bild „zur Schnittstelle seiner selbst“, ein „semiotisches Doppelgebilde“, welches seine „eigene Manipulierbarkeit“23 in sich trägt und mithin operativ und maschinell bearbeitet werden kann. Auch wenn zu überlegen wäre, in welcher Weise die Ebene des Computers ebenfalls Teil einer Kulturtechnik ist, verdeutlicht diese Unterscheidung, wie die beiden Ebenen auf ganz verschiedene Weisen wahrgenommen werden und Berufsgruppen in Programmierer und Anwender teilen. Dass diese Hinweise von einem ehemaligen Mitstreiter aus der Gruppe um Max Bense stammen, ist dabei kein Zufall, stand doch in Benses Konzept generativer Ästhetik genau diese operative Dimension algorithmischer Bildlichkeit im Zentrum. Doch wurde diese Diskussion lange durch die Bildtheorien des Prekären überdeckt.

Wissenschaftliche Bilder in digitalen Prozessen Der Oberfläche allein muss man ihre Bearbeitung nicht ansehen, denn auch wenn es keine a-priori-Eigenschaft digitaler Bilder ist, ihre Konstruktionen und Manipulationen zu verbergen, so ist es doch ein Irrtum zu glauben, man sähe einem Bild seine Produktionsbedingungen zwangsläufig an den formalen Gegebenheiten an; die Bildoberflächen müssen die Spuren ihrer Konstruktion nicht in sich tragen, meistens ist es an der Bildoberfläche nicht mehr nachvollziehbar, welche Sichtbarmachungseffekte, Programme und Entscheidungen zu einem bestimmten Bild führten.24 Wenn einer Bildoberfläche nicht anzusehen ist, wo der Eingriff in mechanisch erhobene Messdaten gemacht wurde, wo geglättet, wie geschärft, gefiltert und gefärbt wurde und welche Schwellenwerte und Parameter zum Einsatz kamen, um eine gewisse Prägnanz zu erzeugen – wenn also nicht deutlich ist, wo die Grenze zwischen automatischer Bildgebung und interpretierendem Eingriff liegt, so kann dieses Spannungsfeld nur aufgrund des Wissens um den konstruktiven Charakter algorithmischer Bildlichkeit ernst genommen werden. Die Bildproduktion, die mit dem Computer um ein Vielfaches angewachsen ist, trägt nicht nur einem Visualisierungszwang Rechnung, der Datensets ins Register der Sichtbarkeit bringen möchte, sondern auch dem Tempo, mit dem Daten mittels Programmen immer wieder als neue Bilder visualisiert werden können und mithin einer Bilderlust, die einen enormen ästhetischen Gestaltungsspielraum freisetzt. Gleichzeitig gibt es Wissensbereiche, die ohne die Visualisierung ihrer Daten im wörtlichen Sinne blind blieben und auf das Potential der Veranschaulichung angewiesen sind, um die Aussagekraft ihrer Daten und Programme zu überprüfen. Viele Wissensbereiche sind auf digitale Verfahren angewiesen und gewinnen ihre Erkenntnisse heute originär aus diesen Verfahren. Eines der prominentesten Bei22

Nake 2005, 48.

23

Nake 2007, 50.

24

Borck 2001.

197

Birgit Schneider

spiele sind hier die digitalen Klimamodelle,25 die jegliche Wetterfaktoren und -ereignisse innerhalb von Gitterboxen parametrisieren und nur noch über den Schritt der Visualisierung das zugrunde liegende Modell überprüfen können. Die verloren geglaubte Referenz kehrt hier auf neue Art wieder, indem sie ein notwendiges Spezifikum wissenschaftlicher Bilder ausmacht und die Wissenschaftstheorie seit Bruno Latour nach Verweisungsketten fragt.26 Für eine kritische Analyse digitaler Bildlichkeit sollten die Verweisungsketten konsequenterweise nicht nur auf der Oberfläche der Bilder befragt werden, sondern auch für die „Unterfläche“ digitaler Bilder rekonstruiert werden. Denn auch in dem Spannungsverhältnis von Oberfläche und Unterfläche, von digitaler Form und ihrer Konstruktion, liegt der wissenschaftlichen Bildern eigene Anspruch einer Objektivität. Hier steht dann die Frage, mit welchen Algorithmen Datensätze bearbeitet wurden – seien dies die Datensätze von Bildern oder von Messungen – und an welcher Stelle sich Bearbeitung und Interpretation gemischt haben und schließlich die bereits für analoge Wissenschaftsbilder wichtige Frage, auf welche „Wirklichkeit“ hinter den Codierungen die Bilder verweisen.27 Kein Bild löst hier die Echtheitsfrage ein und gleichzeitig kommen viele Naturwissenschaften nicht ohne Bilder aus, da sie eine zentrale Rolle in der Gewinnung und Erzeugung von Wissen spielen. Bei einer solchen Analyse ist man jedoch weit entfernt vom Verdacht der Täuschung, da die Prozesshaftigkeit der digitalen Bilder und ihre Mathematik sowie ihr Bezug zur „Realität“ in die Analyse mit einbezogen werden, welche wissenschaftliche Bilder erst operabel machen.

198

25

Siehe auch den Beitrag von Gabriele Gramelsberger in diesem Band.

26

Latour 2000.

27

Diese Frage fasste Martina Heßler unter dem Stichwort einer „doppelten Unsichtbarkeit“ im Falle von digitalen Bildern in den Wissenschaften, Heßler 2006.

Wissenschaftsbilder zwischen digitaler Transformation und Manipulation

Abbildungsverzeichnis Abb. 1: Computergrafik mit dem Titel „Raumgitter“ von Georg Nees, erstellt mit Computer Siemens 2002 und Zeichentisch Zuse-Graphomat, Programmiersprache ALGOL, 1969, Bildwelten des Wissens, kunsthistorisches Jahrbuch für Bildkritik, 2005, Heft 3,1, S. 66. Abb. 2: Beispiel einer typischen 3D-Grafik zur Verdeutlichung von Raytracing, http://www.video-magic.de/tumbnails/tischscene_ray_002.jpg gesichtet Januar 2008. Abb. 3: Bildcode eines GiF-Bildes, Privat. Abb. 4: Stills aus einem Flugsimulator für das Training von Piloten von AirBerlin, http://www.lft-berlin.de/deutsch/0000_index.htm. Abb. 5: „Holographisches Gedächtnis mit Laserstrahl und Fotozellen“, Kleine Enzyklopädie von der großen Kybernetik. Viktor Pekelis. Kinderbuchverlag Berlin. 1977 (1973) Abb. 6: Programmoberfläche metasynth, einer Anwendung, mit der sich Musik über Bilder komponieren lässt, http://uisoftware.com/MetaSynth/ Abb. 7: Vier Visualisierungen mittels der klanganalytischen Methode von Micheal Casey, 2004. Von links oben nach rechts unten: Hey ya! OutKast 2003; Jupiter-Symphonie, W.A. Mozart, 1788; Nocturne No. 1, F. Chopin; Dark was the night, B. W. Johnson, 1927. Die Zeitachse der Musikstücke verläuft im Bild diagonal von links oben nach rechts unten, SZ Magazin 2004

Bibliographie Jean Baudrillard, 1972, Requiem für die Medien, in: Jean Baudrillard, Kool Killer oder der Aufstand der Zeichen, Berlin, S. 83-118. Jean Baudrillard, 1978, Agonie des Realen, Berlin. Max Bense u.a., 2004, Ästhetik als Programm: Max Bense/Daten Streuungen, Kaleidoskopien, Heft 5 (2004). Gottfried Boehm, 2004, Jenseits der Sprache? Anmerkungen zur Logik der Bilder, in: Maar / Burda 2004, S. 28-43. Cornelius Borck, 2001, Die Unhintergehbarkeit des Bildschirms. Beobachtungen zur Rolle von Bildtechniken in den präsentierten Wissenschaften, in: Heintz / Huber 2001, S. 383-394. Bernhard J. Dotzler, 2001, Die Investitur der Medien. Über die Welt der Maschine als symbolische Welt, in: Georg Stanitzek / Wilhelm Voßkamp (Hrsg.), Schnittstelle. Medien und kulturelle Kommunikation, Köln, S. 235-249. James Elkins (Hrsg.), 2007, Visual Practice across the University, München. Vilém Flusser, 1996, Ins Universum der technischen Bilder, Göttingen 1996. Wolfgang Hagen, 2002, Es gibt kein »digitales Bild«. – Eine medienepistemologische Anmerkung, in: Lorenz Engell / Bernhard Siegert / Joseph Vogl, Licht und Leitung: Archiv für Mediengeschichte, Weimar, S. 103–110. Bettina Heintz / Jörg Huber (Hrsg.), 2001, Mit dem Auge Denken. Repräsentationsformen in Wissenschaft und Kunst, Zürich.

199

Birgit Schneider

Martina Heßler, 2006, Von der doppelten Unsichtbarkeit digitaler Bilder, in: Zeitenblicke 5 (2006), Nr. 3. Digitale Medien und Wissenschaftskulturen, http:// www.zeitenblicke.de/2006/3/Hessler. Inge Hinterwaldner / Markus Buschhaus (Hrsg.), 2006, The Picture’s Image. Wissenschaftliche Visualisierung als Komposit, München. Friedrich Kittler, 2002, Computergrafik. Eine halbtechnische Einführung, in: Sabine Flach / Georg C. Tholen (Hrsg.), Mimetische Differenzen. Der Spielraum der Medien zwischen Abbildung und Nachbildung, Kassel, S. 221-240. Friedrich Kittler, 2004, Schrift und Zahl - Die Geschichte des errechneten Bildes, in: Maar / Burda 2004, S. 186-203. Werner Kogge, 2005, Erschriebene Denkräume. Grammatologie in der Perpektive einer Philosophie der Praxis, in: Gernot Grube / Werner Kogge / Sybille Krämer, Schrift. Kulturtechnik zwischen Auge, Hand und Maschine, München. Bruno Latour, 2000, Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a.M. Christa Maar / Hubert Burda (Hrsg.), 2004, Iconic turn. Die neue Macht der Bilder, Köln. Lev Manovich, 2001, Language of New Media, Cambridge Mass. William J. Mitchell, 1994, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. / London. Frieder Nake, 2005, Das doppelte Bild, in: Digitale Form. Bildwelten des Wissens 3,2 (2006), S. 40-50. Frieder Nake, 2007, Allenthalben Algorithmen, in: Dieter Mersch / Michaela Ott (Hrsg.), Kunst und Wissenschaft, München, S. 195-224. Claus Pias, 2003, Das digitale Bild gibt es nicht – Über das (Nicht-)Wissen der Bilder und die informatische Illusion, in: Zeitenblicke 2. Digitale und digitalisierte Kunstgeschichte (2003), Nr. 1, http://www.zeitenblicke.de/2003/01/pias/ index.html. Claudia Reiche, 1996, Pixel. Erfahrungen mit den Bildelementen, in: Frauen in der Literaturwissenschaft, Rundbrief 48, Hamburg. Michael Wetzel / Herta Wolf (Hrsg.), 1994, Der Entzug der Bilder. Visuelle Realitäten. München.

200

Jens Schröter „Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert“ (Andreas Gursky)

Jedes technische Medium hat im Laufe unserer langen Geschichte eine Schicht des Wirklichen freigelegt. Friedrich Kittler1

1. ‚Wirklichkeit‘ vs. ‚Manipulation‘ Die Ausbreitung so genannter ‚digitaler Bilder‘ stellt wohl den in den letzten Jahren meistdiskutierten Medienumbruch dar.2 Jede/r ist mittlerweile umgeben von Bildern auf Computer-Displays, Digital-Kameras, sieht im Kino und im Fernsehen mit Computern generierte Bilder. Die Konzeptualisierung dieser Veränderung dreht sich mittlerweile seit fast 20 Jahren beharrlich um immer die gleichen Topoi. Deren zentralster ist die Behauptung, mit der Ausbreitung mancher – visuell von Fotografien ununterscheidbarer – digitaler Bilder gehe der mit dem analogen Bild der Fotografie garantierte Bezug des Bildes auf eine ‚Wirklichkeit‘ verloren. Dieser Bezug soll dadurch garantiert gewesen sein, dass Fotografien indexikalisch, also kausal über das Licht mit dem fotografierten Objekt verbunden sind. Nur zwei Beispiele dafür: Fred Ritchin mahnte schon 1990, dass der Bildjournalismus und seine Funktion der Bezeugung realer Vorgänge mit dem Einzug des Computers zu ei-

1

Kittler 2004, 199.

2

Zur Diskussion, ob es ‚digitale Bilder‘ überhaupt gibt, siehe den Beitrag von Birgit Schneider in diesem Band. Wie Latour 1998, 421 betont, kommt es nicht auf das Einzelbild an, sondern darauf, das „movement, the passage, the transition from one form of image to another“ – und a fortiori von ‚image to sound‘ – ernst zu nehmen. Zu den Schwierigkeiten ‚analog‘ und ‚digital‘ zu unterscheiden, vgl. Schröter 2004a.

201

Jens Schröter

nem Ende kämen.3 Und 1994 behauptete niemand geringerer als Jean Baudrillard, dass aus dem „synthetischen Bild [...] das Reale bereits verschwunden“4 sei. Nun könnte man vermuten, dies sei eine abgelebte Debatte der frühen neunziger Jahre, wo es noch schrille Töne gab, was die weltverändernde Rolle der ‚digitalen Revolution‘ anbetraf. Mitnichten, denn 2004 schreibt Bernd Stiegler erneut einen Text zur „digitalen Fotografie“: Auch hier wird diagnostiziert: „Der Übergang von der analogen zur digitalen Photographie hat ihren diskursiven wie ontologischen Status radikal verändert“. Unter Rückgriff auf Friedrich Kittlers bekannten Satz, dass „Computerbilder […] die Fälschbarkeit schlechthin“5 seien, kommt Stiegler zu dem Ergebnis: „Gegenüber der analogen Repräsentation, für die eine kontinuierliche Übersetzung charakteristisch ist, findet bei der digitalen Photographie eine Übersetzung des Bildes in ein festgelegtes Raster- oder Gitternetz statt, in dem jeder einzelne Punkt oder Pixel durch einen Zahlenwert bestimmt wird und dadurch beliebig bearbeitet und verändert werden kann. […] Wir stehen, so macht es diese pointierte Charakterisierung mehr als hinreichend deutlich, am Ende des photographischen Zeitalters. Die bildliche Evidenz der Photographie ist dahin, die vermeintliche Authentizität des photographischen Bildes eine Chimäre [...] Die Photographie als authentisches Dokument hat ausgespielt.“6 Soweit nichts Neues. Jedoch ahnt man schnell, dass daran etwas nicht stimmen kann: Denn unerklärlich bleibt, wieso sich heutzutage, und schon lange vorher, Ärzte, Naturwissenschaftler, Meteorologen, Militärs kaum noch auf analoge, sondern nurmehr auf digital nachbearbeitete oder erzeugte Bilder verlassen, um eine je spezifische ‚Wirklichkeit‘ – sei es nun die des ‚Körpers‘, der ‚Natur‘, des ‚Wetters‘ oder des ‚Feindes‘ – zu analysieren und ggf. zu verändern. Was für ein Albtraum wäre es, wenn die Bilder, die z.B. ein Computertomograph vor einer Operation macht – da digital transformiert oder erzeugt – ‚als authentisches Dokument ausgespielt hätten‘.7 Stiegler ahnt selbst, dass da was nicht stimmt: „Selbstverständlich arbeiten heute nahezu alle professionellen Pressephotographen, denen es nach wie vor auf eine bildliche Dokumentation des Geschehens ankommt, mit einer digitalen Ausstattung, um so bereits während des packenden Fußballspiels und während des turbulenten Parteitags die Bilder an die Redaktionen übermitteln zu

202

3

Vgl. Ritchin 1990a; Ritchin 1990b.

4

Jean Baudrillard 2000, 258. Mir ist unklar, was Baudrillard mit „synthetisches Bild“ meint, da alle Bilder synthetisch (im Sinne von nicht-natürlich) genannt werden müssen (Spiegelbilder vielleicht ausgenommen – aber sind das Bilder? Vgl. dazu Eco 1993. Wahrscheinlich ist im Zusammenhang des Zitats, dass Baudrillard computergenerierte Bilder meint – was aber immer noch keinen Sinn macht, weil gezeigt werden kann, dass auch aus generierten Bildern keineswegs das Reale verschwunden ist (s.u.).

5

Kittler 2002, 179.

6

Stiegler 2004, 108-110. Das ‚vermeintlich‘ könnte auch den Schluss zulassen, dass Stiegler eigentlich meint, mit der Digitalisierung würde der Zweifel auch über die analoge Fotografie geworfen, also kein Bild würde mehr oder weniger, sondern nur anders referentiell, authentisch, glaubwürdig (oder das Gegenteil davon) erscheinen. Aber der danach zitierte Satz weist diese Möglichkeit wieder zurück.

7

Der Einwand, dass zumal medizinische Bildgebungen auch scheitern können und zu Fehldiagnosen führen ist kein Gegenargument. Scheitern kann ein Bild nur, wenn die Absicht und Möglichkeit einer referentiellen Abbildung bestanden hat.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

können.“8 Und weiter: „Selbstverständlich verwenden die allermeisten Amateurphotographen ihre digitale Kamera wie eine klassische Leica […]“.9 Aber, all dies Selbstverständliche ficht den radikalen ontologischen Bruch nicht an, denn „(a)ll dies ist nicht entscheidend […]. Entscheidender sind vielmehr die Konsequenzen, die sich durch die Digitalisierung für die Photographie insgesamt ergeben haben, ohne dass sie im Detail und in der universellen Praxis Anwendung finden würde [sic].“10 Hier wird das Argument offenkundig wacklig: Wie kann die digitale Fotografie eigentlich nur noch ‚Fälschbarkeit schlechthin‘ (Kittler) sein, aber munter und ungehemmt weiter als Dokument genutzt werden? 11 Das Grundproblem der ganzen Diskussion liegt darin, dass eine unbefragte Dichotomie im Hintergrund herumgeistert: Nämlich die zwischen ‚Wirklichkeit‘ und ‚Manipulation‘. Es wird erstens unterstellt, dass nur ein irgendwie unberührtes, unverändertes Bild die ‚Wirklichkeit‘ wiedergeben könne – als ob die bloße Möglichkeit, ein fotochemisches Bild aufzuzeichnen, nicht selbst schon etwas sehr Künstliches wäre. Peter Galison und Lorraine Daston haben die Geschichtlichkeit dieser Idee genau herausgearbeitet.12 Aber obwohl Fotografien ‚künstlich‘ sind, können sie dennoch als Spur realer Ereignisse operieren: Wir alle wissen das, jedes Mal, wenn wir mit überhöhter Geschwindigkeit geblitzt werden. Keine ‚Blitze‘ kommt natürlich vor, dennoch müssen wir uns der Bezeugung des gemachten Fotos beugen. Zweitens wird behauptet, dass jeglicher Eingriff in das fotografisch gewonnene Bild dieses automatisch und unweigerlich von der ‚Wirklichkeit‘ entferne. Nur unter Voraussetzung dieser beider Annahmen ist die Behauptung formulierbar, als digitale Daten vorliegende Bilder seien nur, weil sie leichter zu bearbeiten sind, quasi automatisch das Ende der ‚Dokumentation‘, der Referenz13 oder des Wirklichkeitsbezugs, wie immer man es bezeichnen möchte. Im Folgenden sei die Dichotomie zwischen ‚Wirklichkeit‘ und ‚Manipulation‘ unterlaufen. Und zwar auf zwei verschiedenen, aber sich ergänzenden Wegen. Der erste argumentiert historisch – die These ist, dass schon der Blick auf die Geschichte digitaler Bildbearbeitung die Behauptung einer ‚Referenzlosigkeit‘ ‚digitaler Bilder‘ problematisch erscheinen lässt. Der zweite ist medienästhetisch. Dazu seien zwei jüngere Arbeiten von Andreas Gursky betrachtet.

203

8

Ebd., 106/107.

9

Ebd., 107.

10

Ebd.

11

Vgl. mittlerweile Mitchell 2007, 237-256.

12

Vgl. Daston / Galison 2002. Vgl. immer wieder die Darstellung von Josef-Maria Eder 1979. Sie zeigt in unübertrefflichem Materialreichtum, welche vielfältigen Wege die Fotografie allein technisch gehen musste, um als ‚Dokument‘ operieren zu können.

13

Vgl. zum Begriff der Referenz Elgin 1983.

Jens Schröter

2. Eine sehr kurze Geschichte der digitalen Bildbearbeitung Dass es im Folgenden um eine kurze Geschichte der Bildbearbeitung geht, bedeutet: Hier geht es nicht um ‚das digitale Bild‘ in toto. Unter dem Schlagwort ‚digitale Bilder‘ werden oft undifferenziert zwei verschiedene Typen von Bildern versammelt: Dies sind einerseits abgetastete, das heißt digitalisierte, und andererseits algorithmisch generierte Bilder, wie sie etwa in den ‚fotorealistischen‘ Grafiken des Hollywood-Kinos alltäglich sind. Hier soll nur auf den ersten Typ, die digitalisierten Bilder, eingegangen werden.14 Menschen – zumindest in der ‚westlichen Welt‘ – haben ständig mit solchen Bildern zu tun: Wenn man eine Vorlage, z.B. einen Katalog von Andreas Gursky, auf den Flachbettscanner legt und scannt, wenn man die Digitalkamera z.B. im Urlaub benutzt, fällt Licht durch eine Linsenoptik auf einen quantenelektronischen Sensor, ein CCD. Die pro Pixel messbaren Spannungswerte werden durch einen A/DWandler in eine Matrix aus Zahlen überführt. Die digitalisierten Bilder schließen also insofern an die fotografischen Bilder an, weil sie auf einer Abtastung von Licht beruhen. Hier zeigt sich schon in einer ersten Weise, warum die Entgegensetzung digitaler, näherhin digitalisierter Bilder und analoger Fotografie kaum plausibel ist: Denn auch beim Scanner oder der Digitalkamera fällt Licht vom Objekt – indexikalisch – auf den Sensor. Sicher: Dieser hält das Bild nicht so entropisch irre14

204

Hier drängt sich ein Einwand auf. Indem sich die Argumentation auf die digitalisierten Bilder beschränkt, kann natürlich leicht der Beweis einer weiterhin gegebenen Referentialität der ‚digitalen Bilder‘ erschlichen werden. Würden die auf der Basis mathematischer Verfahren modellierten Bilder hinzugezogen, die nur auf Programme rekurrieren und folglich keinen Weltbezug aufweisen, müsste man eingestehen, dass es auch ‚referenzlose‘ Bilder gäbe. Zunächst ist zu sagen, dass die hier vorgenommene Beschränkung auf digitalisierte Bilder der Konzentration des Arguments dienen soll, denn auch Gurskys Arbeiten basieren auf Verfahren der Digitalisierung. Aber tatsächlich sind auch die errechneten (vielleicht im Sinne Baudrillards ‚synthetischen‘) Bilder nicht einfach ‚referenzlos‘: Man kann generierte Bilder als ‚referenzlos‘ bezeichnen, wenn sie etwas zeigen, das nicht auch außerhalb des Bildes zumindest im Prinzip anzutreffen ist – das gilt allerdings auch für jede fiktionale Darstellung (z.B. Einhorn-Bilder), ganz gleich, ob sie errechnet ist oder nicht. (1) Doch oftmals (in den Naturwissenschaften oder der Architektur) dienen generierte Bilder dazu, Modelle realer Phänomene (oder in der Architektur: zukünftig realer Phänomene) darzustellen. Die Modelle basieren meist auf Messdaten und daraus abgeleiteten mathematisch formulierbaren Verhaltens- und Strukturmustern. Diese modellbasierten Bilder sind Werkzeuge, um ein (zukünftiges) Reales zu kontrollieren. Die Transformierbarkeit der Modelle und/oder Visualisierungen wird genutzt, um das Verhalten eines Realen zu verstehen. Der Sinn von Computersimulationen und ihren Visualisierungen war von Anfang an nicht, eine referenzlose Trugwelt aufzubauen (wie schlechte Kinofilme in der Art von The Matrix suggerieren). Im Gegenteil war und ist ihr Zweck ein verbessertes Verständnis eines Wirklichen – mit dem Ziel der besseren Kontrolle darüber. So gesehen kann von Referenzlosigkeit nicht die Rede sein. (2) Selbst wenn generierte Bilder etwas zeigen, für das es in einem engeren Sinne keine Referenz (mehr) gibt (wie z.B. die Dinosaurier im Kinofilm Jurassic Park; und solche Bilder referieren natürlich immer noch auf kulturell tradiertes Wissen, was Dinosaurier sind und wie sie wohl aussahen), referiert doch das Wie der Darstellung auf reale Konventionen der Darstellung. Das ‚fotorealistische‘ Rendering fiktionaler Dinosaurier referiert auch auf die Weise, wie fotografische Bilder aussehen und zwar keineswegs nur in oberflächlich imitativer Weise. In Verfahren des computergrafischen Fotorealismus werden approximativ virtuelle Kamerae modelliert – mit virtuellen Linsen, Shuttern, Emulsionen usw. Vgl. zur Computersimulation Schröter 2004. Vgl. zum Fotorealismus Schröter 2003.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

versibel fest wie ein chemischer Film – Wolfgang Hagen hat das genau gezeigt15 –, aber das Wort ‚Photo-Graphie‘ heißt zunächst einfach: ‚Schrift des Lichts‘. Nichts an diesem Begriff begründet, warum diese ‚Schrift‘ nur chemischer und nicht etwa quantenelektronischer Art sein sollte. Auch Hagen betont, dass die Daten, die so erhalten werden, viel leichter verändert werden können. Aber hier setzt das zweite und wesentliche Argument an: Wieso ist die Möglichkeit der Veränderung a priori eine Abweichung von einer Spur des Realen? Ist es nicht vielmehr so, dass diese Spur von Rauschen und Störungen gereinigt werden muss, um überhaupt erscheinen zu können? Wenn ein Kriminologe an einem Tatort die relevanten Spuren von zufälligen anderen Artefakten zu trennen versucht, um dem sehr realen Verbrecher ‚auf die Spur‘ zu kommen, dann tut er eben dies. Eine Verarbeitung, ‚Manipulation‘ des Vorgefundenen ist nötig, um die situativ relevante Information über die realen Ereignisse herauszufiltern. Nur durch die Bearbeitung der Situation kann der Kriminologe die Spuren des Täters finden, von Störungen isolieren, für die Weiterverarbeitung fotografisch aufzeichnen etc. – das heißt aber keineswegs, dass er die Spuren des Täters erfindet. Die ‚Manipulation‘ von etwas bedeutet nicht schon dessen Konstruktion – im Sinne von ‚Erfindung‘. Eben so ist es hier: Die Möglichkeiten der Digitalisierung von Bildern wurden überhaupt nur erfunden, um die Bilder zu bearbeiten. Doch diese Bearbeitung hatte nur ein Ziel: Nämlich mehr über eine je und je so genannte ‚Wirklichkeit‘ zu erfahren – und nicht etwa, diese durch beliebige Hinzufügungen und Veränderungen zu verstellen. Es kann hier nicht auf die zahllosen Voranfänge und Details dieser Geschichte eingegangen werden – sie sind auch unnötig.16 Nur ein besonders signifikanter Fall aus den 1960er Jahren soll erwähnt werden. In Vorbereitung des Apollo-Programms, also der bemannten Mondlandung, wurde das Ranger-Programm gestartet. Aufgabe der Ranger-Sonden war es, Videobilder von der Mondoberfläche an die Erde zu schicken. Die ersten Ranger-Missionen schlugen fehl, erst Ranger 7, gestartet am 28. Juli 1964, sendete mit einer neuartigen VidiconRöhre zunächst analoge Videosignale Abb. 1: Ranger 7, 1964. zur Erde. Dort wurden die Bilder am 1965 auf Betreiben von Dr. Robert Nathan gegründeten Information Processing Laboratory (IPL) des Jet Propulsion Laboratory (JPL) der NASA digitalisiert und nachbearbeitet. Dazu kam die später so genannte VICAR (Video Image Communication and Retrieval)-Software auf einem IBM 7094 oder IBM 360 zum Einsatz. So erfuhr 15

Vgl. Hagen 2002.

16

Vgl. zu den Details Schröter 2004c, Das Ende der Welt. Analoge vs. digitale Bilder – mehr und weniger ‚Realität‘?, in ders/Böhnke, Analog/Digital, S. 335-354.

205

Jens Schröter

Abb. 2: Computersystem für Image Processing am IPL.

206

man etwas über die Wirklichkeit der Mondoberfläche – erfreulicherweise. Recht bald kam man am IPL auf die Idee, die Bildbearbeitungsverfahren auch auf die Verbesserung medizinischer Bilder, zunächst Röntgenaufnahmen, anzuwenden. Schon 1967 stellten Nathan und Robert Selzer ihre Ergebnisse dem National Institute of Health vor, wo man so begeistert war, dass man die Forschung am IPL finanziell unterstützte. Insbesondere die Korrektur der geometrischen Verzerrungen durch Image Warping wurde bald intensiv in Abb. 3: Bild einer Ader, vor und nach der medizinischen Bildverarbeitung, Bearbeitung. vor allem in der erstmals 1981 klinisch evaluierten Digitalen Subtraktions-Angiographie, eingesetzt, um präzise Diagnosen erstellen zu können. So erzeugt man Wissen über die Wirklichkeit des Körpers. Abbildung 3 zeigt ein Beispiel des frühen medizinischen Einsatzes der Bildbearbeitung: Das Bild einer Ader aus dem Zusammenhang der Untersuchung eines Herzinfarktes. Oben ist fast nichts zu erkennen – unten nach der digitalen Bearbeitung deutlich mehr. Es zeigt sich an allen Beispielen aus Spionage, Raumfahrt, Naturwissenschaft und vor allem der Medizin, dass dort das Processing, die Manipulation, gerade Bedingung des referenziellen Bezugs der Bilder war und ist: „However imagery is obtained, it requires processing and interpretation to convert it into intelligence data. Computers can be employed to improve the quantity and quality of the information extracted.“17 Daraus kann jedoch keine – wie Michel Foucault sagt – „monotone [...] Finalität“18 abgeleitet werden, der zufolge die Manipulation niemals ein Problem 17

Richelson 1999; Hervorhebung J.S. Zur Bildbearbeitung bei der Auswertung auch anderer Satellitendaten wie der von Wettersatelliten siehe Haralick 1976.

18

Foucault 1987, 69.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

darstellt: Es gibt eine Grenze zwischen „verbotener Intervention und genehmigter Verbesserung“19, die je nach Praxis unterschiedlich schnell überschritten werden kann. Jeder, der schon mal ein Buch gemacht hat, weiß, dass Abbildungen so gut wie immer mit Photoshop nachbearbeitet werden, um schärfer, fehlerfreier und kontrastreicher zu sein. Niemand würde das als verfälschende Manipulation beschreiben. Weil zum System der Massenmedien aber – nach Niklas Luhmann – permanent ein „Manipulationsverdacht“20 gehört, wundert es nicht, dass dort der leichteren21 und zudem nun dank PC und Adobe auch jedem Amateur zur Verfügung stehenden Bearbeitbarkeit digitaler Bilder besonderes Augenmerk eingeräumt wird.22 Daran zeigt sich, dass der Zweifel an der Glaubwürdigkeit analoger oder digitaler Bilder in erster Linie von der diskursiven Praxis abhängt, in welcher die Bilder operieren – gerade Fotografien bedeuten ohne begleitenden Text meist alles und nichts zugleich. Analoge UFO-Fotos gibt es viele, aber würde man sie als ‚unbezweifelbares Zeugnis‘ dafür, dass es UFOs ‚wirklich‘ gibt, gelten lassen? Das hängt wohl sehr stark von der Praxis ab, in der diese Bilder zirkulieren. So entlarvt die Kenntnis der Geschichte und Pragmatik der digitalen Bildbearbeitung den zur ‚medialen Ontologie‘ hochgespielten Gegensatz zwischen der ‚Wirklichkeit‘, die sich in der analogen Fotografie angeblich noch findet, und der angeblich wirklichkeitslosen ‚digitalen Manipulation‘ als – wenn man so will – ‚Ideologie‘. Woher diese Ideologie kommt, sei zunächst dahingestellt. Bevor der zweite, medienästhetische, Strang der Argumentation verfolgt wird, sei noch kurz auf die Frage eingegangen, die sich jetzt zweifellos aufdrängt. Bedeutet die hier skizzierte Argumentation denn, dass es gar keinen Unterschied zwischen der – um diese vereinfachenden Sammelbegriffe nocheinmal zu verwenden – ‚analogen‘ und der ‚digitalen‘ Fotografie gibt? Keineswegs. Digitale Daten müssen anders archiviert werden23, sie können anders zirkulieren als analoge Bilder – man kann Bilder per E-Mail verschicken – und sie können, wie gezeigt, eben ganz anders bearbeitet werden.24 Es gibt unterschiedliche Potentiale der unterschiedlichen 19

Soojung-Kim Pang 2002, 104. Vgl. auch Lynch / Edgerton 1988.

20

Luhmann 1996, 9 und 31.

21

In der Debatte um die ‚leichtere‘ Fälschbarkeit ‚digitaler Bilder‘ wird in der Regel übersehen, dass eine überzeugende Fälschung auch mit Photoshop immer noch ein sehr schwieriges Unterfangen bleibt, vgl. die entsprechenden Beispiele in Mitchell 1992.

22

Einige Beispiele dafür werden in Rosler 1995 genannt. Der Wirbel um diese digitalen Bearbeitungen ist schon deswegen verwunderlich, weil – wie Rosler betont – die Manipulation und Bearbeitung ebenso die Geschichte der foto-chemischen, ,analogen‘ Fotografie von Anfang an begleitet. Vgl. Jaubert 1989.

23

Vgl. Schröter o.J.

24

Der hinsichtlich ‚digitaler Bilder’ oft bemerkte höhere Freiheitsgrad ihrer Transformierbarkeit besagt nicht, dass solche Bilder weniger Referenz besäßen. (1) Im Gegenteil kann unter bestimmten Umständen, wie die obigen Beispiele zeigen sollen, durch diese größeren Freiheitsgrade der Manipulation mehr Referenz erzeugt werden. (2) Ein anderes Argument bezieht sich auf die Mutabilität der Daten. Dies meint: Daten, die etwa beim Einscannen eines Bildes einer roten Rose entstanden sind, können anders denn als Bild wiedergegeben werden. Wenn es nun um die Referenz geht, ist zu sagen, dass die Daten, die das Bild einer roten Rose beschreiben, bei ihrer Wiedergabe als Klangereignis natürlich nicht mehr die Rose zeigen, also diese Referenz verlieren, aber das ist eigentlich trivial. Wichtiger ist jedoch: Die genannten Daten würden bei solcher Transformation in der Regel kein sinnvolles Klangereignis

207

Jens Schröter

Technologien, die aber nicht abstrakt makrologisch – ‚ontologisch‘ – verhandelt werden können. Es kann nicht darum gehen, ausgehend von abstrakten Bestimmungen von ‚analog‘ und ‚digital‘ Schlussfolgerungen für alle möglichen Praktiken zu ziehen. Sondern es kann nur darum gehen, konkrete diskursive Praktiken und ihren jeweiligen Einsatz analoger und/oder digitaler visueller Medien detailliert zu untersuchen – wie es etwa eine an Bruno Latour geschulte Wissenschaftsgeschichte tun würde. Latour hat durch detaillierte Studien wissenschaftlicher Praktiken die je verschiedene Produktion von Referenz, von ‚Wirklichkeit‘ untersucht – und ebenso mikrologisch sollten Praktiken mit analoger und/oder digitaler Fotografie analysiert werden, seien diese nun ‚alltäglich‘, wissenschaftlich oder künstlerisch.25

3. Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert Es sei nun zum zweiten, medienästhetischen Strang übergegangen und mikrologisch eine solche Produktion untersucht – nämlich zwei neue Arbeiten von Andreas Gursky. Gursky soll den schönen Satz „Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert“ geäußert haben. Zunächst passt dieser Satz zu der eben skizzierten genealogischen Rekonstruktion: Auch für die Spione, Militärs, aber auch für Mediziner und Naturwissenschaftler ist gerade das Ergebnis ihrer mühsam ‚konstruierten‘ Bildbearbeitung die Darstellung einer je spezifisch operativen ‚Wirklichkeit‘. Gursky zitiert mit dem Satz Bertolt Brecht, der schon lange vor 1945 bemerkt hatte, dass „weniger denn je eine einfache ‚Wiedergabe der Realität‘ etwas über die Realität aussagt. Eine Photographie der Kruppwerke oder der AEG ergibt beinahe nichts über diese Institute. [...] Es ist also tatsächlich etwas aufzubauen, etwas ‚Künstliches‘, ‚Gestelltes‘.“26 Dieses Künstliche, Gestellte, ist eben kein Gegensatz zum Wissen über ein ‚Wirkliches‘, sondern dessen Bedingung. Jedes Labor ist etwas Künstliches, Gestelltes, das gerade wegen seiner Künstlichkeit Wissen über ein Wirkliches ermöglicht. Dieses Künstliche findet sich in Gurskys Arbeiten reflektiert. Zwar nimmt auch Stiegler den Bezug Gurskys auf die Brechtsche Passage zur Kenntnis, aber nur um sie zur „Scheinlegitimation einer keines-

208 hervorbringen, zu erwarten wäre Rauschen – deswegen spricht Hagen 2002, 231 hinsichtlich solcher Transformationen von „Musik im Cageschen Sinn“ – denn nur unter Zuhilfenahme eines radikal erweiterten Musikbegriffs kann eine solche Transformation als Umwandlung von Bild-in-Musik und nicht von Bild-in-eine-sinnlose-Störung verstanden werden. Die Transformierbarkeit funktioniert nur innerhalb relativ enger Spielräume und gerade dies bekräftigt eher den referentiellen Charakter digitaler Daten. In unserem Beispiel: Die Daten waren eben so geordnet, dass sie unter den rechten Bedingungen eine Rose zeigen – und sonst geben sie nichts zu hören oder zu lesen. Sie sind auf diese Referenz festgelegt. Die Festlegung auf bestimmte Typen von Referenz zeigt sich ganz deutlich daran, dass (zumindest unter Windows) Datenfiles verschiedene Typ-Endungen haben (.doc, .wav, .tif etc.), die bestimmen, ob die Daten als Text, Klang oder Bild wiederzugeben sind. 25

Vgl. Latour 1996.

26

Brecht 1968, 161/162.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

wegs sozialkritischen Photographie“27 herunterzuspielen. Damit verfehlt er m.E. den eigentlichen interessanten Punkt zumindest an manchen von Gurskys großformatigen, digital nachbearbeiteten und montierten Fotografien. Zwei der neuesten Arbeiten Gurskys sollen diskutiert werden, zwei Arbeiten, die auf den ersten Blick formale Ähnlichkeiten aufweisen, auf den zweiten Blick nicht verschiedener sein könnten – und auf den dritten Blick hin in einer schlüssigen und differenzierten, visuellen Weise ganz genau die hier diskutierte Problematik verhandeln. Abb. 4 zeigt Kamiokande (2007), Abb. 5 Pyonyang I (2007). Auf den ersten Blick operieren beide Fotos formal mehr oder weniger nach einer Logik des All-Over, oder vielleicht besser: des ‚Ornamentalen‘: ähnliche Bildelemente füllen repetitiv die Fläche. Auf den zweiten Blick wirkt eine solche, rein Abb. 4: Andreas Gursky, Kamiokande, formale Betrachtung geradezu zynisch: 2007. Wie kann man rein formal das Bild einer High-Tech-Forschungsstätte mit den Aufmärschen verführter Kinder in einer verrückten Diktatur – Pyonyang als Hauptstadt Nordkoreas spricht wohl für sich – vergleichen? Die bloße Tatsache, dass beide Bilder irgendwie in Asien aufgenommen wurden, dass beide irgendwie formal einer Art von repetitiver Struktur folgen, kann und darf doch nicht verdecken, dass hier völlig verschiedene – um mit Brecht zu sprechen – „Institute“ aufgenommen wurden. So gesehen wäre Gurskys Fotografie nicht nur ‚keineswegs sozialkritisch‘, wie Stiegler herausstellt, sondern zynisch – und in ihrem Monumentalismus schlicht ein bestürzendes Beispiel für den sorglosen Ästhetizismus des gegenwärtigen Kunstmarkts. Abb. 5: Andreas Gursky, Pyonyang I, Diese Problematik sei nicht geleug- 2007. net, doch gibt es noch einen dritten Blick. Gursky digital-fotografiert in beiden Fällen – so kontraintuitiv das zunächst erscheinen mag – Vergleichbares: nämlich digitale Bilderzeugungsverfahren und reflektiert damit seine eigene Bilderzeugungstätigkeit sowie ihr Verhältnis zur so genannten ‚Wirklichkeit‘. Das ist genau das Bindeglied zwischen den thematisch so verschieden erscheinenden jüngeren Arbeiten Gurskys. Zunächst: Kamiokande. 27

Stiegler 2004, 112.

209

Jens Schröter

Was stellt der leicht geschwungene Bogen goldener Punkte dar (die Linie links ist der Knick des Katalogs, den ich – passend zum Thema dieses Textes – mit Photoshop, so gut es ging, reduziert habe)? Es ist das Bild des Inneren eines großen Neutrino-Detektors, 1 Km unter der Erde im japanischen Kamiokande. Der Detektor hat die Form eines großen Zylinders und ist normalerweise komplett mit Wasser gefüllt. Gursky konnte ihn während einer Reparaturpause besuchen. Man sieht die Wasserlinie, darauf winzigkleine Forscher in ihren Schlauchbooten, die sich an dem Detektor zu schaffen machen. Jeder der goldenen Punkte ist ein so genannter Photomultiplier.

Abb. 6: Schema eines Photomultipliers.

210

Bei der ganzen Anlage handelt es sich also also um ein fotografisches Medium – die Abbildung zeigt das Grundprinzip der in dem Detektor verwendeten Multiplier. Sie dienen der Verstärkung der äußerst schwachen Lichtimpulse, die Neutrino-Ereignisse im Wasser des Detektors erzeugen. Die Impulse der Photomultiplier werden einem komplexen Rechnersystem zugestellt, dass aus diesen Daten ein Bild erzeugt, das dem geschultem Blick Informationen über die vorliegenden Teilchenprozesse vermittelt. Es handelt sich also um eine extrem künstliche Laborsituation, die gerade wegen ihrer Künstlichkeit und wegen digitaler Datenverarbeitung bildliche Informationen erzeugt, die zur Erkenntnis der fundamentalen Struktur des ‚Physikalisch-Wirklichen‘ beitragen soll – und kann: 1998 wurde in KamioAbb. 7: Schematischer Aufbau des kande ein wichtiger Beleg für die lange Rechnersystems im Super-Kamiokandevorhergesagte und gesuchte NeutrinoDetektor. Oszillation entdeckt, eine Tatsache, die

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

für die gegenwärtige theoretische Physik von zentraler Bedeutung ist.28 Diese Abbildung zeigt eine Aufnahme eines Mitarbeiters des Forschungsprojektes: Dieselben Bögen goldener Punkte auf Schwarz, dieselben verlorenen Menschlein auf kleinen Booten. Und doch gibt es einen kleinen, aber wichtigen Unterschied: Das Bild des Mitarbeiters scheint mit einer Art von Froscheye-Objektiv aufgenommen zu sein, man sieht dies an den extremen Krümmungen, Gursky hingegen präsentiert ein – wie die Grundlinie zeigt Abb. 8: Visualisierung am Super-Kamiokan– stärker glattgestrecktes Panorama. de-Detektor. Gursky hat, wie in den meisten seiner anderen monumentalisierenden Digital-Fotografien, mehrere Fotografien zu einem digitalen Panorama montiert, die einen realiter unmöglichen ‚privilegierten Blick‘ (Weski) erzeugt. Dieser künstliche Blick reflektiert genau den künstlichen

211

Abb. 9: Innenansicht des Super-Kamiokande Detektors.

Blick der mit unvorstellbar aufwendigen Detektoren und Computern – wie in Kamiokande – aufgerüsteten Physik, die an den Rand des Urknalls vorzudringen sucht.29 „Jedenfalls gäbe es kein Bild dessen, was ist, ohne moderne Computer.“30 28

Vgl. Fukuda 1998.

29

Vgl. Galison 1997.

30

Kittler 2004, 202.

Jens Schröter

212

Der schon genannte Bruno Latour unterstreicht das „striking phenomenon of artificiality and reality marching in step“,31 das die naturwissenschaftliche Forschung kennzeichnet; und: „Every scientist we studied was proud of this connection between the quality of its construction and the quality of its data.“32 Latours Begriff der Konstruktion bedeutet mitnichten, dass das Wissen um das ‚Wirkliche‘ bloß konstruiert ist, in dem Sinne, dass es auch beliebig anders konstruiert sein könnte (z.B. abhängig von wandelbaren ‚sozialen Faktoren‘), sondern nur, dass es meist digitaler Bildbearbeitung oder solcher aufwendiger Konstruktionen wie des Detektors in Kamiokande bedarf, um etwas über eine spezifische ‚Wirklichkeit‘ zu erfahren.33 Die bereits oben gemachten Bemerkungen über einen, den Tatort explorierenden Experten von der Spurensicherung und seine Bearbeitungen und Manipulationen, die dazu dienen, die Spuren des Täters zu finden, nicht zu erfinden, trifft auch hier zu. Es ist ‚Arbeit und Montage‘ (Latour) erforderlich, um zu Ergebnissen zu kommen, das heißt aber nicht, dass die Ergebnisse je nach kontingenten (sozialen) Umständen anders wären: Das Wissen, z.B. um Naturgesetze wie die Konstanz der Lichtgeschwindigkeit im Vakuum, fällt nicht vom Himmel, wird nicht von der viel beschworenen ‚Natur‘ von selbst offenbart, vielmehr muss solches Wissen der ‚Natur‘ durch immer subtilere, institutionell wie technisch ständig komplexere Experimente abgerungen werden – aber damit werden die Naturgesetze nicht nach Belieben gemacht. Um es ganz knapp mit Karl Popper zu formulieren: Ohne Experiment ist keine physikalische Theorie prüfbar, und alle passenden Ergebnisse bestätigen sie nur solange, bis ein zu ihren Vorhersagen unpassendes Experiment auftritt – welches die Theorie in der Regel falsifiziert. Aber „Experimentalsysteme“ (Rheinberger) müssen passend zur Fragestellung konstruiert werden: „When we say that a fact is constructed, we simply mean that we account for the solid objective reality by mobilizing various entities whose assemblage could fail.“34 In diesem Sinne sind Fakten – das Wort kommt von lat. facere, machen – konstruiert. Eine Tatsache ist eben eine Tat-Sache.35 So gibt es Fälle wie die Schwerionenforschung, in denen Transurane, die in der Natur kaum oder gar nicht vorkommen, erzeugt werden, um Aufschlüsse z.B. über die reale Struktur von Atomkernen zu gewinnen. Und mit Fortschreiten der Wissenschaften werden die Experimente immer komplexer und benötigen immer mehr Konstruktion, was immer mehr Geld und die Bereitschaft der entsprechenden Behörden erfordert, dies in Experimente zu investieren, die dem Gros der Öffentlichkeit völlig nutzlos erscheinen. Die Arbeit der Konstrukti-

31

Latour 2005, 90.

32

Ebd.

33

Vgl. Schröter 2008.

34

Latour 2005, 91.

35

Der Begriff Konstruktion hat in vielen Sprachen den schalen Beiklang des willkürlich und unmotiviert Zusammengestellten, zumal wenn er noch zum Begriff der ‚sozialen Konstruktion‘ erweitert wird. Latour 2005, 91 zieht daher eine scharfe Demarkationslinie zwischen dem von ihm bevorzugten ‚constructivism‘ gegenüber dem ‚social constructivism‘. Im Deutschen wird der Begriff ‚Konstruktivismus‘ aber wiederum durch die theoretische Tradition des ‚radikalen Konstruktivismus‘, mit dem Latour nichts gemein hat, bestimmt.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

on entscheidet dabei nicht über das Was,36 z.B. des naturwissenschaftlichen Wissens, sondern über sein Dass.37 Doch wie passt das zu dem Bild, welches die nordkoreanische Arirang-Feier zeigt, eine ultrastalinistische Massenveranstaltung, die regelmäßig zur Feier der nordkoreanischen Revolution abgehalten wird? Man beachte die Tribüne im Hintergrund. Bei ihr handelt es sich um ein digitales Bild. Es besteht aus einzelnen Bildpunkten, die nur nicht von Rechnern angesteuert werden – obwohl möglicherweise Rechner zur Konstruktion dieser Massenchoreographie herangezogen werden –, sondern um Menschen, die nach einem peniblen Programm farbige Tafeln in die Höhe halten. Jeder der braunen Punkte auf der Tribüne ist ein Kinderkopf. Gursky fotografiert hier also erstens eine Wirklichkeit, die selbst schon komplett propagandistisch konstruiert, buchstäblich programmiert ist – bereits hier unterläuft er den angeblichen Gegensatz von ‚Wirklichkeit‘ und ‚Manipulation‘. Denn was könnte es heißen, eine solche Ver- Abb. 10 Andreas Gursky, Pyonyang I, anstaltung ‚objektiv‘ darzustellen? Mit 2007, Detail. Brecht muss man sagen, dass hier die „eigentliche Realität […] in die Funktionale gerutscht“38 ist. Wieder erzeugt Gursky einen künstlichen, realiter unmöglichen Blickpunkt. Er nimmt jenen überirdischen Blickpunkt ein, den Diktator Kim JongIl sicher gerne einnehmen würde. Gerade so zeigt der Fotograf das, wie Siegfried Kracauer sagen würde, „Ornament der Masse“ in seiner ganzen absurden Künstlichkeit – keine ‚unmanipulierte‘, pure, reine analoge Fotografie vermag das zu leisten, weil sie angesichts der Dimensionen des Arirang-Festivals immer nur kleine Ausschnitte zeigen könnte. Das digital bearbeitete Bild des digitalen Massen-Bildes reflektiert genau diese Problematik. Darin sind die so verschiedenen Bilder Gurskys von Neutrinodetektoren und stalinistischen Massenveranstaltungen verbunden: Sie zeigen, wie der Künstler sagt, dass „Wirklichkeit überhaupt nur darzustellen (ist), indem man sie konstruiert“. Seine Bilder sind gleichzeitig genauso ‚manipuliert‘ und ‚wirklich‘ wie die Bilder der Naturwissenschaft. Oder um es noch einmal anders deutlicher zu 36

Natürlich gibt es Fälle, in denen z.B. Gutachten im Dienste spezifischer, partikularer Interessen tendenziöses oder schlicht falsches Wissen bereitstellen. Aber derartige ‚Manipulationen‘ stehen hier nicht im Mittelpunkt.

37

Zum Primat des ‚Dass‘ über das ‚Was‘ vgl. Latour 2006, 381: „Die einzige Essenz eines Projektes oder der Anspruch eines Wissens besteht in dessen gesamthafte[r] Existenz. Dieser (auf Dinge ausgeweitete!) Existentialismus füllt die Unterscheidung zwischen rhetorischen [...] und substantiellen Fragen mit einem präzisen Inhalt.“

38

Brecht 1968, 161.

213

Jens Schröter

fassen: Gursky setzt dezent digitale Bildmanipulationen ein, aber eben nicht, um eine trügende Täuschung zu erzeugen, sondern um den Gegenstand des Bildes optimiert zu präsentieren – ähnlich wie es in Naturwissenschaften, Medizin, Spionage oder bei der Vorbereitung eines Buches etc. getan wird. Zugleich sind die Gegenstände, die präsentiert werden, also der Detektor und die Tribüne, selbst digitale Bildverfahren. Im ersten Fall wird die digitale ‚Manipulation‘ dazu genutzt, Wissen über ein Wirkliches – die Neutrinos – zu erzeugen. Im zweiten Fall schafft das digitale Bild der Tribüne einen Aspekt einer Wirklichkeit – die der totalitären Diktatur. Gurskys Umgang mit digitaler Bildbearbeitung zeigt also in der geschickten Verflechtung von Form und Inhalt auf, wie verkürzt jene Modelle sind, die ‚digitale Bilder‘ einseitig auf die Auflösung der Referenz festlegen wollen.

4. Sehr kurzes Fazit

214

Abschließend seien die zentralen Thesen noch einmal kurz zusammengefasst: 1. Die immer noch zu findende These: analoge Fotografie = Wirklichkeitsbezug, Zeugnis, Referenz, Dokument versus digitale Fotografie = wirklichkeitslos, ‚Fälschbarkeit schlechthin‘, referenzlos, selbstreferentiell ist falsch. Sie beruht 2. implizit auf der Dichotomie: ‚Wirklichkeit‘ versus ‚Manipulation‘ (Bearbeitung, Processing). Diese muss historisch und medienästhetisch in Frage gestellt werden. ‚Wirkliches‘ ist nicht starr gegeben, sondern muss in unaufhörlicher Arbeit produziert werden – was nicht bedeutet, dass sie ‚beliebig konstruiert‘ werden kann. 3. Mithin operieren analoge und/oder digitale Bildgebungsverfahren auf verschiedene Weise und in verschiedenen diskursiven Praktiken (z. B. Wissenschaft oder Kunst), wodurch unterschiedliche Formen von Referenz, von je spezifischem Wissen über eine spezifische ‚Wirklichkeit‘ produziert werden können. Die Antwort auf eine Frage bleibt offen: Wie kommt es, dass Anfang der 1990er Jahre – bis heute wirkmächtig – die Vorstellung entstanden ist, digitale Bilder seien per se referenzlos – im Unterschied zu analogen Bildern? Es sei vermutet, dass die zu dieser Zeit noch sehr wirkmächtigen postmodernistischen Diskurse, die in Gestalt des schon genannten Jean Baudrillard ohnehin die Wirklichkeit in der „referenzlosen Simulation“39 der Massenmedien verschwinden sahen, das Auftauchen der digitalen Bilder als passende Bestätigung ihrer Thesen auffassten. Es wäre möglich, dass die beharrliche Insistenz auf der ‚Referenzlosigkeit‘ entweder ideologischer Ausdruck einer selbst ‚referenzlos‘ gewordenen spätkapitalistischen Ökonomie ist40 bzw. wahlweise den Wunsch nach einer Entbindung von der quälenden Wirklichkeit oder gerade den Wunsch nach einer Rückkehr zu ihr symptomatisch verrät. Wie dem auch sei: Jedenfalls lässt sich festhalten, dass die Konstruktion (im Sinne Latours) von ‚Wirklichkeit‘ nichts ist, dass allein an der Differenz von analog und digital hängt. Selbst wenn eine klare Unterscheidung zwischen die39

Vgl. kritisch dazu Venus 1997.

40

In einem an Karl Marx orientierten kurzen Essay argumentiert Kurz 1995 genau in diese Richtung.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

sen Bildtypen möglich ist, bedeutet das nicht, dass einer dieser Typen näher an der ‚Wirklichkeit‘ wäre als der andere. Beide Typen können Werkzeuge sein, um ggf. ein ‚Wirkliches‘ auf verschiedene Weise zu erschließen.41 Und mit beiden Typen von Bildern können und konnten ‚referenzlose‘ Fiktionen, Fälschungen und Täuschungen erstellt werden. Der Unterschied analog/digital entlastet uns nicht von der mühsamen Arbeit, historisch und/oder in teilnehmender Beobachtung einzelne Praktiken mit Bildern zu beschreiben. Ontologien des Analogen und des Digitalen helfen dabei nicht weiter.

215

41

Vgl. Galison 2004 zur parallelen Verwendung und letztendlichen Verbindung analoger und digitaler Techniken in der Teilchenphysik.

Jens Schröter

Abbildungsverzeichnis Abb. 1: National Aeronautics and Space Administration: Ranger VII. Special Report to Congress, Aug. 4, 1964, Washington, D.C. 1964. Abb. 2: Fred C. Billingsley: Processing Ranger and Mariner Photography, Aus: Journal of the Society of Photo-Optical Instrumentation Engineers, Vol. 4, No. 4, 1966, S. 147-155, hier S. 150 Abb. 3 Fred C. Billingsley: Applications of Digital Image Processing, in: Applied Optics, Vol. 9, No. 2, 1970, S. 289-299, hier S. 294 Abb. 4: Andreas Gursky, hrsg. von Thomas Weski, Köln 2007, S. 112/113. Abb. 5: Andreas Gursky, hrsg. von Thomas Weski, Köln 2007, S. 37 Abb. 6: Schema eines Photomultipliers (http://de.wikipedia.org/wiki/ Bild:Photomultiplier_schema_de.png, 02.10.2007) Abb. 7: Schematischer Aufbau des Rechnersystems im Super-Kamiokande-Detektor, http://www-sk.icrr.u-tokyo.ac.jp/sk/ykphd/app1.html, 02.10.2007 Abb. 8:Visualisierung am Super-Kamiokande-Detektor, Myon/elektromagnetische Interaktion, http://www-sk.icrr.u-tokyo.ac.jp/sk/display/bremsstrahlung. jpg, 02.10.2007 Abb. 9: Innenansicht des Super-Kamiokande Detektors, http://www.esi-topics. com/nhp/2006/september-06-EdwardKearns.html, 02.10.2007

Bibliographie

216

Jean Baudrillard, 2000, Das perfekte Verbrechen, in: Hubertus von Amelunxen (Hrsg.), Theorie der Fotografie IV 1980–1995, München, S. 256-260. Bertolt Brecht, 1968, Gesammelte Werke, Bd. 18, Frankfurt a.M. Lorraine Daston / Peter Galison, 2002, Das Bild der Objektivität, in: Geimer 2002, S. 29-99. Umberto Eco, 1993, Über Spiegel, in: Umberto Eco, Über Spiegel und andere Phänomene, München / Wien, S. 26-61. Josef-Maria Eder, 1979, Geschichte der Photographie, New York. Catherine Z. Elgin, 1983, With Reference to Reference, Indianapolis u.a. Michel Foucault, 1987, Nietzsche, die Genealogie, die Historie, in: Michel Foucault, Von der Subversion des Wissens, Frankfurt a.M., S. 69-90. Y. Fukuda u.a., 1998, Evidence for Oscillation of Atmospheric Neutrinos, in: Physical Review Letters, Vol. 81, No. 8, 24.08.1998, S. 1562-1567. Peter Galison, 1997, Image and Logic. A Material Culture of Microphysics, Chicago. Peter Galison, 2004, Abbild und Logik. Zur apparativen Kultur der Teilchenphysik, in: Schröter / Böhnke 2004, S. 355-372. Peter Geimer (Hrsg.), 2002, Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie, Frankfurt a.M. Wolfgang Hagen, 2002, Die Entropie der Fotografie. Skizzen zu einer Genealogie der digital-elektronischen Bildaufzeichnung, in: Wolf 2002, S. 195-235.

Wirklichkeit ist überhaupt nur darzustellen, indem man sie konstruiert

Robert M. Haralick, 1976, Automatic Remote Sensor Image Processing, in: Azriel Rosenfeld (Hrsg.), Digital Picture Analysis, Berlin u.a., S. 5-63. Alain Jaubert, 1989, Fotos, die lügen: Politik mit gefälschten Bildern, Frankfurt a.M. Friedrich Kittler, 2002, Computergrafik. Eine halbtechnische Einführung, in: Wolf 2002, S. 178-194. Friedrich Kittler, 2004, Schrift und Zahl – die Geschichte des errechneten Bildes, in: Christa Maar / Hubert Burda (Hrsg.), Iconic Turn. Die neue Macht der Bilder, Köln, S. 186-203. Robert Kurz, 1995, Politische Ökonomie der Simulation. Die Realität des Scheins und der Schein der Realität am Ende der Moderne, http://www.exit-online. org/link.php?tabelle=autoren&posnr=121. Bruno Latour, 1996, Der „Pedologen-Faden“ von Boa Vista – eine photo-philosophische Montage, in: Bruno Latour, Der Berliner Schlüssel – Erkundigungen eines Liebhabers der Wissenschaften, Berlin, S. 191-248. Bruno Latour, 1998, How to be Iconophilic in Art, Science, and Religion, in: Caroline A. Jones / Peter Galison (Hrsg.), Picturing Science, Producing Art, New York u.a., S. 418-440. Bruno Latour, 2005, Reassembling the Social. An Introduction to Actor-NetworkTheory, Oxford. Bruno Latour, 2006, Technik ist stabilisierte Gesellschaft, in: Andreá Belliger / David J. Krieger (Hrsg.), ANThology. Ein einführendes Handbuch zur AkteurNetzwerk-Theorie, Bielefeld, S. 369-398. Niklas Luhmann, 1996, Die Realität der Massenmedien, Opladen. Michael Lynch / Samuel Edgerton, 1988, Aesthetics and Digital Image Processing, in: Gordon Fyfe / John Law (Hrsg.), Picturing Power: Visual Depiction and Social Relations, London, S. 184-220. William J. Mitchell, 1992, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. William J. Mitchell, 2007, Realismus im digitalen Bild, in: Hans Belting (Hrsg.), Bilderfragen. Die Bildwissenschaften im Aufbruch, München, S. 237-256. Jeffrey T. Richelson, 1999, U.S. Satellite Imagery, 1960-1999. National Security Archive Electronic Briefing Book No. 13, www.gwu.edu/~nsarchiv/NSAEBB/ NSAEBB13/index.html. Fred Ritchin, 1990a, In Our Image: The Coming Revolution in Photography. How Computer Technology is Changing Our View of the World, New York. Fred Ritchin, 1990b, Photojournalism in the Age of Computers, in: Carol Squiers (Hrsg.), The Critical Image. Essays on Contemporary Photography, Seattle, S. 28-37. Martha Rosler, 1995, Bildsimulationen, Computermanipulationen, in: Hubertus v. Amelunxen / Stefan Iglhaut / Florian Rötzer (Hrsg.), Fotografie nach der Fotografie, Dresden / Basel 1995, S. 36-57. Jens Schröter, o.J., Archiv post/fotografisch, http://www.medienkunstnetz.de/ themen/foto_byte/archiv_post_fotografisch/scroll/, 01.10.2007 Jens Schröter, 2003, Virtuelle Kamera. Zum Fortbestand fotografischer Medien in computergenerierten Bildern, in: Fotogeschichte, Jg. 23, H. 88 (2003), S. 3-16.

217

Jens Schröter

Jens Schröter, 2004a, Analog/Digital – Opposition oder Kontinuum?, in: Schröter / Böhnke 2004, S. 7-30. Jens Schröter, 2004b, Computer/Simulation. Kopie ohne Original oder das Original kontrollierende Kopie?, in: Gisela Fehrmann u.a. (Hrsg.), OriginalKopie – Praktiken des Sekundären, Köln, S. 139-155. Jens Schröter, 2004c, Das Ende der Welt. Analoge vs. digitale Bilder – mehr und weniger ‚Realität‘?, in: Schröter / Böhnke 2004, S. 335-354. Jens Schröter / Alexander Böhnke (Hrsg.), 2004, Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung, Bielefeld. Jens Schröter, 2008, Der Äther des Sozialen. Anmerkungen zu Bruno Latours Einstein-Rezeption, in: Albert Kümmel-Schnur / Jens Schröter (Hrsg.), Äther. Ein Medium der Moderne, Bielefeld, S. 367-393. Alex Soojung-Kim Pang, 2002, Technologie und Ästhetik der Astrofotografie, in: Geimer 2002, S. 100-141. Bernd Stiegler, 2004, Digitale Photographie als epistemologischer Bruch und historische Wende, in: Lorenz Engell / Britta Neitzel (Hrsg.), Das Gesicht der Welt. Medien in der digitalen Kultur, München, S. 105-126. Jochen Venus, 1997, Referenzlose Simulation? Argumentationsstrukturen postmoderner Medientheorie am Beispiel von Jean Baudrillard, Würzburg. Herta Wolf (Hrsg.), 2002, Paradigma Fotografie. Fotokritik am Ende des fotografischen Zeitalters, Bd. 1, Frankfurt a. M.

218

Gabriele Gramelsberger „Die präzise elektronische Phantasie der Automatenhirne“. Eine Analyse der Logik und Epistemik simulierter Weltbilder

1. Die Praxis des Rechnens Die Eroberung der Welt als Bild … „Die präzise elektronische Phantasie der Automatenhirne“1 in Form wissenschaftlicher Simulationen und die daraus resultierenden Weltbilder – im konkret-visuellen wie abstrakt-metaphorischen – führen zur Frage, welche Logik den Simulationsbildern zugrunde liegt. Dabei wird nicht der Versuch, die Frage zu klären „Was ist ein Simulationsbild?“, die Untersuchung leiten, sondern die Idee, aus der Perspektive der Simulationspraxis einige Aspekte des Simulierens und der Logik der Visualisierung herauszuarbeiten. Im Sinne Martin Heideggers werden dabei die Begriffe „Weltbild“, „Weltsicht“, „Weltauffassung“ und letztendlich „globale Klimamodelle“ als Paraphrasen einer grundlegenden Charakteristik der modernen Wissenschaft synonym verwendet, nämlich der, dass „der Grundvorgang der Neuzeit […] die Eroberung der Welt als Bild (ist). Das Wort Bild bedeutet jetzt: das Gebilde des vorstellenden Herstellens. In diesem kämpft der Mensch um die Stellung, in der er dasjenige Seiende sein kann, das allem Seienden das Maß gibt und die Richtschnur zieht. Weil diese Stellung sich als Weltanschauung sichert, gliedert und ausspricht, wird das neuzeitliche Verhältnis zum Seienden in seiner entscheidenden Entfaltung zur Auseinandersetzung von Weltanschauungen und zwar nicht beliebiger, sondern allein jener, die bereits äußerste Grundeinstellungen des Menschen mit der letzten Entschiedenheit bezogen haben. Für diesen Kampf der Weltanschauungen und gemäß dem Sinne dieses Kampfes setzt der Mensch die uneingeschränkte Gewalt der Berechnung, der Planung und der Züchtung aller Dinge ins

1

„Serienweise kann die präzise elektronische Phantasie der Automatenhirne Gedankenexperimente ablaufen lassen“, schreibt der Spiegel 1965, “und dabei neue Theorien oder technische Konstruktionen erproben – die Realisierung teurer oder gefährlicher Experimente ist nicht mehr nötig. Die US-Atomenergiebehörde beispielsweise testet in solchen Computern schon mehrere tausend atomare Sprengköpfe, ohne sie tatsächlich explodieren zu lassen.“ Der Spiegel 1965, 115.

219

Gabriele Gramelsberger

Spiel. Die Wissenschaft als Forschung ist eine unentbehrliche Form dieses Sicheinrichtens in der Welt, eine der Bahnen, auf denen die Neuzeit mit einer den Beteiligten unbekannten Geschwindigkeit ihrer Wesenserfüllung zurast.“2 Das Wesen der simulierenden Wissenschaften charakterisiert sich par excellence als vorstellendes Herstellen (Modellierung) sowie als Nutzung der uneingeschränkten Gewalt der Berechnung (Simulation), dessen Resultate Bilder sind (Visualisierung). 1938, als Heideggers Aufsatz „Die Zeit des Weltbildes“ entstand, war zwar weder von Computern noch von Simulationsmethoden viel die Rede. Alan Turing hatte kurz zuvor seinen Artikel „On Computable Numbers“ veröffentlicht und Konrad Zuse arbeitete im Wohnzimmer seiner Eltern am ersten automatischen Computer.3 Dennoch zeichnete sich seit Isaac Newtons Philosophiae Naturalis Principia Mathematica4 die Priorisierung mathematisch-modellierender Ansätze – insbesondere jener, die mit Differentialgleichungen beschreibbar waren - in den Naturwissenschaften als, im Heideggerschen Sinne, vorstellendes Herstellen ab. In dieser Tradition erwies sich die numerische Simulation als eine entscheidende Trajektorie der Neuzeit, deren Dynamik seit den 1940er Jahren erheblich an Fahrt aufgenommen hat.

220

… und die Gewalt der Berechnung John von Neumann, eine Schlüsselfigur dieser Dynamisierung, schrieb im Mai 1946: „Our Our present analytical methods seem unsuitable for the solution of the important problems arising in connection with non-linear partial differential equations and, in fact, with virtually all types of non-linear problems in pure mathematics. The truth of this statement is particularly striking in the field of fluid dynamics. Only the most elementary problems have been solved analytically in this field. […] In pure mathematics we need only look at the theories of partial differential and integral equations, while in applied mathematics we may refer to acoustics, electrodynamics, and quantum-mechanics. The advance of analysis is, at the moment, stagnant along the entire front of non-linear problems.“5 Bereits 1922 hatte Lewis F. Richardson in einem Parforce-Konzept versucht, die Stagnation in der Meteorologie zu überwinden und anhand diskretisierter Modelle, basierend auf Vilhem Bjerknes Differentialgleichungen, eine Wettervorhersage zu berechnen. Er tat dies noch per Hand, doch frustriert von dieser Sysiphus-Arbeit, konzipierte er einen „Parallel-Computer“: „If the time-step were 3 hours, then 32 individuals could just compute two points so as to keep pace with the weather, if we allow nothing for the great gain in speed which is invariably noticed when a complicated operation is divided up into simpler parts, upon which individuals specialize. If the coordinate chequer were 200 km square in plan, there would be 3200 columns on the complete map of the globe. In the tropics, the weather is often foreknown, so that we may say 2000 active columns, So that 32x2000 = 64,000 computers would be 2

Heidegger 1977, 94.

3

Vgl. Turing 1937; Konrad Zuse arbeitete bis 1938 an seinem ersten Computer Z1, der während des Krieges zerstört wurde. Eine Rekonstruktion der Z1 ist im Berliner Technikmuseum zu sehen. Zuses Z3 von 1941 gilt als der erste elektronische, frei programmierbare Digitalrechner. Mit dem Plankalkül entwarf Zuse zudem die erste Programmiersprache. Vgl. Zuse 1993.

4

Vgl. Newton 1687

5

Goldstine / von Neumann 1946, 2.

„Die präzise elektronische Phantasie der Automatenhirne“

needed to race the weather for the whole globe.“6 Auch wenn Richardson keine 64.000 menschliche Computer zur Verfügung hatte, sondern in eigener Regie seine Kalkulationen durchführte, so kündigte sich hier die oben angesprochene Entwicklungslinie der Naturwissenschaften schon deutlich an. Einer der entscheidenden Punkte dabei war von Beginn an, wie von Neumann an vielen Stellen seiner Arbeiten deutlich machte, im wörtlichen Sinne die „Gewalt der Berechnung“: „The machine [IBM SSEC Computer von 1948] multiplies (two 14 decimal digit numbers) in 20 msec. In parallel with this, it consumes 20 msec in sensing and obeying any kind of order. My judgment is that it takes 3 to 4 orders to ‚administer‘ a multiplication. Hence it is reasonable to allow about 70 msec, or with checking 140 msec per multiplication. […] In a human computing group a (10 decimal digit) multiplication […] takes about 10 sec. […]“7 Die schiere Quantität der Operationen, die sich bereits Ende der 1940er Jahre mit den ersten Computern ankündigte, ist die Basis simulierter Weltbilder. Aktuelle Großrechner verarbeiten Billionen von Operationen in der Sekunde. Wofür ein Supercomputer heute einige Tage Rechenzeit benötigt, hätte die ersten Rechner Millionen von Jahre beschäftigt. Diese Entwicklung führte dazu, dass sich die Simulation im Laufe der letzten Jahrzehnte neben Theorie und Experiment als eigenständige Methode etablierte und die Wissenschaften als „Computational Sciences“ grundlegend revolutionierte.8 „Computational Science ist synonym mit der Untersuchung komplexer Systeme; ihr Instrument ist der Supercomputer, ihre Methode die Simulation. […] (Computational Sciences zielen) auf die großen ungelösten, wissenschaftlichen Probleme, die in ihrer Wichtigkeit und Tiefe nicht nur die betreffende wissenschaftliche Disziplin herausfordern, sondern von außerordentlicher Bedeutung und Auswirkung für die Gesellschaft und ihrer Bewältigung der Zukunft sind. Die Identifizierung solcher Probleme hat in den USA zur Klassifizierung als ‚Grand Challenges to Computational Science‘ geführt, zu denen heute die Kernfragen aus den Gebieten der atmosphärischen Chemie (d.h. der Umweltforschung), der Astrophysik, der Materialforschung, der Molekularbiologie, der Elementarteilchenphysik und der Aerodynamik gezählt werden.“9

221

6

„Imagine a large hall like a theater except that the circles and galleries go right round through the space usually occupied by the stage. The walls of this chamber are painted to form a map of the globe. The ceiling represents the north polar regions, England is in the gallery, the tropics in the upper circle, Australia on the dress circle and the antarctic in the pit. A myriad computers are at work upon the weather of the part of the map where each sits, but each computer attends only to one equation or part of an equation. The work of each region is coordinated by an official of higher rank. Numerous little ‚night signs‘ display the instantaneous values so that neighbouring computers can read them.“ Richardson 1922, 219.

7

Neumann 1963, 665.

8

Vgl. Gramelsberger 2008.

9

Hoßfeld 1991, 1.

Gabriele Gramelsberger

2. Die Logik simulierter Weltbilder Dass die wissenschaftliche Praxis einen entscheidenden Einfluss auf die epistemische Kultur einer Wissenschaft und ihrer Resultate hat, ist spätestens seit den Laborforschungen hinreichend belegt.10 Dass auch die wissenschaftlichen „Erkenntnismaschinerien“ einen nicht unbedeutenden Einfluss haben, ist Thema neuerer Forschungen, denn es scheint evident, dass veränderte oder neue Methoden und Instrumente epistemische Folgen haben. Von daher liegt es auf der Hand, dass eine so grundlegende Veränderung wie sie durch die Einführung des Computers als Instrument sowie der Simulation als neuer Methode erfolgte, zwangsläufig einen epistemischen Wandel nach sich ziehen muss. Dieser Wandel müsste sich, so wäre weiter zu folgern, in der Logik der simulierten Weltbilder zeigen und sich in seinem Einfluss auf den Umgang mit wissenschaftlichen Theorien rekonstruieren lassen. Zwei Versuche, dies zu belegen, werden im Weiteren unternommen. Der erste Versuch wird durch sein Scheitern als indirekter Beweis fungieren, der zweite wird auf Basis einer Analyse wissenschaftlicher Bilder Aspekte des Simulierens und der Logik der Simulationsbilder herausarbeiten.

222

Die Verlagerung der Referenzketten in den Computer Der erste Versuch „simuliert Bruno Latour“, indem seine fotophilosophische Montage über die Handgriffe der Bodenforscher im Urwald Amazoniens auf Klimamodellierer angewandt wird.11 Latour hatte in dieser Ethnographie von 1991 dokumentiert, dass Forschung in erster Linie auf der Transformation realer Gegebenheiten in Zeichensysteme basiert und eher daraus ihre Referenz, im Sinne von „Herbeischaffen“12, bezieht denn aus der Erzeugung korrespondenztheoretisch verstandener Ähnlichkeiten. Lediglich eine „[...] einzige und zugleich winzige ihrer Etappen (der Übergang von der Farbe der Scholle zur Farbe des Standards) beruht auf Ähnlichkeit, auf adaequatio. Alle anderen hängen allein von der Erhaltung der Spuren ab, die einen reversibeln Parcours markieren. […] Keine Etappe – bis auf eine – ähnelt der vorhergehenden, und doch halte ich am Ende, wenn ich den Expeditionsbericht lese, den Urwald von Boa Vista in meinen Händen, und es spricht ein Text wahrhaftig von der Welt.“13 Schritt für Schritt, so dokumentiert es Latour fotophilosophisch, wird aus dem konkreten Ort (Urwald), ein abgezirkeltes Stück Waldboden, das in Form von Bodenproben in Kartonschachteln landet und – protokolliert, vermessen als auch diagrammatisch aufbereitet – auf Millimeterpapier und im Expeditionsbuch Spuren hinterlässt. Der reale Ort dient den Forschern als Projektionsfläche, indem sie ihm ein Cartesisches Raster überstülpen. Mit Hilfe des orangen Pedologenfaden schreiben sie die Koordinaten direkt in den Wald ein und ermöglichen auf diese Weise erst den Transfer in die Raster der Zeichensysteme. „Was wir durch die auf10

Vgl. Latour / Woolgar 1979; Latour 1987; Knorr-Cetina 1991; Knorr-Cetina 2002; u.a..

11

Vgl. Latour 2002.

12

Wir „… vergessen immer, dass das Wort ‚Referenz‘ vom lateinischen Verb referre abgeleitet ist, was soviel heißt wie ‚herbeischaffen‘“ Latour 2002, 45.

13

Latour 2002, 76.

„Die präzise elektronische Phantasie der Automatenhirne“

einander folgenden Reduktionen des Bodens an Materie verlieren, gewinnen wir hundertfach durch den Anschluß an die Schrift, die Berechnung und das Archiv.“14 Ob es sich dabei um Sondierungen, Pedokomparatoren, Diagramme oder Ziffern handelt, der für die Wissenschaft entscheidende Punkt liegt im Erhalt der strukturellen Ordnung, der Beliebigkeit ausschließen soll. Latour nutzt dieses Beispiel, um eine „bewegliche Konzeption der Referenz“ als Folge verschiedener Transformationen zu artikulieren, im Verlaufe derer die Reduktion der materialen Welt den Anschluss an die Schrift vollzieht. Wichtig dabei ist die Reversibilität der Transformationen, die der Erhaltung der Spur dient und Forschung vor Beliebigkeit oder gar Fiktionalität schützt. „Die Referenz ist eine Eigenschaft der Kette in ihrer Gesamtheit und nicht der adaequatio rei et intellectus. Die Wahrheit zirkuliert in ihr wie die Elektrizität entlang eines Drahtes, und zwar so lange, wie er nicht zerschnitten ist.“15 Die alte Idee der adaequatio rei et intellectus, im 20 Jahrhundert von Wissenschaftsphilosophen in Korrespondenztheorien reformuliert und bis heute als Postulat der strukturellen Isomorphie mathematischer Strukturen mit Realitätsmustern von Naturwissenschaftlern ihren Modellen weithin zugrunde gelegt, wird zugunsten praktischer und in den jeweiligen Wissenschaften bewährter transformierender Handgriffe abgelöst. Da diese Transformationen semiotischer Natur sind und im Grunde ein umfangreiches Vokabular verschiedener Ein- und Aufschreibepraktiken darstellen, liefern sie nicht nur den „Anschluss an die Schrift“, sondern auch an das semiotische Medium des Computers und an die Simulierbarkeit im rein Semiotischen mit Hilfe dateninitialisierter, mathematischer Modelle. Von daher liegt es nicht all zu fern, den Versuch zu wagen, den Referenzketten im Computerlabor der Klimamodellierer nachzuspüren. Obwohl hier aus Theorien Computermodelle erzeugt werden und nicht etwa aus realen Gegebenheiten Theorien, so werden doch weitere Transformationsschritte in der Verarbeitung von Referenz sichtbar. Es wird jedoch sofort deutlich, dass das Problem der fotophilosophischen Montage über die Handgriffe der Modellierer darin besteht, dass es außer Wissenschaftlern vor Monitoren, kleinen oder größeren Computern nichts zu sehen gibt: Keine Farbcode-Vergleiche, keine schweißtreibenden Einschreibungspraktiken, keine mühseligen Bleistiftskizzen von Diagrammen. Forscher tippen auf Tastaturen und es lässt sich nicht erkennen, ob sie Parameter codieren, die Abrufreihenfolge der Programmdateien definieren, verschiedene Modelle zu Systemen koppeln oder die geballte Rechengewalt von Tausenden von Prozessoren in Aktion setzen, um den Zustand der Welt für 2040 zu berechnen. Eine weitere Enttäuschung liegt darin, dass die Ästhetik dieser Computerwelten zu wünschen übrig lässt. Keine Spur von Forscherromantik unter amazonischem Sternenhimmel erwartet hier den Wissenschaftsforscher, sondern Hallen angefüllt mit Getränkeautomaten-ähnlichen Objekten und Büros mit alltäglichen Datenmonitoren als Zugangsportale in das logische Innere dieser Maschinen. Kündeten Großrechner wie ENIAC, Mark I, NORC oder SSEC auch optisch noch von ihrer gebauten Rechengewalt und stellte ein Cray-1 Rechner gar die mystische Verklärung eines Automatenhirnes schlechthin dar, so ist heute davon nicht mehr viel zu sehen. Lediglich die vollautomati14

Latour 2002, 69.

15

Latour 2002, 85.

223

Gabriele Gramelsberger

schen Petabyte-Datensilos lassen noch einen ästhetischen Nachhall der Folgen der „uneingeschränkten Gewalt der Berechnung“ spüren. Hier liegen die simulierten Weltbilder und die Daten-Bilder von der Welt, also in silico und in empirico Datensätzen, einträglich und im selben NetCDF Format gespeichert, nebeneinander. Allerdings löst sich die Logik der Archive, wie Bruno Latour u.a. es beschrieben haben, in den Datensilos fast vollständig auf. Repräsentiert selbst ein Regal noch die zugrunde liegende Klassifikation, so lässt sich dies am Datensilo oder im Fileverzeichnis der Datenbanken nicht wieder erkennen. „Das dreiteilige Regal mit Fächern“, hatte Latour 1991 notiert und es auch fotografiert, „sieht aus wie eine Tabelle aus Spalten und Zeilen, Abszissen und Ordinaten. Jedes Fach dieses Regals dient sowohl zum Klassifizieren als auch zum Konservieren und Benennen. Dieses Möbel ist eine Theorie.“16 Die Datensilos sind keine Theorie-Möbel mehr, ebenso wenig die Großrechner. Die äußere Ordnung der Dinge verlagert sich zusehens in die abstrakten, n-dimensionalen Datenräume und die Aisthesis des Forschens löst sich in deren topologischen Relationen auf. Der fotophilosophische Versuch in den Computerlaboren der Klimamodellierer muss als gescheitert gelten, da sich hier nicht wie bei Latour die Transformationen in Form konkreter Handgriffe und sichtbaren Ordnungen zeigen und insofern nicht mehr fotografisch abbildbar sind. Das „vorstellende Herstellen“ als Praktik vollzieht sich in den Computational Sciences auf andere Weise und vor allem unanschaulich. Um zu dokumentieren, wie und was sich verändert hat, ist es unumgehbar, in die Theorien, Computermodelle und Rechner selbst Einblicke zu nehmen, denn von Außen zeigt sich hier nichts mehr. Nicht einmal die Profession des Modellierers lässt sich im Unterschied zum Bodenforscher an seinen Handgriffen erkennen, er könnte Biologe, Atmosphärenchemiker, Ozeanologe oder eben Meteorologe sein. Obwohl der erste Versuch also gescheitert ist, bedeutet dies nicht, dass die Referenzketten an der Nahtstelle zum Computer abgerissen sind. Es bedeutet nur, dass sich die wissenschaftliche Praktik verändert hat und die Ketten „in silico“ auf andere Weise fortgeschrieben werden.17 Der zweite Versuch wird daher die im Computer sich ereignenden, semiotischen Transformationen unter die Lupe nehmen, die zwischen Theorie und simulierten Weltbildern liegen.

224

Bildanalyse eines klassischen Sujets der neuzeitlichen Wissenschaft … Als zweiter Versuch werden anhand einer Bildanalyse Rückschlüsse auf die dargestellte Form der Theorie gezogen, um so die Differenz der Logik „klassischer Weltbilder“, vor der Einführung der Simulation, und „simulierter Weltbilder“, 16

Latour 2002, 47. Dieser fast nostalgische Blick auf die Wissenschaft lässt sich heute nur noch selten tätigen. Die Digitalisierung und Simulation hält in nahezu allen Disziplinen verstärkt Einzug und wandelt die Welt zunehmend in ein digitales Pendant, das Welt nicht nur „abbildet“, sondern in neue Dimensionen extrapoliert. Das Design neuer Moleküle, Gensequenzen oder Materialien etc. mag hier als Beleg dienen. Aber auch die Archive und Labore der Wissenschaft verändern durch die Digitalisierung ihren Charakter und ihr Erscheinungsbild.

17

Zum einen werden die Ketten „in silico“ fortgeführt, zum anderen ersetzen sie mitunter auch die „empirischen Ketten“, von welchen Bruno Latour in seiner fotophilosophischen Montage einen Eindruck gab. Wie in dem eingangs erwähnten Spiegelzitat deutlich wird, dient die Simulation auch dazu, „die Realisierung teurer oder gefährlicher Experimente“ zu erübrigen. Vgl. Anm. 1.

„Die präzise elektronische Phantasie der Automatenhirne“

nach den semiotischen Transformationen und dem Anschluss an die Simulation, aufzuzeigen. Grundlegend für diesen Versuch ist die Annahme, dass Simulationen Bilder von Theorien liefern, insofern als Simulationen als Experimentalsysteme für Theorien verstanden werden.18 Zu simulieren bedeutet, auf Basis von Theorien mathematische Modelle zu erstellen, diese zu diskretisieren und mit den nötigen Parametertermen und Randbedingungen auszustatten, um sie schließlich mit Messdaten zu initialisieren. Ziel dabei ist es, Experimentalläufe mit dem Modell zu fahren und die Ergebnisse dieser Computerexperimente zu analysieren. Dabei wird nicht in erster Linie Realität „simuliert“, wie der Ausdruck vermuten lassen könnte, sondern es wird die exakte, aber unbekannte Lösung eines Gleichungssystems unter den im Modell enthaltenen Annahmen numerisch approximiert.19 Die Simulation ist eine numerische Methode der angewandeten Mathematik, die John von Neumann in den 1940er Jahren einführte, um die Stagnation in den Naturwissenschaften zu überwinden, die aus den Limitierungen der analytischen Methode resultierte.20 Dazu werden die Differentialquotienten durch Differenzenquotienten ersetzt und für ein endliches Raster an Berechnungspunkten numerisch gelöst. Die Resultate werden als Anfangswerte zur Berechnung für den nächsten Zeitschritt eingesetzt. Auf diese Weise arbeitet sich die Simulation zeitlich voran. Ein erster Unterschied in der Logik „klassischer“ und „simulierter Weltbilder“ lässt sich bereits erkennen: „Klassische Weltbilder“ basieren oft auf mathematisch vereinfachten Theorien und Linearisierungen. Ein Bildbeispiel, das eine 110 Jahre alte Theorie von Svante Arrhenius veranschaulicht, macht dies deutlich. Arrhenius hatte 1896 ein einfaches, null-dimensionales Energiebilanzmodell aufgestellt, das die solare Einstrahlung, die kurzwellige Rück- und die langwellige Ausstrahlung

18

Das Konzept der Experimentalsysteme nimmt auf die Arbeiten von Hans-Jörg Rheinberger Bezug, mit dem Zweck den Zusammenhang zwischen Simulation und Experiment theoretisch zu fundieren und die Forschungen zur Simulation, die bisher eher in der Modelltheorie verortet sind, an die Laborforschung anzudocken, vgl. Rheinberger 2001. Der semiotische Charakter der Simulation als Zeichenoperation auf Basis von Theorien wurde bereits ausführlich diskutiert, vgl. Gramelsberger 2005; Gramelsberger 2001.

19

Hier ist lediglich von deterministischen Simulationen basierend auf Differentialgleichungen die Rede. Auf andere Simulationsarten wird im Weiteren nicht eingegangen.

20

Die analytische Methode besteht darin, die Lösungsfunktion von Gleichungssystemen durch Umformungen abzuleiten. Dies ist für einfache sowie für einige, etwas komplexere Differentialgleichungen möglich. Doch der Großteil der Gleichungen ist analytisch nicht zu lösen. Dies führte zu Stagnationen in den Wissenschaften Ende des 19. und Anfang des 20. Jahrhunderts, die vermehrt auf die Lösung komplexer Gleichungen angewiesen waren, wollten sie komplexere (realistischere) Probleme lösen wie beispielsweise die Berechnung von Stoßwellen, des Wetters oder anderer, meist strömungsdynamischer Phänomene (vgl. Anm. 5). Der Vorteil der analytischen Methode liegt in ihrer exakten Lösung, die für das gesamte Raum-Zeit-Kontinuum gilt. Ihr Nachteil liegt in dem hohen Abstraktionsgrad, der wenig „realistische“ Modellierungen erlaubt, sowie der meist linearen Behandlung von Systemen. Die numerische Simulation hingegen erlaubt es für ein Raum-Zeit-Gitter eine numerische Lösung komplexer, nicht-linearer Gleichungen zu approximieren. Der Vorteil liegt in der Behandlung komplexerer Probleme, der Nachteil im approximativen Charakter der Simulation. Da die analytische Lösung meist nicht bekannt und ihre Existenz nicht immer bewiesen ist, begibt sich die Simulation auf ein vages Terrain, das voll von Unabwägbarkeiten, Heuristiken und Unsicherheiten ist.

225

Gabriele Gramelsberger

artikulierte.21 Insofern Einstrahlung, Rück- und Ausstrahlung im Gleichgewicht sind, wird das „natürliche“ Klima ohne anthropogenetischen Einfluss repräsentiert. Bereits 1896 konnte Arrhenius mit seinem Modell zeigen, dass durch Treibhausgase die Energiebilanz gestört wird und ein Treibhauseffekt auftreten könnte. Doch das Theoriebild verrät wesentlich mehr. Das Bild-Framing zeigt das „klassische Sujet“ eines geschlossenen Zwei-Körper-Ensembles.22 Die Dynamik des Systems wird durch feste Randbedingungen wie den solaren Strahlungsgang angetrieben und die Welt wird als Ganzes dargestellt.23 Das geringe Komplexitätsniveau und die stark symmetrische Ästhetik verraten den mathematischen Ursprung der Darstellung. Die Mathematisierung des Blickes bedeutet in erster Linie Reduktion auf das Wesentliche durch extreme Abstraktion. Mathematische Vereinfachung geschehen durch Periodisierung, Linearisierung, Symmetrisierung und Geometrisierung: Die Welt wird zur perfekten Kugel, die Bahn um die Sonne zur Ellipse, die dargestellte Strahlungsdynamik verläuft hoch symmetrisch und stetig. Interessanterweise ist vom eigentlichen Klima auf dem Bild nichts zu sehen. Weder Atmosphäre noch Wolken trüben den Blick. Das schematische Bild skizziert einen ebenso in der Theorie schematisch dargestellten Sachverhalt als Gesamtzustand eines Systems von Außen betrachtet. Dieser Zustand lässt sich leicht in seiner Dynamik mit Differentialgleichungen beschreiben. Die hier gezeigte Welt ist im Sinne der neuzeitlichen Mechanik eine abgeschlossene, berechenbar-dynamische Welt, sie dokumentiert den „ewigen Blick“24 allgemeiner Theorie und sie zeigt die neutrale Position des Betrachters an, der von Außen im Orbit schwebend, auf die Erde her21

Nulldimensionale Energiebilanzenmodelle erfassen nur ein global gemitteltes Gleichgewicht der Strahlungsenergien und vernachlässigen dabei u.a. die durch die Klimazonen induzierten Energietransporte von den Tropen zu den polaren Breiten. vgl. Arrhenius 1896; Arrhenius 1903.

22

Zwei-Körper-Systeme sind seit den Berechnungen von Johannes Kepler und Isaac Newton die klassischen Untersuchungsobjekte neuzeitlicher Wissenschaft. In abstrahierter Weise verhalten sich Zwei-Körper-Systeme linear und sind somit berechenbar. Dies bedarf vereinfachender Annahmen: Beispielsweise legte Kepler den Schwerpunkt seines idealisierten Zwei-Planeten-Systems (Sonne – Erde) in den Mittelpunkt der Sonne, um die Planetenbewegung der Erde zu berechnen. Doch tatsächlich entspricht diese Annahme nicht der Realität. Anlässlich einer Preisfrage des schwedischen Königs Oskar II. 1898 konnte Henri Poincaré zeigen, dass bereits winzige Störungen das Gleichgewicht destabilisieren und sich die Bewegung der beiden Planeten instabil verhalten kann. Zwei-Körper-Systeme sind also die klassischen Sujets der neuzeitlichen Wissenschaft und eine Ikonographie der Naturwissenschaft müsste dieses Sujet an erste Stelle setzen.

23

Die globale Sichtweise vermeidet später bei Simulationen einige Randprobleme, insofern nicht bestimmt werden muss, was mit den Daten an artifiziellen Rändern geschieht, wie das beispielsweise für regionale Modellierungen der Fall ist.

24

Der „ewige“ Blick bezieht sich auf die mechanistische Vorstellung der Beherrschung und prognostischen Bestimmung gechlossener Systeme, wie Pierre-Simon de Laplace es 1814 formulierte: „Wir müssen also den gegenwärtigen Zustand des Weltalls als die Wirkung seines früheren Zustandes und andererseits als die Ursache dessen, der folgen wird, betrachten. Eine Intelligenz, welche für einen gegebenen Augenblick alle Kräfte, von denen die Natur belebt ist, sowie die gegenseitige Lage der Wesen, die sie zusammen setzen, kennen würde, und überdies umfassend genug wäre, um diese gegebenen Grössen einer Analyse zu unterwerfen, würde in derselben Formel die Bewegungen der grössten Weltkörper wie die des leichtesten Atoms ausdrücken: nichts würde für sie ungewiss sein und Zukunft wie Vergangenheit ihr offen vor Augen liegen. Der menschliche Geist bietet in der Vollendung, die er der Astronomie

226

„Die präzise elektronische Phantasie der Automatenhirne“

abblickt.25 Diese Position repräsentiert paradigmatisch die „objektive“ Perspektive neuzeitlicher Wissenschaften aus sicherer Distanz auf die Phänomene. Exakt dieser Blick ist in Arrhenius Theorie enthalten und wird durch Vilhelm Bjerknes grundlegende Arbeit erweitert und bestärkt, wenn er 1904 in dem Artikel Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und der Physik formuliert und damit die Meteorologie revolutioniert.26 Denn Bjerknes beschreibt nun das „tatsächliche“ Klimageschehen in der Atmosphäre. Er geht davon aus, dass der Zustand der Atmosphäre zu einem beliebigen Zeitpunkt dann genügend bestimmt sei, wenn an jedem Punkt der Atmosphäre die Geschwindigkeit, die Dichte, der Luftdruck, die Temperatur und die Feuchtigkeit der Luft berechnet werden kann. Bjerknes Theorie lässt sich mit Hilfe einiger Differentialgleichungen der Strömungsdynamik mathematisch formulieren (Navier-Stokes-Gleichungen). Allerdings sprengen die daraus resultierenden Gleichungen die Möglichkeiten der analytischen Methode, was, wie eingangs erwähnt, den Mathematiker Lewis F. Richardson in den 1920er Jahren dazu brachte, eine vereinfachte Version als 6-Stunden-Standort-Prognose näherungsweise per Hand berechnen. Nach über sechs Wochen Rechenzeit prognostizierte er einen Luftdruckabfall von 145 hPa statt tatsächlicher 1 hPa. Die von Bjerknes auf atmosphärische Prozesse angewandten Differentialgleichungen sind bis heute der Kern eines jeden Wettervorhersage- oder Klimamodells und obwohl Richardsons Prognose aufgrund mangelnder Kenntnisse des Anfangszustands derart fehlerhaft war, verfolgte er im Prinzip den richtigen Ansatz bei seiner numerischen Integration der Gleichungen.27 Allerdings hatte er einen wichtigen Aspekt nicht berücksichtigt. Um solch komplexe Modelle zu berechnen, besser gesagt: zu simulieren, muss der „ewige Blick“ des „klassischen Weltbildes“ transformiert werden. Simulierte Weltbilder nehmen eine andere Perspektive ein: Sie kombinieren und komprimieren verschiedene Blickweisen. Damit inaugurieren sie einen Blickwechsel in den Wissenschaften. … und seine „in silico“ Transformation Svante Arrhenius brachte mit seinem Energiebilanzmodell eine Theorieebene in die Klimaforschung ein, die auch für heutige Simulationsmodelle, die als Rechenziel immer einem klimatisch typischen Gleichgewichtszustand zustreben, noch gültig ist.28 Vilhelm Bjerknes führte eine weitere Theorieebene ein, indem er ein mathematisches Bild der Zirkulationsprozesse der Atmosphäre als Wirkungen auf

227 zu geben gewusst hat, ein schwaches Bild dieser Intelligenz.“ de Laplace 1951, Einleitung. 25

Die Blickrichtung der Klimatologen von oben auf die Welt hat sich in unserem Alltag manifestiert. Selbst Wetterberichte werden meist aus der Perspektive oberhalb der Wolken dargestellt. Virtuelle Kamerafahrten in TV-Wetterberichten bewegen sich jedoch seit Neuestem zwischen Boden und Wolken. Die beiden Blickrichtungen zeigen sich auch in der Globalität der Klimaforschung (primär Satellitendaten) und der Regionalität der Wettervorhersage (primär Bodendaten).

26

Vgl. Bjekrnes 1904.

27

Vgl. Lynch 1999; Lynch1993.

28

Streben die Klimasimulationen nicht einem, für den zu errechenden Zeitraum typischen Gleichgewichtszustand an, dann sind sie falsch oder zeigen im Falle von Prognosen einen Klimatrend an, wie beispielsweise eine globale Erderwärmung von 1,8 bis 5 Grad Celsius. Vgl. IPCC, Climate Change 2007.

Gabriele Gramelsberger

228

Fluide zeichnete. Allerdings beschrieb Bjerknes nur die Prozesse, er berechnete sie nicht, dazu waren die Gleichungen zu komplex. Lewis F. Richardson führte nun eine dritte Ebene ein, die zwar lediglich methodisch motiviert war, theoretisch jedoch erhebliche Folgen hatte. Er diskretisierte die kontinuierlichen Gleichungen und transformierte damit den „ewigen Blick“ allgemein gültiger Theorie in eine grob gerasterte Momentaufnahme. Dabei konnte er noch nicht wissen, wie dieser Blickwechsel genau von statten gehen musste, um ein einigermaßen zuverlässiges Bild zu erzeugen. Aufgrund fehlender Erfahrung war es für ihn unmöglich, das notwendige Verhältnis der räumlichen zur zeitlichen Auflösung der Diskretisierung zu bestimmen und er lag deshalb mit seiner Prognose kolossal daneben. Erst John von Neumann führte 1947 Stabilitätskriterien für numerische Simulationen ein: „Th Thee diff difference erence equations may be unstable, that is, under some circumstances irregularities may be amplified and grow without limit as time goes on; a solution of (2) (the difference equation) does not in general approach a solution of (1) (the differential equation) as the mesh is made finer and finer unless a certain restriction […] is applied to the relation between Δy and Δt at each stage of the limiting process. […] The condition for stability (condition that all disturbance get smaller as t increases) is clearly that […] if Δy is chosen very small in the interest of accuracy, Δt must be choosen very very small in the interest of stability.“29 Exakt diese Addierung von Fehlern ließen Richardsons Berechnungen ins Fiktive laufen, da er das richtige Verhältnis von räumlicher und zeitlicher Diskretisierung nicht kannte und nur sehr ungenaue Messdaten zur Initialisierung seiner Berechnungen zur Verfügung hatte. Doch auch wenn Richardson bessere Messdaten gehabt hätte, die Endlichkeit und beschränkte Genauigkeit von Messdaten liefern immer nur eine Näherung eines Anfangszustandes. An diesem Problem laborieren Simulationsmodelle bis heute und werden es auch in Zukunft tun. Numerische Simulationen sind also dreifach in ihrer Perspektive auf die Welt limitiert: Zum einen durch die räumliche und zeitliche Diskretisierung, zum zweiten durch die Anfangszustände, die nie exakt sein können, und zum dritten durch die Endlichkeit und limitierte Genauigkeit der Berechnung selbst, beispielsweise durch Rundungs- oder Abbruchfehler. Simulationen liefern daher per se nie exakte Lösungen, sondern immer nur approximierte, mit Unsicherheiten behaftete „Lösungen“. Die Güte der simulierten Lösungen zu evaluieren, bestimmt deshalb einen Großteil der Simulationsarbeit in den „Computerlaboren“. Diese dritte, approximative Ebene wird durch den Wechsel der Perspektive von der analytischen zur numerischen Betrachtungsweise von Gleichungssystemen bedingt. Bjerknes beschriebene Wirkungen auf Fluide müssen in einer Simulation für endlich viele Volumenelemente konkret berechnet werden. Die Transformationskette, die hierbei für die Modellierung von Nöten ist, zerlegt die Welt in Volumenelemente, definiert gemäß den Vorstellungen von Bjerknes die Zu- und Abflüsse zwischen den einzelnen Volumenelementen in Form von Zustands- und Erhaltungsgleichungen und fügt, abhängig von der zur Verfügung stehenden Rechenkraft, detaillierte Randbedingungen und subskalige Parametrisierungen hinzu. Mit anderen Worten: Das Zwei-Körper-System bekommt, in Volumenelemente

29

von Neumann / Richmyer 1963 , 653, 654.

„Die präzise elektronische Phantasie der Automatenhirne“

portioniert, eine mechanistische Atmosphäre verpasst, deren Bewegungstrajektorien approximativ berechnet werden. Der skizzierte Blickwechsel geht aufgrund der Diskretisierung mit einer eigentümlichen Doppeldeutigkeit einher. Ziel der Computerexperimente ist es, mit immer mehr Rechenkraft zunehmend höher aufgelöste Simulationen von zunehmend detaillierteren Modellen zu berechnen. Detaillierung ist dabei in zweifacher Weise gegeben: Zum einen als zunehmende Strukturdetails, die bei gröberen Berechnungsgittern durchs „Raster fallen“. Beispielsweise zeigt sich ein Sturmtief über Norwegen erst bei einer T42-Auflösung (Abbildung 6), zum anderen als zunehmende Modelldetails: In heutigen Ozeanmodellen schwimmen Fische, die Plankton fressen, während frühere Klimamodelle ganz ohne Ozeanmodelle auskommen mussten.30 Dieser Quantitäts- wie Komplexitätszuwachs hat jedoch seinen Preis. Es müssen die Stabilitätsbedingungen erfüllt werden, die für eine höhere räumliche Auflösung eine höhere zeitliche Auflösung fordern, und dies hat zur Folge, dass sich der Rechenaufwand enorm vergrößert und leistungsstärkere Rechner nötig werden.31 Die Detailgenauigkeit gibt den Modellen eine zunehmend „realistischere“ Komponente, die Bildmetaphoriken assoziiert wie Fische in Ozeanen. Doch diese Fische sind mathematische Objekte, die einer eigenen, sehr unanschaulichen Logik und einer rein funktionalen Sichtweise unterliegen. Die Doppeldeutigkeit „simulierter Weltbilder“ liegt in ihrer „realistischen“ Ausgestaltung mit gänzlich unanschaulichen Strategien. Ein simulierter Fisch ist eine für das gesamte Modell gemittelte Änderungsrate des Planktonvorkommens. Oder anders gewendet: Plankton „stirbt“ im Quadrat zur Anzahl der Fische, gemittelt auf den simulierten Ozean. Die Visualisierung des Spiels der Änderungsraten, projiziert auf eine Kugel mit angedeuteten Kontinenten, erzeugt jene Weltbilder, die wir aus der Klimaforschung kennen und die wir leicht als Abbildungen missverstehen können. Was sich in den Visualisierungen tatsächlich zeigt, sind jedoch nur die Zahlenspiele mathematisch modellierter Theorien, die noch dazu als Resultate der approximativen Methode der Simulation, Möglichkeitsbilder von mehr oder weniger hypothetischem Charakter sind. Die Logik simulierter Weltbilder liegt in ihrer Komplexität und Detailliertheit, in ihrem gerasterten Blick auf die Welt, der weder ewig noch exakt, sondern verschwommen ist. Simulationsbilder sind mögliche Momentaufnahmen.

229 30

Da Plankton CO2 speichert ist sein Verbleib für den gesamten CO2-Haushalt von Bedeutung. Stirbt Plankton ab und sinkt auf den Ozeanboden, wird das aufgenommene CO2 langfristig in den Tiefen der Meere gespeichert. Wird es von Fischen konsumiert und wieder ausgeschieden, gelangt das CO2 kurzfristig in den CO2-Kreislauf zurück. Dieser Fisch-Plankton-Parameter ist einer von vielen Parametern, die aktuelle Klimamodelle zunehmend mit Details anreichen und sie so „realistischer“ machen.

31

In der Klimaforschung geht beispielsweise eine T42-Auflösung mit einer 20-min. Zeitschrittweite einher. Ein typisches „T42/20 min. Bild“ basiert auf 19 horizontale Schichten mit je 12.288 Volumenelementen, für die insgesamt über 1,8 Millionen Zustandsgrößen je Zeitschritt berechnet werden müssen. Klimamodelle variieren in ihrer Auflösung (T21 – T106) sowie in der Anzahl der berechneten horizontalen Schichten (16 bis 60 Schichten) erheblich, je nach Anforderung der zugrunde liegenden Experimente und Fragestellungen. Zu den Berechnungen der Zustandsgrößen addieren sich die Berechnungen der subskaligen Parameter, die gemittelt in die Zustandsgleichungen eingehen, noch hinzu.

Gabriele Gramelsberger

3. Die Epistemik simulierter Weltbilder

230

Aus der getätigten Bildanalyse lässt sich eine Epistemik simulierter Weltbilder ableiten, die die Level-1-Epistemik (Beschreibung des Gesamtzustandes eines Systems von Außen) klassischer Theoriebilder mit einer Level-2-Epistemik (Beschreibung der zum Gesamtzustand führenden Wirkungen eines Systems von Innen) komplexer Theoriebilder und der Level-3-Epistemik der Simulation (Ausführung der Wirkungen und des daraus resultierenden Gesamtzustandes eines Systems von Innen) verknüpft, ohne dabei den Blick der Level-1-Epistemik zu eliminieren. Allerdings transformieren simulierte Weltbilder den abstrakten und ewigen Blick in konkretisierte und diskretisierte Momentaufnahmen hypothetischen Charakters. Der in Level-1 beschriebene Zustand und die in Level-2 formulierten Wirkungen werden auf Level-3 tatsächlich ausgeführt. Von daher sind simulierte Weltbilder keine Beschreibungsbilder, sondern operative Bilder. Sie markieren den Übergang von der mathematischen Beschreibung zur numerischen Berechnung. Daher besitzen sie eine räumliche und zeitliche Rasterung, eine zunehmende Struktur- und Detailtiefe, eine explizite Dynamik und sie vollziehen den Perspektivenwechsel von Außen nach Innen, wobei in der Visualisierung traditionell meist die Ansicht von Außen präsentiert wird. In Analogie zum Kino, ließe sich schlussfolgern, dass die Wissenschaftsbilder mit der Simulation „das Laufen“ lernen. Die semiotischen Transformationen, die im Rahmen dieses Wechsels stattfinden, haben Folgen. Zwar brechen die „in empirico“ Referenzketten an der Nahtstelle zum Computer nicht ab, doch ihre Reversibilität ist aufgrund der Heuristiken des Modellierungsprozesses, des approximativen und dynamischen Charakters der Simulation nicht mehr eindeutig gegeben. Die Umwandlung von Theorie in mathematische Modelle und deren Diskretisierung ist nicht ohne weiteres rückübersetzbar, wie dies Bruno Latour an seinem Beispiel fordern konnte. Die empirische Spur, in Form des Erhalts der strukturellen Ordnung vom Urwald zur Schrift, so dass „ein Text wahrhaftig von der Welt“32 sprechen kann, unterliegt in der Simulation der Transformation vom beschreibenden Text zum operativen Code. Der Sprung von der Beschreibung zur Operationalität hat jedoch weitreichende Folgen für die Referenzketten. Die Spur kann in Latours Beispiel nur deshalb erhalten bleiben, da sie im Grunde nie das Feld der semiotischen Beschreibungsmedien von Schrift, Diagrammen oder Farbkarten verlässt und daher nie aus der Beschreibungsfunktion ausbricht. Die Markierungen des Pedologenfades sind cartesische Markierungen, die sich in ihrer semiotischen Funktion von den Linien auf Papier in nichts unterscheiden, auch wenn sie ontologisch verschieden realisiert sein mögen. Die Farbe der Bodenproben und die Farbe des Munsell-Codes sind semiotisch hinreichend identisch und der Sprung von den Farbflächen zu den Codierungszahlen des Farbcodes vollzieht sich ebenfalls im Beschreibenden bzw. Darstellenden. Schließlich werden in das Diagramm die cartesischen Einschreibungen und die farblichen Codierungen eingetragen. Auch wenn es Latour um die Infragestellung korrespondenztheoretischer Zuordnungen und die Zirkulation von Referenz geht und weniger um semiotische Funktionen, so weist seine Referenzkette aus semiotischer Sicht nur einen Sprung 32

Latour 2002, 76.

„Die präzise elektronische Phantasie der Automatenhirne“

auf, nämlich vom Bild (Farbkarte) zum Farbcode. Dieser Sprung ist in zweifacher Hinsicht interessant: Zum einen kommt hier über die „adaequatio rei et intellectus“ eine Farbzuordnung zustande, wie Latour eingestehen muss. Zum anderen erfolgt ein Sprung vom „Bild“ zur Schrift durch die Substitution visueller Phänomene durch geordnete Zahlencodes. Erst letzteres erlaubt den Anschluss an die Theorie, die in den Zahlencodes verklausuliert ist. Letztendlich geht es genau um diesen Sprung in der Forschung und seine daraus resultierenden Interpretationen. Dennoch verlassen weder Bild noch Farbcode oder Theorie die Sphäre der beschreibenden Darstellungen der strukturellen Ordnungen, die sichtbar sind. Im Unterschied dazu wechselt die Simulation vom beschreibenden Text zum operativen Code und damit von sichtbaren, strukturellen Ordnungen zu unanschaulichen, dynamischen Topologien. Im Rahmen dieser Transformation ist die Reversibilität nicht mehr so einfach herstellbar, da das Operieren im Unanschaulichen anderen Bedingungen der Orientierung, Identifikation und Zuordnung unterliegt. Eine dieser veränderten Bedingungen ist beispielsweise die Auflösung des Perfekts der Schrift in das Präsens des Operativen, indem die beschriebenen Prozesse tatsächlich ausgeführt werden. Darüber hinaus fügt die Hypothetizität aufgrund des approximativen Charakters der Simulation dem Präsentischen simulierter Weltbilder etwas Virtuelles hinzu. Virtuell ist hier im Sinne möglicher Momentaufnahmen gedacht, allerdings lassen die mitschwingenden, ontologischen Aspekte den Virtualitätsbegriff in Bezug auf die Verankerung der Simulationsbilder im Temporalen als unglücklich erscheinen. Besser scheint hier die temporale Kategorie des Futurums II – Futurum exactum – als Beschreibungskategorie geeignet zu sein. Das Verwirrende an dieser temporalen Konstruktion ist ihre Antizipation der Nachträglichkeit vom Orte der Zukunft projiziert auf die Gegenwart bzw. der Gestus „spielerischen Probehandelns im Rückblick auf Zukünftiges.“33 Hier Reversibilität zu erzeugen scheint nicht leicht, da das Präteritum der mit Modellen dargestellten Theorien, das Präsens des instantiierten Codes des Simulierens, die Zukunft der Prognose und die Hypothetizität der Approximation ineinander verwoben sind und so die äußerst hybride symbolische Form des Futur II erzeugen. Dieses komplexe Verhältnis verschiedener, koexistierender Zeitlichkeiten zeigt sich am deutlichsten in den Bildern der zur Prognostik verwendeten Simulation, beispielsweise anhand der Erwärmung des Erdklimas im Jahr 2040 und den Konsequenzen, die solche Zukunftsprognosen für unser heutiges Handeln oder NichtHandeln implizieren. Es steht zu vermuten, dass es sich im Sinne Ernst Cassirers hierbei tatsächlich um eine neue symbolische Form zeitgenössischer Wissenschaft handelt, im Sinne einer sich wandelnden Perspektive auf die Welt.34 Dass dies wohl so ist, wird deutlich, wenn man die zunehmende Bedeutung der Simulation für Wissenschaft und Technologie analysiert. Nicht nur das Klima von morgen wird heute berechnet, sondern auch die genetischen Koordinaten zukünftiger Lebewesen oder atomarer Vor-Schriften zu kreierender Moleküle und Materialien. Die Epistemik solchermaßen simulierter Weltbilder „spielerischen Probehandelns im Rückblick auf Zukünftiges“ wird durch diese Eigenart in enger Weise mit ihrer Rezeption gekoppelt. 33

Bexte 1992, 703; vgl. Wiener 2002.

34

Vgl. Cassirer 1997.

231

Gabriele Gramelsberger

Der Rückblick auf Zukünftiges verlangt geradezu nach der Ausbildung operanter Verhaltensweisen im Vorgriff auf die Abwendung möglicher Zukünfte. Welche Konfigurationen diese Level-3-Epistemik des Simulierens im modus operandi des Furturum II genau entfaltet, ist allerdings Gegenstand weiterer Forschungen zur „serienweise, präzisen elektronischen Phantasie der Automatenhirne“.

232

„Die präzise elektronische Phantasie der Automatenhirne“

Bibliographie Svante Arrhenius, 1896, On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground, in: Philosophical Magazine and Journal of Science 41 (1896), S. 237-276. Svante Arrhenius, 1903, Lehrbuch der kosmischen Physik, Leipzig. Peter Bexte, 1992, Das Futur II als symbolische Form, in: Thomas Gey (Hrsg.), Die deutsche Literatur im 20. Jahrhundert, Berlin, S. 703-720 Vilhelm Bjerknes, 1904, Das Problem der Wettervorhersage, betrachtet vom Standpunkt der Mechanik und der Physik, in: Meteorologische Zeitschrift 21 (1904), S. 1-7. Ernst Cassirer, 1997, Philosophie der symbolischen Formen, 3 Bände (1923-29), Darmstadt. Herman Goldstine / John von Neumann, 1946, On the Principles of Large Scale Computing Machines, in: Abraham H. Taub (Hrsg.), 1963, S. 1-32. Gabriele Gramelsberger, 2002, Semiotik und Simulation. Die Fortführung der Schrift ins Dynamische, Dissertation an der Freien Universität Berlin, http:// darwin.inf.fu-berlin.de/2002/118/. Gabriele Gramelsberger, 2005, Die Verschriftlichung der Wissenschaft. Simulation als semiotische Rekonstruktion wissenschaftlicher Objekte, in: Gernot Grube / Werner Kogge / Sybille Krämer (Hrsg.), Kulturtechnik Schrift: Graphé zwischen Bild und Maschine, Stuttgart, S. 439-452. Gabriele Gramelsberger, 2008, Computerexperimente. Wandel der Wissenschaft im Zeitalter des Computers, Bielefeld. Martin Heidegger, 1977, Die Zeit des Weltbildes, in: Martin Heidegger, Holzwege, Frankfurt a.M., S. 75-113. Friedel Hoßfeld, 1991, „Grand Challenges“ - wie weit tragen die Antworten des Supercomputing?, KFA-ZAM-IB-9117, Jülich. IPCC, Climate Change 2007: Synthesis Report, Genf, http://www.ipcc.ch/ipccreports/ar4-syr.htm. Karin Knorr-Cetina, 1991, Die Fabrikation von Erkenntnis, Frankfurt a.M.. Karin Knorr-Cetina, 2002, Wissenskulturen. Ein Vergleich naturwissenschaftlicher Wissensformen, Frankfurt a.M. Pierre-Simon de Laplace, 1951, A Philosophical Essay on Probabilities, New York. Florian Lampa, 2005, Das globale Zirkulationsmodell ECHAM5, Vortragsmanuskript vom 14.6.2005 (pdf), Universität Lüneburg. Bruno Latour, 1987, Science in Action, Cambridge, Mass.. Bruno Latour, 2002, Zirkulierende Referenz, in: Bruno Latour, Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a.M., S. 36-95. Bruno Latour / Steve Woolgar, 1979, Laboratory Life: The Social Construction of Scientific Facts, Beverly Hills. Peter Lynch, 1993, Richardson’s forecast factory: the 64.000 question, in: Meteorological Magazine 122 (1993), S. 69-70. Peter Lynch, 1999, Richardson’s Marvellous Forcast, in: Melvyn A. Shapiro / Sigbjorn Gronas (Hrsg.), The Life Cycles of Extratropical Cyclones, Boston, S. 61-73

233

Gabriele Gramelsberger

John von Neumann, 1963, Numerical Calculation of Flow Problems, in: Abraham H. Taub (Hrsg.), 1963, S. 665-711. John von Neumann / R.D. Richmyer, 1963, On the Numerical Solution of Partial Differential Equations of Parabolic Type (LA-657 Los Alamos Scientific Laboratory Report), in: Abraham H. Taub (Hrsg.), 1963, S. 652-643. Isaac Newton, 1687, Philosophiae Naturalis Principia Mathematica, London. Der Spiegel, 1965, Bombe im Rechner, Spiegel, 3 (1965), S. 115-116. Horst Siebert (Hrsg.), 1991, Environmental Scarcity: The International Dimension, Tübingen. Jana Sillman, 2003, Regionale Klimamodellierung – Wetterlagenklassifikation auf Basis des globalen Atmosphärenmodells ECHAM, Diplomarbeit TU Bergakademie Freiberg. Hans von Storch / Stefan Güss / Martin Heimann, 1999, Das Klimasystem und seine Modellierung, Berlin u.a. Abraham H. Taub (Hrsg.), 1963, John von Neumann: Collected Works, Vol. V: Design of Computers, Theory of Automata and Numerical Analysis, Oxford u.a.. Alan M. Turing, 1936, On Computable Numbers, with an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, Series 2, 42(1937), S. 230-265. Ulrich Trottenberg, 1998, Quantensprünge in der Numerischen Simulation, in: Der GMD-Spiegel 4 (1998), S. 7-10. Hans-Jörg Rheinberger, 2001, Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen. Lewis F. Richardson, 1922, Weather Prediction by Numerical Process, London. Universität Mannheim, Top 500 Liste der Supercomputer, http://www.top500.org. Norbert Wiener, 2002, Futurum Exactum. Ausgewählte Schriften zur Kybernetik und Kommunikationstheorie, Wien / New York. Konrad Zuse, 1993, Der Computer – Mein Lebenswerk, Berlin.

234

Jochen Hennig Das Neue im traditionellen Gewand. Zum Wechselspiel von Formtradition und Differenz in der wissenschaftlichen Bildpraxis. Bilder des Atoms in der Nanotechnologie Obgleich Atome keine Gestalt haben, sind Bilder des Atoms in den Forschungsroutinen der Naturwissenschaften und ihren Vermittlungen in Zeitschriften und Lehrbüchern selbstverständlich. Diese Visualisierungen geben damit grundsätzlich nie das „wahre Aussehen“ von Atomen wieder, sondern heben immer gewisse Aspekte hervor, folgen als symbolische Darstellungen Konventionen oder machen mit Hilfe instrumenteller Verfahren Parameter sichtbar. Bilder des Atoms lassen sich dabei im wesentlichen auf drei ikonografische Traditionslinien zurückführen: (i) die Darstellungen als Kreise bzw. Kugeln, (ii) planetensystemartige Darstellungen mit kreisenden Elektronen um einen Kern nach dem Bohr’schen Atommodell und (iii) wolkenartig-nebulöse Darstellungen zur Veranschaulichung von Wahrscheinlichkeitsaussagen.1 Diese Reduktion auf lediglich drei Ausprägungen der Form ist verblüffend und voller Brisanz bezüglich des Erkenntniswertes wissenschaftlicher Bilder, da die Auffassung vom Atom im Verlauf der Herausbildung und Kontinuierung dieser Bildtraditionen grundlegenden Veränderungen unterworfen war. Doch die kugelförmige Darstellung hat die Kontroverse um die Existenz von Atomen im frühen 20. Jahrhundert ebenso überdauert wie die Planetendarstellungen des Bohr’schen Atommodells die Kritik seiner Darstellbarkeit durch die quantenphysikalische Diskussion in den 1920er Jahren.2 Auch der Paradigmenwechsel, den die Nanotechnologie mit sich brachte, indem sie die Nutzbarmachung atomarer und molekularer Strukturen an die Stelle ihrer Interpretation und Beschreibbarkeit gesetzt hat, war mit der Beibehaltung der gewohnten Formsprachen vereinbar. Dieser Befund für Bilder des Atoms spiegelt die grundsätzliche Eigenart bildlicher Wissenserzeugung wider, durch die Anknüpfung an Formtraditionen und Bezüge auf Vor-Bilder Sinn zu erzeugen. Doch bei aller Stabilität von Bildtraditionen und der Versöhnung mit sich verändernden Theorien beispielsweise über die Struktur des Atoms, haben Visualisierungen gleichzeitig immer wieder zur Generierung von neuem Wissen beigetragen und neue Entwicklungen 1

Vgl. Schirrmacher 2007, 41f.

2

Vgl. Miller 1978.

235

Jochen Hennig

angestoßen. Daraus resultiert die bildtheoretische Frage, wie sich die Gleichzeitigkeit von bildlicher Tradition und der Produktion von unvorhergesehenem und unvorhersehbarem Neuem durch diese Bilder fassen lässt. Zwei Fallstudien suchen im Folgenden nach Antworten: Zunächst wird argumentiert, dass die Bildwelten von Rastersondenmikroskopen, die in der Herausbildung der Nanotechnologie eine zentrale Rolle gespielt haben, an die Traditionen der Kugeldarstellungen anzuknüpfen vermochten und damit den immensen Ansprüchen der Nanotechnologie Plausibilität verliehen. Gleichzeitig wird gezeigt, dass diese Bildtradition bei all ihrer Wirkmächtigkeit die Bilder der Rastersondenmikroskopie keinesfalls determiniert und vollständig vorbestimmt hat, sondern dass die Mikroskopiker in den aufgenommenen Bildern Abweichungen gegenüber ihren Erwartungen feststellten, die sich als äußerst produktiv erwiesen, indem sie die Experimentatoren zu weiteren Folgeuntersuchungen und Interpretationen inspirierten. Die zweite Fallstudie exploriert, wie ein rastersondenmikroskopisches Bild, das durch die Anknüpfung an Bildtraditionen bereits eine Stabilisierung erfahren hatte und in der Wissenschaftspopularisierung in Tageszeitungen „normal“3 wirkte, in innerwissenschaftlichen Zusammenhängen weiterhin zu kontroversen Diskussionen Anlass gab. Die Formen im Bild suggerierten bereits eine Vertrautheit, während ihre Deutung noch ausstand. Beide Fallstudien greifen damit einerseits die These auf, dass Bildtraditionen und Stilbildungen in wissenschaftliche Erkenntnisgewinnungen eingehen und heben damit ein mediales Spezifikum des Einsatzes von Bildern in der Wissenschaft hervor. Gleichzeitig zeigen beide Fallstudien die Grenzen der Stilanalyse auf, da sie die Eigenart wissenschaftlicher Praxis, in der – mit einem von Hans Jörg Rheinberger geprägten Begriff gesprochen – in den Bildern „Differenzen“ auftreten können und sogar müssen, um unvorhersehbare Weiterentwicklungen im Prozess des Forschens anzustoßen, nicht zu fassen vermag.4 Die folgenden methodischen Reflexionen sind damit von dem Anspruch geprägt, Spezifika des Bildlichen mit denen wissenschaftlicher Forschungspraxis zu verschränken, um die Logik bildlicher Erkenntnisgewinnung in den Naturwissenschaften auszuloten.

Vertraute Landschaften, erklärungsbedürftig 236 Der Wissenschaftsphilosoph Christoph Lüthy hat mit seiner Beobachtung, dass sich die Kugel als Darstellung des Atoms auf Girodano Bruno zurückführen lässt und von ihm ausgehend Verbreitung gefunden hat, einen Ursprung atomarer Bildwelten ausfindig gemacht, die bis heute ihre selbstverständliche Geltung beanspruchen.5 Die Entwicklung von Stick and Ball Models in der Chemie der zweiten Hälf3

David Gugerli und Barbara Orland haben die Aufmerksamkeit auf solche Normalisierungs- und Normierungsprozesse wissenschaftlicher Bilder gerichtet: Gugerli / Orland 2002.

4

Hans-Jörg Rheinberger hat den Begriff aus dem Verwendungszusammenhang Jacques Derridas auf die Dynamiken von Experimentalsystemen übertragen, vgl. Rheinberger 1992.

5

Vgl. Lüthy 2003, 123 ff.

Das Neue im traditionellen Gewand

te des 19. Jahrhunderts, in der zunächst mit Stäben verbundene Croquetbälle als Molekülmodelle einem didaktischen Nutzung dienten und schon schnell die Vorstellung vom Bau der Materie prägen sollten,6 oder die Präsentation biologischer, chemischer und physikalischer Strukturen in eben solchen Kugelmodellen in den 1950er Jahren7 stellen Konjunkturen der Kugeldarstellungen innerhalb einer Kontinuität ihrer Verwendung dar.

Abb. 1a, b: Strukturdarstellungen in der Oberflächenphysik mit der Symbolisierung von Atomen als Kreisen in Aufsicht (links) und seitlicher Schnittzeichnung (rechts).

In der Festkörper- und Oberflächenphysik der 1970er Jahre dienten darüber hinaus kreis- und kugelförmige Schemata zur Darstellung von Atomanordnungen in Festkörpern und an Oberflächen. Kreise symbolisierten einzelne Atome in Aufsichten oder in seitlichen Schnittzeichnungen (Abb. 1a, b). Diese Modelle der Oberflächenanordnungen beruhten auf Bildern aus Beugungsexperimenten, in denen Strahlung bzw. Teilchen von der Probe gebeugt und auf einen Schirm abgelenkt wurden (Abb. 2). Zwar ließen sich aus solchen Beugungsmustern nicht in eindeutiger Weise die atomaren Anordnungen berechnen,8 doch gaben sie Aufschlüsse

Abb. 2: Typisches Bild eines Beugungsexperiments an einer Siliziumoberfläche um 1980.

6

Vgl. Meinel 2004, 270.

7

Zum Verbreitung von Kugelmodellen in der Biologie siehe: Chadarevian 2002, Kapitel 5; zur Konvergenz dieser Darstellungen aus unterschiedlichen Disziplinen in den Wissenschaftsausstellungen der Expo 1958 mit dem Atomium als überdimensionalen Modell siehe Hennig 2008b.

8

Die Beugungsbilder zeigen lediglich Intensitäten, enthalten aber keine Phaseninformationen, weshalb sie sich nicht durch Fouriertransformationen in Anordnungen im Realraum umrechnen lassen.

237

Jochen Hennig

238

über deren Symmetrien, Abstände und die Größe der Einheitszelle9. Aus diesen Informationen konnten die Modelle atomarer Oberflächenstrukturen in den Traditionen kreisförmiger Darstellungen ersonnen werden. In Rückrichtung konnten dann Beugungsmuster dieser hypothetischen atomaren Anordnungen simuliert und mit experimentell erzeugten Beugungsbildern verglichen werden (Abb. 3). Die Ähnlichkeiten zwischen Simulation und experimentellem Bild gaben Aufschlüsse über die Validität der Oberflächenmodelle. Die Arbeit war durch einen ständigen Wechsel zwischen dem euklidischen Raum (in den Worten der Festkörperphysik: dem Realraum) mit seinen kreis- und kugelförmigen Modellen sowie den simulierten und experimentell erzeugten Beugungsbildern des Impulsraumes geprägt – und die Transformation zwischen diesen Darstellungsräumen stellte das Handwerkszeug der Oberflächenphysik dar. Vor diesem Hintergrund hob sich das Tunnelmikroskop als revolutionäre Technik der Oberflächenphysik ab, indem es die experimentelle Erzeugung von Bildern mit atomarer Auflösung im Abb. 3: Vergleich simulierter (a-c) und exRealraum ermöglichte. perimentell erzeugter (d) Beugungsbilder. Während eines tunnelmikroskopischen Experiments rastert eine atomar feine Spitze die Probenoberfläche ab; zwischen Spitze und Probe liegt eine Spannung an. Ein Rückkopplungsmechanismus regelt die vertikale Position der Spitze während des horizontalen Rasterns derart, dass der Tunnelstrom zwischen Spitze und Probe konstant gehalten wird. Die Spur der Spitze wird aufgezeichnet, sodass Orte gleichen Tunnelstroms zwischen einer Spitze und einer Probe erkennbar werden. Diese Orte entstehen ausschließlich in einem tunnelmikroskopischen Experiment; sie zu interpretieren und aus ihnen Rückschlüsse auf die Probe zu ziehen, ist die große Herausforderung für die Experimentatoren und Theoretiker der Tunnelmikroskopie. Die Entwickler dieser Methode, Gerd Binnig und Heinrich Rohrer vom IBM-Forschungslabor in Rüschlikon am Zürichsee, erzielten den Durchbruch durch ihre Untersuchung einer Siliziumoberfläche – der Si(111)-7x7-Rekonstruktion –, deren Struktur Anfang der 1980er Jahre zu den am prominentesten und heftigst umstrittenen Fragen der Oberflächenphysik gehörte. Ein Ausdruck vom 28. Oktober 1982 zeigt die Spuren der Spitze beim Abscannen der Oberfläche (Abb. 4a). Auch wenn die Experimentatoren das wellenförmige Muster, das der xy-Schreiber in der Nachzeichnung der Spur der Spitze des Tunnelmikroskops erzeugte, nicht sofort im Detail zu deuten 9

Eine Einheitszelle ist die kleinste Einheit, aus der sich durch periodische Aneinanderreihung die gesamte atomare Oberflächenstruktur zusammensetzen lässt; im Beispiel der im folgenden behandelten ungewöhnlich komplexen Silizium-7x7 Rekonstruktion sind die Kantenlängen der Einheitszelle an der Oberfläche jeweils siebenmal so groß wie die Abstände zweier Atome im Innern des Festkörpers.

Das Neue im traditionellen Gewand

Abb. 4a, b: Ursprünglicher Ausdruck (a) und daraus erstelltes Papiermodell (b) einer tunnelmikroskopischen Silizium-Untersuchung.

wussten, hob es sich von Ergebnissen wochenlanger vorhergehender Experimente ab, in denen sich kein so systematisches und periodisches Muster gezeigt hatte.10 Damit forderte der Ausdruck weitere Bearbeitungen und Interpretationen heraus, sodass Gerd Binnig und Christoph Gerber, ein Mitarbeiter aus den Laborwerkstätten, auf der Grundlage dieser Aufzeichnung ein Papiermodell bastelten. Dazu kopierten sie den Ausdruck vielfach, schnitten entlang der aufgezeichneten Linien einzelne Streifen aus und klebten diese, getrennt von Plexiglasstreifen, nebeneinander. Unter Beleuchtung zur Erzeugung von Schatten fotografierten sie das Modell (Abb. 4b). Die Erzeugung dieses Fotos war von dem Bemühen getrieben, die einzelnen Linien aus dem ursprünglichen Ausdruck, die als Spuren der Spitze Orte gleichen Tunnelstroms wiedergaben, als gewellte Oberfläche erscheinen zu lassen. Diese Überführung in eine neue Gestaltungsform ging mit der Schaffung des visuellen Eindrucks eines dreidimensionalen Körpers einher. Erwin Panofsky hat in seinem berühmten Aufsatz über die Perspektive als ‚symbolische Form‘ ausgeführt, wie die Perspektive selber und damit die Erfassung des Raumes zur immanenten Bedeutung eines Bildes avanciert.11 Durch das Basteln und Fotografieren ihres Modells zelebrierten Binnig und Rohrer die Erfassung, Ausfüllung und Eroberung des euklidischen Raumes. Der ursprünglich zweidimensionale Ausdruck der x-, y- und z-Signale in der Projektion des x-y-Schreibers hatte noch keinen perspektivisch-räumlichen Eindruck zu erzeugen vermocht (vgl. Abb. 4a). Er diente aber dennoch als Grundlage, um demonstrieren zu können, dass ihr neues experimentelles Verfahren der Oberflächenphysik Ergebnisse lieferte, die sich als dreidimensionaler Körper, der sich freigestellt vor schwarzem Hintergrund in alle Raumrichtungen auszudehnen vermochte, darstellen ließen (vgl. Abb. 4b). Im Kommunikationszusammenhang der Oberflächenphysik lag die Symbolik und Eigenartigkeit im Kontrast zur vorherigen experimentellen Bildpraxis begründet, die ihre experimentellen Spuren lediglich im Impulsraum zu erzeugen vermochte. Vor diesem Hintergrund bedeutete die Perspektivdarstellung eine neuartige Er-

10

Im Nachhinein erkannten Binnig und Rohrer, dass sich auch in den zuvor erzeugten Ausdrucken schon Muster der Einheitszelle des Silizium gezeigt hatten, was für sie zum Zeitpunkt der Experimente jedoch noch nicht erkennbar gewesen war, vgl. Mody 2004, 107.

11

Panofsky 1998 [1927].

239

Jochen Hennig

240

fassung des aus der makroskopischen Welt gewohnten Raumes im oberflächenphysikalischen Experiment. Gleichzeitig mit der Erstellung eines zentralperspektivischen Fotos und der Präsentation einer Perspektivdarstellung als ‚symbolische Form‘, zeigte sich innerhalb des Körpers eine hügelig gewellte Binnenstruktur, in der Binnig und Rohrer in ihrer ersten Interpretation jeder Erhebung die Position eines Atom zuschreiben konnten.12 Im Foto des Papiermodells zeigten sich damit einzelne Atome nicht als einzelne ausgeprägte Kugeln, doch lässt sich im Vergleich mit dem ursprünglichen Linienausdruck eine Konvergenz zu dieser Formtradition ausmachen, indem sich gleichsam unter einer verhüllenden Oberfläche Atome als dingliche Erhebungen auszuprägen schienen. Erst das Basteln und Fotografieren des Papiermodells führte dazu, dass die Aufzeichnungen des tunnelmikroskopischen Experiments mit der Formtradition der Kugel korrelierten. Gleichzeitig warf das Bild trotz dieser ersten Interpretation und Anknüpfung an Darstellungstraditionen mehr Fragen auf, als dass es Antworten hätte geben können. So wurde der Theoretiker Hamann an den Bell Laboratories durch die Begutachtung des Artikels von Binnig und Rohrer zu dieser Messung auf die Tunnelmikroskopie aufmerksam13 und setzte sich zum Ziel, eine Theorie der Tunnelmikroskopie zu entwickeln, die das bis dahin nicht formal fassbare ‚Auf ‘ und ‚Ab‘ der Spitze während des Scannens angemessen zu beschreiben wusste. Die experimentellen Ergebnisse von Binnig und Rohrer inspirierten Hamann, gemeinsam mit dem Postdoktoranten Jerry Tersoff ein vereinfachendes Modell der Spitze über der Probe zu entwickeln, das mathematisch handhabbar war und Anhaltspunkte zur Interpretation tunnelmikroskopischer Bilder liefern konnte. Die Theorie von Hamann und Tersoff ließ einzelne Spuren in einem tunnelmikroskopischen Bild als lokale Ladungsdichten der Probe interpretieren.14 Dieses Deutungsangebot seitens der Theoretiker war vereinbar mit Binnigs und Rohrers ursprünglicher Interpretation, jeder Erhebung die Position eines Oberflächenatoms zuzuschreiben. Gleichzeitig warf aber die Anordnung der Maxima und die daraus abgeleitete Anordnung der Oberflächenatome für die experimentellen Oberflächenphysiker weitere Fragen auf. Diese hatten aus ihren vorherigen Beugungsexperimenten zahlreiche alternative Modelle der atomaren Oberflächenanordnung des Siliziums entwickelt, doch keines korrelierte mit den zwölf Erhebungen, die im Foto des Papiermodells jeweils innerhalb der beiden rhombischen Einheitszellen ersichtlich wurden. Das Bild ließ damit einerseits direkter als jedes Beugungsbild die Position von Atomen als dingliche Erhebungen erkennen, entsprach aber keineswegs den theoretischen Erwartungen bezüglich der Anordnung der Erhebungen zueinander. Diese Abweichung zu den vorhergehenden Annahmen entwickelten eine produktive Kraft, da etliche bestehende Modelle zur Oberflächenstruktur des Siliziums verworfen werden konnten und sie Anlass zu einer neuen Welle von Beugungsexperimenten an Siliziumoberflächen gab. Der Oberflächenphysiker Kunio Takayanagi entwickelte aus seinen Experimenten mittels Elektronenbeugung (Abb. 5) ein Modell zur ato-

12

Binnig u.a. 1983, 121.

13

Vgl. Mody 2004, 137.

14

Tersoff / Hamann 1983.

Das Neue im traditionellen Gewand

Abb. 5: Elektronenbeugungsbild einer

Abb. 6a, b: Darstellungen von Kunio Taka-

Silizium-Oberfläche von Kunio Takayanagi.

yanagi zu seinem Oberflächenmodell des Siliziums in Aufsicht (a) und im Schnitt (b).

maren Anordnung an der Siliziumsoberfläche, das auch mit den tunnelmikroskopischen Ergebnissen von Binnig und Rohrer in Einklang zu bringen war.15 Takayanagi blieb in der Kommunikation seines Modells zunächst ganz der formalen Tradition oberflächenphysikalischer Bildwelten verhaftet (vgl. Abb. 1 a, b), indem er zwei Schemata unter Verwendung kreisförmiger Symbole für die Positionen der Atome publizierte (Abb. 6 a, b). Doch schon bald übernahm der Tunnelmikroskopiker Ruud Tromp aus dem IBM-Labor in Yorktown die visuelle Vorherrschaft über das Modell. Tromp hatte in tunnelmikroskopischen Experimenten Abb. 7: Ruud Tromps Computergrafik zu und Simulationen, die über die von Takayanagis Modell. Binnig und Rohrer hinausgingen, Takayanagis Modell bestätigen können und publizierte nun gemeinsam mit seinen tunnelmikroskopischen Bildern das von seinem japanischen Kollegen entwickelte Modell in einer farbigen, dreidimensionalen Aufsicht in der publikums- und prestigeträchtigen Zeitschrift Science (Abb. 7).16 Tromp hatte – im Gegensatz zu Takayanagi – beträchtlichen Aufwand zur Darstellung des Modells betrieben, indem er mittels eines eigens geschriebenen raytracing-Grafikprogramms jede einzelne

15

Takayanagi betonte die Übereinstimmung seines Modells mit den Ergebnissen eigener, aber auch komplementärer Untersuchungsmethoden der Oberflächenphysik, so auch denen von Binnig und Rohrer; Takayanagi 1985, 1503.

16

Tromp / Hamers / Demuth 1986.

241

Jochen Hennig

242

Kugel perspektivisch darzustellen vermochte.17 Der Vergleich zu Takayanagis asketischer Darstellung verdeutlicht die Neuartigkeit der Bildwelten, die Tunnelmikroskopiker sowohl bezüglich ihrer experimentell erzeugten Ergebnisse als auch bezüglich der Darstellung von Modellen mit ihren farbigen, flächigen und perspektivischen Bildern in die Oberflächenphysik einbrachten und im Kampf um Aufmerksamkeiten nutzten. Das Papiermodell Binnig und Rohrers hat nicht nur durch zahlreiche Reproduktionen weite Verbreitung gefunden, sondern wirkte stilbildend, indem es anderen Tunnelmikroskopikern als direkte Gestaltungsvorlage diente. So ließ sich in Basel eine Arbeitsgruppe um Hans-Joachim Güntherodt durch einen Vortrag Binnigs in ihrem Kolloquium als eine der ersten universitären Gruppen zum Bau eines Tunnelmikroskops inspirieren. Der Elektroniker der Gruppe Hans-Rudolf Hidber implementierte in das Instrument eine Elektronik, sodass in bewusster Anknüpfung an das Foto des Papiermodells die Darstellung jeder Messung in einen räumlichen Körper eingebettet war (Abb. 8).18 Das zunächst analoge Instrument ermöglichte keine Speicherung des Datensatzes, sodass dem Experimentator als einziger Eingriff in die Darstellung des Körpers die Wahl des Winkels zwischen den Achsen blieb. Doch innerhalb dieser Rahmung sollte der Verlauf der Linien in jeder einzelnen Messung zwischen den Polen der Bestätigung vorheriger Annahmen einerseits und Überraschungen andererseits, die im Zeitpunkt ihres Auftretens nicht deutbar waren, oszillieren. So konnte der erAbb. 8: Isometrische Projektion einer frühen ste Basler Doktorand Markus Ringger tunnelmikroskopischen Graphit -Messung seine Graphit-Messung (Abb. 8) nicht in Basel. gleich einordnen, da sich unerwartete Größenordnungen zeigten. Daraufhin nahm er mit den Piezomotoren seines Instruments, die die Spitze bewegten, Bestandteile seines Experimentalsystems in den Blick, die er zuvor als zuverlässige technische Komponenten erachtet hatte. Gemeinsam mit neuen Kooperationspartnern aus Neuenburg führte er Neueichungen der Motoren durch, die er in die Interpretation seiner Messung einbringen konnte.19 Das Bild Ringgers griff damit einerseits die Gestaltungen von Binnig und Rohrer auf und setzte die Schaffung eines Körpers im Realraum fort, doch bestand zum anderen innerhalb dieser Rahmung auch Freiraum für das Auftreten von Unerwartetem und zu Deutendem, das zunächst nicht beabsichtigte Folge-

17

Interview mit Ruud Tromp am 11.3.2004.

18

Gespräch mit Hans-Rudolf Hidber am 20.4.2005.

19

Vgl. Ringger 1986; Interview mit Markus Ringger am 19.4.2005. Zu einer ausführlicheren Auswertung dieser Experimente Ringgers vgl. Hennig 2008a.

Das Neue im traditionellen Gewand

untersuchungen motivierte und den Kontakt zu neuen Kooperationspartnern mit sich brachte. Die Einbettung tunnelmikroskopischer Messergebnisse in die Form dreidimensionaler Körper fand in Basel ihre Fortsetzung, indem Lukas Rosenthaler, der Programmierer der ersten Basler Bildsoftware für die Tunnelmikroskopie, zunächst die von dem Elektroniker Hidber analog realisierte Darstellungsform adaptierte20. Als es dem Tunnelmikroskopiker Roland Wiesendanger Ende der 1980er Jahre gelang, erstmals die Silizium-7x7-Oberfläche, die den Durchbruch für Binnig und Rohrer bedeutet hatte, atomar auflösen zu können, bedeutete dies eine „Erlösung“21 für die Basler Arbeitsgruppe, da sich die Beherrschung dieses Experiments in der Rastertunnelmikroskopie zu einem Standard entwickelt hatte, den jede Arbeitsgruppe zum Nachweis ihrer experimentellen Fähigkeiten zu erbringen hatte. Dem Status dieses Experiments entsprechend realisierte Wiesendanger unterschiedliche Darstellungsformen, so auch in perspektivischer dreidimensionaler Ansicht (Abb. 9). Dieses Bild entwickelte er zu seinem persönlichen Aushängeschild, indem er es in einem wissenschaftlichen Artikel publizierte und es als Einladungskarte zu seiner Habilitationsfeier verwendete; auch in den Kalender des Basler Instituts wurde es aufgenommen und wies dort seine Fähigkeiten aus.22 Durch die Perspektivdarstellung mit simulierter Abb. 9: Die Darstellung der ersten atomar Beleuchtung entstand in diesem Bild aufgelösten tunnelmikroskopischen Si-7x7 ausgeprägter noch als in dem Foto des Messung in Basel. Papiermodells von Binnig und Gerber der Eindruck einzelner, dicht gedrängter kugelförmiger Gebilde. Die Darstellung von Orten gleichen Tunnelstroms, die sich quantenphysikalisch als Verteilung der Ladungsdichten interpretieren ließen, korrespondierte mit einer dinglichen, kugelförmigen Vorstellung des Atoms. Dieses Zusammenfallen abstrakter Interpretation mit der Adaption einer dinglichen Anschaulichkeit ergab sich keinesfalls „von selbst“ aus dem Experiment, sondern war einer Kette von Anknüpfungen geschuldet, in der der Programmierer Rosenthaler die Gestaltungen des Elektronikers Hidber aufgegriffen hatte, der seinerseits das Papiermodell von Binnig und Gerber zum Vor-Bild genommen hatte.

20

Interview mit dem ehemaligen Programmmierer Lukas Rosenthaler am 20.4.2005

21

So Dario Anselmetti im Interview am 7.6.2005 über die Bedeutung der gelungenen Silizium-Messung für die Basler Arbeitsgruppe.

22

Die wissenschaftliche Publikation erfolgte in Tarrach 1991, 678; im Besitz von Dario Anselmetti, einem ehemaligen Kollegen Wiesendangers in Basel, befindet sich noch eine solche Einladungskarte; zum Kalender siehe http://monet.unibas.ch/gue/cal/1995/ (letzter Aufruf: 9.3.2008).

243

Jochen Hennig

Die Form ist die Botschaft

244

Darstellungen hügeliger Oberflächen fanden so im Basler Laboralltag, in dem zunächst Anschluss an den aktuellen Forschungsstand gesucht wurde, ebenso ihre Fortsetzung wie auch in bahnbrechenden Publikationen und Pionierarbeiten der Tunnelmikroskopie. Als es Don Eigler 1989 gelang, einzelne Xenon-Atome mit Hilfe der Spitze des Tunnelmikroskops gezielt zu bewegen und von dieser Neupositionierung der Atome im Anschluss Bilder zu erstellen, erzeugte er den berühmt gewordenen atomaren Schriftzug „IBM“ (Abb. 10).23 Die Atome auf der Oberfläche scheinen gleichsam beleuchteten Kugeln, die einen Schatten werfen.24 In dieser Anknüpfung an Bildtraditionen konnte IBM das Logo in einer Werbekampagne in Tageszeitungen verwenden – für ein Massenpublikum stand der Werbetext, dass IBM-Forscher Atome verschoben hätten, in Einklang mit der Erscheinung von Atomen als Kugeln. Das Bild folgte den bekannten Formtraditionen, wirkte selbstverständlich und erzeugte bei Zeitungslesern keine Verwunderung, sonAbb. 10: Atome bilden – gleichsam Kugeln dern Evidenz. Ganz anders erging es auf einer glatten Oberfläche – den SchriftNorton Lang, Theoretiker bei IBM, der zug IBM. sich sehr wohl fragte, wie das Bild zu erklären sei. Lang hatte komplementär zu den Arbeiten von Tersoff und Hamann die Theorie des Tunnelmikroskops weiter entwickelt25 und für ihn war es keinesfalls selbstverständlich, dass Xenon-Atome auf einem Nickeluntergrund, wie in Eiglers Experiment, zur Auslenkung der Spur der Spitze und damit einem solchen tunnelmikroskopischen Bild führe sollten. Wieder einmal warf ein Experiment und seine Visualisierung für einen Theoretiker Fragen auf. Lang reichte es nicht, das Bild in Anlehnung an die Formtradition wahrzunehmen, er zielte darauf ab die Wechselwirkung zwischen Spitze und Probe quantenphysikalisch zu deuten. Das Experiment gab ihm empirisches Material für seine Auswertungen an die Hand, die er gemeinsam mit Eigler und dessen Postdoktoranden publizierte.26 So suggerierte die strenge Anordnung der Atome in geraden Linien maximale Kontrolle durch den Experimentator, noch bevor die Darstellung in einer abstrakten, formalen Theorie zu fassen war; erst nachträglich konnte Lang sie mit seiner theoretischen Beschreibung einholen.Zwischenzeitlich hatte die Rezeption von Eiglers Bild bereits eine Eigendynamik entwickelt, indem sie Teil von Narrativen wurde, nach denen in einem neuen Zeitalter der Nano23

Eigler / Schweizer 1990.

24

Zur Wahl einer Differentialdarstellung, die diesen Eindruck erzeugte vgl. Hennig 2004.

25

Lang 1985, Lang 1986.

26

Eigler u.a. 1991.

Das Neue im traditionellen Gewand

technologie Atome als Bausteine nahezu beliebig positioniert und technisch nutzbar gemacht werden könnten. Das Bild suggerierte eine Evidenz für einen solchen weitgehenden Anspruch, den der Visionär Eric Drexler schon mit dem Titel seines Buches Engines of Creation über eine kommende Ära der Nanotechnologie bis hin zur Wiederholung des Schöpfungsaktes ausgedehnt hatte.27 Eric Drexler und das von ihm mitgegründete Foresight-Institut trugen maßgeblich zur Verbreitung des Begriffs „Nanotechnologie“ und seiner Aufladung mit weitgehenden Phantasien bei; der Sammelband zur ersten Konferenz dieses Institutes ist wohl das erste Buch mit dem Titel Nanotechnology.28 Das Cover zeigt ein visionäres atomares Modell eines Getriebes in Kugeldarstellung, hinterlegt mit dem Ausschnitt eines rastertunnelmikroskopischen Bildes (Abb. 11). Auch wenn das tunnelmikroskopische Bild die Kugelformen nicht direkt aufzugreifen vermag, korreliert die gewellte Oberfläche formal mit dem Modell, scheint es die Plausibilität und die Umsetzbarkeit dieser Vision von hinten zu stützen – die ausstehende Vision und ein bereits realisiertes Experiment rücken zusammen. In einer solchen Verwendung wird das tunnelmikroskopische Bild vollständig aus seinem Laborkontext und den ursprünglich mit ihm verbundenen Fragestellungen herausgelöst und auf seine Formgebung reduziert: Die Form ist die Botschaft. Vereinzelte, ihrem Laborkontext entzogene tunnelmikroskopische Bilder zieren Abb. 11: Titelseite des ersten Buches mit seit diesem Präzedenzfall die Titelsei- dem Titel „Nanotechnology“: Vision und ten von Büchern und Broschüren zur Experiment kommen zusammen. Nanotechnologie. Das deutsche Ministerium für Bildung und Forschung sowie die EU werben – eher als dass sie informieren – auf der Titelseite ihrer Broschüre zur Nanotechnologie mit einem Kompositbild, in dem ein tunnelmikroskopisches Bild der Silizium-7x7-Oberfläche den Grund bildet (Abb. 12). Die Darstellung des Himmels führt zu einer unmittelbaren Wahrnehmung einer Landschaft in der „Welt von morgen“, in der Natur und Technik zusammenfinden.29 Der Wissenschaftsphilosoph Alfred Nordmann hat in seiner Deutung des Weltbildes hinter solchen Darstellungen den immensen, ja ul-

27

Drexler 1986; zur Diskrepanz zwischen wissenschaftsinterner Interpretation und utopischer Verwendung des Bildes Eiglers vgl. Hennig 2004.

28

Crandall / Lewis 1992.

29

BMBF 2006

245

Jochen Hennig

timativen Anspruch der Nanotechnologie ausfindig gemacht, Technik- und Weltgestaltung zusammen fallen zu lassen.30 Solche Bildgestaltungen atomarer Landschaften haben in Binnig und Rohrers experimentellen oberflächenphysikalischen Expansion in den Realraum ihren Ausgang genommen und konnten zunächst zu Folgeforschungen bezüglich der damals offenen Frage nach der atomaren Struktur der Silizium-7x7-Oberfläche anregen. Nachdem der Oberflächenphysiker Takayanagi mit Beugungsmethoden ein gemeinhin akzeptiertes Modell entwickelt hatte, übernahmen die Tunnelmikroskopiker die visuelle Vorherrschaft über die Silizium-7x7-Oberfläche. Ihre Darstellungen waren anschlussfähig an nanotechAbb. 12: Titelseite einer „Informationsnologische Phantasien, da der Anblick broschüre“ des Bundesministeriums für atomarer Landschaften durch die VerBildung und Forschung. knüpfung der tradierten Vorstellung des Atoms als kugelförmiges Gebildes mit dem Narrativ des Aufbruchs in neue Welten selbsterklärend schien. Diese Bilder konnten, anders als ein Beugungsbild Takayanagis (Abb. 5), die Lücke zwischen quantenphysikalischen Deutungen der Oberflächenphysik und anschaulichen Atomvorstellungen überbrücken und so in unterschiedlichen Kontexten ihren visuellen Überschuss entfalten.

Schon Kunst und noch kontrovers

246

Neben der Formtradition der Kugel griffen Gestaltungen rastersondenmikroskopischer Bilder auch die wolkenartigen Wahrscheinlichkeitsdarstellungen der Quantenphysik auf. Dass nach quantenphysikalischen Beschreibungen nicht mehr Ort und Zeitpunkt des Aufenthaltes eines Elektrons gleichzeitig exakt bestimmbar sind, sondern nur Wahrscheinlichkeitsaussagen getroffen werden können, setzte bereits 1931 H. E. White von der Berkeley University ins Bild (Abb. 13). Er fotografierte in Langzeitbelichtungen rotierende Propeller. Durch die Verwendung von Propellern unterschiedlicher Form erhielt White durch die lange Belichtungszeit Darstellungen mit unscharfen Konturen, mit denen er Orbitale unterschiedlicher Zustände des Wasserstoffs veranschaulichte. In seinen Bildern mit diffusen, nebulösen Formen markierten weiße Orte eine hohe Wahrscheinlichkeit, ins Graue übergehende Tönungen eine geringere Wahrscheinlichkeit des Aufenthalts von 30

Nordmann 2003.

Das Neue im traditionellen Gewand

Elektronen.31 Diese Gestaltungen verfestigten sich zur Ausbildung einer Darstellungstradition von Orbitalen. Als die Rastersondenmikroskopie den Anspruch erhob, innere Strukturen des Atoms auflösen zu können, griff sie diese Bildtradition auf (Abb. 14). Auch in diesem Beispiel wäre es möglich – und „richtig“ – gewesen, x-, y- und z-Position in einem massiven, bläulich glänzenden Relief wie auf dem Titelbild der BMBF-Broschüre zu zeigen, doch nur in der gewählten Darstellungsweise ließ sich an die Bildtraditionen der Atomorbitale anknüpfen. Das Instrument, mit dem diese Messung durchgeführt wurde, ein Rasterkraftmikroskop, ist ein Abkömmling des Rastertunnelmikroskops, das keinesfalls zielgerichtet entwickelt wurde, sondern aus dem Versuch entstand, tunnelmikroskopische Bilder zu deu- Abb. 13: Frühe Darstellung der Aufentten. Da in rastertunnelmikroskopischen haltswahrscheinlichkeiten von Elektronen Bildern Mitte der 1980er Jahre vor al- 1931. lem bei der Untersuchung von Graphit überraschend hohe Auslenkungen festgestellt worden waren, die durch die damalige Theorie des Instruments und die Kenntnisse über die Probe nicht erklärbar waren, entstand die Vermutung, dass eine Kraftwirkung zwischen der Spitze und der Probe für dieses Ergebnisse, die allen Erwartungen widersprachen, verantwortlich zeichneten. Um die Bilder deuten zu können, führte Gerd Binnig gemeinsam mit Christoph Gerber in Stanford in Kooperation mit dem dortigen Tunnelmikroskopiker Abb. 14: Mutmaßlich die erstmalige AufCal Quate Experimente zur Bestim- lösung einzelner Atomorbitale mit einem mung der Kraftwirkung zwischen der Rastersondenmikroskop durch Franz Spitze und der Probe durch. Sie hat- Gießibl. ten den Verdacht, dass atomare Anziehungskräfte zwischen Spitze und Probe die großen Korrugationen in den GraphitBildern erklären könnten. In den Experimenten rasterten sie mit einer ebenfalls wieder atomar feinen Spitze die Probenoberfläche ab, legten aber keine Spannung 31

White 1931.

247

Jochen Hennig

248

zwischen diesen Komponenten an, sondern maßen „lediglich“ die Auslenkung der Spitze, die sich aus der wechselnden Kraftwirkung während des Scannens ergab. Von der Sensibilität dieser Messungen überrascht, konnten sie daraus das Rasterkraftmikroskop als ein neues Verfahren entwickeln,32 das im Gegensatz zu seinem Vorfahren auch die Untersuchung nicht leitender Proben ermöglichte und damit ein wesentlich größeres Anwendungsgebiet erschließen ließ. Aus einer Detailuntersuchung zur Deutung ungeklärter Strukturen in tunnelmikroskopischen Bildern hatte sich so eine ungeheure Dynamik entwickelt, aus der eine Methode hervorging, die die Tunnelmikroskopie als ihre Ursache schon bald bezüglich ihrer Verbreitung in den Schatten stellen sollte. Zunächst hinkte das Auflösungsvermögen des Kraftmikroskops hinter dem des Tunnelmikroskops hinterher, doch realisierte Gerd Binnig gemeinsam mit Kollegen Bilder mit atomarer Auflösung. Auch neue Modi des Betriebs vergrößerten den Anwendungsbereich: Nachdem anfänglich die Spitze über die Probe geführt wurde, um die resultierende Auslenkung zu messen, wurde der Cantilever, eine federnde Vorrichtung an der die Spitze befestigt war, in Schwingungen versetzt und in kleinstem Abstand über die Probe geführt. Die Kraftwirkung zwischen Spitze und Probe führte zu einer Modulation der Frequenz dieser Schwingungen, was Rückschlüsse auf die Kraftwirkung zwischen Spitze und Probe ermöglichte. Franz Gießibl, einem Mitarbeiter der Firma Park Scientific Instruments, die sich als spin-off aus der Arbeitsgruppe von Cal Quate in Stanford herausgebildet hatte, gelang es als erstem Rasterkraftmikroskopiker die Silizium-Oberfläche im Modus der Frequenzmodulation mit atomarer Auflösung zu vermessen.33 Da diese Probe der Tunnelmikroskopie zum Durchbruch verholfen hatte und später zum Standard avanciert war, anhand derer ein jeder Experimentator seine Beherrschung der Methode nachzuweisen hatte, war die kraftmikroskopische Untersuchung der Silizium-7x7-Untersuchung zunächst vor allem von symbolischer Bedeutung. Das Kraftmikroskop konnte mit seinem Vorfahren gleichziehen; es konnte den Standard, den die Tunnelmikroskopie gesetzt hatte, einholen, indem es auch das hochsymmetrische Muster mit seinem großen Wiedererkennungswert zu erzeugen wusste. Gießibl setzte nach einer zweijährigen Forschungsauszeit an der Universität Augsburg seine rasterkraftmikroskopischen Forschungen fort und widmete sich dem Design der Cantilever. Mit einem gabelförmigen Design konnte er neue Dimensionen der Empfindlichkeit erreichen. Er demonstrierte die Abb. 15: Bild einer Siliziumuntersuchung, Leistungsfähigkeit dieser Komponente in der sich innerhalb eines jeden Maxianhand eines Bildes der bekannten Simums eine Binnenstruktur zeigte.

32

Binnig / Gerber / Quate 1986.

33

Gießibl 1995.

Das Neue im traditionellen Gewand

liziumoberfläche.34 Doch bei der Nachahmung dieser symbolisch aufgeladenen Form trat in Gießibls Experimenten eine Differenz auf. Innerhalb einiger Maxima zeigten sich überraschende Binnenstrukturen (Abb. 15). Er interpretierte sie als Auflösung einzelner Orbitale und somit als Detektierung innerer Strukturen eines Atoms.35 Die Vergrößerung eines einzelnen Maximums führte zu dem Bild in Tradition wolkenartiger Orbitaldarstellungen (Abb. 14), das rege Aufmerksamkeit bis in die Massenmedien erfuhr. So druckte die FAZ am 26. Juli 2000 das Bild unter der Überschrift „Erster Blick in das Innere eines Atom“ ab.36 Diese Verbreitung erregte wieder- Abb. 16: Simulation einer rastersondenum das Interesse des Künstlers Gerhard mikroskopischen Siliziumuntersuchung Richter, der sich des Ausdrucks an- zum Vergleich mit dem experimentellen nahm und ihn unter seinem Namen ad- Ergebnis. aptierte, indem er ihn zu einem Offsetdruck mit dem Titel „Erster Blick“ weiter verarbeitete und so zu einem Kunstwerk transformierte. Alfred Nordmann entschlüsselte das gewitzte Vorgehen Richters. So hat Richter mit diesem Prozess der Aneignung ein Grundmotiv nanotechnologischer Bildpraxis berührt und ironisiert, da Nanotechnologen ihrerseits sich wie im Beispiel des IBM-Logos den Nanokosmos aneignen.37 Eigler hat mit der Signatur „IBM“ seine Spuren in der atomaren Ebene hinterlassen, den Zugriff durch IBM festgeschrieben. In der Bildsprache der BMBF- und EU-Broschüre wurde der Nanokosmos begehbar. Richter hat diesen Gestus der Besitzergreifung durch seine Signatur unter dem Bild von Gießibl überzeichnet. Das Bild von Gießibl erhielt damit eine weitere Aufwertung und Verfestigung, indem nach dem Aufgreifen einer Formtradition und seinem Einzug in Massenmedien nun auch noch ein bekannter zeitgenössischer Künstler das Bild adaptierte und damit einem weiteren kunstinteressierten, bildungsbürgerlichen Publikum, das mitunter kein Interesse an naturwissenschaftlichen Experimenten mit der Messung der Kraftwirkung zwischen einer Spitze und einer Siliziumoberfläche besaß, zugänglich machte. Wie im Fall der IBM-Anzeigen, in denen das Verschieben von Atomen durch deren Kugeldarstellung normal wirkte, war auch der Blick in das Atom nicht überraschend, griff er doch Darstellungskonventionen auf und zeigte das Innere des Atoms auf gleiche Weise wie Chemie-Schulbücher. Leser der FAZ und Kunstinteressierte konnten beruhigt von einem gelungenen Experiment ausgehen. Doch wie im Beispiel des IBM-Logos gestaltete sich die Sache innerwissenschaftlich in Kreisen mit erhöhtem Vorwissen aufregender. Rasterkraftmikroskopiker aus Basel, wo sich seit den ersten Experimenten von Markus Ringger ein Standort für Rastersondenmikroskopie mit international höchster Reputation 34

Gießibl 2000a.

35

Gießibl 2000b.

36

FAZ vom 26. Juli 2000, Nr. 171, Seite N3.

37

Nordmann 2006, 128.

249

Jochen Hennig

herausgebildet hatte, bezweifelten, dass die von Gießibl publizierten Formen den inneren Strukturen des Atoms geschuldet seien. Vielmehr hatten sie die Verstärkerelektronik im Verdacht, die Strukturen innerhalb einzelner Maxima zu verursachen. Sie publizierten ihre Deutung in einer Replik in der Zeitschrift Science, in der Gießibl seinerseits seine Befunde publiziert hatte.38 Die Kontroverse fand ihre Fortsetzung, indem nun Gießibl wiederum antwortete, seine Ergebnisse untermauerte und ausführte, warum nicht die Elektronik für die diffusen Strukturen verantwortlich sein könne.39 Er griff die Argumentationen aus Basel auf und verwendete zunächst von ihm nicht publizierte Auswertungen zur Stabilisierung seiner Argumentation. Doch nicht nur die Basler Kraftmikroskopiker zeigten sich skeptisch gegenüber Gießibls Bild, auch der Wissenschaftsphilosoph Jens Söntgen kritisierte das Bild dahingehend, dass es suggeriere, „man sehe die Atome selbst“40. In seiner bildskeptischen Kritik hielt er die Vermittlung der Daten als Klänge für angemessener, da sie den Prozess des Messens verdeutlichten, der durch die Bilder ausgeblendet werde.41 So sei „die akustische Repräsentation viel präziser als die optische, nicht nur, weil sie ungefiltert ist, sondern weil sie auch den Prozesscharakter der zugrunde liegenden Messung genauer wiedergibt.“42 Tatsächlich hat zum Beispiel auch Don Eigler zur Steuerung seines Instruments während des Verschiebens von Atomen die Auslenkungen der Spitze akustisch umgesetzt, um die Messung zu kontrollieren.43 Die anschließende Kommunikation konnte jedoch nur durch die visuelle Umsetzung der Messdaten geschehen und auch Norton Lang nutzte in seinen theoretischen Auswertungen visuelle Darstellungen, um die experimentell erhobenen Werte mit Ergebnissen aus theoretischen Berechnungen vergleichen zu können.44 Auch in der innerwissenschaftlichen Kontroverse zu Gießibls Bild zeigte sich die Notwendigkeit und Möglichkeit zur Diskussion dieser Bilder mittels visueller Argumentationen. So fertigte Gießibl Simulationen seiner Messungen an, um sie mit den experimentell erzeugten Bildern zu vergleichen (Abb. 16); er erhöhte damit die Plausibilität seiner Argumentation, dass nicht Artefakte der Elektronik, sondern innere Strukturen des Atoms für die Formen verantwortlich zeichneten. Gießibl konnte in den Bildern seiner Experimente und seiner Simulationen eine enorme Quantität und Komplexität an Daten dem Gesichtssinn zugänglich machen und schuf die Möglichkeit zum sinnlichen Vergleich.45 Die lebendige, komplexe Kontroverse mit den Bildern und über die Bilder Gießibls lief ohne die Auf-

250 38

Hug u.a. 2001.

39

Gießibl 2001.

40

Söntgen 2006, 105.

41

Söntgen 2006, 111.

42

Söntgen 2006, 110; ein Einsatz eines Filters ist selbstversttändlich nicht an die akustische bzw. optische Ausgabe gebunden, auch ist die Verwendung von Filtern als Heuristik keinesfalls als unpräzise abzulehnen.

43

Interview mit Erhard Schweitzer am 8.10.2003.

44

Eigler u.a. 1991, 1190; vgl. Hennig 2004.

45

Ein Verlust an Komplexität, die Söntgen pauschal mit der Schaffung eines Bildes verband (Söntgen 2006, 112), ohne sich den Auswertungen der Experimentatoren zuzuwenden, ist damit nicht festzustellen.

Das Neue im traditionellen Gewand

merksamkeit von bildreflektierendem Künstler, bildablehnendem Philosoph und bildverherrlichenden Massenmedien ab. Sowohl der Moment des Anblick einer experimentell erzeugten Spur, die überraschend erscheint, da von ihr noch nicht klar ist, ob sie einem Rauschen oder einem Signal geschuldet ist, als auch Kontroversen über adäquate Interpretationen von Bildern im Anschluss an ihre Publikation, die sich über Jahre hinziehen können, sind Teil wissenschaftlicher Bildpraxis. So konnte weder Gießibl noch seine Basler Kollegen mit ihren Argumentationen zunächst die andere Seite oder die Gemeinschaft der Rasterkraftmikroskopiker vollends überzeugen. Fünf Jahre später konnte Andreas Heinrich im IBM-Labor Almaden, wo Don Eigler 1989 das atomare Logo erzeugt hatte und Erfahrungen mit aufwändigen Sondenmikroskopen höchster Präzision vorhanden waren, Ergebnisse erzielen, die Gießibl aus seiner Sicht bestätigten.46 Es dauerte Jahre, bis eine solche Replikation unter höchsten Anforderungen gelang. Während bei Gießibl, der die Nachahmung des Silizium-7x7-Musters zum Ziel gehabt hatte, die Strukturen innerhalb eines Maximums noch eine Differenz dargestellt hatten, waren sie für die Forscher in Almaden zum Ziel und damit zur nachahmenswerten Form geworden. Sie lieferten einen weiteren Mosaikstein in der kontroversen Deutung eines Bildes, das Zeitungslesern und Kunstbetrachtern längst als klar, eindeutig und abgearbeitet präsentiert worden war.

Das eine tun und das andere nicht lassen Wie im Beispiel der Nanolandschaften können Bildgestaltungen ganze Forschungsfelder konfigurieren, sind sie nicht bloß ein Phänomen der Massenmedien, sondern wirken bis in das Selbstverständnis einer Wissenschaftsgemeinschaft. Es ist Teil der Logik von Bildern, sich auf Vor-Bilder zu beziehen und in ihrer historischen Aufladung einen visuellen Überschuss zu entwickeln. Doch gleichzeitig sind wissenschaftliche Bilder durch diese Traditionen nicht vollständig vorgezeichnet, erfüllen Experimente nicht ausschließlich die Ideen und visuellen Konzepte der Experimentatoren, sondern überraschen diese mitunter und veranlassen sie dazu, ihre geplanten Fährten zu verlassen und die entstandenen Bilder durch neue Strategien zu deuten. Unterschiedliche geisteswissenschaftliche Disziplinen haben sich in der letzten Zeit diesen jeweiligen Aspekten zugewandt. Seit sich die Wissenschaftsgeschichte in den 1980er Jahren den Dynamiken des Experimentierens widmete und Ian Hackings griffige These des „Eigenlebens von Experimenten“47 den Schritt aus dem langen Schatten des logischen Empirismus prägnant benannte, erschien das Experiment nicht mehr der Theoriebildung nachgelagert. Vielmehr wird seitdem experimentellen Praktiken zugesprochen, eigene Dynamiken entwickeln zu können, die nicht lediglich theoretischen Vorhersagen und Vorstellungen folgen, sondern 46

Vgl. Gießibl, Quate 2006, 47; Gespräch mit Franz Gießibl am 31.1.2007 in seinem Labor an der Universität Regensburg.

47

Hacking 1996 [1983], 250.

251

Jochen Hennig

252

in deren Verlauf Differenzen auftreten können, die bei ihrem Auftreten nicht bereits vorgedacht sind und weitere Entwicklungen antreiben können. Die eindeutige Trennung zwischen Signal und Störung, Fall und Unfall erodierte unter dieser Sichtweise.48 Die Debatte, ob die vertrauten Formen in Gießibls Bild inneren Strukturen des Atoms oder Schwankungen der Messelektronik geschuldet seien, bilden ein lebendiges Beispiel aus der Forschungspraxis. Die Sicht komplexer Experimentalsysteme als zugleich lokale, individuelle, soziale, institutionelle, technische, instrumentelle und epistemische Arbeitseinheiten der Forschung49 verdeutlicht die Komplexität eines Wechselspiels, in dem immer wieder Differenzen entstehen und Anschlüsse an Vertrautes hergestellt werden. Einige Jahre später, Mitte der 1990er Jahre, entdeckten andere Disziplinen Bilder der Wissenschaft als Betätigungsfeld, teils aus systematischen Gründen, um die Eigensinnigkeit visueller Medien gegenüber diskursiven aufzudecken,50 teils um ihrem Anspruch als Bildwissenschaft Ausdruck zu verleihen. Vor allem die Kunstgeschichte konnte ihre Methoden der Form- und Stilanalyse zum Aufdecken von Bildtraditionen in die Diskussion einbringen und zielte auf den Eigenwert des Visuellen in der wissenschaftlichen Erkenntnisgewinnung ab.51 Dass sich die eingangs erwähnten drei Formtraditionen zur Darstellung des Atoms derart langlebig etablieren konnten und Bilder neuartiger Instrumente wie der Rastersondenmikroskope auf zwei dieser Formtraditionen zustrebten und das Feld der Nanotechnologie durch die Anknüpfung an bekannte Narrative mitkonfigurierten, lässt sich aus dieser Perspektive nachzeichnen. An der Gestaltung tunnelmikroskopischer Messungen als dreidimensionale Körper, wie Binnig, Rohrer und Gerber es mit dem Papiermodell praktiziert hatten mit der nachfolgenden Adaption dieser Darstellungsform durch die Arbeitsgruppe in Basel, lässt sich die Ausbildung eines Stils beobachten. Die Wahl von Perspektivdarstellungen avancierte zu einem Paradigma rastersondenmikroskopischer Bildpraxis, die sich so von den Bildwelten anderer oberflächenphysikalischer Instrumente abzuheben vermochte. In einer Analyse wissenschaftlicher Bildpraxis, die die instrumentell-experimentelle Bilderzeugung, die Ausbildung von Bildtraditionen, die Kommunikationsprozesse und die Deutung der Bilder bezüglich ihrer Referenz aufeinander bezieht,52 erscheinen die beiden Ansätze, formale Bildtradition und das Auftreten unvorhersehbarer Differenzen im Verlauf experimenteller Eigendynamik zu analysieren, nicht mehr als Gegensatzpaar, sondern greifen ineinander. Beide Perspektiven erweisen sich als aufschlussreich, um den epistemischen Status von Bildern in ihrer Facettenvielfalt zu bestimmen. Damit rückt die Art und Weise, wie Vertrautes und Abweichendes ineinander greifen, die Scharniere und Schnittstellen zwischen Formtradition und Differenz, in den Fokus der Aufmerksamkeit. Während in dem Papiermodell von Binnig und Rohrer in der Anknüpfung an makroskopische Hü-

48

Vgl. Geimer 2002, der die Aufmerksamkeit der Bildforschung auf Störungen gelenkt hat, die wiederum mit Differenzen als nicht Planbarem verwoben sind.

49

vgl Rheinberger 2001, 8.

50

Vgl. Boehm 1995; Mersch 2005; Mersch 2006.

51

Vgl. Kemp 2003. Zum Verhältnis von Auge, Hand und Denken in der Erkenntnisgewinnung vgl. Bredekamp 2005; Bredekamp 2007.

52

Zur Verknüpfung dieser Perspektiven vgl. Heßler 2004.

Das Neue im traditionellen Gewand

gellandschaften die unerwartete Anordnung der Maxima hervortrat, blieben bei Ringgers Experimenten in Basel die vorgegebene äußere Rahmung und die inneren deutungsbedürftigen Linien als Binnenstruktur zunächst getrennt. Während Eigler und Gießibl es mit ihren Bildern schnell in die Massenmedien brachten, eröffneten sie für Theoretiker neue Fragestellungen bzw. lösten sie jahrelang schwelende Kontroversen aus. Und während Gießibl in dem Versuch, die Darstellung bekannter Silizium-7x7-Strukturen nachzuahmen, auf eine Differenz stieß, indem sich innerhalb einzelner Maxima neue Strukturen zeigten, sollten sich Forscher in Almaden wiederum die Nachahmung dieser Abweichungen zum Ziel setzen. Mal holte die Formtradition die Abweichungen ein, mal existierten in der Einhaltung der Formtradition für den Experten Abweichungen und mal wurden erst in der Anknüpfung an Formtraditionen Differenzen erkennbar. Der Variantenreichtum dieses Wechselspiels wird sich kaum benennen oder klassifizieren lassen, ebenso wie sich das Verhältnis von Theorie und Experiment immer neu gestaltet und wie es die grundsätzliche Eigenart der Differenzen ist, unvorhersagbar aufzutreten. Was bleibt, ist die Erkenntnis, dieses Wechselspiel selbst als Kern wissenschaftlicher Bildpraxis aufzufassen.53

253

53

Ich danke Christoph Gerber, Franz Gießibl, Hans-Rudolf Hidber, Markus Ringger, Lukas Rosenthaler, Erhard Schweizer und Ruud Tromp für Ihre Offenheit und Hilfsbereitschaft in unseren Gesprächen, die die Rekonstruktion ihrer Bildpraxis erst ermöglicht haben.

Jochen Hennig

Abbildungsverzeichnis Abb. 1a, b: Chadi 1984, S. 4474 Abb. 2: Miller Haneman 1979, S. 1275 Abb. 3: Miller, Haneman 1981, S. L242 Abb. 4a: IBM Forschungslabor Zürich Abb. 4b: Binnig u.a. 1983, S. 120 Abb. 5: Takayanagi 1985, S. 1503 Abb. 6 a, b: Takayanagi 1985, S. 1504 Abb. 7: Tromp, Hamers, Demuth 1986, S. 306 Abb. 8: Ringger 1986, S. 102 Abb. 9: Departement Physik, Universität Basel Abb. 10: Eigler, Schweizer 1990, S. 525 Abb. 11: Crandall, Lewis 1992, Titelseite Abb. 12: BMBF 2006, Titelseite Abb. 13: White 1931, S. 1423 Abb. 14: Gießibl u.a. 2000b, S. 425 Abb. 15: Gießibl u.a. 2000b, S. 424 Abb. 16: Gießibl u.a. 2001, S. 903

Bibliographie

254

Gerd Binnig u.a., 1983, 7x7 Reconstruction on Si(111) Resolved in Real Space, in: Physical Review Letters 50 (1983), S. 120-123. Gerd Binnig / Cal Quate / Christoph Gerber, 1986, Atomic Force Microscope, in: Physical Review Letters 56 (1986), S. 930-934. BMBF (Hrsg.), 2006, Nanotechnologie. Innovationen für die Welt von morgen, 3. Auflage, http://www.bmbf.de/pub/nanotechnologie_inno_fuer_die_welt_v_ morgen.pdf. (Letzter Aufruf: 9.3.2008). Gottfried Boehm, 1995, Bildbeschreibung. Über die Grenzen von Bild und Sprache, in: Gottfried Boehm / Helmut Pfotenhauer (Hrsg.), Beschreibungskunst – Kunstbeschreibung: Ekphrasis von der Antike bis zur Gegenwart, München, S. 23-40. Horst Bredekamp, 2005, Die zeichnende Denkkraft: Überlegungen zur Bildkunst der Naturwissenschaften, in: Jörg Huber (Hrsg.), Einbildungen (Interventionen 14), Zürich, S. 155–171. Horst Bredekamp, 2007, Galilei der Künstler: der Mond, die Sonne, die Hand. Berlin. Soraya de Chadarevian, 2002, Designs for Life. Molecular Biology after World War II, Cambridge. James D. Chadi, 1984, New Adatom Model for Si(111)-7x7 and Si(111)-Ge 5x5 Reconstructed Surfaces, in: Physical Review B 30, 8 (1984), S. 4470-4480. BC Crandall / James Lewis, 1992, Nanotechnology. Research and Perspectives. Cambridge, Mass.

Das Neue im traditionellen Gewand

Eric Drexler, 1990, Engines of Creation. The coming Era of Nanotechnology, 2. Auflage, New York. Don Eigler / Erhard Schweizer, 1990, Positioning Single Atoms with a Scanning Tunneling Microscope, in: Nature 344 (1990), S. 524-526. Don Eigler u.a., 1991, Imaging Xe with a Low-Temperature Scanning Tunneling Microscope, in: Physical Review Letters 66, 9 (1991), S. 1189-1192. Peter Geimer, 2002, Was ist kein Bild? Zur „Störung der Verweisung“, in: Peter Geimer (Hrsg.), Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie, Frankfurt a.M. Franz Gießibl, 1995, Atomic Resolution of the Silicon (111)-(7x7) Surface by Scanning Force Microscopy, in: Science 267 (1995), S. 68-71. Franz Gießibl, 2000a, Atomic Resolution on Si(111)-(7x7) by Noncontact Atomic Force Microscopy with a Force Sensor Based on a Quartz Tuning Fork, in: Applied Physics Letters 76 (2000), S. 1470-1472. Franz Gießibl u.a., 2000b, Subatomic Features on the Silicon (111)-(7x7) Surface Observed by Atomic Force Microscopy, in: Science 289 (2000), S. 422-425. Franz Gießibl, 2001, Subatomic Features in Atomic Force Microscopy Images Response, in: Science 291 (2001), S. 2509a. Franz Gießibl u.a., 2001, Imaging of Atomic Orbitals with the Atomic Force Microscope – Experiments and Simulations, in: Annalen der Physik 10 (2001), S. 887-910. Franz Gießibl / Calvin Quate, 2006, Exploring the Nanoworld with Atomic Force Microscopy, in: Physics Today, December 2006, S. 44-50. David Gugerli / Barbara Orland, 2002, Ganz normale Bilder, Zürich. Ian Hacking 1996 [1983], Einführung in die Philosophie der Naturwissenschaften, Ditzingen. Jochen Hennig, 2004, Vom Experiment zur Utopie: Bilder in der Nanotechnologie, in: Instrumente des Sehens. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik 2,2 (2004), S. 9-18. Jochen Hennig, 2008a, Visuelle Erkenntnisgewinnung in der Wissenschaft am Beispiel der rastertunnelmikroskopie, in: Horst Bredekamp / Vera Dünkel / Birgit Schneider (Hrsg.) 2008, Das Technische Bild. Ein Kompendium zu einer Stilgeschichte wissenschaftlicher Bilder, Berlin, im Erscheinen. Jochen Hennig, 2008b, Das Atomium. Architektonisches Symbol des Atomzeitlaters, in: Gerhard Paul, Das Jahrhundert der Bilder. II: 1949-2007, Göttingen, im Erscheinen. Martina Heßler, 2004, Explorationsstudie im Rahmen der BMBF-Förderinitiative „Wissen für Entscheidungsprozesse“ zum Thema „Visualisierungen in der Wissenskommunikation“, http://www.sciencepolicystudies.de/dok/explorationsstudie-hessler.pdf. (Letzter Aufruf: 9.3.2008). Hans J. Hug u.a., 2001, Subatomic Features in Atomic Force Microscopy Images – Technical Comment, in: Science 291 (2001), S. 2509a. Wolfgang Kemp, 2003, Bilderwissen. Die Anschaulichkeit naturwissenschaftlicher Phänomene, Köln. Norton D. Lang, 1985, Vacuum Tunneling Current from an Adsorbed Atom, Physical Review Letters 55, 2 (1985), S. 230-233.

255

Jochen Hennig

256

Norton D. Lang, 1986, Theory of Single-Atom Imaging in the Scanning Tunneling Microscope, Physical Review Letters 56, 11 (1986), S. 1164-1167. Christoph Lüthy, 2003, The Invention of Atomist Iconography, in: Wolfgang Lefevre / Jürgen Renn / Urs Schöpflin (Hrsg.), The Power of Images in Early Modern Science, Basel, S. 117-138. Christoph Meinel, 2004, Molecules and Croquet Balls, in: Soraya de Chadarevian / Nick Hopwood (Hrsg.), Models. The Third Dimension of Science, Palo Alto, Ca., S. 242-275. Dieter Mersch, 2005, Das Bild als Argument, in: Christoph Wulf / Jörg Zirfas (Hrsg.), Ikonologien des Performativen, München, S. 322-344. Dieter Mersch, 2006, Visuelle Argumente. Zur Rolle der Bilder in den Naturwissenschaften, in: Sabine Maasen / Torsten Mayerhauser / Cornelia Renggli (Hrsg.), Bilder als Diskurse, Bilddiskurse, Weilerswist, S. 95-116. Arthur Miller, 1978, Visualization Lost an Regained: The Genesis of Quantum Theory in the Period 1913-1927, in: Judith Wechsler (Hrsg.), On Aesthetics in Science, Cambridge, Mass., S. 73-104. D. J. Miller, D. Haneman, 1979, LEED Analysis and Energy Minimization Calculations for Si(111) (7x7) Surface Structures, Journal of Vacuum Science and Technology 16, 5 (1979), S. 1270-1285. D. J. Miller, D. Haneman, 1981, Evaluation of Recent Si(111)-(7x7) Surface Models, Surface Science 104 (1981), S. L237-L244. Cyrus Mody, 2004, Crafting the Tools of Knowledge: The Invention, Spread, and Commercialization of Probe Microscopy, 1960-2000, Dissertation an der Cornell University, Ithaca. Alfred Nordmann, 2003, Shaping the World Atom by Atom: Eine nanowissenschaftliche WeltBildanalyse, in: Armin Grunwald (Hrsg.), Technikgestaltung zwischen Wunsch und Wirklichkeit, Berlin, S. 191-199. Alfred Nordmann, 2006, Vor-Schrift – Signaturen der Visualisierungskunst, in: Wolfgang Krohn (Hrsg.), Ästhetik in der Wissenschaft. Interdisziplinärer Diskurs über das Gestalten und Darstellen von Wissen, Hamburg, S. 117-129. Erwin Panofsky, 1998 [1927], Die Perspektive als „symbolische Form“, in: K. Michels / M. Warnke (Hrsg.), Erwin Panofsky. Deutschsprachige Aufsätze, Bd. II, Berlin 1998, S. 664-756. Hans-Jörg Rheinberger, 1992, Experiment, Differenz, Schrift: Zur Geschichte epistemischer Dinge, Marburg. Hans-Jörg Rheinberger, 2001, Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen. Markus Ringger, 1986, Tunnelmikroskopie in Basel, Inauguraldissertation an der Universität Basel, Basel. Arne Schirrmacher, 2007, Der lange Weg zum neuen Bild des Atoms. Zum Vermittlungssystem der Naturwissenschaften zwischen Jahrhundertwende und Weimarer Republik, in: Sybilla Nikolow / Arne Schirrmacher (Hrsg.), Wissenschaft und Öffentlichkeit als Ressourcen füreinander, Vergleichende wissenschaftshistorische Studien 1870-1970, Frankfurt a.M. / New York, S. 39-73. Jens Söntgen, 2006, Atome Sehen, Atome Hören, in: Alfred Nordmann / Joachim Schummer / Astrid Schwarz (Hrsg.), Nanotechnologien im Kontext 2006, Berlin, S. 97-113.

Das Neue im traditionellen Gewand

Kunio Takayanagi u.a., 1985, Structural Analysis of Si(111)-7x7 by UHV-Transmission Electron Diffraction and Microscopy, Journal of Vacuum Science and Technology A 3, 3 (1985), S. 1502-1506. G. Tarrach u.a., 1991, Laser and Thermal Annealed Si(111) and Si(001) Surfaces Studied by Scanning Tunnelling Microscopy, in: Journal of Vacuum Science and Technology B 9, 2 (1991), S. 677-680. J. Tersoff / D. R. Hamann, 1983, Theory and Application for the Scanning Tunneling Microscope, in: Physical Review Letters 25 (1983), S. 1998-2001. R. M. Tromp / R. J. Hamers / J. E. Demuth, 1986, Quantum States and AtomicStructure of Silicon Surfaces, Science 234 (1986), 304-309. H. E. White, 1931, Pictorial Representations of the Electron Cloud for Hydrogenlike Atoms, in: The Physical Review 37,11 (1931).

257

Stefanie Samida Zwischen Scylla und Charybdis: Digitale Visualisierungsformen in der Archäologie* Vorbemerkung

258

Mit dem so genannten ‚pictorial‘ oder ‚iconic turn‘ setzte zu Beginn der 1990er Jahre in den Kulturwissenschaften eine Wende zur Erforschung visueller Phänomene aller Art ein.1 Es wird nun nicht mehr allein dem Text eine wichtige Funktion in der Erkenntnisgewinnung zugeschrieben, sondern besonders auch Bildern. Das schließt von der Wissenschaft produzierte Bilder ein. Vor allem in den naturwissenschaftlichen, medizinischen und technikwissenschaftlichen Fächern stellt die Herstellung von Bildern eine gängige Praxis dar. Heute nehmen insbesondere digitale Visualisierungen in diesen Fächern einen außerordentlich wichtigen Platz ein. Bettina Heintz und Jörg Huber2 sprechen in diesem Zusammenhang gar von einer zunehmenden „‚Piktoralisierung‘ der Naturwissenschaften“, wobei selbstverständlich nicht alle Naturwissenschaften gleichermaßen zu den ‚Bildwissenschaften‘ gerechnet werden könnten.3 Doch nicht nur in den erwähnten Wissenschaften besitzen ‚Bilder‘ eine bedeutende Aufgabe, ihnen kommt auch in den Geisteswissenschaften, etwa in den verschiedenen archäologischen Fächern, auf zwei Ebenen eine wichtige Funktion zu: zum einen spielt ihr erkenntnistheoretischer Status innerhalb der jeweiligen Wissenschaft bei der Generierung von Wissen eine große Rolle, zum anderen besitzen sie eine nicht zu unterschätzende Bedeutung bei der Vermittlung bzw. Popularisierung wissenschaftlicher Sachverhalte an eine breite Öffentlichkeit.4 Schließlich sind es gerade Bilder, die Aufmerksamkeit erregen.

* 1

Für zahlreiche Anmerkungen und hilfreiche Kritik zu einer früheren Version des Textes möchte ich Manfred K. H. Eggert und Beat Schweizer herzlich danken. Zum ‚pictorial‘ bzw. ‚iconic turn‘ siehe neuerdings die überblicksartige Darstellung bei Bachmann-Medick 2006, 329 ff. mit weiterer Literatur.

2

Heintz / Huber 2001b, 9.

3

Heßler 2006a, 37.

4

Ich sehe daher, anders als Ullrich 2003; Ullrich 2006, die Geisteswissenschaften nicht durch die bildproduzierenden Naturwissenschaften gefährdet und allein auf die Funktion der Analyse naturwissenschaftlicher Bilder reduziert. Einer Trennung in ‚bildbezogene‘ Naturwissenschaften und ‚bildlose‘ Geisteswissenschaften, wie er sie vornimmt, Ullrich 2003, 83, ist daher zu widersprechen.

Digitale Visualisierungsformen in der Archäologie

Die Techniken zur Erzeugung wissenschaftlicher Bilder waren und sind vielfältig. Sie reichen von Handzeichnungen und fotografischen Abbildungen über Diagramme bis zur modernen 3-D-Simulation. Man mag sie mit Hans-Jörg Rheinberger als „Darstellungen von materiellen Sachverhalten in einem anderen Medium“ bezeichnen.5 Das für die Naturwissenschaften apostrophierte Phänomen der ‚Piktoralisierung‘ stellt nichts völlig Neues dar: wissenschaftliche Bilder6 besitzen durchaus auch in geisteswissenschaftlichen Fächern eine lange Tradition. Bereits mit der Herausbildung zahlreicher wissenschaftlicher Fächer im 19. Jahrhundert setzte eine ausgesprochen vielgestaltige Bildproduktion ein. Besonders in der sich zu dieser Zeit etablierenden Ethnologie, Physischen Anthropologie und Ur- und Frühgeschichtlichen Archäologie, deren primärer Forschungsgegenstand der Mensch mitsamt seiner materiellen Hinterlassenschaft ist, fiel der Herstellung von Bildern eine bedeutende Aufgabe zu. Diese Bilder betrafen die Aufzeichnung von Artefakten und Fundstätten ebenso wie die Popularisierung wissenschaftlicher Erkenntnisse. Während die Produktion wissenschaftlicher Bilder also eine lange Tradition besitzt, hinkt die erkenntnistheoretische Auseinandersetzung mit der Thematik ‚Bild‘ in einigen geistes- bzw. kulturwissenschaftlichen Fächern jener in den Naturwissenschaften noch hinterher und wird eher stiefmütterlich behandelt.7 Wenngleich sich in den letzten Jahren hier eine Wende abzuzeichnen beginnt,8 spielen Bilder als Forschungsgegenstand in diesen Fächern bisher nur eine geringe Rolle. Dabei nimmt die Bildproduktion – sei es im Rahmen des wissenschaftlichen Alltags oder für die Öffentlichkeit – in diesen Fächern eine exponierte Stellung ein. Das trifft insbesondere für die archäologischen Fächer zu, denn sie erzeugen vielfältige Visualisierungen. Dazu zählen neben Befund- und Fundzeichnungen, Lebensbildern, Gebäuderekonstruktionen und Stadtmodellen neuerdings auch am Computer generierte Rekonstruktionen. Aus diesem Grund werden hier die wissenschaftlichen Bilder eines archäologischern Faches – nämlich der Ur- und Frühgeschichtlichen Archäologie9 – in den 5

Rheinberger 2001, 58.

6

Unter diese Bezeichnung werden hier und im Folgenden alle Visualisierungsarten, also technische Zeichnungen, Diagramme, mikroskopische oder digitale Bilder etc. verstanden. Wenn also von ‚Wissenschaftsbildern‘ die Rede sein wird, so sind damit nicht Denkbilder oder immaterielle geistige Bilder gemeint, sondern konkrete ‚materielle‘ Bilder. Zur Unterscheidung von Denk- und Abbild siehe auch Müller 2003, 18 ff.

7

An dieser Stelle sei angemerkt, dass es hier nicht um die kunstwissenschaftliche Auseinandersetzung geht, die in der Tat eine lange Tradition besitzt und deren Erkenntnisse keineswegs geschmälert werden sollen. Doch selbst in der Kunstgeschichte wird in den letzten Jahren eine Neuorientierung hin zu einer umfassenden und interdisziplinären so genannten ‚Bildwissenschaft‘ gefordert, die nicht mehr nur starr auf den Kunstbegriff fixiert ist, sondern der ein offener Bildbegriff zu Grunde liegt. Darüber hinaus ist generell festzustellen, dass viele geisteswissenschaftliche Fächer den Produktionsprozess wissenschaftlicher Bilder innerhalb ihres eigenen Faches kaum reflektieren. Zur Bildwissenschaft z. B. den Sammelband von Sachs-Hombach 2006.

8

So z. B. Heßler 2005, 266, die zugleich einen prägnanten Überblick zum Thema „Bilder zwischen Kunst und Wissenschaft“ liefert.

9

Generell ist zwischen Prähistorischer (Ur- und Frühgeschichtlicher), Vorderasiatischer, Biblischer, Klassischer, Provinzialrömischer und Christlicher Archäologie sowie der Archäologie des Mittelalters zu unterscheiden. Ausführlich zur ‚Archäologie‘ bzw. zu

259

Stefanie Samida

Mittelpunkt der Betrachtung gestellt. Der Archäologe Peter F. Biehl sieht gerade die Ur- und Frühgeschichtswissenschaft als „genuin historische Bildwissenschaft“10 vor dem Hintergrund des ‚pictorial turn‘ bzw. ‚iconic turn‘ in der Pflicht, sich angesichts der digitalen Visualisierungen mit erkenntnistheoretischen Fragen zu beschäftigen.11 Auch wenn die extreme Charakterisierung der Ur- und Frühgeschichtlichen Archäologie als ‚Bildwissenschaft‘ prinzipiell nicht gutgeheißen werden kann, soll hier die Biehlsche Anregung aufgenommen werden. Ich möchte zeigen, dass digitale archäologische Visualisierungen, trotz ihrer völlig verschiedenen disziplinären Provenienz, der damit einhergehenden methodischen und theoretischen Implikationen sowie einer völlig anderen Produktionsweise, ganz ähnlichen Problemen unterliegen wie Bilder naturwissenschaftlicher Fächer. Beide, so hoffe ich am Ende deutlich machen zu können, befinden sich letztlich in einer Art ‚Zwickmühle‘: sie bewegen sich zwischen Anspruch und Wirklichkeit.

Zu einigen Charakteristika gegenwärtiger wissenschaftlicher Bilder

260

Bevor ich ausführlicher auf digitale Bilder in der Archäologie zu sprechen komme, möchte ich einige grundsätzliche Bemerkungen zu Wissenschaftsbildern voranstellen. Dies erscheint mir gerade hinsichtlich einer späteren Einordnung archäologischer Bilder in den Kanon wissenschaftlicher Visualisierungsformen von Bedeutung. Nur so lassen sich Ähnlichkeiten bzw. Unterschiede ermitteln. Bilder – darunter fallen ebenfalls sämtliche heute mehrheitlich computertechnisch produzierten Visualisierungen12 – werden in allen wissenschaftlichen Disziplinen erzeugt und sind, wie es Cornelius Borck zutreffend ausgedrückt hat, „essentielle Bestandteile des Forschungsprozesses selbst“.13 Es gibt kaum noch eine Wissenschaft, die im ‚digitalen Zeitalter‘ auf den Einsatz computergenerierter Bilder verzichtet bzw. verzichten kann – sei es innerhalb der Forschungspraxis oder im außerwissenschaftlichen Diskurs. Nicht zu leugnen ist dabei, dass die Herstellung von Bildern innerhalb der Naturwissenschaften sicherlich einen weitaus wichtigeren Platz einnimmt als in den meisten kultur- und geisteswissenschaftlichen Fächern. Wie bereits angedeutet, beschäftigt sich die gegenwärtige Diskussion daher fast ausschließlich mit naturwissenschaftlichen bzw. medizinischen Visualisierungen. Die wesentlichen Erkenntnisse aus der bisherigen Debatte lassen sich unter fünf Hauptstichpunkten zusammenfassen. Sie sollen im Folgenden kurz skizziert werden. den verschiedenen archäologischen Einzelfächern neuerdings Eggert 2006 mit weiterer Literatur. 10

Biehl 2005, 253.

11

In diesem Zusammenhang wäre es gewiss für alle archäologischen Fächer lohnend, sich mit dem Konzept der ‚Visual History‘, wie es derzeit in der Geschichtswissenschaft diskutiert wird, auseinander zu setzen. Bilder werden hier nicht nur als Quelle betrachtet, sondern „als genuine und zenrale Untersuchungsgegenstände“, Paul 2006, 21.

12

„Bildtechnik ist heute offenbar Computertechnik“, Borck 2001, 384.

13

Ebd. 386. Borck sieht in den elektronischen Bildtechniken gar ein „transdisziplinäres Phänomen“, 385, das alle Wissenschaftsfelder zusammenführt.

Digitale Visualisierungsformen in der Archäologie

Technizität Ein wichtiger Punkt in der Debatte ist die technische Komponente gegenwärtiger Visualisierungen in der Wissenschaft. Daten, die – je nach Fach – bis weit ins 20. Jahrhundert hinein noch mit dem Auge erhoben und mit der Hand gezeichnet wurden, werden nun weitgehend durch Geräte aufgezeichnet, verarbeitet und visuell veranschaulicht.14 Dies ist zwar nichts völlig Neues, denn schließlich avancierte die ‚Maschine‘ schon im 19. Jahrhundert zum arbeitstechnischen Ideal auch in den Wissenschaften: „geduldig, unermüdlich, stets aufmerksam und in Bereiche jenseits aller Grenzen menschlicher Sinne vorstoßend“, wie Lorraine Daston und Peter Galison formulieren.15 Im Gegensatz zur Maschine des 19. Jahrhunderts besitzen wir mit dem Computer heute aber ein weitaus vielseitigeres Medium, das zahlreiche Funktionen verschiedener ‚Maschinen‘ bzw. Medien vereint. Er bietet somit erheblich differenziertere Visualisierungsmöglichkeiten, wie sie sich etwa in 3-D-Szenarien zeigen. Entscheidend scheint mir darüber hinaus der Umstand zu sein, dass durch den Computer und die damit einhergehende Digitalisierung das Bild an sich eine Veränderung erfahren hat. Heutige Visualisierungen führen in der Regel eine „Doppelexistenz“, nämlich „als Datensatz und als sichtbares Bild“, wie Stefan Heidenreich es ausgedrückt hat.16 In einigen Fällen kann das so weit führen, dass sich elektronische oder digitale Bilder nicht mehr auf reale, materielle Phänomene beziehen, sondern ausschließlich auf Daten oder Algorithmen referieren.17 Ästhetik Jedes Bild – und damit auch jedes Wissenschaftsbild – unterliegt ästhetischen Einflüssen.18 Diese auf den ersten Blick banal klingende Aussage ist hervorzuheben, da diesem Aspekt in der Vergangenheit nur wenig Aufmerksamkeit gewidmet wurde. Zu Recht hat Martina Heßler betont, dass „auch Wissenschaftsbilder mittels Form, Farbe, Linienführung, Kontrasten etc. Sinn erzeugen, dass sie mithin per definitionem auf ästhetischen Verfahren beruhen“.19 Der Aspekt der Wissenschaftsbildern innewohnenden Ästhetik ist aus zweierlei Gründen von Bedeutung. Zum einen, weil wir in der Regel scheinbar ‚schönen‘ oder technisch ‚perfekten‘ Bildern größere Glaubwürdigkeit zubilligen;20 zum anderen, weil häufig nur der 14

Vgl. Heintz / Huber 2001b, 15. Bilder stellen also das Ergebnis eines Herstellungsund Transformationsprozesses dar, an dessen Beginn anstelle von Gegenständen Messdaten stehen, die selbst technisch erzeugt sind, Heintz / Huber 2001b, 12. Für die Archäologie siehe die Ausführungen dazu weiter unten.

15

Daston / Galison 2002, 92.

16

Heidenreich 2005, 318.

17

Digitale Bilder machen also in gewisser Weise „Unsichtbares sichtbar“, Heßler 2006b, 8, schließlich gibt es keinen materiellen bzw. visuellen Referenten mehr, auf den sie sich beziehen, sondern ausschließlich Daten, die in Bilder ‚verwandelt‘ werden.

18

Ähnlich Heßler 2004, 36 ff.; Heßler 2005, 279; Mersch 2006, 415.

19

Heßler 2005, 279.

20

Bilder haben eine „scheinbar unleugbare Evidenz – und wir neigen dazu, den Bildern zu glauben“, Heßler 2006c, 76. Ganz ähnlich äußerte sich in der Wochenzeitung Die Zeit erst kürzlich der Mediziner Tebartz van Elst, 2007, 30, hinsichtlich neurowissenschaftlicher Bilder. Gerade Gehirn-Scans zeigten, dass die Evidenz der Bilder trügerisch sei. Er spricht daher zu Recht von der „suggestiven Kraft der bunten Hirnbilder“.

261

Stefanie Samida

Effekt wahrgenommen wird und nicht die dahinter stehende Information. In den Worten von Manfred Jochum „übersteigt die ästhetische Darstellung sehr oft ihren Informationswert“.21 Allerdings soll ‚Ästhetik‘ hier nun keineswegs generell negativ konnotiert werden. Wichtig erscheint mir vielmehr, auf diese Problematik hinzuweisen, die letztendlich jedem Bild – ob Kunst- oder technizistisches Wissenschaftsbild – innewohnt. Denn es wäre abwegig zu behaupten, es gäbe Bilder – respektive Wissenschaftsbilder –, die keinerlei ästhetischen Ansprüchen folgten. Anschaulichkeit Die beiden angesprochenen Aspekte ‚Ästhetik‘ und ‚Technizität‘ sind für den dritten Gesichtspunkt – Anschaulichkeit – grundlegend. Dreidimensionale ‚Umgebungen‘ könnten, so heißt es, komplexe Informationen transportieren und schwierige Zusammenhänge verständlich machen.22 Bilder seien demnach „anschauliche Informationsträger“, die für jedermann – egal, ob für Laien oder Experten – gleichermaßen gut lesbar erscheinen.23 Zwar ist sicherlich richtig, dass Bilder im wahrsten Sinne des Wortes ‚anschaulich‘ sind, für viele Betrachter jedenfalls anschaulicher als die ihnen z. T. zu Grunde liegenden Daten und Algorithmen.24 Doch stellt sich die Frage, inwieweit dieses Postulat tatsächlich Allgemeingültigkeit besitzt. Dem Patienten etwa dürfte das Computertomogramm wohl unverständlich bleiben, während es für den Arzt wichtige Information bereithält; ebenso kann der Archäologe aus der scheinbar unübersichtlichen geomagnetischen Aufzeichnung einer unterirdischen Baustruk-

262 Abb.1: Magnetogramm

Abb. 2: Magnetogramm

(Graustufendarstellung) der eisenzeit-

(interpretierende Umzeichnung) der eisen-

lichen Siedlung in Kirchzarten-Zarten

zeitlichen Siedlung in Kirchzarten-Zarten

‚Rotacker/Tarodunum‘.

‚Rotacker/Tarodunum‘.

21

Jochum 1999, 47.

22

Grün 2001, 79.

23

Ebd., 83.

24

Mir ist bewusst, dass der Vergleich von Bildern mit Daten bzw. Algorithmen hinkt. Er sei an dieser Stelle dennoch erlaubt, da hier lediglich darauf hingewiesen werden soll, Bilder seien scheinbar einfach zu begreifen.

Digitale Visualisierungsformen in der Archäologie

tur Schlüsse ziehen, dem Laien hingegen werden die Punkte und Flecken (Abb. 1 und 2) verworren bleiben. Anschaulichkeit ist Wissenschaftsbildern also nicht per se inhärent. Sie hängt vielmehr vom Betrachter und dessen Vorwissen ab.25 Man benötigt schlicht eine „spezifische Fähigkeit des richtigen Lesens“.26 Zeigen Bilder müssen also ‚gelesen‘ werden. Doch anders als Texte gestatten Bilder keine Relativierung.27 Sie erlaubten, so Dieter Mersch, keine hypothetische Darstellung, was zur Folge habe, dass sie faktisch und nicht konjunktivistisch argumentierten.28 Man kann sie dementsprechend als ‚konkret‘ charakterisieren, da sie anders als Texte keine Unschärfe zulassen.29 Zweifellos ist es mit bildnerischen Mittel möglich, ‚hervorzuheben‘, ‚anzudeuten‘ bzw. ‚in den Hintergrund zu stellen‘ und damit auf die ein oder andere Art ‚zu gewichten‘. Allerdings ist es in einem Bild – anders als mit sprachlichen Mitteln – kaum möglich, Annahmen und hypothetische Ansichten zu vermitteln. Denn während in Texten eine Argumentationskette aufgebaut werden kann, haben Bilder, wie Harry Walter treffend feststellte, eine „völlig andere Plausibilitätsstruktur“.30 Ihre Aussagekraft und damit ihre epistemische Funktion beruht auf ihrer Unmittelbarkeit, auf dem ‚Zeigen‘, dem ‚Sichtbarmachen‘ an sich.31 Neben ihrer ‚Konkretheit‘ sind Bilder aber auch ‚vieldeutig‘, weil kein Bild sich selbst erklärt. Es gibt, wie Ernst Gombrich hervorhob, immer einen ‚Betrachteranteil‘: „Here as always we need a jolt to remind us of what I have called the ‚beholder’s share‘, the contribution we make to any representation from the stock of images stored in our mind“.32 Verschiedenartige Deutungen sind daher nichts Ungewöhnliches, sieht doch jeder Betrachter etwas anderes im Bild bzw. kommt zu unterschiedlichen Einschätzungen und Wertungen. Bilder sind damit gewissermaßen ‚interpretationsoffen‘. Konstruktivität Wissenschaftliche Bilder waren und sind keineswegs schlichte Abbilder der Wirklichkeit, die bestehende Sachverhalte illustrieren. Dies wurde in der Forschung inzwischen vielfach aufgezeigt. Sie sind vielmehr Teil des wissenschaftlichen Erkenntnisprozesses selbst. Die Konstruktion wissenschaftlicher Bilder bestimmt in gewisser Weise Sachverhalte mit, bringt sie gar erst hervor.33 Ziel wissenschaftlicher Bilder sei es demgemäß auch nicht, das Sichtbare, sondern das Unsichtbare aufzu25

So schon Gombrich 1982a, 140 f. Heßler 2006a, 36 schreibt dazu: „Was Bilder zeigen, hängt mithin auch davon ab, ob ihre Interpreten/Betrachter den Kontext ihrer Entstehung und ihre vielfältigen Referenten mitdenken (können) oder nicht“.

26

Werner 2001, 369.

27

Mersch 2006, 413.

28

Entsprechend Heßler 2004, 27.

29

Heßler 2006c, 89 argumentiert ähnlich, wenn sie schreibt, Bilder könnten „weder Wahrscheinlichkeiten noch ‚Unschärfe‘ in der Erkenntnis abbilden“.

30

Walter 2003, 55.

31

Sinngemäß auch Walter 2003, 55.

32

Gombrich 1982a, 145.

33

Geimer 2003, 62.

263

Stefanie Samida

zeigen, so der Kunsthistoriker Gombrich im Zusammenhang mit Wissenschaftsbildern schon vor mehr als dreißig Jahren.34 Wissenschaftliche Bilder sind somit, wie Regula Burri in der Auseinandersetzung mit medizinischen Visualisierungen betont hat, „soziotechnische Konstrukte“, also Ergebnisse von Entscheidungen, die „aufgrund von institutionellen Gegebenheiten, kollektiven und individuellen Wissensbeständen, Erfahrungen, Routinen, Präferenzen, Normen, Standardisierungen, Wahrnehmungen und Strategien gefällt werden“.35 Was Burri hier für Bilder in der Medizin diagnostiziert hat, gilt im Übrigen für alle wissenschaftlichen Bilder.

Digitale Visualisierungen in der Archäologie

264

Eingangs wurde bereits erwähnt, dass sich auch die Ur- und Frühgeschichtliche Archäologie dem Erkenntnispotenzial von Bildern widmen sollte. Dabei sind meines Erachtens zwei Ebenen zu unterscheiden. Ich möchte sie hier heuristisch in die Kategorien ‚Bildrezeption‘ und ‚Bildproduktion‘ fassen. In die erste Kategorie (‚Bildrezeption‘) fallen all jene Bilder, die uns als Quellen erhalten geblieben sind. Zum Quellenkanon der Ur- und Frühgeschichtswissenschaft gehören materielle Hinterlassenschaften aller Art, also auch bildliche Quellen (z. B. Felsbilder, Wandmalereien).36 Genauso wie nicht-bildliche Zeugnisse dienen sie dem Archäologen als Quellenmaterial bei seiner Interpretation der Vergangenheit. Von dieser Ebene ist jene der ‚Bildproduktion‘ zu trennen. Darunter verstehe ich die in der Archäologie – vor allem in der Feldarchäologie – übliche Technik, Funde und Befunde zu dokumentieren, also in eine teils textliche, teils bildliche Darstellung zu überführen. Da jede Ausgrabung unweigerlich immer die Zerstörung des archäologischen Kontextes nach sich zieht, ist eine angemessene, auch bildliche Erfassung der untersuchten Befunde zwingend notwendig. Neben der Dokumentation der Ausgrabung gibt es noch einen anderen Bereich, in dem Bilder in der Archäologie hergestellt werden; dabei geht es um das Rekonstruieren vergangener Lebenswelten (z. B. Gebäuderekonstruktionen, Lebensbilder). In unserem Zusammenhang ist also in erster Linie die zweite Ebene von Bedeutung. Sie betrifft den Archäologen als Bildproduzenten. Das Phänomen als solches ist so alt wie das Fach selbst: Schon vor der Etablierung des Faches Ur- und Frühgeschichte in Deutschland um 1900 war es üblich, Erkenntnisse über die prähistorische Lebenswelt nicht nur schriftlich vorzulegen, sondern auch bildlich darzustellen. Nur so gelang es, eine für jeden nachvollziehbare Diskussionsgrundlage zu schaffen, die letztlich für die Verständigung im Fach notwendig war. Nach diesen allgemeinen Bemerkungen möchte ich nun anhand von Beispielen die gegenwärtige digitale Bildproduktion in der Archäologie betrachten. Dies geschieht vor dem Hintergrund der im ersten Teil skizzierten Charakteristika zum wissenschaftlichen Bild. Dabei erscheint es wichtig, neben der wissenschaftlichen

34

Gombrich 1982b, 246.

35

Burri 2001, 277 f.

36

Dazu neuerdings z. B. Lenssen-Erz 2005; Züchner 2006.

Digitale Visualisierungsformen in der Archäologie

Bedeutung digitaler Archäologiebilder ihre populärwissenschaftliche Wirkung nicht aus den Augen zu verlieren. Technizität Die Technik des Ausgrabens hat sich in den letzten Jahrzehnten nicht grundlegend geändert. Das Freilegen und Bergen von Funden ist, wie erst kürzlich wieder festgestellt wurde, „nach wie vor nur in langwieriger Handarbeit durchführbar“.37 Allerdings hat der technische und mediale Fortschritt neue Messverfahren ermöglicht und verändert damit die Art der Grabungsdokumentation in wachsendem Maße. Zwar ist es heute auf archäologischen Ausgrabungen noch immer üblich, Befunde mit Zeichenbrett und Bleistift zu zeichnen und zu kolorieren, doch gewinnt der Computer zunehmend an Bedeutung. Vermessung und Befundaufnahme erfolgen immer öfter mittels eines Tachymeters, GPS oder fotogrammetrischer Methoden. Archäologische Daten werden heute also bereits während der Ausgrabung digital erhoben, verarbeitet und schließlich in Bilder transformiert. Einige Archäologen erkennen daher auch eine Wandlung in der Metaphorik der Archäologie von der so genannten ‚Spatenwissenschaft‘ hin zur ‚High-Tech-Archäologie‘, in der das Notebook als pars pro toto den Spaten mittlerweile nicht nur im öffentlichen Bewusstsein abgelöst habe.38 Eine wichtige Funktion übernimmt der Computer aber auch nach der Grabung im Zuge der Auswertung und Aufbereitung der gewonnenen Daten. So hat sich beispielsweise seit ein paar Jahren eine neue Art des Rekonstruierens im Fach etabliert: die so genannte ‚Virtuelle Archäologie‘.39 Am einfachsten lässt sich die Entwicklung wohl mit der Maxime ‚Von der Strichzeichung zur 3-D-Animation‘ umschreiben. Gerade bei den computergenerierten Rekonstruktionen spielt die Technik eine herausragende Rolle. Allerdings liege das generelle Defizit der „rechnergestützten Zeitreise“, so der Historiker Thomas E. Fischer, in der Aufbereitung des Materials.40 Unterstützt durch die Technizität der Darbietung, entwickele sie „in ihrer alle Sinne vereinnahmenden Präsenz“ einen Anspruch, der sehr viel gewichtiger sei „als jeder Buchtext“. Der Technik wird also große Glaubwürdigkeit zugesprochen. Ulrich Brandl und Mitautoren drücken es so aus: „Was mit diesem Aufwand und dieser hohen Technik gemacht ist, kann nicht falsch sein“.41 Diese Haltung sei indes nicht nur für den Laien, sondern auch für den Wissenschaftler festzustellen. Denn selbst er verfalle – so Martin Emele – „paradoxerweise immer noch der Magie na-

265

37

Nawroth u.a. 2002, 34.

38

Z.B. Veit 2001, 87.

39

Ausführlich dazu Samida 2004; Samida 2006b; mit weiterführender Literatur.

40

Fischer 2003, 624.

41

Brandl / Diessenbacher / Rieche 2002, 30. Was hier für computergenerierte archäologische Rekonstruktionen angenommen wird, betrifft prinzipiell alle technisch erzeugten Bilder: „Entweder das Bildprodukt überzeugt von den neuen technischen Möglichkeiten, oder aber das neue Verfahren selbst übt genügend Faszination aus, sodass die Qualität der damit erzeugten Bilder nicht zur Verhandlung kommt“, Orland 2003, 32.

Stefanie Samida

hezu perfekt visualisierter Vergangenheitsbilder“ und damit „dem Glauben an den scheinbar objektiven Rechner“.42

266

Ästhetik Den am Computer erzeugten Rekonstruktionen wird also häufig aufgrund ihrer Technizität hohe Glaubwürdigkeit zugemessen. Doch nicht allein die Faszination des Technischen, sondern auch die Ästhetik der Bilder ruft beim Betrachter Vertrauen hervor. Hinzuweisen ist vor allem auf den sich derzeit größter Beliebtheit erfreuenden Fotorealismus. Bei dieser Technik wird mit antik überlieferten oder vergleichbaren modern vorfindbaren Strukturen bei der Bildherstellung gearbeitet. Gerade bei Hausrekonstruktionen wird etwa für eine Hauswand anstatt einer am Computer künstlich hergestellten Struktur auf eine antik oder rezent überlieferte Mauer zurückgegriffen (Abb. 3), die zuAbb. 3: Fotorealistische Rekonstruktion vor mit der Digitalkamera aufgenomeines zerstörten Hauses aus Troia VI. men wurde.43 Dieses Mittel wirkt auf den Betrachter besonders suggestiv und vermittelt geradezu den Eindruck einer originalgetreuen Nachbildung auf der Basis wissenschaftlich abgesicherter Erkenntnisse. Ein weiterer ästhetischer Aspekt liegt im gleichsam zwanghaften Drang, alle Bereiche des Bildschirmes ausfüllen zu müssen. Ganze Städte erwachen in ihren mannigfachen Details zum Leben, auch dann, wenn der archäologische Befund ein vollkommen anderes Bild liefert oder die Quellengrundlage äußerst dürftig ist. Ein prominentes und in letzter Zeit viel diskutiertes Beispiel ist die Rekonstruktion des antiken Troia.44 Anstelle von Fakten werden dem Publikum Fiktionen geboten. Wer lässt schon gerne eine Lücke in der ‚virtuellen Realität‘? Einem regelrechten horror vacui folgend muss der gesamte Bildschirm belebt werden, selbst dann, wenn nur wenige Fakten zur Verfügung stehen;45 dabei ist es durchaus gängige Praxis, nicht nur Zerstörtes, sondern auch nie Gesehenes – und nie Existentes – sichtbar zu machen.46 Das ist auch bei den Rekonstruktionen von Troia so (Abb. 4 und 5). Die Rekonstrukteure des virtuellen Troia begründen ihre Vorgehenswei42

Emele 1998, 3. Es wäre sicherlich interessant, ‚Laborstudien‘ vorzunehmen und die Archäologen bei ihrer Tätigkeit zu beobachten, um so zu gesicherten Aussagen über den Herstellungsprozess archäologischer Bilder sowie die Einstellung der Archäologen zu ihren Bilder zu gelangen.

43

Peter Jablonka und dem Troia-Projekt (Universität Tübingen) danke ich für die Druckerlaubnis der Abbildungen zu Troia.

44

Zu den Rekonstruktionen siehe das Buch von Brandau / Schickert / Jablonka 2004. Ausführlich zur Troia-Debatte neuerdings Samida 2006a mit weiterführender Literatur, zur Computerrekonstruktion Troias siehe Samida 2004; Samida 2006b, 166 ff.

45

Emele 2001, 265.

46

Ernst 2000, 287.

Digitale Visualisierungsformen in der Archäologie

Abb. 4: Virtuelle Rekonstruktion von Troia

Abb. 5: Virtuelle Rekonstruktion von Troia

gemäß Interpretation.

gemäß Befund.

se des ‚Ausfüllens‘ der freien Flächen damit, dass eine Darstellung lediglich der tatsächlich vollständig ausgegrabenen Gebäude mit sich dazwischen befindlichen leeren Flächen einen völlig falschen Eindruck vermitteln würde.47 An dieser Aussage wird meines Erachtens eine Problematik offenbar, die der Kulturwissenschaftler Gottfried Korff im Zusammenhang mit der Rekonstruktions- und Ausstellungspraxis von Freilichtmuseen deutlich gemacht hat und die ebenso für virtuelle Rekonstruktionen und Computersimulationen gilt: „Es [Das Freilichtmuseum; respektive die 3-D-Rekonstruktion, Anm. der Verf.] simuliert historische Wirklichkeit, ohne deutlich zu machen, daß es sich dabei um eine konstruierte, bestenfalls rekonstruierte Zeige- und Merkwelt handelt. Das Freilichtmuseum [respektive die 3-D-Rekonstruktion] simuliert Ganzheitlichkeit, ohne die fragmentarische Qualität des kulturellen Überlieferungsprozesses zu reflektieren und dem Publikum vor Augen zu führen“.48 So füllt sich, wie Peter Geimer es in einem anderen Zusammenhang treffend ausgedrückt hat, „die Verständnislücke mit Design“.49 Anschaulichkeit Die Ästhetik archäologischer Rekonstruktionen hat Auswirkungen auf die Anschaulichkeit der Bilder. Während dem Wissenschaftler in der Regel klar ist, dass eine Rekonstruktion häufig auf einer geringen Datenbasis beruht und überdies grundsätzlich nur eine von mehreren Möglichkeiten darstellt, dürfte dies dem Laien in den meisten Fällen nicht bekannt sein. Er wird eine Rekonstruktion tendenziell als wirklichkeitsgetreu und damit als Faktum betrachten. Die Lesart ein und desselben Bildes könnte damit nicht unterschiedlicher sein. Bilder avancieren laut Matthias Bruhn zu Schlüsselmotiven von „hohem Symbolgehalt“.50 Sie tragen zwar nicht immer zur konkreten wissenschaftlichen Erkenntnis bei, „wohl aber zur Förderung der Wissenschaften in der Gesellschaft“. Dies gilt nach Bruhn auch für Bilder, die „den Gegenstand unkorrekt oder unvollständig wiedergeben“. Die

47

Brandau / Schickert / Jablonka 2004, 152.

48

Korff 2000, 100, Eine gewisse Ähnlichkeit zwischen Freilichtmuseum und Computersimulation ist nicht von der Hand zu weisen. Deutlich wird dies insbesondere an der ähnlichen Metaphorik. Sowohl im Freilichtmuseum als auch in der Computersimulation spielt das ‚Eintauchen‘ in die fremde Welt eine wichtige Rolle.

49

Geimer 2003, 31.

50

Bruhn 2006, 372.

267

Stefanie Samida

Beschaffung klar lesbarer Bilder, so Bruhn weiter, werde sogar immer mehr zur Aufgabe der Wissenschaft, weil die Gesellschaft danach verlange.51

268

Zeigen Bilder, das wurde bereits ausgeführt, erlauben keine hypothetischen Darstellungen – sie sind infolgedessen ‚konkret‘. Ich möchte dies anhand eines simplen Beispiels vor Augen führen: Ian Hodder, der derzeitige Ausgräber der jungsteinzeitlichen Stadt Çatal Höyük (Türkei), wollte, um seine virtuelle Rekonstruktion etwas zu beleben, herumrennende Schweine in eine Animation einbauen; technisch stellt das kein Problem dar. Als es dann aber um die Frage ging, welche Farbe die Tiere haben sollten, wurde das gesamte Vorhaben verworfen, da die Festlegung auf die ein oder andere Farbe zweifelsohne zur Folge gehabt hätte, Fakten zu schaffen, die es nicht gibt. Dem Laien wurden daraufhin die Schweine vorenthalten, um ein Festsetzen von Bildern zu verhindern.52 Bilder sind zugleich vieldeutig, d. h. abhängig vom jeweiligen Interpreten. Dies möchte ich mit den Abbildungen 1 und 2 veranschaulichen. Es handelt sich dabei um eine Visualisierung geomagnetischer Messdaten einer eisenzeitlichen Siedlung in der Nähe von Kirchzarten im Breisgau. Vor der eigentlichen Ausgrabung wird heute in zahlreichen Fällen das zu untersuchende Gebiet prospektiert, das heißt auf mögliche archäologische Strukturen erkundet. Mittlerweile gibt es eine Reihe unterschiedlicher Prospektionsmethoden. Seit einigen Jahren werden vermehrt naturwissenschaftliche Verfahren wie etwa die Magnetprospektion, Geoelektrik oder das Bodenradar genutzt.53 Mit der magnetischen Prospektion ist es möglich, etwa durch Gräben, Bestattungen und Gruben hervorgerufene Störungen des Magnetfeldes der Erde aufzuzeichnen. Die gemessenen Daten werden dann mittels eines Computers über bildgebende Verfahren in Bilder (Magnetogramme) umgewandelt, die interpretiert werden müssen. Zur Verdeutlichung der gemessenen archäologischen Spuren werden in der Regel Bildverbesserungstechniken, wie z. B. Filterung, Kontrasteinstellung und Falschfarben eingesetzt, um die im Magnetogramm enthaltene Information kenntlich zu machen. Das hier abgebildete Beispiel eines Magnetogramms (Abb. 1) der Kirchzartner Prospektion erlaubt – trotz der durchgeführten Aufbereitung der Messdaten – etliche Deutungsmöglichkeiten, und wohl jeder Betrachter wird andere Strukturen erkennen.54 Für die Archäologie von Belang waren letztendlich die rot markierten Flecken – dort wurden archäologische Befunde vermutet und schließlich auch ausgegraben (Abb. 2). Die archäologische Interpretation der Messdaten basiert dabei auf zwei Aspekten, nämlich auf der Messung und den Aussagen über die Form, Tiefe und stoffliche Zusammensetzung der Störkörper sowie auf archäologischem 51

Ebd. 372. Ähnlich Walter 2003, 54.

52

Dazu Emele 2000. – Sicherlich hätte man dieses Problem leicht lösen können, indem man etwa die Schweine unterschiedlich ‚eingefärbt‘, somit also Alternativen aufgezeigt hätte.

53

Näheres zu Prospektionsmethoden in der Archäologie siehe z. B. bei Neubauer 2001; Zickgraf 1999.

54

Auf den Magnetogrammen überlagern sich gewöhnlich verschiedene ‚Störkörper‘; dazu gehören neben archäologischen Strukturen z. B. moderne Anomalien und geologisch-bodenkundliche Merkmale.

Digitale Visualisierungsformen in der Archäologie

Grundwissen.55 Die Ansprache einer auf dem Magnetogramm sichtbaren Anomalie als archäologischen Befund beruht somit auf einem Analogieschluss.56 Konstruktivität Wie naturwissenschaftliche Bilder sind auch archäologische Bilder, speziell archäologische Rekonstruktionen, ‚soziotechnische Konstrukte‘. Jede Rekonstruktion unterliegt ganz bestimmten Annahmen, Zufällen und methodischen Bedingungen. Das beginnt bereits mit der Ausgrabung. Denn die Ansprache eines archäologischem Befundes als Befund durch den Ausgräber ist stets schon Interpretation. Man kann also sagen, dass nicht erst mit der Aufbereitung des Materials und der Analyse der Funde und Befunde im ‚Studierzimmer‘, sondern schon während der Ausgrabung der Grundstein für eine spätere Rekonstruktion gelegt wird. Die Rekonstruktion eines Gebäudes kann nämlich nur dann erfolgen, wenn es zuvor im archäologischen Befund erkannt wurde. Rekonstruktion bedeute daher, so Beat Schweizer immer auch „Auswahl und ‚Purifizierung‘“.57 Rekonstruktionsbilder bestimmen somit gewisse Sachverhalte mit, ja bringen gar Sachverhalte hervor, die es in der einstigen Realität in dieser Form nicht gegeben hat. Das wird besonders an jenen virtuellen Rekonstruktionen deutlich, die alle Bereiche des Bildschirmes ausfüllen und keine Leerflächen mehr lassen.

Digitale Visualisierungen in der Archäologie: Zwischen Anspruch und Wirklichkeit In diesem Beitrag wurden zwei Ziele verfolgt: Zum einen sollte gezeigt werden, dass auch im Forschungsalltag geistes- bzw. kulturwissenschaftlicher Fächer digitale Visualisierungen zunehmend Bedeutung gewinnen. Zum andern war es das Ziel, die bisher in Auseinandersetzung mit naturwissenschaftlichen Fächern gewonnenen Erkenntnisse für geisteswissenschaftliche Fächer fruchtbar zu machen. Es zeigte sich, dass die Herstellung digitaler Visualisierungen in der Archäologie in weiten Teilen strukturell grundsätzlich anders als im naturwissenschaftlichen Kontext verläuft58 – eine Tatsache, die nicht zuletzt an der gänzlich unterschiedlichen methodischen Arbeitsweise der Fächer liegt. Wichtiger als dieser Unterschied scheinen mir aber die Gemeinsamkeiten auf funktionaler und epistemologischer Ebene zu sein. Auf funktionaler Ebene sehe ich einen Berührungspunkt vor allem darin, dass die Bilder jeweils das Ergebnis eines Herstellungs- und Transformationsprozesses sind, der auf technisch erzeugten Daten und nicht mehr auf gegen55

Zickgraf 1999, 44.

56

Ausführlich zur Interpretation von Magnetogrammen Neubauer 2001, 160 ff.; Zickgraf 1999, 44 ff.

57

Schweizer 2002, 658.

58

Damit ist gemeint, dass im Gegensatz zu den meisten naturwissenschaftlichen digitalen Bildern, ihre archäologischen Pendants in der Regel einen materiellen bzw. visuellen Referenten besitzen, nämlich den Ausgrabungsbefund. Bei naturwissenschaftlichen Bildern, erinnert sei hier an Bilder in der Astronomie oder Neurowissenschaft, fehlt dagegen ein sichtbarer/materieller Referent.

269

Stefanie Samida

270

ständlichen Objekten beruht. Auf erkenntnistheoretischer Ebene sind die Gemeinsamkeiten meines Erachtens besonders augenfällig – und meine Anliegen war es, dies mit Hilfe der für die Naturwissenschaften wie für die Geisteswissenschaften gleichermaßen geltenden Bildcharakteristika ‚Technizität‘, ‚Ästhetik‘, ‚Anschaulichkeit‘, ‚Zeigen‘ und ‚Konstruktivität‘ zu demonstrieren. Zugleich unterliegen die digitalen archäologischen Visualisierungen den gleichen Problemen wie alle anderen wissenschaftlichen Bilder. Sie sind gefangen zwischen Scylla und Charybdis. Denn einerseits wird den Bildern von den Produzenten Wirklichkeitstreue abverlangt, andererseits erweist sich, dass technische, ästhetische und konstruktive Elemente bei der Bildproduktion implizit das Bild bestimmen. Cornelius Borck konnte deutlich machen, dass zum einen die Technik trotz der starken Technisierung im konkreten Bild häufig verschwindet.59 Daher seien solche Bilder sowohl Dokumente eines vielfach gesteigerten Einsatzes von Technik als auch aufgrund ihrer scheinbaren Vollkommenheit Abbilder der Natur bzw. Wirklichkeit selbst. Zum anderen aber entstünden gerade durch die Technik aus der unermesslichen Datenvielfalt Bilder der Wirklichkeit, „die genau diese Abhängigkeit von der und Bedingtheit durch die Technik hinter sich zu lassen scheinen“.60 Somit erkläre man Bilder häufig vorschnell zu den „Garanten des vermeintlich ‚interpretationsfrei‘ Abgebildeten“.61 Hier liegt offenbar ein Paradoxon vor. Im Zusammenhang mit archäologischen Rekonstruktionsmethoden bleibt zu hoffen, dass sich die von Anita Rieche als ‚reflektierende‘ Darstellung bezeichnete Rekonstruktionsart durchsetzt und man sich vermehrt mit der Lückenhaftigkeit des Befundes und der Begrenztheit der Möglichkeiten einer ‚richtigen‘ Darstellung auseinander setzt.62 Dazu gehört einerseits eine sachgerechte Darstellung der Forschungsergebnisse sowie andererseits eine Erläuterung der je konkreten Arbeitsweise. Technik darf nicht zum Selbstzweck werden: mehr Reflexion als Fiktion also. Abschließend lässt sich daher für die digitalen archäologischen Rekonstruktionen festhalten, dass sie sich auf schmalem Grat zwischen vermeintlich historischer Realität und augenscheinlicher Fiktion bewegen. Als „hybride Objekte“,63 die sie nun einmal sind – auf der Grenze zwischen „Wahrheit und Fiktion“ –, liegt die Gefahr nicht allein in den Bildern selbst. Wie der Archäologe Luca Giuliani feststellte, ist das Problem vielmehr im Umgang mit ihnen zu suchen, „im abgestumpften, passiven Blick, mit dem wir sie konsumieren und uns ihnen eben dadurch widerstandslos unterwerfen“.64 Es ist daher an der Zeit, dem Reflexionsprozess bei der Herstellung wissenschaftlicher Bilder vermehrt Aufmerksamkeit zu schenken und auch der Öffentlichkeit das Dilemma einer Arbeit mit Bildern vor Augen zu führen.

59

Borck 2001, 388.

60

Ebd. 388.

61

Ebd. 392. Ähnlich auch Heintz / Huber 2001b, 28: „Je elaborierter die Bildtechnologie ist, je ‚näher‘ scheint das Auge der Wirklichkeit zu kommen und je ‚objektiver‘ erscheinen die Bilder“.

62

Rieche 2002, 127.

63

Heßler 2006b, 20.

64

Giuliani 2003, 13.

Digitale Visualisierungsformen in der Archäologie

Abbildungsverzeichnis Abb.1: Magnetogramm (Graustufendarstellung) der eisenzeitlichen Siedlung in Kirchzarten-Zarten ‚Rotacker/Tarodunum‘ (Quelle: Posselt & Zickgraf Prospektionen GbR; Eberhard-Karls-Universität Tübingen, Institut für Ur- und Frühgeschichte und Archäologie des Mittelalters). Abb. 2: Magnetogramm (interpretierende Umzeichnung) der eisenzeitlichen Siedlung in Kirchzarten-Zarten ‚Rotacker/Tarodunum‘ (Quelle: Posselt & Zickgraf Prospektionen GbR; Eberhard-Karls-Universität Tübingen, Institut für Ur- und Frühgeschichte und Archäologie des Mittelalters). Abb. 3: Fotorealistische Rekonstruktion eines zerstörten Hauses aus Troia VI (Quelle: Troia-Projekt, Eberhard-Karls-Universität Tübingen, Institut für Urund Frühgeschichte und Archäologie des Mittelalters). Abb. 4: Virtuelle Rekonstruktion von Troia gemäß Interpretation (Brandau/Schickert/Jablonka 2004, 160). Abb. 5: Virtuelle Rekonstruktion von Troia gemäß Befund (Brandau/Schickert/ Jablonka 2004, 161).

Bibliographie Doris Bachmann-Medick, 2006, Cultural Turns: Neuorientierungen in den Kulturwissenschaften, Reinbek bei Hamburg. Peter F. Biehl, 2005, „Archäologie Multimedial“ – Potential und Gefahren der Popularisierung in der Archäologie, in: Archäologisches Nachrichtenblatt 10, Heft 2 (2005), S. 244-256. Cornelius Borck, 2001, Die Unhintergehbarkeit des Bildschirms: Beobachtungen zur Rolle von Bildtechniken in den präsentierten Wissenschaften, in: Heintz / Huber 2001, S. 383-394. Birgit Brandau / Hartmut Schickert / Peter Jablonka, 2004, Troia – Wie es wirklich aussah, München / Zürich. Ulrich Brandl / Claus Diessenbacher / Anita Rieche, 2002, Colonia Ulpia Traiana – Ein multimediales Informationssystem zur Archäologie der römischen Stadt, in: Anita Rieche / Beate Schneider (Hrsg.), Archäologie virtuell. Projekte, Entwicklungen, Tendenzen seit 1995. Schriften zur Bodendenkmalpflege in Nordrhein-Westfalen 6 (2002), Bonn, S. 23-32. Matthias Bruhn, 2006, Der Markt als bildgebendes Verfahren. In: Martina Heßler (Hrsg.), Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München, S. 369-379. Regula Burri, 2001, Doing Images: zur soziotechnischen Fabrikation visueller Erkenntnis in der Medizin. In: Heintz / Huber 2001, S. 277-303. Lorraine Daston / Peter Galison, 2002, Das Bild der Objektivität, in: Peter Geimer (Hrsg.), Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt a.M., S. 29-99.

271

Stefanie Samida

272

Manfred K. H. Eggert, 2006, Archäologie: Grundzüge einer Historischen Kulturwissenschaft, Tübingen / Basel. Martin Emele, 1998, Der Computer rekonstruiert uns die Zitadelle des Königs Priamos. Archäologische Simulation zwischen linearen Medien und virtuellem Museum, in: Arbeitsgruppe Film der Christian-Albrechts-Universität Kiel (Hrsg.), Cinarchea 3. Internationales Archäologie Film-Festival, Symposium „Archäologie und Neue Medien“ 22.-23. April 1998, Kiel. Martin Emele, 2000, Virtual spaces, atomic pig-bones and miscellaneous goddesses, in: Ian Hodder (Hrsg.), Towards reflexive method in archaeology: the example Çatalhöyük, Cambridge, S. 219-227. Martin Emele, 2001, Virtuelle Welten: Besser, sauberer und glaubwürdiger als jede Realität. In: Peter Noelke (Hrsg.), Archäologische Museen und Stätten der römischen Antike – Auf dem Wege vom Schatzhaus zum Erlebnispark und virtuellen Informationszentrum? Referate des 2. Internationalen Colloquiums zur Vermittlungsarbeit in Museen, 3.–6. Mai 1999, Schriftenreihe Museumsdienst Köln 4, Bonn, S. 262-267. Wolfgang Ernst, 2000, Mehr Speicher, weniger Museum. Cyberspace zwischen Datendepot und musealem Repräsentationsraum. In: Rosemarie Beier (Hrsg.), Geschichtskultur in der zweiten Moderne, Frankfurt a.M. / New York, S. 279297. Thomas E. Fischer, 2003, Bildschirmgeschichtsbilder. In: Thomas Stamm-Kuhlmann / Jürgen Elvert / Birgit Aschmann / Jens Hohensee (Hrsg.), Geschichtsbilder. Festschrift für Michael Salewski zum 65. Geburtstag. Historische Mitteilungen, Wiesbaden, S. 617-629. Peter Geimer, 2003, Weniger Schönheit. Mehr Unordnung. Eine Zwischenbemerkung zu „Wissenschaft und Kunst“. In: Neue Rundschau 114, Heft 3 (2003), S. 26-38. Ernst H. Gombrich, 1982a, The visual image: its place in communication. In: Ernst H. Gombrich, The image and the eye: further studies in psychology of pictorial representation, Oxford, S. 137-161. Ernst H. Gombrich, 1982b, Standards of truth: the arrested image and the moving eye. In: Ernst H. Gombrich, The image and the eye: further studies in psychology of pictorial representation, Oxford, S. 244-277. Armin Grün, 2001, Von der digitalen zur virtuellen Erde. Wie und warum entstehen realitätstreue virtuelle Umgebungen. In: Heintz / Huber 2001, S. 79-93. Luca Giuliani, 2003, Bild und Mythos. Geschichte der Bilderzählung in der griechischen Kunst, München. Stefan Heidenreich, 2005, Neue Medien, in: Klaus Sachs-Hombach (Hrsg.), Bildwissenschaft. Disziplinen, Themen, Methoden, Frankfurt a.M., S. 381-392. Bettina Heintz / Jörg Huber (Hrsg.), 2001, Mit dem Auge Denken. Repräsentationsformen in Wissenschaft und Kunst, Zürich. Bettina Heintz / Jörg Huber, 2001b, Der verführerische Blick. Formen und Folgen wissenschaftlicher Visualisierungsstrategien. In: Heintz / Huber 2001, S. 9-40. Martina Heßler, 2004, Explorationsstudie im Rahmen der BMBF-Förderinitiative „Wissen für Entscheidungsprozesse“ zum Thema „Visualisierungen in der Wissenskommunikation, http://www.sciencepolicystudies.de/dok/explorationsstudie-hessler.pdf.

Digitale Visualisierungsformen in der Archäologie

Martina Heßler, 2005, Bilder zwischen Kunst und Wissenschaft. Neue Herausforderungen für die Forschung. Geschichte und Gesellschaft 31, S. 266-292. Martina Heßler, 2006a, Annäherungen an Wissenschaftsbilder, in: Martina Heßler (Hrsg.), Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München, S. 11-37. Martina Heßler, 2006b, Von der doppelten Unsichtbarkeit digitaler Bilder, in: Zeitenblicke 5 (2006), Nr. 3. Digitale Medien und Wissenschaftskulturen, http:// www.zeitenblicke.de/2006/3/Hessler. Martina Heßler, 2006c, Die Konstruktion visueller Selbstverständlichkeiten. Überlegungen zu einer Visual History der Wissenschaft und Technik, in: Gerhard Paul (Hrsg.), Visual History. Ein Studienbuch, Göttingen, S. 76-95. Manfred Jochum, 1999, Wissenschaftswissen und Medienwissen oder: Die Virtualität des Wissens. Senatsarbeitskreis für Wissenschaft und Verantwortlichkeit 3, Innsbruck / Wien. Gottfried Korff, 2000, Die Kunst des Weihrauchs – und sonst nichts? Zur Situation der Freilichtmuseen in der Wissenschafts- und Freizeitkultur, in: Gottfried Korff, Museumsdinge: Deponieren – Exponieren, Köln / Weimar / Wien, S. 96-109. Tilman Lenssen-Erz, 2005, Archäologie und Prähistorie, in: Klaus Sachs-Hombach (Hrsg.), Bildwissenschaft. Disziplinen, Themen, Methoden, Frankfurt a.M., S. 163-173. Dieter Mersch, 2006,: Naturwissenschaftliches Wissen und bildliche Logik, in: Martina Heßler (Hrsg.), Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München, S. 405-420. Marion G. Müller, 2003, Grundlagen der visuellen Kommunikation. Theorieansätze und Analysemethoden, Konstanz. Manfred Nawroth / Rüdiger von Schnurbein, Rainer-Maria Weiss / Mathias Will, 2002, Von der Prospektion zur Präsentation. Neue Methoden der Archäologie, in: Wilfried Menghin / Dieter Planck (Hrsg.), Menschen, Zeiten, Räume – Archäologie in Deutschland, Stuttgart 2002, S. 32-39. Wolfgang Neubauer, 2001, Magnetische Prospektion in der Archäologie. Mitteilungen der Prähistorischen Kommission 44, Wien. Barbara Orland, 2003, Bildevidenzen – oder wie man die Flut technisch erzeugter Bilder analytisch in den Griff bekommt, in: SAGW Bulletin Heft 3 (2003), S. 31-32. Gerhard Paul (Hrsg.), 2006, Visual History. Ein Studienbuch, Göttingen. Hans-Jörg Rheinberger 2001, Objekt und Repräsentation, in: Heintz / Huber 2001, S. 55-61. Anita Rieche, 2002, Archäologie virtuell – ein Ausblick, in: Anita Rieche / Beate Schneider (Hrsg.), Archäologie virtuell. Projekte, Entwicklungen, Tendenzen seit 1995. Schriften zur Bodendenkmalpflege in Nordrhein-Westfalen 6, Bonn, S. 126-127. Klaus Sachs-Hombach (Hrsg.), 2006, Bild und Medium. Kunstgeschichtliche und philosophische Grundlagen der interdisziplinären Bildwissenschaft, Köln. Stefanie Samida, 2004, ‚Virtuelle Archäologie‘ – Zwischen Fakten und Fiktion, in: Katja Bär / Kai Berkes / Stefanie Eichler / Aida Hartmann / Sabine Klaeger / Oliver Stoltz (Hrsg.), Text und Wahrheit. Ergebnisse der interdisziplinären

273

Stefanie Samida

Tagung ‚Fakten und Fiktionen‘ der Philosophischen Fakultät der Universität Mannheim, 28.–30. November 2002, Frankfurt a.M. / Berlin / Bern u.a., S. 195-207. Stefanie Samida, 2006a, Archäologische Quellen: Zwischen historischer Realität und historischer Fiktion. Anmerkungen zur Troia-Debatte, in: Archäologisches Korrespondenzblatt 26, Heft 1 (2006), S. 37-47. Stefanie Samida, 2006b, Wissenschaftskommunikation im Internet. Neue Medien in der Archäologie, @Internet Research 26, München. Beat Schweizer, 2002, Rekonstruktion/Konstruktion, in: Der neue Pauly 15.1, S. 656-669. Ludger Tebartz van Elst, 2007, Alles so schön bunt hier. Gehirn-Scans sagen viel weniger aus, als in sie hineininterpretiert wird, in: Die Zeit, Nr. 34 (16. August 2007), S. 30. Wolfgang Ullrich, 2003, Das Vorzimmer Gottes und andere Sensationsbilder. In: Neue Rundschau 114, Heft 3 (2003), S. 75-87. Wolfgang Ullrich, 2006, Wissenschaftsbilder und der neue Paragone zwischen Geistes- und Naturwissenschaften, in: Martina Heßler (Hrsg.), Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München, S. 303-316. Ulrich Veit, Von der Schwierigkeit ein Fach zu bestimmen, Überlegungen zur kognitiven Identität der Ur- und Frühgeschichtsforschung, in: Saeculum 52, Heft 1 (2001), S. 73-90. Harry Walter, 2003, Total anschaulich, In: Neue Rundschau 114, Heft 3 (2003), S. 50-68. Gabriele Werner, 2001, Das technische Bild – aus ästhetischer Sicht betrachtet, in: Heintz / Huber 2001, S. 367-328. Benno Zickgraf, 1999, Geomagnetische und geoelektrische Prospektion in der Archäologie. Systematik – Geschichte – Anwendung. Internationale Archäologie: Naturwissenschaft und Technologie 2, Rhaden, Westf. Christian Züchner, 2006, Felsbilder – Eine verkannte Quellengattung der Prähistorischen Archäologie, in: Hans-Peter Wotzka (Hrsg.), Grundlegungen. Beiträge zur europäischen und afrikanischen Archäologie für Manfred K. H. Eggert, Tübingen, S. 175–186.

274

Autorenverzeichnis Elke Bippus, Kunstwissenschaftlerin, Professorin für Kunsttheorie und Ästhetik an der Zürcher Hochschule der Künste, Departement Kunst und Medien, Vertiefung Bildende Kunst. Bachelor-Leiterin des Studiengangs „Medien und Kunst“. http://people.zhdk.ch/elke.bippus/ Publikationen (Auswahl): Die Wirklichkeit der Darstellung. Das Ready-made als Strategie kontextueller Verkettungen und ästhetischer Affektion. In: Alexandra Kleihues (Hg.): Realitätseffekte. Ästhetische Repräsentationen des Alltäglichen im 20. Jahrhundert. München 2008, S. 47–68; Research In Art - Research On Art. The Crossing of Theory and Practice in Contemporary Art. In: Dieter Lesage, Kathrin Busch (Hg.), A Portrait of the Artist as a Researcher. The Academy and the Bologna Process. (AS#179), Antwerp, MuHKA 2007, S. 20–27. Jochen Hennig, Dipl.-Phys., Ausstellungsleiter an der Humboldt-Universität zu Berlin; Dissertation zur Bildpraxis in der Rastertunnelmikroskopie 1982-1992, erscheint 2009 im transcript Verlag. Publikationen (Auswahl): Vom Experiment zur Utopie: Bilder in der Nanotechnologie. In: Bildwelten des Wissens 2, 2, S. 9-18; Ch. Bigg, J. Hennig (Hg.): Atombilder. Ikonographien des Atoms in Wissenschaft und Öffentlichkeit des 20. Jahrhunderts. Wallstein Verlag. Martina Heßler, Professorin für Kultur- und Technikgeschichte an der Hochschule für Gestaltung in Offenbach am Main. Publikationen (Auswahl): (Hg.) Konstruierte Sichtbarkeiten. Wissenschaftsund Technikbilder seit der Frühen Neuzeit. München 2005; Die „Mona Lisa der modernen Wissenschaften“. Zur Doppelhelixstruktur als einer kulturellen Ikone, in: Alexander Gall (Hrsg.), Konstruieren, Kommunizieren, Präsentieren. Bilder von Wissenschaft und Technik. Göttingen 2007, S. 291-315; Der Imperativ der Sichtbarmachung. Zu einer Bildgeschichte der Unsichtbarkeit. In: Bildwelten des Wissens. 4 (2006),2, Bilder ohne Betrachter, S 69-79. Jörg Huber, Professor für Kulturtheorie an der Zürcher Hochschule der Künste, Leiter des Instituts für Theorie (www.ith-z.ch). Forschungsschwerpunkte: Theorie des Ästhetischen und der Alltagskultur. Bildtheorie. Publikationen (Auswahl): (Hg.) Serie Interventionen, Zürich 1992 ff., Who presses the button? Das Spiel mit und gegen die Apparate, in: ders., Philipp Stoellger (Hg.): Gestalten der Kontingenz. Ein Bilderbuch, Zürich Wien New York 2008. Devenir cadavre – l’imaginaire. Maurice Blanchot lesen, in: ders. u.a. (Hgg.), Archi-

275

Autorenverzeichnis

pele des Imaginären, Zürich Wien New York 2008. Leibhaftigkeit – Autofiguration. Zu Merleau Ponty, erscheint 2008. Gabriele Gramelsberger, Akademische Mitarbeiterin an der Kunsthochschule für Medien Köln. Publikationen (Auswahl): Computerexperimente. Wandel der Wissenschaft im Zeitalter des Computers, Bielefeld: transcript, 2008; „Epistemische Praktiken des Forschens im Zeitalter des Computers“, in: Elke Bippus (Hg.): Kunst der Forschung, diaphanes: Zürich / Berlin 2008 (im Druck); „Das epistemische Gewebe simulierter Welten“, in: Andrea Gleininger, Georg Vrachliotis (Hg.): Simulation. Kontext Architektur, Basel: Birkhäuser, 2008: 83-91; „Computersimulationen - Neue Instrumente der Wissensproduktion“, in: Renate Mayntz, Friedhelm Neidhardt, Peter Weingart, Ulrich Wengenroth (Hg.): Wissensproduktion und Wissenstransfer. Wissen im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit, Bielefeld: transcript, 2008: 75-95. Stephan Günzel, wiss. Mitarbeiter am Institut für Künste und Medien der Universität Potsdam. Publikationen (Auswahl): Topologie. Zur Raumbeschreibung in den Kultur- und Medienwissenschaften (Hg., Bielefeld 2007), „Raum, Karte und Weg im Computerspiel“ (in: Perspektiven des Computerspiels, Bielefeld 2008), „Böse Bilder“ (in: Das Böse heute, München 2008), „Die Realität des Simulationsbildes“ (in: Die Realität des Imaginären, Weimar 2008), www.stephan-guenzel.de. Sybille Krämer, Professorin für Theoretische Philosophie an der Freien Universität Berlin, Mitglied des Wissenschaftsrates, Gründungsmitglied des HelmholtzZentrums und Projektleiterin der Forschergruppe Bild, Schrift, Zahl an der Humboldt-Universität Berlin, Sprecherin des Graduiertenkollegs Schriftbildlichkeit an der Freien Universität. Publikationen (Auswahl): Sprache – Sprechakt – Kommunikation Frankfurt/M 2001, Hg. Performativität und Medialität, München 2004, Hg. zus. mit D. Kolesch, Stimme, Frankfurt/M 2006, Medium, Bote, Übertragung. Kleine Metaphysik der Medien, Frankfurt/M 2008.

276

Dieter Mersch, Professor für Medientheorie und Medienwissenschaften an der Universität Potsdam. Publikationen (Auswahl): Was sich zeigt. Materialität, Präsenz, Ereignis, München 2002, Ereignis und Aura. Untersuchungen zur einer Ästhetik des Performativen, Frankfurt am Main 2002, Medientheorien zur Einführung, Hamburg 2006, Hg. Kunst und Wissenschaft, München 2007. Das Bild als Argument, in: Christoph Wulf, Jörg Zirfas (Hg.), Ikonologien des Performativen, München (Fink) 2005, 322-344, Blick und Entzug. Zur Logik ikonischer Strukturen, in: Gottfried Boehm, Gabriele Brandstetter, A. von Müller (Hg.): Bild – Figur – Zahl, München (Fink) 2007, S. 55-69.

Autorenverzeichnis

Uli Richtmeyer (gelernter Werkzeugmacher, diplomierter Künstler, promovierter Philosoph), wissenschaftlicher Mitarbeiter im Forschungsprojekt „Wittgensteins Bilddenken“ an der Universität Potsdam. Ende 2008 erscheint seine bildphilosophische Studie „Kants Ästhetik im Zeitalter der Photographie. Analysen zwischen Sprache und Bild“ (transcript), die sich interdisziplinär (u.a. Bourdieu u. Barthes) mit den Bedingungen für ästhetische Urteile in der photographischen Kultur befasst. Stefanie Samida, Post-Doktorandin am Institut für Ur- und Frühgeschichte und Archäologie des Mittelalters an der Universität Tübingen. Publikationen (Auswahl): Wissenschaftskommunikation im Internet. Neue Medien in der Archäologie. @Internet Research 26 (München 2006); Virtuelle Archäologie – Zwischen Fakten und Fiktion. In: K. Bär, K. Berkes, S. Eichler, A. Hartmann, S. Klaeger und O. Stoltz (Hrsg.), Text und Wahrheit. Ergebnisse der interdisziplinären Tagung ‚Fakten und Fiktionen‘ der Philosophischen Fakultät der Universität Mannheim, 28.-30. November 2002 (Frankfurt a. M. u. a. 2004) 195–207. Astrit Schmidt-Burkhardt, Bildhistorikerin. Als Privatdozentin unterrichtet sie an der Freien Universität Berlin Bild- und Kunstgeschichte seit der Aufklärung. Publikationen (Auswahl): Maciunas’ „Learning Machines“. From Art History to a Chronology of Fluxus (Berlin 2003) und Stammbäume der Kunst. Zur Genealogie der Avantgarde (Berlin 2005), (ungar. Übersetzung: Maciunas „Learning Machines“: A müvészettörténettöl a Fluxus-kronológiáig, Budapest 2006). Birgit Schneider, Dilthey-Stipendiatin der Thyssen-Stiftung am Institut für Kunst und Medien der Universität Potsdam zum Thema „Klimabilder. Eine Typologie der Visualisierung des Klimas und seiner Wandlungen seit 1800“. Publikationen (Auswahl): Diagramme und bildtextile Ordnungen (Hg.). Band 3,1 der von Horst Bredekamp und Gabriele Werner herausgegebenen Reihe Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik, Berlin 2005; Das Technische Bild. Kompendium für eine Stilgeschichte wissenschaftlicher Bilder, hrsg. mit Horst Bredekamp u. Vera Dünkel, Berlin 2008. Jens Schröter, Professor für Theorie und Praxis multimedialer Systeme an der Universität Siegen. Publikationen (Auswahl): Hrsg. (zusammen mit Gundolf Winter und Christian Spies): Skulptur – Zwischen Realität und Virtualität, München: Fink 2006; Hrsg. (zusammen mit Tristan Thielmann): Display I: Analog, Marburg: Schüren 2006; Hrsg. (zusammen mit Tristan Thielmann): Display II: Digital, Marburg: Schüren 2007; Hrsg. (zusammen mit Joachim Paech) Untersuchungen zur Intermedialität, München: Fink 2008; Hrsg. (zusammen mit Albert Kümmel): Äther. Ein Medium der Moderne, Bielefeld: transcript 2008.

277

ZfK – Zeitschrift für Kulturwissenschaften

Michael C. Frank, Bettina Gockel, Thomas Hauschild, Dorothee Kimmich, Kirsten Mahlke (Hg.)

Räume Zeitschrift für Kulturwissenschaften, Heft 2/2008 Dezember 2008, 160 Seiten, kart., 8,50 , ISBN 978-3-89942-960-2 ISSN 9783-9331

ZFK – Zeitschrift für Kulturwissenschaften Der Befund zu aktuellen Konzepten kulturwissenschaftlicher Analyse und Synthese ist ambivalent: Neben innovativen und qualitativ hochwertigen Ansätzen besonders jüngerer Forscher und Forscherinnen steht eine Masse oberflächlicher Antragsprosa und zeitgeistiger Wissensproduktion – zugleich ist das Werk einer ganzen Generation interdisziplinärer Pioniere noch wenig erschlossen. In dieser Situation soll die Zeitschrift für Kulturwissenschaften eine Plattform für Diskussion und Kontroverse über Kultur und die Kulturwissenschaften bieten. Die Gegenwart braucht mehr denn je reflektierte Kultur, historisch situiertes und sozial verantwortetes Wissen. Aus den Einzelwissenschaften heraus kann so mit klugen interdisziplinären Forschungsansätzen fruchtbar über die Rolle von Geschichte und Gedächtnis, von Erneuerung und Verstetigung, von Selbststeuerung und ökonomischer Umwälzung im Bereich der Kulturproduktion und der naturwissenschaftlichen Produktion von Wissen diskutiert werden. Die Zeitschrift für Kulturwissenschaften lässt gerade auch jüngere Wissenschaftler und Wissenschaftlerinnen zu Wort kommen, die aktuelle fächerübergreifende Ansätze entwickeln.

Lust auf mehr? Die Zeitschrift für Kulturwissenschaften erscheint zweimal jährlich in Themenheften. Bisher liegen die Ausgaben Fremde Dinge (1/2007), Filmwissenschaft als Kulturwissenschaft (2/2007), Kreativität. Eine Rückrufaktion (1/2008) und Räume (2/2008) vor. Die Zeitschrift für Kulturwissenschaften kann auch im Abonnement für den Preis von 8,50  je Ausgabe bezogen werden. Bestellung per E-Mail unter: [email protected] www.transcript-verlag.de

Metabasis – Transkriptionen zwischen Literaturen, Künsten und Medien Margrid Bircken, Dieter Mersch, Hans-Christian Stillmark (Hg.) Ein Riss geht durch den Autor Transmediale Inszenierungen im Werk von Peter Weiss April 2009, ca. 200 Seiten, kart., zahlr. Abb., ca. 23,80 €, ISBN 978-3-8376-1156-4

Jan Distelmeyer, Christine Hanke, Dieter Mersch (Hg.) Game over!? Perspektiven des Computerspiels März 2008, 164 Seiten, kart., 19,80 €, ISBN 978-3-89942-790-5

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2008-12-05 10-54-13 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0285196373082368|(S.

1

) ANZ1051.p 196373082376

2008-05-27 12-26-20 --- Projekt: transcript.titeleien / Dokument: FAX ID 02a8179786122216|(S.

2

) T00_02 seite 2 - 746.p 179786122240