Jenseits des Labors: Transformationen von Wissen zwischen Entstehungs- und Anwendungskontext [1. Aufl.] 9783839416037

Wie verändert sich Wissen, wenn es spezifische Entstehungskontexte - wie etwa das Labor - verlässt und in Wissenschaft u

159 15 3MB

German Pages 326 Year 2014

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Jenseits des Labors: Transformationen von Wissen zwischen Entstehungs- und Anwendungskontext [1. Aufl.]
 9783839416037

Table of contents :
Inhalt
Vorwort der Herausgeber
WISSENSORTE
Biological Computer Laboratory. Zu Organisation und Selbstorganisation eines Labors
Ist jetzt alles ›Netzwerk‹? Mediale ›Schwellen- und Grenzobjekte‹
Epistemische Häufungen. Nicht-Dinge und agentenbasierte Computersimulation
Das Wissen kreativer Laboratorien
WISSENSOBJEKTE
MAZ ab. Video, die Schnittstelle Labor/Betrieb und der Aufbau des Fernsehens in den 1950er Jahren
Über die Quasi-Objekte von Bruno Latour und den Phonometer des Abbé Rousselot
Angewandte Forschung? Cortison zwischen Hochschule, Industrie und Klinik
WISSENSTRANSFORMATIONEN
Implizites Wissen und Wissensvermittlung. Ein Blick auf Polanyis Wissenschaftsphilosophie
›Hirnforschung‹ zwischen Labor und Talkshow. Ideal der Wissenstransformation?
Neurokognitive Bildgebung. Selbstverständnis,Transformationen und Menschenbild
›Economists in the Wild‹. Von der Finanzökonomik zu dem undisziplinierten Wissen der FinanzmärkteLeon Jesse Wansleben
Strahlende Landschaften. Zur materiellen und photographischen Öffentlichkeit der amerikanischen Atombombentests
Autorinnen und Autoren

Citation preview

Florian Hoof, Eva-Maria Jung, Ulrich Salaschek (Hg.) Jenseits des Labors

Florian Hoof, Eva-Maria Jung, Ulrich Salaschek (Hg.)

Jenseits des Labors Transformationen von Wissen zwischen Entstehungs- und Anwendungskontext

Gefördert von der Ruhr University Research School.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2011 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Laboratory, © Sebastian Duda # 3797697 (Detail) Satz: Florian Hoof, Frankfurt; Eva-Maria Jung, Münster; Ulrich Salaschek, Berlin Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1603-3 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

Vorwort der Herausgeber | 7

WISSENSORTE Biological Computer Laboratory. Zu Organisation und Selbstorganisation eines Labors Jan Müggenburg | 23 Ist jetzt alles ›Netzwerk‹? Mediale ›Schwellen- und Grenzobjekte‹ Florian Hoof | 45 Epistemische Häufungen. Nicht-Dinge und agentenbasierte Computersimulation Sebastian Vehlken | 63 Das Wissen kreativer Laboratorien Rolfe Bart | 87

WISSENSOBJEKTE MAZ ab. Video, die Schnittstelle Labor/Betrieb und der Aufbau des Fernsehens in den 1950er Jahren Daniela Zetti | 111 Über die Quasi-Objekte von Bruno Latour und den Phonometer des Abbé Rousselot Lena Christolova | 135 Angewandte Forschung? Cortison zwischen Hochschule, Industrie und Klinik Lea Haller | 171

WISSENSTRANSFORMATIONEN Implizites Wissen und Wissensvermittlung. Ein Blick auf Polanyis Wissenschaftsphilosophie Eva-Maria Jung | 199 ›Hirnforschung‹ zwischen Labor und Talkshow. Ideal der Wissenstransformation? Torsten Heinemann | 215 Neurokognitive Bildgebung. Selbstverständnis, Transformationen und Menschenbild Ulrich Salaschek | 239 ›Economists in the Wild‹. Von der Finanzökonomik zu dem undisziplinierten Wissen der Finanzmärkte Leon Jesse Wansleben | 259 Strahlende Landschaften. Zur materiellen und photographischen Öffentlichkeit der amerikanischen Atombombentests Lars Nowak | 279

Autorinnen und Autoren | 319

Vorwort der Herausgeber F LORIAN H OOF , E VA -M ARIA J UNG , U LRICH S ALASCHEK

Wie verändert sich Wissen, wenn es seinen Ursprungskontext des Labors verlässt und in Wissenschaft und Gesellschaft adaptiert wird? Wie können die epistemischen Bedingungen von Transferprozessen innerhalb von Laborsystemen und an der Schnittstelle zu anderen Wissenschaftsbereichen und zur Öffentlichkeit erklärt und kategorisiert werden? Diese Fragen stehen im Mittelpunkt des vorliegenden Bandes. Während die Laborbedingungen der Wissensentstehung aus wissenschaftstheoretischer und -historischer Perspektive insbesondere seit Ende des letzten Jahrhunderts in vielfältiger Weise beleuchtet wurden, blieben die Schnittstellen zwischen verschiedenen Wissensbereichen und die Transformationsprozesse, die Wissen beim Übergang dieser unterschiedlichen Bereiche durchläuft, weitgehend unbeachtet. Die Beiträge in diesem Band sind ebendiesen Rand- und Übergangsbereichen gewidmet. Hierbei ist die Forschungsperspektive interdisziplinär ausgerichtet: Wissenschaftstheoretische und -historische sowie medienwissenschaftliche Analysen sollen Wissensformen und die technischen, sozialen und medialen Bedingungen ihrer Entstehung und Verbreitung klären helfen. Auch die Konsequenzen, die sich aus der theoretischen Betrachtung der Erkenntnisprozesse für die beteiligten Akteure ergeben – ob in Wissenschaft, Industrie oder Gesellschaft – werden diskutiert. Dabei nähern sich die vorliegenden Beiträge der Frage nach den Übergängen von Wissen zwischen unterschiedlichen Wis-

8 | FLORIAN HOOF , EVA -MARIA J UNG, ULRICH S ALASCHEK

sensbereichen aus den Perspektiven seiner Orte, seiner Objekte und seiner Transformationen.

W ISSENSORTE Im ersten Teil des Bandes stehen ›Wissensorte‹ im Zentrum. Darunter fallen Räume, die dafür ausgelegt sind Wissen zu erzeugen, umzuformen oder zu konzentrieren. Es sind Umgebungen, die durch die laboratory studies der 1980er Jahre mit Mitteln der Wissenschaftsforschung und der Wissenssoziologie erschlossen worden sind. In detaillierten Studien untersuchte etwa Karin Knorr-Cetina die ›Fabrikation von Erkenntnis‹ innerhalb wissenschaftlicher Laboratorien. Steve Woolgar, Michael Callon und Bruno Latour entwickelten im Rahmen einer sociology of transition Modelle wie die Akteur-Netzwerk-Theorie, die einen differenzierteren Blick auf die Vorgänge innerhalb der blackbox Labor ermöglichen sollten. In den Beiträgen dieses Bandes beschränken sich die Wissensorte aber nicht auf die enge Definition wissenschaftlicher Laboratorien. Auch weniger stark formalisierte räumliche Konfigurationen lassen sich als Wissensorte beschreiben. Es sind nicht nur Orte, in denen neues Wissen, etwa in Form von wissenschaftlicher Erkenntnis entsteht. Wissensorte sind auch Räume, in denen Wissensbestände irrelevant werden, Wissenskonzepte scheitern oder aber eine vorgegebene Wissenskonfiguration sich in etwas völlig anderes transformiert. Es sind Orte, die eine lokale Verankerung aufweisen, etwa durch die ›Experimentalsysteme‹ der dort installierten technologischen Apparaturen. Gleichzeitig sind sie Ausgangspunkte für Prozesse der Wissenszirkulation, die sich gerade durch die nicht vorhandene örtliche Bindung auszeichnen. An Wissensorten entstehen Dinge, die hochgradig transportabel und zugleich adaptiv sind. Konzentrierten sich die laboratory studies in erster Linie auf die Vorgänge innerhalb von Laboratorien, werden hier Wissensorte als Teil von Wissenszirkulationen verstanden, die nicht vor der Grenze des Labors Halt machen. Was passiert mit den Wissensformen aus dem Labor, wenn sie dieses verlassen und in anderen Bereichen wirkmächtig werden? Und wie wir-

V ORWORT

|9

ken Umstände, die außerhalb des Labors liegen, auf die Form des Labors zurück? Jan Müggenburg untersucht in seinem Beitrag das in den 1950er Jahren von Heinz von Förster gegründete Biological Computer Laboratory (BCL). Dies war als eine explizit interdisziplinäre Forschungsplattform konzipiert. Sie arbeitete, so Müggenburg, erfolgreich und zugleich höchst erfolglos an der Entwicklung eines biologischen Computers. Das Ziel war der Bau einer selbstregulierenden Computerarchitektur. Der Rechner sollte dem kybernetischen Ideal der Selbstbeobachtung folgen und aus eigenen Fehlern lernen. Um dieses Konzept einer sich selbstverbessernden künstlichen Intelligenz zu konstruieren, arbeiteten Wissenschaftler aus den Bereichen Mathematik, Neurobiologie und den Ingenieurswissenschaften zusammen. Das BCL zeichnete sich dadurch aus, dass die Prinzipen, die es auf den zu bauenden Computer anwenden wollte, auch die Zusammenarbeit und die Funktionsweise des Labors bestimmen sollten. Forschungsobjekt und Laborsstruktur wiesen homologe Strukturen auf. In Abgrenzung zu Bruno Latour, der gescheiterte Laborprojekte als ›Laboratoriumskuriositäten‹ beschreibt, plädiert Müggenburg dafür, die formale Konstellation und Struktur des Labors und nicht dessen ›Inhalt‹ als epistemische Wissenskonfiguration zu begreifen. Obwohl von Foerster in den knapp 20 Jahren des Bestehens des BCL nur marginale Fortschritte vorweisen konnte, gelang es ihm trotzdem, die Finanzierung stets sicher zu stellen. Der Grund dafür liege in der verfolgten Vision eines selbststeuernden Labors. In Abgrenzung zu der von Latour verwendeten mechanistischen Sichtweise, dass Wissen aus dem Labor quasi automatisch in die nicht-laborale Umgebung expandiert, fragt Müggenburg nach dem epistemischen Status des Scheiterns bzw. des Dysfunktionalen. Florian Hoof hinterfragt in seinem Beitrag die seit einiger Zeit festzustellende Konjunktur, die Konzepte und Begriffe der Science and Technology Studies in der medienwissenschaftlichen Forschung erfahren. Obwohl ursprünglich für die Wissenschaftsforschung entwickelt, werden sie vermehrt auch zur Analyse nicht-wissenschaftlicher Bereiche herangezogen, ohne diesen Umstand genügend zu reflektieren, so Hoof. Ausgehend von der Prämisse, dass es sich bei der Medienwissenschaft um eine Schnittstellendisziplin handelt, lotet er das

10 | FLORIAN HOOF , E VA-M ARIA J UNG , ULRICH S ALASCHEK

Potential der Akteur-Netzwerk-Theorie (ANT) und des Konzeptes der ›boundary objects‹ für die medienhistorische Forschung aus. Mit der beispielhaften Anwendung dieser Prämissen auf den Bereich der Wirtschaft und Industrie weist Hoof darauf hin, dass die Netzwerklogik der ANT Kommunikation und Kooperation prinzipiell als wahrscheinlich konzipiere. Treffe diese Vorannahme für den Bereich der wissenschaftlichen Forschung möglicherweise noch zu, stelle sie sich als problematisch bei der Anwendung der ANT auf nicht-wissenschaftliche Bereiche dar. Als Alternative zur wissenschaftshistorischen Methoden der ANT schlägt er deshalb vor, das Konzept der ›boundary objects‹ für die Medienwissenschaft zu adaptieren. In Anlehnung an das Medienverständnis von Marshall McLuhans ließe es sich unter dem Begriff der ›medialen boundary objects‹ reformulieren. Dieses Konzept wäre im Rahmen historischer Medien- und Wissensanalysen zur Beschreibung eines Medienverbundes operationalisierbar. Es würde einen Medienbegriff erlauben, der auch die Unwahrscheinlichkeit von Kommunikation und Kooperation wie etwa Prozesse des Scheiterns oder aber Phänomene der medialen Latenz erfassen könnte. Sebastian Vehlken beschreibt in seinem Beitrag den Einsatz von computerbasierten Simulationssystemen im CouzinLab am Department of Ecology and Evolutionary Biology der Universität Princeton. In diesem Bereich der Fischschwarmforschung, so seine These, sind nicht mehr die klassischen Experimentalsysteme handlungsleitend für die Forschung. An die Stelle sichtbarer Forschungsaquarien und Aufzeichnungsapparaturen für Fische treten computerbasierte Verfahren der Simulation. Das Verhalten von Tierschwärmen wird mit Verfahren des agent-based modelling and simulation erforscht. Möglich wird dies durch die Steigerung der verfügbaren Rechenkapazitäten, insbesondere im Bereich grafischer Simulation. Darin erkennt Vehlken einen epistemologischen Bruch. Die Forschungspraxis im Labor verschiebt sich von einer gegenständlichen Vorgehensweise, die auf dem Prinzip der modellhaften Repräsentation beruht, hin zum Prinzip der computergestützten Präsentation. Die Selbstbezüglichkeit der Simulation, der Wegfall des Bezugs zu einem realen Objekt öffnet einen Raum der epistemologischen Freiheit. Verfahren der Simulation erlauben Forschung nicht mehr nur nach analytischen Kategorien, sondern mit den Möglichkeiten numerischer Simulationsdurchläufe und

V ORWORT

| 11

nach dem Prinzip des trial and error. Die damit verbundenen neuen Techniken der Bildproduktion verwischen die von Hans-Jörg Rheinberger postulierte Trennung zwischen dem epistemischen und dem technischen Ding. An deren Stelle tritt ein Amalgam medialer Intransparenz, das mit den herkömmlichen Begrifflichkeiten der laboratory studies nicht adäquat zu erfassen ist. Während Müggenburg und Vehlken auf die klassische Form eines Forschungslaboratoriums der Grundlagenforschung Bezug nehmen, thematisiert Rolfe Bart in seinem Beitrag Räume des Entwerfens im Bereich des Designs und der Architektur. Designagenturen und Planungsbüros bezeichnet er als ›kreative Laboratorien‹, in denen sich Entwurfswissen manifestiert. Sie bestehen aus verschiedenen Formen des kulturellen Wissens, die sich in den kreativen Laboratorien in ebendieses Entwurfswissen transformieren. Das Entwurfswissen dient der schöpferischen Hervorbringung von Neuem und der kreativen Problemlösung für nur vage definierte Probleme. Dafür greift es auf mediale Techniken des Entwerfens wie Prototypen, Computer-Layouts und Modelle zurück. Dieser Zusammenhang von verschiedenen Formen und Trägern des kulturellen Wissens definiert und determiniert die kreativen Laboratorien als Instanzen der Wissenstransformation. Daraus leitet Bart ein Modell ab, das die verschiedenen Ebenen des Entwurfsprozesses systematisiert und erfasst.

W ISSENSOBJEKTE Im zweiten Teil des Bandes werden ›Objekte des Wissens‹ ins Zentrum gestellt. Bei ihnen kann es sich um ganz unterschiedliche Gegenstände handeln, die Prozesse der Wissenserzeugung und -übertragung entscheidend mitprägen. Insbesondere Artefakte, deren Entstehung auf Vorarbeiten von Wissenschaftlern und Technikern aufbaut und deren Anwendung weitere vielfältige Erkenntnisprozesse anstößt, werden in den vorgestellten Beiträgen als wichtige Konstituenten für Wissensphänomene diskutiert. Lange Zeit standen in der Erkenntnis- und Wissenschaftstheorie ausschließlich Forscher als Individuen im Vordergrund. Seit dem 20. Jahrhundert wurden vermehrt soziale Beziehungen und institutionelle

12 | FLORIAN HOOF , E VA-M ARIA J UNG , ULRICH S ALASCHEK

Vernetzungen in den Blick genommen. Diese Entwicklung wurde durch die Forschungsrichtungen der sogenannten sozialen Erkenntnisund Wissenschaftstheorie dokumentiert. Doch auch im Rahmen dieser neuen Forschungsparadigmen standen zumeist ausschließlich die an Wissensprozessen beteiligten menschlichen Akteure im Zentrum. Die vermeintliche Bedeutung, die materiellen Gegenständen für die Genese und Verbreitung von Wissen zukommt, blieb unbeachtet. In jüngeren wissenschaftstheoretischen und -historischen Arbeiten ist diesbezüglich eine Wende erkennbar: Insbesondere das von Hans-Jörg Rheinberger geprägte Konzept der ›epistemischen Dinge‹ löste eine stärkere Fokussierung auf die Rolle materieller Objekte für die Analyse von Wissensprozessen aus. Unter ›epistemischen Dingen‹ fasst Rheinberger Gegenstände zusammen, die in Experimentalsystemen Auslöser und Transformator für Erkenntnisse sind. Mit diesem Konzept spricht er sich dafür aus, einen weiteren Bezugspunkt bei der Betrachtung von Wissensphänomenen zu beachten: Neben den Handlungsweisen von Individuen und Kollektiven stehen die vielseitigen und komplexen Prozesse des Umgangs mit epistemischen Dingen, die bewusste und unbewusste, intendierte und mitunter kontingente Handlungs- und Denkvorgänge anstoßen. Bruno Latour weitete dieses Konzept noch weiter aus, indem er den von Michael Serres geprägten Begriff der ›Quasi-Objekte‹ aufgriff und in die Debatte um eine angemessene Beschreibung von Erkenntnisprozessen einführte. ›QuasiObjekte‹ bezeichnen Komplexe, die weder mit materiellen Gegenständen noch mit abstrakten Sachverhalten gleichgesetzt werden können. Sie werden durch natürliche und gesellschaftliche Bedingungen gleichermaßen determiniert. Als Beispiel für ein solches Objekt dient Latour das Ozonloch, das auf einer engen Verwobenheit sozialer, diskursiver sowie physikalisch-chemischer Vorgänge beruht, dessen Bedeutung sich aber nicht auf eine dieser Ebenen reduzieren lässt. Die Vielfalt von Wissensobjekten und deren Bedeutung für die Wissensgenese und -transformation wird in den drei vorgestellten Artikeln dieses Bandes aus unterschiedlichen Perspektiven diskutiert. Im Mittelpunkt des Beitrags von Daniela Zetti steht ein Produkt, das in den 1970er Jahren als technische Innovation in den Wohnzimmern Europas ein Zuhause fand und dem heute fast ausschließlich ein nostalgischer Status zukommt: der Videorecorder. Zetti zeichnet zu-

V ORWORT

| 13

nächst Stufen von Erfolg und Scheitern der frühen Entwicklung magnetischer Aufnahmetechniken in den USA der 1950er Jahre nach. Anhand der signal- und informationstechnischen Praktiken, die hinter der Kulisse des frühen Fernsehens für die Entstehung der neuen Aufzeichnungstechnik ›Video‹ verantwortlich gemacht werden können, zeigt die Autorin, in welcher Weise Wunschvorstellungen der Medienproduktion, technologisches Wissen und experimentelle Praxis ein komplexes epistemisches Umfeld erzeugten, in welches unterschiedliche Akteure involviert waren. Die bedeutenden und vielschichtigen Veränderungen des einstigen ›Live‹-Mediums Fernsehen durch die systematische Ausstattung mit Aufzeichnungsgeräten diskutiert Zetti am Beispiel der BRD. Ihre Ausführungen münden in der These, dass der Weg des Videorecorders vom Labor in die Welt der Rundfunkbetriebe und schließlich in die Wohnzimmer der Privathaushalte nicht als geradliniger Prozess beschrieben werden kann. Es handle sich vielmehr um komplexe epistemische Zirkulationen und Modifikationen, für die neben den unterschiedlichen Interessengruppen der Medienindustrie nicht zuletzt die Zuschauer eine bedeutende Rolle spielten. Auch im Beitrag von Lena Christolova steht eine technische Innovation im Mittelpunkt: der Phonometer, den Jean-Pierre (Abbé) Rousselot um die Wende vom 19. zum 20. Jahrhundert erfand. Hierbei handelt es sich um ein Wissensobjekt, das in der Alltagswelt kaum bekannt ist, das aber sowohl Ziel als auch Anstoß zu vielschichten Erkenntnisprozessen innerhalb der wissenschaftlichen Theorie und Praxis darstellt: Der Phonometer diente zur Aufzeichnung und Vermittlung der gesprochenen Sprache und prägte die neue Forschungsrichtung der Experimentalphonetik maßgeblich mit. Christolova beleuchtet die physiologischen, medizinischen, sprachwissenschaftlichen und technischen Wissensbestände, welche die Hintergrundbedingungen für die Erfindung des Phonometers bilden. Hierbei betont sie besonders die konkreten Herausforderungen, vor die Rousselot in seinem Labor immer wieder gestellt war und die die epistemische Bezüge und Rückkopplungen deutlich werden lassen, die mit der Entwicklung des Phonometers einhergingen. Eine angemessene Bewertung der Erfindung Rousselots kann laut Christolova nur durch die Bezugnahme auf Latours ›Quasi-Objekte‹ begründet werden. Somit führt die Autorin in ihrer Argumentation wissenschaftshistorische und -theoretische Dis-

14 | FLORIAN HOOF , E VA-M ARIA J UNG , ULRICH S ALASCHEK

kussionen und die detaillierte Analyse eines einschlägigen historischen Beispiels zusammen. Lea Haller stellt in ihrem Beitrag eine der bedeutendsten Errungenschaften der modernen medizinisch-pharmazeutischen Forschung ins Zentrum: das Cortison. Haller argumentiert dafür, dass die Erfindung des Cortisons, das als paradigmatisches Erfolgsprodukt der Zusammenarbeit zwischen Hochschule, Klinik und Industrie gilt, entgegen dem ersten Anschein nicht monokausal auf medizinisch-chemische Grundlagenforschung zurückgeführt werden kann. Sobald man einen Blick auf die komplexen Entstehungsvorgänge des Cortisons wirft, werde ersichtlich, dass der Weg des Medikaments vom Labor in die klinischen Anwendungsfelder weder geradlinig noch einseitig verlief. Vielmehr lieferten die wechselseitigen Abhängigkeiten unterschiedlicher Akteure in heterogenen Netzwerken den Nährboden für die Entwicklung des Cortisons. Nicht gezielte Abläufe und zentral geplante Arbeitsaufteilungen der beteiligten Gruppen verhalfen laut Haller dem Medikament zu seinem Erfolg, sondern ein dezentral organisiertes Arbeitsfeld, das durch oftmals kontingente Prozesse und sogar Fehldiagnosen und -interpretationen gekennzeichnet war. Haller begründet ihre These anhand einer detaillierten Analyse der Entstehung des Cortisons – von den Ursprüngen der Hormonforschung und -therapie gegen Ende des 19. Jahrhunderts bis hin zur Markteinführung in den 1950er Jahren. Vor allem die unterschiedlichen Interessen und vielfältigen Kooperationen und Vernetzungen der beteiligten Gruppen aus Forschung, Industrie und Klinik stehen hierbei im Vordergrund.

W ISSENSTRANSFORMATIONEN Der den Band abschließende dritte Teil legt seinen Schwerpunkt auf Wissenstransformationen. Die Fragen, wie sich Wissen an den Schnittstellen zwischen verschiedenen Wissensbereichen verhält und welchen Einfluss die Dynamik von Wissensorten und -objekten auf Wissensübertragungen hat, stehen im Mittelpunkt. In den Beiträgen dieses Teils werden theoretische Konzepte zu ihrer Erklärung ebenso diskutiert wie die Frage nach den gesellschaftlichen Folgen. Proble-

V ORWORT

| 15

matisch bleibt es, Aussagen über Erfolg oder Misserfolg der jeweiligen Transformation zu treffen, da die Antwort hier je nach Perspektive und angesetztem Kriterium sehr unterschiedlich ausfällt. Selbst bei planmäßig ablaufenden Prozessen ergeben sich mitunter gravierende Nebenwirkungen. Im Mittelpunkt des Beitrags von Eva-Maria Jung steht die Wissenskonzeption des ungarisch-britischen Philosophen Michael Polanyi. Dieser prägte den Begriff des ›impliziten Wissens‹, der über Fachgrenzen hinweg eine weite und vielseitige Verwendung findet. Jung zeigt die Bedeutung auf, die ›implizites Wissen‹ für Polanyis wissenschaftsphilosophische Gesamtkonzeption einnimmt. Sie argumentiert dafür, dass der Begriff in einigen zeitgenössischen Debatten als ›terminus technicus‹ eine Bedeutungsverschiebung erfährt, die den ursprünglichen Absichten Polanyis nicht gerecht wird. ›Implizites Wissen‹ könne weder mit Gilbert Ryles ›knowing how‹ parallelisiert werden, noch sei es durch eine bloße Gegenüberstellung zu explizitsprachlichem Wissen erfassbar. Vielmehr entwickle Polanyi einen reformierten Wissensbegriff, der implizite und persönliche Momente umfasst und einen neuen Standpunkt begründet, von dem aus alle Wissensphänomene zu betrachten sind. Darüber hinaus argumentiert Jung dafür, dass die Frage nach einer geeigneten Wissensvermittlung innerhalb der Wissenstheorie Polanyis teilweise ungeklärt bleibt: Eine geeignete Übermittlung von Wissen erfordere demzufolge, dass bestimmte soziale wie kulturelle Kontexte geteilt werden. Wie Wissen sich an Schnittstellen von unterschiedlichen Wissenssystemen verhält, werde vor diesem Hintergrund nicht deutlich. Torsten Heinemann untersucht im folgenden Beitrag, welche Determinanten zum gegenwärtig massenmedial verbreiteten Bild von Ergebnissen der Hirnforschung führen. Er fragt, ob diese unter Gesichtspunkten der Verbreitung zweifellos erfolgreiche Transformation als Idealtypus angesehen werden und als Vorbild für andere Wissenschaften gelten kann, wenn es um die Popularisierung wissenschaftlichen Wissens geht. Die allgemeinverständliche öffentliche Darstellung wissenschaftlichen Wissens sei grundsätzlich wichtig, um die Akzeptanz und die Förderbereitschaft der Wissenschaften in einer Gesellschaft zu gewährleisten. Um dauerhaft ein mediales Interesse an ihrer Forschung zu erhalten, nutzen Teile der bildgebenden Neurowissenschaf-

16 | FLORIAN HOOF , E VA-M ARIA J UNG , ULRICH S ALASCHEK

ten das mediale Potenzial ihrer Forschung in hohem Maße. Damit, so Heinemann, reagiere dieser Forschungszweig auch und vielleicht vor allem auf Anforderungen, die an Wissenschaft heute gestellt werde. Seit die westliche Welt sich selbst zur Wissensgesellschaft erklärt habe, sei es nur folgerichtig, wenn Wissen als Ware gehandelt werde. So werde eine Popularisierung provoziert, die die Funktion der Werbung bei materiellen Gütern übernehme. Bei den bildgebenden Neurowissenschaften habe dies von Anfang an ausgezeichnet funktioniert, weil ihr Forschungsobjekt für viele Menschen hochinteressant zu sein scheint. Doch dieses ›Diktat der Popularisierung‹ sorge für Begleiterscheinungen, die eigentlich nicht wünschenswert sein könnten. Hirnforschung findet häufig in interdisziplinären Kooperationen statt, wobei Forscher mit ganz unterschiedlichen akademischen Hintergründen ihre Perspektiven auf einen gemeinsamen Nenner bringen müssen. Dabei wird in Kauf genommen, dass die interdisziplinäre Zusammenarbeit unter der Prämisse, Ergebnisse zu erhalten, deren populäre Aufbereitung für die Medien interessant ist, auch zur Aufweichung wissenschaftlicher Grundprinzipien führen kann. Das Gebot der Popularisierung begünstigt Methoden, die für die Darstellung in öffentlichen Kontexten, nicht unbedingt aber auch für die effiziente Gewinnung neuen wissenschaftlichen Wissens optimiert sind. Mit der Wirkung von Hirnbildern in öffentlichen Kontexten befasst sich auch der Beitrag von Ulrich Salaschek. Sein Ausgangspunkt ist das Menschenbild, das in populärwissenschaftlichen Kontexten von Neurowissenschaftlern postuliert wird. Dieses Konzept bezeichnet er als ›neuronale Maschine‹ und untersucht seine potenziellen Auswirkungen auf menschliches Zusammenleben. In den letzten Dekaden der werde Mensch neurowissenschaftlich so dargestellt, als sei er mit seinem Gehirn identisch. Das Gehirn werde wiederum als biochemisches bzw. bioelektrisches System aufgefasst, das auf Basis der Naturgesetze vollständig erklärbar und vorhersagbar sein müsse. Dieser Argumentation folgend gelte unter vielen Neurowissenschaftlern auch jedes menschliches Fühlen, Denken und Handeln als grundsätzlich neuronal determiniert. Als populäre Methode der Hirnforschung, deren Bilder in öffentlichen Kontexten oft als Beleg für die neuronale Maschine herangezogen werden, identifiziert Salaschek die funktionelle Magnetresonanztomographie (fMRT) und untersucht, ob sich mit ihr die

V ORWORT

| 17

postulierten Determinismen der Hirnfunktionen begründen lassen. Die vollständige Erklärbarkeit ihrer Funktionsweise sowie die Möglichkeit, jegliche Transformationsschritte im Prozess der Datenverarbeitung (zumindest theoretisch) wieder zu reversibilisieren, sei eine basale Voraussetzung dafür, dass die fMRT gültige Belege für ein deterministisch funktionierendes Gehirn liefern könne. Dabei zeigt Salaschek, dass einerseits die Genauigkeit der fMRT wesentlich geringer ist, als es auf den Bildern den Anschein hat, dass in fast jedem Datenverarbeitungsschritt mit Modellen gearbeitet wird, für die es keine Einzelfallentsprechung gibt, und dass selbst die physikalische Erklärung dafür, warum MRT überhaupt möglich ist, Lücken aufweist. Somit kommt er zu dem Schluss, dass sich die Vorstellung vom Menschen als neuronaler Maschine mit der fMRT nicht begründen lässt. Leon Wansleben erörtert am Beispiel des Börsenhandels den Zusammenhang von ökonomischem Wissen und ökonomischer Praxis. Sein Ausgangspunkt sind die Währungswechselkurse der 1990er Jahre, deren Verlauf sich über weite Strecken nicht mit makroökonomischen Variablen erklären lässt. Anhand der Beobachtungen seiner Feldforschung beschreibt er das Tagesgeschäft von Analysten und Händlern im Börsenhandel einer deutschen Bank unter der Fragestellung, wie im sogenannten trading floor Informationen unterschiedlicher Herkunft handlungsleitend werden. Das Großraumbüro, in dem sich der Handel vollzieht, werde stets von einer außerordentlichen Informationsflut und lauter Geschäftigkeit beherrscht, wobei sich berufliche stets mit privaten Diskursen überlagerten. In dieser Atmosphäre werde die enorme Geschwindigkeit des digitalen Handels für die beteiligten Akteure spürbar und der Computerhandel gewissermaßen entvirtualisiert. So entstehe eine reziproke Beziehung zwischen der Stimmung unter den Händlern und den Informationen, die ihnen zur Verfügung stehen: Auf der einen Seite bezögen Analysten, die für die Bereitstellung von Informationen zuständig sind, diese nicht nur aus Wirtschaftsdaten, sondern auch aus der Stimmung, die sie aus dem trading floor aufnähmen. Auf der anderen Seite nutzten Händler die ihnen zu Verfügung gestellten Informationen und Prognosen nur als einen Parameter unter vielen. Sie seien also nicht im engeren Sinne handlungsleitend, aber dennoch wichtig, weil sie den Händlern ermöglichten, sich zu ihnen zu verhalten – Prognosen dienten den Händlern

18 | FLORIAN HOOF , E VA-M ARIA J UNG , ULRICH S ALASCHEK

vor allem als ›Anker und Fiktionsgenerator‹. Theoretisches Wissen, so schließt Wansleben, sei im Börsenhandel ein Spielball der Märkte. Im abschließenden Beitrag des Bandes untersucht Lars Nowak Transformationsprozesse, die mit den frühen US-amerikanischen Atombombentests einhergingen. Zunächst geht es um (physische) Transformationen der Tests selbst und die Frage, inwieweit die herkömmliche Vorstellung von ›Labor‹ überhaupt noch zutreffend mit den Settings oberirdischer atomarer Explosionen in Einklang gebracht werden kann. Allein schon die Sprengkraft der Atombomben erzwingt, dass sie in riesigen Arealen getestet werden, deren Versuchsbedingungen sich bei weitem nicht alle kontrollieren lassen. Mit einem in sich geschlossenen System, wie es für Laborversuche angestrebt wird, haben die Testszenarien nichts gemein. Die Fotos und Filme der Tests, die Nowak als Ausgangspunkt seiner Analyse dienen, können nur aus großer Entfernung und unter Inkaufnahme zahlreicher Einschränkungen angefertigt werden. Denn auch im technischen Sinne war eine Atombombenexplosion zumindest anfangs ›unfassbar‹: Dadurch, dass die Strahlungsintensität der Explosionen deutlich unterschätzt wurde, kam es zu extremen Überbelichtungen bis hin zur Zerstörung des Filmmaterials. Es existierte ursprünglich auch keine Kameratechnik, mit der sich die Geschwindigkeit einer Atombombenexplosion adäquat hätte aufzeichnen lassen. Diese galt es für die nachfolgenden Tests erst zu entwickeln. Neben den physischen Transformationen geht Nowak auf die sich ändernde Beziehung der amerikanischen Öffentlichkeit zur Atombombe ein. Die Begleitumstände der raumgreifenden Atombombenversuche führten gerade aufgrund ihrer gewaltigen Dimensionen zu Bildern, die die Explosion wiederum klein und abstrakt erscheinen lassen. Doch Popularisierung ging bei den zeitgenössischen Veröffentlichungen solcher Bilder nicht nur mit Trivialisierung, sondern auch mit Zensur, Verschleierung und aktiv gestreuten Falschinformationen einher. Mit einer sinnstiftend begleitenden Rhetorik, die auf ›Notwendigkeit, Nützlichkeit und Harmlosigkeit‹ der Atombombe insistierte, entwickelten sich in der Bevölkerung zunächst sogar überwiegend positive Konnotationen gegenüber der Atombombe. Dabei handelt es sich um eine entscheidende und drastische Transformation des Wissens über die enorme Destruktionskraft der Bombe.

V ORWORT

| 19

Die Artikel dieses Bandes beruhen auf Beiträgen zur Tagung ›Knowledge has left the Building – Labor, Wissen, Transformation‹, die von den Herausgebern organisiert wurde und am 3. und 4. Juli 2009 an der Ruhr-Universität Bochum stattfand. Ein großer Dank gebührt den beiden eingeladenen Rednern Prof. Dr. Cornelius Borck und Prof. Dr. Gerhard Ernst. Sie bereicherten die Tagung nicht nur mit ihren Vorträgen, sondern auch durch ihre Denkanstöße in den Plenumsdiskussionen. Wir danken außerdem der Gesellschaft der Freunde der RuhrUniversität Bochum e.V. für die großzügige finanzielle Unterstützung der Tagung. Der größte Dank gilt der Research School der RuhrUniversität Bochum. Sie hat die Tagung und die Publikation dieses Bandes sowohl in ideeller als auch in finanzieller Hinsicht erst möglich gemacht. Von der ersten Idee zu dieser Tagung bis hin zur Publikation hat uns insbesondere Frau Dr. Ursula Justus kontinuierlich unterstützt und ermutigt.

Wissensorte

Biological Computer Laboratory Zu Organisation und Selbstorganisation eines Labors J AN M ÜGGENBURG

E INE L OKOMOTIVE

ÜBER EIN

F ELD

FÜHREN

Im Winter 1958 folgte Dana Kellerman, eine Lokaljournalistin des Daily Illini, der Einladung in eine neue Forschungseinrichtung am Department of Electrical Engineering auf dem Campus der University of Illinois in Urbana-Champaign. Als Kellerman das Biological Computer Laboratory (BCL) betrat, wurde sie von einem Professor der Elektrotechnik mit österreichischem Akzent begrüßt, der sich bereits darauf freute, der Journalistin einen ersten Prototypen seiner Laborarbeit zu präsentieren. Heinz von Foerster und sein Team, so berichtete die Journalistin später ihren Lesern, arbeiteten daran, einen ›biologischen Computer‹ zu konstruieren, bei dem man die Geschwindigkeit einer normalen Rechenmaschine gegen ›intelligentes Verhalten‹ eintauschen werde. Anhand eines einfachen Schaltkreises aus miteinander verbundenen Rechenzellen demonstrierte von Foerster sein Vorhaben, Computer – im Gegensatz zu John von Neumanns berühmter Architektur mit zentralem Prozessor, Speichereinheit, sowie Ein- und Ausgabeschnittstellen – als dezentral organisierte Netzwerke zu entwerfen. Zusammengesetzt aus einer Vielzahl ›künstlicher Neuronen‹ werde die geplante Maschine parallel statt sequentiell rechnen. Ihre künstliche Intelligenz müsse man sich als Effekt einfachster, aber kollektiv organisierter Arbeitsschritte vorstellen. Zwar werde das System von Zeit zu Zeit durchaus auch Fehler machen, in den meisten Fällen

24 | J AN M ÜGGENBURG

werde es jedoch akkurat auf die verschiedensten Herausforderungen seiner Umwelt reagieren. Die zu dem jeweiligen Zweck notwendigen Programme werde der biologische Computer bzw. seine künstlichen Neuronen selbst planen, ohne dass ein Programmierer der Maschine zuvor einen Lösungsweg vorschreiben müsse. Zwar könne man zu keinem Zeitpunkt vorhersagen, wie sich die Maschine verhalten werde, das Ergebnis sei jedoch ein unter dem Strich äußerst flexibles und zugleich stabiles System.1 Es ist weithin bekannt, dass eine der zentralen rhetorischen Strategien der Kybernetik jener Tage darin lag, über das Konkrete zu sprechen und das Abstrakte zu meinen. Und tatsächlich verbarg sich hinter Heinz von Foersters Entwurf einer alternativen Computerarchitektur die Routine der Beobachtung und Gestaltung von Selbstorganisationsprozessen aller Art, wie sie besonders für die »zweite Welle« kybernetischer Forschung charakteristisch ist.2 Denn was an jenem Wintertag der neugierigen Besucherin als ein verbotener Blick in die Zukunft des Computers erschienen sein mag, war tatsächlich ein Blick in die Gegenwart der Kybernetik selbst. So wie von Foerster das Bild einer adaptiven ›biologischen‹ Maschine entwarf, welche den Bedingungen und vielen unerwarteten Ereignissen ihrer Umwelt standhalten sollte, so wurde auch das Labor selbst von seinem Leiter als netzförmig strukturierter und nichthierarchischer Raum imaginiert. Entworfen als eine interdisziplinäre Einrichtung mit ergebnisoffenen Forschungsprojekten sollten seine Mitarbeiter in der Lage sein, selbsttätig Verbindungen einzugehen und als Ganzes intelligent in einer sich im Wandel befindenden amerikanischen Forschungslandschaft zu bestehen. Die Wissenschaftsforschung der letzten Jahrzehnte hat das Laboratorium als wirkmächtigen Dreh- und Angelpunkt der modernen Wissenschaften im 20. Jahrhundert entdeckt und ausgiebig untersucht. Sei es als ›Werkstatt‹ des Wissens3, ›Handelszone‹ zur Koordination interdisziplinären Austauschs4 oder als heterogenes ›Aggregat‹ aus Men-

1

D. Kellerman: Von Foerster’s ›Chap‹.

2

K. Hayles: How We Became Posthuman, S. 131-159.

3

H.-J. Rheinberger: Historische Epistemologie, S. 38.

4

P. Galison: Trading Zone, S. 137-160.

B IOLOGICAL C OMPUTER L ABORATORY

| 25

schen, Dingen und experimentellen Praktiken5 – das Labor hat sich in vielerlei Hinsicht als geeigneter Ausgangsort für Genealogien sozialer, technischer, kultureller und epistemologischer Konjunkturen und Zäsuren erwiesen. Die Mehrheit der Ansätze teilt dabei jedoch eine analytische Perspektive, welche das Labor als Nukleus oder Zentrum behandelt, von dem aus eine bestimmte Entwicklung ihren Anfang nehmen und sich ausbreiten kann. So geht etwa Bruno Latour davon aus, dass »der tatsächliche Inhalt der innerhalb der Mauern des Laboratoriums gemachten Versuche die Zusammensetzung der Gesellschaft verändern kann«.6 ›Erfolgreiche‹ Laborarbeit, so Latour, bedeutet, den Laborraum und dessen Verfahren sukzessive auf andere Bereiche (und letztendlich auf die ganze Gesellschaft) auszudehnen. In diesem Sinne ist Latours berühmter Ausspruch zu verstehen: »Wissenschaftliche Fakten sind wie Eisenbahnzüge: Sie funktionieren nicht außerhalb ihrer Schienen. Man kann die Schienen erweitern und sie verbinden, aber man kann nicht eine Lokomotive über ein Feld führen«.7 Einem solchen mechanistisch geprägten Beschreibungsmodell der Expansion und gezielten Aushebelung bestehender Verhältnisse soll im Folgenden die kybernetische Imagination des Labors als selbstorganisierende Maschine zur Seite gestellt werden.8 Dabei erscheint die Geschichte vom Aufbau bis zur Schließung des Biological Computer Laboratory erstens weniger als eine expansive Bewegung (vom Kleinen zum Großen), sondern im Gegenteil als eine Bewegung der Konzentration und Kontraktion (vom Großen zum Kleinen). Die ›Idee‹ des Biological Computing entstand nicht innerhalb der Mauern des neu gegründeten Labors, um sich von dort aus schrittweise auszudehnen und eine (noch in den Kinderschuhen steckende) Computerindustrie zu revolutionieren. Vielmehr lässt sich die Gründung des BCL als der Versuch verstehen, ein diskursiv wie forschungspraktisch rudimentär existierendes biokybernetisches Forschungsprogramm zu institutionalisieren und über ein teilweise bereits bestelltes und umkämpftes Feld

5

P. Geimer/H. Schmidgen/S. Dierig: Kultur im Experiment, S. 12-13.

6

B. Latour: Gebt mir ein Laboratorium, S. 123.

7

Ebd., S. 118.

8

Zur Kritik an Latours Hebelmetapher siehe T. Brandstetter: Teufels Küche.

26 | J AN M ÜGGENBURG

zu führen.9 Wie zu zeigen sein wird, komponierte Heinz von Foerster das BCL aus inhaltlichen, personellen, institutionellen und technischen Versatzstücken, mit dem Ziel, ein zur Adaptation bzw. Selbstorganisation und damit zum ›Überleben‹ fähiges Labor zu schaffen. Mit dieser Beobachtung tritt zweitens zugleich ein innerer Konflikt der Kybernetik auf den Plan, der sich in ihrer stetigen Auseinandersetzung mit dem Antagonismus von Planung und Selbstorganisation äußert. Um die Pointe gleich vorwegzunehmen: Der Imagination des Labors als sich selbst organisierende Maschine standen zentralisierte Prozesse der Steuerung und Ausbesserung stets gegenüber. Auch in diesem Sinne lässt sich die Gründung des BCL als materielle Realisierung von Vorannahmen und Hypothesen über jene ›Umwelt‹ aus potentiellen Sponsoren, konkurrierenden Institutionen und personellen Ressourcen beschreiben, in der sich das Labor erst noch beweisen musste. Dass das Phantasma der Selbstorganisation nicht nur auf institutioneller Ebene an seine Grenzen stieß, erscheint dabei bloß folgerichtig. So offenbart ein näherer Blick auf die Konstruktion jenes ersten von Heinz von Foerster im Dezember 1958 stolz vorgeführten Prototypen, dass sich ihr Ingenieur mit der gleichen unauflösbar paradoxen Aufgabenstellung einer Organisation von Selbstorganisation konfrontiert sah.

D ER

WAHRE BIOLOGISCHE

C OMPUTER

»Die Idee ist die folgende: Du hast ein System, das aus Elementen besteht, die zunächst einmal in keiner Weise miteinander verknüpft sind; aber jedes Element hat das Potenzial einer Verknüpfung. Nimm zum Beispiel einen Betrieb. Zunächst ist es ein Aggregat von Menschen, die nichts miteinander zu tun ha-

9

Tatsächlich fallen die Anfangsjahre des BCL genau in die Phase einer von Protagonisten konkurrierender Institute heftig geführten Debatte innerhalb der amerikanischen Künstlichen Intelligenz-Forschung. Während sich der neuronale Ansatz zunächst gegen den symbolischen durchzusetzen schien, trug letzterer schließlich den Sieg davon. Hierzu ausführlicher und auch zum ›Comeback‹ der Neuronalen Netze in den 1980er Jahren siehe: U. Meyer: Die Kontroverse um Neuronale Netze.

B IOLOGICAL C OMPUTER L ABORATORY

| 27

ben; aber jeder kann sich mit einem anderen verbinden. Das Einzige, was du tust, ist die füttern. Du bringst also Energie hinein, sodass sie nicht sterben. Nach einer Zeit werden sie anfangen miteinander zu reden, werden einen Club formieren; der eine sammelt Marken, der andere schaut sich pornographische Bücher an et cetera et cetera. Nach einiger Zeit ist eine Ordnung in dem System«.10

Die am BCL sowohl auf inhaltlicher als auch auf institutioneller Ebene gepflegte systemische Rhetorik der Selbstorganisation wurde konterkariert durch die bewerkstelligende und koordinierende Tätigkeit ihres Direktors. Im Folgenden soll die Geschichte des BCL daher als der Versuch von Foersters dargestellt werden, die seit den späten 1940er Jahren existierenden diskursiven, technischen und personellen Elemente der Kybernetik zusammenzuziehen und innerhalb der Mauern eines Labors und im Rahmen eines konkreten Forschungsprojektes institutionell zu verdichten. Heinz von Foerster, der die kybernetische Bewegung der fünfziger Jahre der USA begleitet und sich mit ihr intensiv auseinandergesetzt hat, tritt in dieser (notwendigerweise stark verkürzten und schematischen) Außendarstellung des Labors gleich in mehrfacher Hinsicht als ›Kompositeur‹ seines eigenen Labors in Erscheinung. Das Konzept eines Computers, welcher die ›tatsächliche‹ Struktur und Funktionalität des Gehirns repliziert, ist so alt wie die digitale Maschine selbst. Gegen 1940, so konstatiert Margaret Boden in ihrem umfangreichen Rückblick auf die gemeinsame Geschichte von Kognitions- und Computerwissenschaften im 20. Jahrhundert, trifft das neurobiologische Wissen vom Neuron als Grundbaustein des Gehirns auf einen »logischen Atomismus«, welcher die mentalen Leistungen des menschlichen Gehirns ebenfalls als eine Zusammensetzung elementarer Einheiten, in diesem Fall logischer Operationen, zu beschreiben versucht.11 Seinen Kulminationspunkt hat dieses Aufeinandertreffen im Jahr 1943 in der Zusammenarbeit des Neurophysiologen Warren

10 M. Bröcker/H.v. Foerster: Teil der Welt, S. 223-224. Zu von Foersters Konzept der ›Selbst-Organisation‹ bzw. dem von ihm formulierten order from noise-Prinzip siehe auch: H.v. Foerster: On Self-Organizing Systems. 11 M.A. Boden: Mind as Machine, S. 169.

28 | J AN M ÜGGENBURG

McCullochs und des Mathematikers Walter Pitts, die mit ihrem Aufsatz »A Logical Calculus of the Ideas Immanent in Nervous Activity« die Grundlagen für ein hypothetisches Modell der Gehirntätigkeit als funktionales Netzwerk von formalisierten Neuronen ausgearbeitet haben.12 Da es McCulloch und Pitts gelang, alle drei wesentlichen logischen Operatoren der booleschen Algebra mit Hilfe ihrer formalen Neuronen zu artikulieren, konnte ihre Theorie indes nicht nur als ein Modell von mentalen Gedankenoperationen gelesen werden, sondern stellte gleichzeitig ein potentielles Modell für eine Maschine dar, die im Prinzip »jede Zahl berechnen kann, die eine Turingmaschine mit einer festen Länge des Papierstreifens berechnen kann«.13 Fortan wurde die Notation von McCulloch und Pitts nicht nur weithin verwendet, um anschaulich zu beschreiben, wie Computerschaltkreise logisch miteinander verknüpft sind, und damit die immer populärer werdende Computer/Gehirn-Metapher weiter zu unterstützen,14 sie stellte darüber hinaus eine ständige konzeptuelle Alternative zu konkurrierenden Computerarchitekturen wie der sequentiellen Anordnung in John von Neumanns klassischen Entwurf dar.15 So war für den Ingenieur und Kenner der Szene Claude Shannon zwar bereits Anfang der 1950er Jahre offensichtlich, dass das aktuelle wie zukünftige »Bread-andButter«-Geschäft der Computeringenieure in der Konstruktion großer Rechenanlagen zur Lösung numerischer Probleme bestand. »Für viele von uns«, so Shannon im Jahr 1953, »liegen die aufregendsten Potentiale der Computer dennoch in ihrer Fähigkeit nicht-numerische Operationen durchzuführen [...] und komplizierte Funktionen zu übernehmen, wie sie normalerweise mit dem menschlichen Gehirn in Beziehung gebracht werden«.16 Unmittelbar nach seiner Immigration in die USA im Jahr 1949 wurde Heinz von Foerster mit diesen epistemischen Aushandlungsprozessen der neuen Technologie konfrontiert. Bereits kurze Zeit nach

12 W.S. McCulloch/W. Pitts: Logical Calculus. 13 W.S. McCulloch: Hirn in Tinte, S. 235. Vgl. auch T.H. Abraham: (Physio)Logical Circuits. 14 H.H. Goldstine: Computer from Pascal to Neumann, S. 200-201. 15 W. Hagen: Camouflage der Kybernetik, S. 201-203. 16 C.E. Shannon: Computers and Automata, S. 1235.

B IOLOGICAL C OMPUTER L ABORATORY

| 29

seiner Einreise hatte er die Bekanntschaft mit Warren McCulloch gemacht, der ihm nicht nur zu einer Anstellung als Leiter des Electron Tube Research Laboratory an der University of Illinois verhalf, sondern ihn auch in die interdisziplinären Diskussionsgruppen der MacyKonferenzen einführte.17 Eines der am kontroversesten diskutierten Themen, mit denen sich die Macy Group in New York regelmäßig beschäftigte, war dabei eben jene von McCulloch und Pitts aufgeworfene Frage, ob sich ein logisches Kalkül finden lässt, mit dem man Struktur und Funktionalität des Gehirns adäquat beschreiben und welches als Blaupause für mögliche Computerarchitekturen dienen kann.18 Während im universitären Alltag in Urbana-Champaign Elektronenröhren, Oszillatoren und optische Modulatoren auf von Foerster warteten,19 ließen die interdisziplinären Gespräche mit der ersten Kybernetiker-Generation wie Norbert Wiener, Warren McCulloch und John von Neumann in ihm dabei das Bedürfnis entstehen, seine Kenntnisse in Mathematik und Physik um die Grundlagen zeitgenössischer Neurobiologie, Physiologie und allgemeiner Biologie zu komplettieren. Mit einem Stipendium der Guggenheim Foundation verbrachte von Foerster im Jahr 1956 ein Forschungssemester am Research Laboratory of Electronics (RLE) des MIT bei McCulloch. Den zweiten Teil seines Sabbatical verbrachte er in Mexico City bei dem Neurophysiologen Arturo Rosenblueth, um ein Jahr später mit den Plänen für ein biokybernetisches Labor nach Urbana-Champaign zurückzukehren. Aus einer weit verteilten heterogenen Menge epistemischer Versatzstücke, jedes einzelne eng verbunden mit seiner eigenen Biografie, hatte von Foerster ein kohärentes Forschungsprojekt zusammengestellt. Netzwerklogik, Nerven- und Muskelphysiologie, Systembiologie und Elektrotechnik trafen sich in seiner projektierten »Realisierung biologischer Computer«. »The research work under consideration is directed toward the realisation of ›biological computers‹. This term is used to describe a general class of systems which would be defined in modern computer language as special purpose

17 H.v. Foerster: Erinnerungen an die Macy-Konferenzen, S. 43-46. 18 S.J. Heims: Cybernetic Group, S. 31-51. 19 M. Bröcker/ H.v. Foerster: Teil der Welt, S. 201-204.

30 | J AN M ÜGGENBURG

computers composed of components (elements) characterized by low reliability and high complexity which are organized – or organizing themselves – such that the system reliability remains high«.20

In der Folge gelang es dem Österreicher potentielle Geldgeber für seine ›biologischen Computer‹ zu interessieren, wobei er vor allem von den in den späten 1950er und 1960er Jahren als Reaktion auf den Sputnikschock großzügig ausgeschütteten Forschungsgeldern für ›Grundlagenforschung‹ profitierte.21 Nachdem von Foerster zwischen den Jahren 1957 und 1959 mehrere Vorträge vor möglichen Förderern in Washington wie dem Office of Naval Research (ONR), dem National Health Institute (NHI) und der National Science Foundation (NSF) gehalten hatte, waren so vor allem in den Anfangsjahren des BCL ausreichend Mittel vorhanden, um sein Forschungsprogramm in die Praxis umzusetzen und sein Labor in aktuellen Forschungsfeldern wie ›Artificial Intelligence‹ oder ›Pattern Recognition‹ zu positionieren. Die zentralen Strategien von Foersters waren dabei die Konstruktion und Demonstration kybernetischer Modelle, die Organisation interdisziplinärer Tagungen, die Veröffentlichung zahlreicher Publikationen in Zeitschriften und im Eigenverlag, sowie die gezielte Anbindung neuer Mitarbeiter und Kooperationsparter. Bei der personellen Aufstellung seines Labors konzentrierte sich von Foerster zunächst auf Wissenschaftler aus jenem kybernetischen Netzwerk, das er in den fünfziger Jahren kennen gelernt hatte (Ross Ashby, Gordon Pask, Warren McCulloch als wissenschaftlicher Berater) und versuchte gleichzeitig, dass sich in seinem Labor auch die von ihm neu-

20 H.v. Foerster: Pilot Investigation, S. 1. 21 An den Ausschreibungen der National Science Foundation jener Zeit lässt sich diese Präferenz gut belegen: Die »Suche nach neuem Wissen durch Grundlagenforschung« und die »Ausbildung zukünftiger Wissenschaftler und Ingenieure« hielt man für die zwei Hauptaufgaben des anbrechenden Jahrzehnts. Man sah sich mit diesem Vorhaben in einer Linie mit der allgemeinen Empfehlung des Wissenschaftsrates, nach dem »richtigen Wissen« und nicht nach dem »nächstbesten Wissen« zu suchen. NSF: Investing in Scientific Progress 1961-1970, S. 3.

B IOLOGICAL C OMPUTER L ABORATORY

| 31

eingebrachten Ansätze wiederspiegelten.22 Bis zu seiner Schließung im Jahr 1974 lässt sich die Geschichte des BCL in der Folge vor allem als der Versuch beschreiben den Anfang der sechziger Jahre erreichten Status zu erhalten. So war das BCL vor allem in der zweiten Hälfte seiner fast fünfzehn Jahre dauernden Geschichte auf institutioneller Ebene fortwährend von finanziellen Engpässen, universitätspolitischen Angriffen und disziplinären Reinigungsbestrebungen aus dem Umfeld der konventionellen Ingenieurswissenschaften bedroht. Dabei nahm Heinz von Foerster diverse Aktualisierungen und Neuausrichtung der inhaltlichen Ausrichtung des BCL vor, was auch als der Versuch angesehen werden kann, das Labor den sich ändernden ›Umweltbedingungen‹ anzupassen.23 Bereits in dieser kurzen schematischen Zusammenfassung der Gründung des BCL lassen sich also mindestens drei Kompositionen ausmachen. Als ›Diskursbastler‹24 bediente sich Heinz von Foerster einer Vielzahl von Versatzstücken aus dem (bio-)kybernetischen Diskurs der 1950er Jahre, um sein Forschungsprojekt eines ›biologischen Computers‹ zusammenzufügen. Auf ähnliche Art und Weise verband er zweitens Arbeitsweisen und Materialien der Elektrotechnik mit kybernetischen und system-biologischen Fragestellungen zu einem kohärenten forschungspraktischen Ansatz. Und drittens bemühte er sich darum, dass sich diese ersten beiden Kompositionen in der personellen Aufstellung seines Labors wiederfanden. In dieser Rolle als Kompositeur und Koordinator seines eigenen kybernetischen Laborunternehmens entsprach Heinz von Foerster einem in der amerikanischen Wissenschaftslandschaft der 1950er und 1960er Jahre häufig anzutreffenden Wissenschaftlertypus. Wie Fred

22 So versuchte von Foerster zum Beispiel den österreichischen Biologen und Mitbegründer der Systembiologie Ludwig von Bertalanffy als Gründungsmitglied für das BCL zu gewinnen. Vgl. Korrespondenz H.v. Foerster mit L.v. Bertalanffy, University of Illinois Archives, 11/6/26, Box 11, Folder: Von Bertalanffy. 23 Für einen ausführlicheren Überblick zur Geschichte des BCL siehe A. Müller: Kurze Geschichte des BCL & ders.: End of the Biological Computer Laboratory. 24 C. Lévi-Strauss: Das wilde Denken, 30f.

32 | J AN M ÜGGENBURG

Turner gezeigt hat, zeichneten sich viele der in den Nachkriegsjahren und im Rahmen der Big Science entstanden Forschungseinrichtungen durch eine kollaborative und interdisziplinäre Arbeitsatmosphäre sowie einen ausdrücklich nichthierarchischen Führungsstil aus. Abbildung 1: Heinz von Foerster in seinem Labor, um 1967

Quelle: Fotografie »Prof. Heinz von Foerster exits the Biological Computer Laboratory office in the Electrical Engineering Research Laboratory at the University of Illinois (image dated circa 1967)«, Mit freundlicher Genehmigung der University of Illinois Archives, in: RS: 39/1/11, Box 75, Folder von Foerster, Heinz.

Die Wissenschaftler und Ingenieure selbst wurden in diesem Umfeld jedoch immer mehr zu Unternehmern, die selbstständig lokale Netzwerke von Technikern, Financiers und Administratoren zusammenstellen und koordinieren mussten, wenn sie ihre Projekte durchführen wollten.25 Insbesondere die Kybernetik und später die Systemtheorie unterstützten diese Entwicklung, da sie aufgrund ihrer universalisti-

25 Als Beispiel bespricht Turner das Rad Lab am MIT dessen Nachfolgeinstitut RLE Heinz von Foerster während seines Sabbatical im Jahr 1956 besuchte. F. Turner: From Counterculture to Cyberculture, S. 19.

B IOLOGICAL C OMPUTER L ABORATORY

| 33

schen Ausrichtung die notwendigen rhetorischen Werkzeuge bereitstellten, die es erlaubten, interdisziplinäre Dialoge und fachfremde Wissenschaftler durch die gegenseitige Zuschreibung von Legitimität zusammenzuführen.26 Darüber hinaus offerierten die beiden Ansätze inhaltlich ein Wissen von dezentral selbstregulierenden Systemen, welches die Selbstbeschreibung als heterogene und ›heterarchisch‹27 organisierte Arbeitswelten unterstützte. Wie Turner feststellt, hatte dieses Nebeneinander von Unternehmergeist und antiautoritärer und egalitärer Strukturen ein ambivalentes Verhältnis zu Führung und Steuerung zur Folge, das sich auch für das BCL feststellen lässt.28 So zeichnen zahlreiche Berichte ehemaliger Mitarbeiter das Bild einer zwar interdisziplinären und offenen Diskussionskultur, der jedoch eine »›unausgewogene‹ Kommunikationsstruktur« stets gegenüberstand.29 Letztendlich, so scheint es, funktionierte kollektives Forschen an von Foersters Labor nur über eine ständige Rückversicherung durch den Direktor und sein idiosynkratisches Forschungsprogramm. Um das Problem mit den Worten seines ehe-

26 G.C. Bowker: Cybernetics Strategies, S. 114-117. 27 Der Begriff der ›Heterarchie‹ wurde von Warren McCulloch etwa um das Jahr 1945 als Komplement zum Begriff der ›Hierarchie‹ eingeführt, um den dezentralen Aufbau neuronaler Netze adäquat beschreiben zu können. Vgl. W.S. McCulloch: Topology of Nervous Nets. 28 Wie Turner darlegt, lässt sich diese Ambivalenz auch für Protagonisten der amerikanischen Counterculture wie Buckminster Fuller, Marshall McLuhan und Stewart Brand nachweisen, deren Ideologien deutliche Schnittmengen mit dem kybernetischen Diskurs haben und von diesem beeinflusst wurden. F. Turner: From Counterculture to Cyberculture, S. 42-67. 29 Diese Beobachtung macht Albert Müller, der sich auf ein Gespräch mit dem chilenischen Biologen Humberto Maturana beruft, welcher Ende der 1960er Jahre als Gastprofessor am BCL war. Maturana berichtet darin, dass von Foerster die einzige Person war, die alle am Labor laufenden Projekte »verstehen« konnte. Dies sei bei den BCL-Mitarbeitern untereinander oft nicht der Fall gewesen. A. Müller: Geschichte des BCL, S. 27.

34 | J AN M ÜGGENBURG

maligen Studenten Michael Holloway zu benennen: »The biological computer in the Biological Computer Laboratory was Heinz’s brain«.30

E IN G RUNDSÄTZLICHES D ILEMMA Während am BCL eine Selbstbeschreibung als dezentral geführte, nichthierarchische und ergebnisoffen arbeitende, mit einem Wort als selbstorganisierende Forschungseinrichtung gepflegt wurde, trat von Foerster als vernetzender und intelligent reagierender ›Biocomputer‹ seines eigenen Labors in Erscheinung. Dieses immanent paradoxe Problem einer organisierten Selbstorganisierung bzw. einer ›programmierten Selbstprogrammierung‹ wiederholte sich auch auf forschungspraktischer Ebene und stellte – wie im Folgenden gezeigt werden soll – ein unüberwindbares (aber gerade darin produktives) Problem für die Mitarbeiter des BCL dar. Bereits bei der Konstruktion des allerersten Prototyps eines ›biologischen Computers‹ verfing sich sein Konstrukteur in einem unauflösbaren Dilemma zwischen zwei grundsätzlich verschiedenen Ansätzen. Der Adaptive Reorganizing Automaton (ARA) entstand im Rahmen der Doktorarbeit des späteren BCL-Assistenzprofessors Murray Babcock. Geboren in Wyoming, Illinois hatte Babcock bereits sein Studium am Department of Electrical Engineering an der University of Illinois absolviert und gehörte damit zu jenen ›konventionell‹ ausgebildeten Ingenieuren, die den neuen durch von Foerster eingebrachten interdisziplinären Ansatz des BCL erst noch verinnerlichen mussten. Im Unterschied zu anderen Kybernetikern seiner Zeit, die sich mit der Konstruktion ›künstlicher Gehirne‹ befassten,31 musste sich Babcock das notwendige neurophysiologische und systembiologische Wissen erst mühsam im Selbststudium aneignen. Schließlich bestand sein Vorhaben darin, einen Automaten zu entwerfen, der sich das zeitgenössische »begrenzte Wissen über das Nervengewebe lebendiger Organismen zum Vorbild« nahm. Das Alleinstellungsmerk-

30 J.A. Hutchinson: Nerve Center. 31 Prominente Beispiele sind der Neurophysiologe Grey Walter und der Neuropsychiater Ross Ashby. Vgl. A. Pickering: Cybernetic Brain.

B IOLOGICAL C OMPUTER L ABORATORY

| 35

mal biologischer Systeme, so Babcock, bestehe dabei in der Fähigkeit der »Adaptation und Selbstorganisation«, welche er sich unter Berufung auf die »Pionierarbeit von Claude Bernard, Norbert Wiener, Warren McCulloch und anderen« als Effekt einer »Feedbackschleife« vorstellte, die als »Informationsfluss« beschrieben werden kann, welcher »aus der Umwelt durch das System und dann zurück in die Umwelt strömt, so dass das System durch die eigene Aktivität Kenntnis über seinen Zustand erhält«.32 Abbildung 2: Blockdiagramm einer energy transducer-Einheit

Quelle: M.L. Babcock: Reorganization by Adaptive Automation, S. 74.

Um sein Ziel zu erreichen, entwarf Babcock einen pulsmodulierten Stromkreis der 168 ›künstliche Neuronen‹ miteinander verband. Um die Komplexität des biologischen Neurons zu modellieren, bestanden diese Zellen aus drei Untergruppen verschiedener Bauteile: Der energy transducer war im Wesentlichen die technische Realisierung eines formalisierten Neurons nach McCulloch und Pitts, mit der sich logische Grundoperationen umsetzen ließen (Abb. 2).33 Der von Babcock

32 M.L. Babcock: Reorganization by Adaptive Automation, S. 1-2. 33 Wesentlicher Bestandteil des energy transducer war wiederum eine summer unit mit manuell einstellbarem Widerstand, welche die ›Summe‹ aus ›exzitatorischen‹ und ›inhibitorischen‹ Signalen bildete und eine pulse unit

36 | J AN M ÜGGENBURG

so genannte facilitator, der die Aufgabe der ›Synapse‹ übernehmen sollte, enthielt eine Speichereinheit, welche Informationen über die Gesamtzahl aller durch ihn geleiteten Impulse über einen bestimmten Zeitraum sammelte. Abbildung 3: Adaptive Reorganizing Automaton (Vorder- und Rückansicht)

Quelle: M. L. Babcock: Reorganization by Adaptive Automation, S. 97-98.

Auf der Grundlage der so gewonnenen Durchgangszahl steigerte oder senkte ein angeschlossener Verstärker die Frequenz des Ausgangssignals, so dass eine häufige Nutzung des jeweiligen facilitator ein immer stärker werdendes Ausgangssignal zur Folge hatte. Auf diese Weise konnten sich bevorzugte Informationswege zwischen den energy tranducer-Einheiten herausbilden.34 Ein drittes Bauteil mit dem

dazu veranlasste, ein Ausgangsignal abzugeben oder eben nicht. Bemerkenswerterweise verwendet Babcock auch in den eher technisch-deskriptiven Kapiteln seiner Dissertation eine Vielzahl neurophysiologischer Metaphern. 34 Bereits Sigmund Freud beschrieb in seinem »Entwurf einer Psychologie« aus dem Jahr 1895 das Prinzip der ›Bahnungen‹ präferierter Wege im Nervenapparat des Gehirns (eng. facilitation). Spätestens jedoch seit seiner Ausformulierung in eine Lerntheorie neuronaler Netzwerke durch Do-

B IOLOGICAL C OMPUTER L ABORATORY

| 37

Namen autonomous component sorgte schließlich dafür, dass der Automat niemals vollständig zur Ruhe kam, sondern zufällige Impulse abgab, sobald ein Sensor feststellte, dass der Automat über einen gewissen Zeitraum inaktiv war. Dem Operator bzw. Experimentator, der mit dem ARA arbeiten sollte, kam nur mehr die Aufgabe zu, das Verhalten der künstlichen Neuronen und Synapsen über 30 Anzeigeröhren abzulesen (Abb. 3, drittes Modul von oben) und gegebenenfalls die Verschaltung und inneren Widerstände der einzelnen Komponenten zu verändern, um neue Verhaltensmuster zu erzeugen (Abb. 3, Rückansicht).35 Während also die einzelnen Komponenten des ARA eindeutig in ihrer Funktion festgelegt waren, sollte sich ihr kollektives Verhalten als ganze Maschine durch ›Adaptation‹ an eine äußerliche Umwelt ›selbst organisieren‹.36 Babcock war indes durchaus bewusst, dass sich bereits in den Ansatz seines Vorhabens einige grundlegende epistemologische Schwierigkeiten eingeschlichen hatten. So beschäftigte ihn vor allem die Frage, ob sich sein Automat tatsächlich erstens adaptiv verhalte und zweitens überhaupt einige der strukturellen und funktionalen Eigenschaften von Nervengewebe besäße. Ein grundsätzliches Problem, mit dem Babcock sich dabei konfrontiert sah, war die Wahl einer adäquaten Methode, um den Wissenstransfer aus der Biologie in das technische System zu bewerkstelligen. Für den Ingenieur boten sich zwei unterschiedliche Vorgehensweisen an: »One is the definition and determination of system goals and the resultant system synthesis using the definition as guides. The other is the construction of a system using elementary components of extreme informational flexibility and the resultant analysis of that system. The former is the approach of going from

nald O. Hebb im Jahr 1949 erfuhr das Konzept steigende Popularität in der Neurophysiologie und konnte so den Ingenieur Babcock bei der Konstruktion seines Automaten inspirieren. Vgl. S. Freud: Entwurf; sowie D. Hebb: Organization of Behaviour. 35 M.L. Babcock: Reorganization by Adaptive Automation, S. 68-113. 36 Aus diesem Grund wird der ARA in der Literatur bisweilen als »konkrete Verkörperung des abstrakten Konzeptes selbstorganisierender Systeme« nach Heinz von Foerster interpretiert. Vgl. P. Asaro: Bio-Computing.

38 | J AN M ÜGGENBURG

the general system to the specific component whereas the latter is the approach of going from the general component to the specific system.«37

Die Vor- und Nachteile der zwei Ansätze, welche man heute üblicherweise als Top Down- und Bottom Up-Methode bezeichnet, wog Babcock sorgfältig gegeneinander ab. Auf den ersten Blick erschien es sinnvoll, eine Methode zu wählen, der ein vorher festgelegter Begriff von Adaptation zu Grunde liegt. Seine ›künstlichen Neuronen‹, so Babcock, könne man anschließend gemäß dieser Begriffsdefinition so konstruieren und zusammensetzen, dass sie als Kollektiv das gewünschte Verhalten aufweisen. Da das Systemziel als bekannt bzw. das theoretische Wissen über Adaptation vorausgesetzt werden kann, bestehe die Aufgabe für den Ingenieur lediglich in der Synthese des Automaten. Für Babcock hatte dieser Ansatz aber zwei entscheidende Nachteile: Zum einen wusste er aus langjähriger Erfahrung, dass die Anwendung theoretischer Konzepte auf materielle Komponenten und Schaltkreise »sicherlich kein vollkommen geradliniger Prozess ist«. Andererseits hielt Babcock die Annahme, man könne die Systemziele a priori festlegen, um dann ein adaptives System zu erhalten, für grundsätzlich problematisch. Wenn ein Ingenieur von seinem Automaten unvorhersehbares Verhalten erwarte, sei es ihm per definitionem unmöglich dessen »Systemziele« vorher zu formulieren. Täte man dies dennoch, erhalte man eben keinen wirklich adaptiven Automaten, sondern ein System, welches »davon abhinge, wie sein Konstrukteur die Begriffe Informationstheorie, Logik, Physiologie, Intuition, etc. verwendet«.38 Der zweite Ansatz schien einen Ausweg aus diesem Dilemma zu bieten: Anstatt das Systemziel vorher zu definieren, beginne der Ingenieur hier mit der Konstruktion »extrem informationell flexibler Komponenten«, und erst in einem zweiten Schritt würden diese Grundbausteine zu einem spezifischen System zusammengesetzt. Das wichtigste Argument für eine solche Vorgehensweise war für Babcock ein epistemologisches:

37 M.L. Babcock, Reorganization by Adaptive Automation, S. 25. 38 Ebd., S. 26.

B IOLOGICAL C OMPUTER L ABORATORY

| 39

»If the elementary components are made as flexible as the biological neurons then the existence of the biological system can be used as an existence proof that an adaptive system can be constructed from the flexible elementary components.«39

Entscheidet sich der Ingenieur also für diese Methode, so kann er die problematische (weil subjektive) Formulierung einer Definition von ›Adaptation‹ vermeiden. Seine Aufgabe bestehe vielmehr darin, eine funktionale Einheit zu konstruieren, die so flexibel arbeitet wie das natürliche Neuron selbst. Dabei, so Babcock, habe der Ingenieur alle Hilfe der aufgezeichneten Forschungsergebnisse aus den verschiedenen Bereichen der biologischen Forschung, um die benötigte Flexibilität zu bestimmen. Habe er dieses Ziel erreicht und aus seinen künstlichen Neuronen ein beliebiges System zusammengefügt, müsse er dieses nur noch analysieren und feststellen, ob sich dieses adaptiv verhält. Wie sich der Ingenieur selbst eingesteht, liegt jedoch auch in dieser Vorgehensweise ein fundamentaler Denkfehler: Was, wenn das zeitgenössische Wissen über die Physiologie des Neurons sich als nicht vollständig oder gar falsch herausstellt? »There may be certain features about the neuron which are not presently suspected which contribute appreciably to the functioning of the system. In the final analysis then, this latter approach also depends a good deal upon the designer’s use of logic and intuition for its design«.40

Beide Vorgehensweisen hatten aus Babcocks Perspektive schwerwiegende Auswirkungen auf die Repräsentativität des späteren Automaten. Sie ließen das Projekt einer reibungslosen Anwendbarkeit biologischen Wissens auf technische Systeme fragwürdig erscheinen. Unfähig, diesem Dilemma zu entweichen, entschied sich Babcock für eine Kombination beider Methoden, von der er sich erhoffte ein System zu konstruieren, das zumindest in einem begrenzten Maße Adaptation aufweist. Bei der Konstruktion des ARA erwartete Babcock demnach von sich sowohl ein gewisses forschungsleitendes Verständnis des er-

39 Ebd., S. 27. 40 Ebd., S. 28.

40 | J AN M ÜGGENBURG

wünschten adaptiven Verhaltens, als auch eine – vorbehaltlich der Korrektheit des zeitgenössischen biologischen Wissens – möglichst hohe strukturelle wie funktionale Übereinstimmung seiner elektrotechnischen Neuronen mit deren biologischen Prototypen. Wie das Labor selbst, trägt auch der erste dort konstruierte ›biologische Computer‹ das ambivalente Verhältnis von Organisation und Selbstorganisation bereits in seinem Bauplan.

D AS L ABOR IST

DIE

B OTSCHAFT

Vor allem das jähe Ende des BCL im Jahr 1974 und die Tatsache, dass keine der dort entwickelten Maschinen ihren Weg in konkrete technische Anwendungen fanden, mögen die Frage aufwerfen, ob es sich bei Heinz von Foersters Labor um ein ›gescheitertes‹ Projekt handelt. Wissenschaftliche Einrichtungen wie das BCL, denen es zwar gelingt für einen begrenzten Zeitraum starke Aufmerksamkeit auf sich zu ziehen, deren Arbeit jedoch am Ende »ergebnislos« bleibt, werden von Bruno Latour unter dem Begriff der »Laboratoriumskuriositäten« verbucht. Aus seiner Sicht scheitern sie daran, stabile und weitreichende Schienennetzwerke für ihre Inhalte zu schaffen und die »Hebelwirkung von einer schwachen in eine starke Position [zu] versetzen«.41 Es erscheint jedoch kaum zielführend, Latours doppelte Schablone von Erfolg und Expansion an die Geschichte des BCL anzulegen. So lässt sich einwenden, dass viele der am BCL vertretenen Ansätze und behandelten Topoi in der Konjunktur von Bioinformatik und Robotik einige Jahrzehnte später durchaus wieder auftauchen ohne dass sich kontinuierliche Handlungsketten oder Übersetzungsprozesse ausmachen ließen.42 Zudem ist häufig darauf hingewiesen worden, dass zentrale Wissens- und Denkfiguren der Kybernetik in der zweiten Hälfte des 20. Jahrhunderts in einer Vielzahl geisteswissenschaftlicher und naturwissenschaftlicher Diskurse reüssieren konnten, obwohl sie die üblichen Mittel einer akademisch-institutionellen Stabilisierung und

41 B. Latour: Gebt mir ein Laboratorium, S. 110-111. 42 Siehe zum Beispiel den Beitrag von Sebastian Vehlken in diesem Band.

B IOLOGICAL C OMPUTER L ABORATORY

| 41

Expansion weitgehend ausgelassen haben.43 In diesem Sinne ist die Wirkungsgeschichte des BCL zunächst ein Beleg für die allgemeine Beobachtung, dass der Beharrlichkeit und Wiederkehr von Forschungspraktiken und Denkstilen eben oft keine Prozesse der kontinuierlichen Stabilisierung wissenschaftlicher Netzwerke zu Grunde liegen. Auch ohne über Schienen und Weichen gefahren zu sein, haben einzelne Waggons des Foerster’schen Zuges gleich mehrere Zielbahnhöfe erreicht, die nicht in einem ursprünglichen Fahrplan standen.44 Vielversprechender als die Anwendung einschlägiger Beschreibungsmodelle der Expansion oder Transmission von ›Wissen‹ auf von Foersters Labor erscheint indes eine gründliche Untersuchung der Ausdauer jenes inneren Konfliktes zwischen Organisation und Selbstorganisation, wie er sich am Beispiel des ›Laboratory‹ und des ›Biological Computer‹ beobachten lässt. Fred Turner hat die Trajektorie des Netzwerk-Paradigmas von der Kybernetik und der amerikanischen Counterculture bis zur New Economy und der ›Ankunft‹ einer Netzwerkgesellschaft skizziert. 45 Von Anfang an wurde diese gestützt von einem Glauben an die egalitären und liberalisierenden Kräfte selbstorganisatorischer Prozesse. Wie Turner jedoch zeigt, bildeten elitäre und »unternehmerische« Führungs- und Machtansprüche stets die Kehrseite der »Cyberculture«.46 Sowohl in das Biological Computer Laboratory, wie auch in die dort konstruierten Maschinen, war jene ambivalente »kybernetische Hypothese«, welche Gesellschaft, Ökonomie und Wissenschaft in der zweiten Hälfte des 20. Jh. so maßgeblich be-

43 M. Hagner: Ansichten der Wissenschaftsgeschichte, S. 431. 44 Weiterführend erscheint hier vielmehr der von Ana Ofak und Philipp von Hilgers vorgeschlagene – und ebenfalls der Kybernetik entlehnte – Begriff der ›Rekursion‹, verstanden als eine »Rückwendung zu längst aufgegebenen Wissenskonstellationen, die sich auf einer operativen Ebene plötzlich wieder als anschluss- und aufschlussfähig erweisen«. A. Ofak/P.v. Hilgers: Rekursionen, S. 13. 45 Eine Verlängerung der Trajektorie holistischer Denkfiguren in den Wissenschaften in das 19. Jahrhundert leistet: A. Harrington: Auf der Suche nach Ganzheit. 46 F. Turner: From Counterculture to Cyberculture, S. 255-261.

42 | J AN M ÜGGENBURG

einflussen sollte, ebenfalls eingeschrieben.47 So bleibt am Ende das Labor selbst, auch jenseits des Labors, die eigentliche Botschaft.

L ITERATUR Abraham, Tara H.: »(Physio)Logical Circuits: The Intellectual Origins Of The McCulloch-Pitts Neural Networks«, in: Journal of the History of the Behavioral Sciences 38 (2002), S. 3-25. Asaro, Peter: »Heinz von Foerster and the Bio-Computing Movements«, in: Albert Müller/ Karl Müller (Hg.), An Unfinished Revolution? Heinz von Foerster and the Biological Computer Laboratory BCL 1958-1976, Wien: edition echoraum 2007, S. 255-275. Babcock, Murray Lewis: Reorganization by Adaptive Automation. Unveröffentlichte Ph.D. Thesis, Urbana Champaign: University of Illinois 1960. Boden, Margaret A.: Mind as Machine: a history of cognitive science, Oxford: Clarendon Press 2006. Bowker, Geoffrey C.: »How to Be Universal: Some Cybernetics Strategies, 1943-1970«, in: Social Studies of Science 23 (1993), S. 107-127. Brandstetter, Thomas: »Teufels Küche. Imaginationen terroristischer Laboratorien«, in: Archiv für Mediengeschichte 9 (2010), S. 3-13. Bröcker, Monika/von Foerster, Heinz: Teil der Welt. Fraktale einer Ethik, Heidelberg: Carl-Auer 2007. von Foerster, Heinz: Proposed One Year Pilot Investigation Toward the Realization of Biological Computers, Unveröffentlichter Projektantrag vom 11.12.1957, UoI Archives, 11/6/17, Box 2 Folder 2: Correspondence on reports and proposals, 1958-1962, 1964. von Foerster, Heinz: »On Self-Organizing Systems and Their Environments«, in: Marshall C. Yovits/Scott Cameron (Hg.), Self-Organizing Systems, London 1960, 31-50. von Foerster, Heinz: »Erinnerungen an die Macy-Konferenzen und die Gründung des Biological Computer Laboratory«, in: Claus Pias

47 tiqqun: Kybernetik und Revolte.

B IOLOGICAL C OMPUTER L ABORATORY

| 43

(Hg.), Cybernetics. The Macy-Conferences 1946-1953 Vol. II: Essays and Documents, Zürich, Berlin: diaphanes 2004, S. 43-65. Freud, Sigmund: »Entwurf einer Psychologie«, in: Angela Richards (Hg.), Sigmund Freud. Gesammelte Werke. Chronologisch geordnet. Nachtragsband: Texte aus den Jahren 1885-1938. Frankfurt a.M.: Fischer 1987, S. 373-486. Galison, Peter, »Trading Zone: Coordinating Action and Belief«, in: Biagioli, Mario (Hg.), The Science Studies Reader, New York: Routledge 1999, S. 137-160. Geimer, Peter/Schmidgen, Henning/Dierig, Sven (Hg.): Kultur im Experiment, Berlin: Kadmos 2004. Goldstine, Herman H.: The computer from Pascal to von Neumann, Princeton: University Press 1973. Hagen, Wolfgang: »Die Camouflage der Kybernetik«, in: Pias, Cybernetics Vol. II (2004), S. 191-207. Hagner, Michael (Hg.): Ansichten der Wissenschaftsgeschichte, Frankfurt a. Main: Fischer 2001. Harrington, Anne: Die Suche nach Ganzheit, Hamburg: Rowohlt 2002. Hayles, Katherine: How We Became Posthuman. Virtual Bodies in Cybernetics, Literature, and Informatics, Chicago: The University of Chicago Press 1999. Hebb, Donald: The Organization of Behavior. A Neuropsychological Theory, New York: Wiley 1949. Heims, Steve Joshua: Constructing a Social Science for Postwar America. The Cybernetics Group, Cambridge, Mass.: MIT Press 1991. Hutchinson, James Andrew: »›Nerve Center‹ of the Cybernetic World«, http://bcl.ece.illinois.edu/hutchinson/index.htm vom 03. Januar 2011. Kellerman, Dana: »Von Foerster’s ›Chap‹ Does Brainy Job«, in: Daily Illini vom 05.12.1958, o.S., Heinz von Foerster-Archiv Wien, 3, DO 933-3 Vorträge 1957-1959 (11). Latour, Bruno: »Gebt mir ein Laboratorium und ich werde die Welt aus den Angeln heben«, in: Andréa Belliger/David J. Krieger (Hg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld: transcript 2006, S. 103-134.

44 | J AN M ÜGGENBURG

Lévi-Strauss, Claude: Das wilde Denken. Frankfurt a.M.: Suhrkamp 1968. McCulloch, Warren S./ Pitts, Walter: »Logical Calculus of the Ideas Immanent in Nervous Activity«, in: Bulleting of Mathematical Biophysics 5 (1943), S. 115-133. McCulloch, Warren S.: »A Heterarchy of Values Delermined by the Topology of nervous Nets«, in: Bulletin of Mathematical Biophysics 7 (1945), S. 89-93. McCulloch, Warren S.: »Was bringt mein Hirn in Tinte zu Papier«, ders. (Hg.): Verkörperungen des Geistes. Warren S. McCulloch. Computerkultur Band VII, Wien, New York: Springer 2000, S. 230-240. Meyer, Ulrich: Die Kontroverse um neuronale Netze, Wiesbaden: Deutscher Universitäts-Verlag 2004. Müller, Albert: »Eine kurze Geschichte des BCL. Heinz von Foerster und das Biological Computer Laboratory«, in: Österreichische Zeitschrift für Geschichtswissenschaften 11 (2000), S. 9-30. Müller, Albert: »The End of the Biological Computer Laboratory«, in: ders./Müller, An Unfinished Revolution (2007), S. 303-321. National Science Foundation: Investing in Scientific Progress 19611970. Concepts, Goals, and Projections, Unveröffentlichtes Dokument, Washington 1961 (University of Illinois Archives, 11/6/17, box 1 Folder 3: Reports from NSF). Ofak, Ana/von Hilgers, Philipp (Hg.): Rekursionen. Von Faltungen des Wissens, München: Wilhem Fink 2010. Pickering, Andrew: The Cybernetic Brain, Chicago: University of Chicago Press 2010. Rheinberger, Hans-Jörg: Historische Epistemologie zur Einführung, Hamburg: Junius 2007. Shannon, Claude E.: »Computers and Automata«, in: Proceedings of the Institute of Radio Engineers 41 (1953), S. 1234-1241. tiqqun: Kybernetik und Revolte, Berlin: diaphanes 2007. Turner, Fred: From Counterculture to Cyberculture, Chicago, London: The University of Chicago Press 2008.

Ist jetzt alles ›Netzwerk‹? Mediale ›Schwellen- und Grenzobjekte‹1 F LORIAN H OOF

E INLEITUNG Ansätze der Science and Technology Studies und in diesem Zusammenhang besonders die Akteur-Netzwerk-Theorie (ANT) stellen sich seit einigen Jahren als einer der neuen common grounds der Medienwissenschaft im deutschsprachigen Raum dar. In den netzwerkförmigen Ansätzen werden Potentiale und Anknüpfungspunkte für die Theoriebildung vermutet. Übergangsphänomene zwischen unterschiedlichen Wissensfeldern scheinen sich damit adäquat beschreiben zu lassen.2 Obwohl ursprünglich für die Wissenschaftsforschung entwickelt, werden sie verstärkt für die Analyse gesellschaftlicher, nicht-wissenschaftlicher Bereiche verwendet. Auch in sozialwissenschaftlichen Makrotheorien, wenn auch unter etwas anderen Vorzeichen, hat sich

1

Der Artikel hat maßgeblich durch einen dreimonatigen Aufenthalt als akademischer Gast am Institut für Geschichte, Professur für Technikgeschichte der ETH Zürich profitiert. Für einen intensiven Austausch über das Konzept der ›boundary objects‹, danke ich besonders Daniela Zetti, Lea Haller und Brigitta Bernet.

2

Eine historische Einordnung des Hypes um den Netzwerkbegriff bietet etwa E. Schüttpelz: Ein absoluter Begriff.

46 | FLORIAN HOOF

das Netzwerkparadigma etabliert.3 Die Unterscheidung zwischen ›Netzwerk‹ als einem methodischen Ansatz und als einer Gegenstandsbeschreibung beginnt zu verschwimmen.4 Dieser Artikel wirft einen kritischen Blick auf die Selbstverständlichkeit, mit der Instrumente der Wissenschaftsforschung in Instrumente der Gesellschaftsund Medienanalyse umgewandelt werden. Weniger Beachtung als die ANT hat bisher der ebenfalls aus den Science and Technology Studies stammende Ansatz der ›boundary objects‹ gefunden. Susan L. Star und James R. Griesemer entwarfen ihn in Abgrenzung und als Kritik zur zeitgleich entstehenden ›sociology of translation‹, auf der die ANT aufbaut.5 Sie kritisieren, dass der Ansatz zu sehr aus der Perspektive des Wissenschaftlers konzipiert sei. Der zu Grunde liegende Netzwerkbegriff sei deswegen immer auf die wissenschaftliche Erkenntnis ausgerichtet. Die Heterogenität eines Forschungsprozesses finde dabei nicht genügend Berücksichtigung. Im Gegensatz zu den Laborsstudien der ANT entwickeln Star und Griesemer ihren Ansatz der ›boundary objects‹ zur Analyse der Wirbeltierforschung in Kalifornien. Der Ansatz entsteht nicht in einem Laborkontext, sondern bildet sich in einer äußerst heterogenen Gemengelage zwischen einem forschungsorientierten, naturkundlichen Museum in Berkeley und den über das ganze Land verstreuten naturinteressierten Amateursammlern. Vor dem Hintergrund der Annahme, dass es sich bei der Medienwissenschaft um eine Schnittstellendisziplin handelt, werden im Folgenden grundlegende Begrifflichkeiten der ANT und des Konzepts der ›boundary objects‹ daraufhin überprüft, welchen Beitrag sie für eine medienhistorische Epistemologie leisten können. Aus der Perspektive einer Schnittstellendisziplin steht dabei die Frage im Mittel-

3

Vgl. etwa M. Castells: Der Aufstieg der Netzwerkgesellschaft; ders.: Die Internet-Galaxie. Internet, Wirtschaft und Gesellschaft.

4

Vgl. dazu das Kapitel ›Die Verallgemeinerung des Netzes als Darstellungsform‹ in: L. Boltanski/E. Chiapello: Der neue Geist des Kapitalismus, S. 181ff.

5

S.L. Star/J.R. Griesemer: Institutional Ecology, ›Translations‹ and Boundary Objects.

I ST

JETZT ALLES

›N ETZWERK‹?

| 47

punkt, inwieweit Ansätze der Wissenschaftsforschung auch für nichtwissenschaftliche Bereiche adäquate Analyseinstrumente bereitstellen.6 Gelingt es, die Ansätze der Science Studies in anderen Bereichen anzuwenden, ohne dabei unter der Hand einen ›scientific bias‹ in Form eines zu spezifischen Wissens- oder Organisationsbegriffs mit zu übertragen?

D IE N ETZWERKLOGIK

DER

ANT

Die im Anschluss an Gaston Bachelard7 und Georges Canguilhem8 entstandenen Ansätze einer epistemologischen Wissenschaftsgeschichte thematisieren Verschiebungen im Bereich wissenschaftlicher Erkenntnisproduktion. Sie erfassen Veränderungen innerhalb eines stark formalisierten Feldes, in dem Neuerungen einer ständigen Rückbindung an implizite und explizite Regeln der jeweiligen Wissenschaftsdisziplin unterliegen.9 Die relative Flexibilität und vage Ausgangslage zu Beginn epistemologischer Forschung, die Rheinberger bei seiner Studie über Laborarbeit in der Krebsforschung beschreibt,10 ist bei der Analyse eines zwischen Verifizierung und Falsifizierung aufgespannten wissenschaftlichen Feldes von großem Vorteil. Der epistemologische Zugang ermöglicht, die unzähligen Einflussfaktoren (die Aktanten der ANT), oder aber die tagtäglichen Zufälle in der konkreten Forschungsarbeit zu fassen. Gerade in wissenschaftlichen Laboratorien lässt sich wie unter einem Brennglas beobachten, dass

6

Die hier verwendete Unterscheidung zwischen ›wissenschaftlich‹ und ›nicht-wissenschaftlich‹ folgt der einfachen systemtheoretischen Überlegung zur Systemdifferenz.

7

G. Bachelard: Epistemologie.

8

G. Canguilhem: Das Normale und das Pathologische.

9

K. Knorr-Cetina: Die Fabrikation von Erkenntnis; B. Latour/S. Woolgar: Laboratory Life; B. Latour: Science in Action; Lynch/S. Woolgar (Hg.): Representation in Scientific Practice; H-J. Rheinberger: Experiment, Differenz, Schrift; H-J. Rheinberger/M. Hagner: Die Experimentalisierung des Lebens.

10 H.-J. Rheinberger: Experimentalsysteme und epistemische Dinge.

48 | FLORIAN HOOF

Handlungskonzepte nicht nur durch Subjekte, sondern auch durch Objekte geprägt werden. Indem man nicht-menschlichen Akteuren Handlungsmacht zuspricht, erweitert sich die Perspektive auf den kleinteiligen Prozess ›wissenschaftlicher Forschung‹.11 Eine »Epistemologie von unten«12 wird möglich. Die Fabrikation wissenschaftlicher ›Erkenntnis‹ lässt sich anschließend aus der Verkettung hybrider Aktanten erklären. Gleichzeitig – und nur deswegen ist ein solch vermeintlich freier Zugang überhaupt möglich – schreibt sich ein Teil der Strukturen des Untersuchungsgegenstands in das methodologische Design mit ein, in diesem Falle die naturwissenschaftliche Forschung. Die räumliche Form des Laboratoriums ist Gegenstand der Analyse und dient zugleich als begrenzender Analyserahmen. Das Objekt ist Canguilhem zufolge nicht, wie etwa Latour annimmt,13 am Anfang jeden Forschungsprojektes undefiniert. Die mit der Epistemologie einhergehende Definition von Wissenschaft als Experimentalsystem, als eine »Experimentallandschaft«14 begrenzt den möglichen Forschungsfokus. Er richtet sich auf einen Laborraum, der zudem einen konsistenten thematischen Zusammenhang in Form eines Forschungsziels aufweist. »Selbst wenn eine Arbeit im Labor vom Interesse am reinen Ertrag beherrscht wird und selbst wenn die Suche nach dem Wahren dort keinen Platz hat, erzielt man eines Tages doch ein nicht-zufälliges Resultat, ein Resultat, das eine Beziehung zu dem hat, was die Theorie vorausgesagt hat; es gibt eine Verifizierung, eine Feuerprobe, und nicht alle Aussagen, die eine Gültigkeit beanspruchen, sind möglich.«15

Erst durch die Kombination der methodologischen Grundannahme mit einem relativ kohärenten und eindeutigen Untersuchungsbereich, in diesem Falle der wissenschaftlichen Laborforschung, erhält die histo-

11 B. Latour: Wir sind nie modern gewesen. 12 H.-J. Rheinberger: Experimentalsysteme und epistemische Dinge, S. 9. 13 B. Latour: Science in Action, S. 87. 14 H.-J. Rheinberger: Experimentalsysteme und epistemische Dinge, S. 23. 15 G. Canguilhem: Die Position der Epistemologie muß in der Nachhut angesiedelt sein, S. 105.

I ST

JETZT ALLES

›N ETZWERK‹?

| 49

rische Epistemologie ihre Durchschlagskraft bei der Analyse wissenschaftsgeschichtlicher Bewegungen. Es ist keine universelle Methodik, sondern eine für den Bereich der Wissenschaftsforschung konzipierte Methodologie. Was heißt das nun für Ansätze einer Mediengeschichte? Welche Konzepte aus der Wissenschaftsforschung können für diese Schnittstellendisziplin übernommen werden? Welche Vorannahmen stellen sich als problematisch heraus?

W IRTSCHAFT

IST KEIN

L ABOR

In diesem Fall soll als hypothetisches Beispiel die ANT zur Analyse der Wirtschaft, eines nicht-wissenschaftlichen Feldes herangezogen werden. Lässt sich das Scheitern oder der Endpunkt größerer Forschungsparadigmen oder eines konkreten Laborprojekts historisch nachvollziehen, sind Fehlschläge im ›messy territory‹ wirtschaftlicher Zusammenhänge weitaus schwieriger zu detektieren. Hier überkreuzen sich alltägliche Notwendigkeiten, heterogene Praktiken pragmatischer Problemlösungen mit weit weniger formalisierten Ansätzen der ›angewandten Forschung‹16. Diese Wissenszirkulation unterliegt verstärkt Zufällen und einer pragmatischen Verwendungslogik. Sie folgt keiner übergeordneten Systematik. Vor der Übernahme neuer Wissensformen steht immer erst die Adaption selbiger an bestehende Strukturen. Wissen diffundiert nicht, sondern braucht einen auslösenden Impuls, der das wirtschaftliche Feld zum Umsteuern und zur Integration neuer Wissensformen bewegt.17 Joseph Schumpeter bezeichnet dies als den Moment ›kreativer Zerstörung‹18, der dem Kapitalismus als strukturelles Merkmal inhärent sei. Erst wenn bestehende Strukturen sich im Rahmen einer Krise als unzureichend erweisen steigt die Wahrscheinlichkeit, dass sich Neuerungen im wirtschaftli-

16 Vgl. auch die Beiträge von Lea Haller und Daniela Zetti in diesem Band. 17 Vgl. F. Hoof: ›The One Best Way‹. Bildgebende Verfahren der Ökonomie und die Innovation der Managementtheorie nach 1860. 18 Vgl. J.A. Schumpeter: Kapitalismus, Sozialismus und Demokratie. Ursprünglich stammt der Begriff von W. Sombart: Studien zur Entwicklungsgeschichte des modernen Kapitalismus.

50 | FLORIAN HOOF

chen Feld etablieren. Dagegen strebt der wissenschaftliche Gebrauch von Wissen, zumindest in der Logik der ANT, einer Homogenisierung entgegen. Die Grenzen der ›Wirtschaft‹ sind im Vergleich zur ›Wissenschaft‹ nur schwach konturiert. Im Bereich der Wissenschaft können überbordende Diskurse – betreffen sie nun Methodenstreit, praktische Erwägungen oder Ereignisse – als Anzeichen epistemischer Verschiebungen begriffen werden. Sie lassen sich als Differenzen innerhalb eines Laboratoriums oder im Rahmen eines Forschungsparadigmas analysieren. Geht man davon aus, dass ein solcher epistemologischer Ansatz immer auf ein relativ kohärentes Forschungsobjekt angewiesen ist, wird die Übertragung des Ansatzes auf die Wirtschaft mit Problemen behaftet sein. Der Wirtschaft geht es um Waren- und nicht um Wissenszirkulation. Den wirtschaftlichen Bereich eint außer einem (in der Regel) kohärenten Interesse, die Leistungserstellung aufrecht zu erhalten, nur wenig. Neben der Diversifikation in verschiedenste Sektoren ist die Wirtschaft in unzählige Branchen zersplittert. Zudem spielen lokale Gegebenheiten eine größere Rolle als in einer internationalisierten Scientific Community. Zwar weisen verschiedenste Vertreter der Science Studies immer wieder auf die Heterogenität des wissenschaftlichen Feldes hin, doch im Vergleich zu anderen gesellschaftlichen Feldern sind diese Unterschiede doch als eher marginal anzusehen. Ganz im Gegenteil ist zu vermuten, dass es wenige Gruppen gibt, die in Bezug auf ihren Habitus und die generelle Handlungsorientierung eine solch homogene Einheit bilden wie die Scientific Community.19 Organisationsform und -kultur der Wissenschaft ist ein Spezial- und nicht der Regelfall gesellschaftlicher Organisationsformen. Auch wenn innerhalb des Wissenschaftsbetriebs keine Einigung oder eine gegenseitige Ablehnung von Forschungsparadigmen besteht, streben die Akteure grundsätzlich Kooperationen an. Die ANT fasst dies unter den Begriff des ›interessement‹, das, bei erfolgreicher Netzwerkverknüpfungsanbahnung in das ›enrolment‹, eine feste Kooperation münden kann.20 Daraus ergeben sich ›nods‹, neue Knoten-

19 Vgl. P. Bourdieu: Der Habitus als Vermittlung zwischen Struktur und Praxis; ders.: Die feinen Unterschiede, S. 277-354; ders., Homo Academicus. 20 Vgl. M. Callon: Einige Elemente der Soziologie der Übersetzung.

I ST

JETZT ALLES

›N ETZWERK‹?

| 51

punkte, aus dem der netzwerkförmig modellierte Forschungsprozess besteht. Er basiert auf einer unhinterfragten, selbstverständlichen Form des ›interessements‹, einer potentiellen Kooperationsbereitschaft, um neue Erkenntnis zu generieren, seine Position im Gefüge zu festigen oder zu verbessern. Dies wird als prägende Logik des wissenschaftlichen Feldes implizit vorausgesetzt und gilt es zu beachten, wenn der Ansatz der ANT auf nicht-wissenschaftliche Bereiche angewendet wird. Der hier als Kontrastfolie herangezogene industriell-wirtschaftliche Bereich teilt diese Logik nicht. Das Wissen in der Wissenschaft zirkuliert, weil ein distinktes Erkenntnisinteresse verfolgt wird. Wissen in der Wirtschaft hat, zugespitzt formuliert, die Aufgabe, ein bestehendes Geschäftsmodell abzusichern oder zu erweitern.21 Zwar gibt es in Wirtschafts- und Industrieunternehmen ebenfalls eine Form der Zusammenarbeit, doch diese unterliegt einer stärkeren Hierarchisierung und Formalisierung. Während neue Arbeitsgruppen oder die Einbeziehung neuer Technologien in die Forschung grundlegend für den wissenschaftlichen Fortschritt sind, kennzeichnet die Wirtschaft ein hohes Maß an Routinetätigkeit, die es zu verwalten gilt. Wirtschaftsunternehmen sind in diesem Zusammenhang bestrebt, Unsicherheiten zu reduzieren, die eben diesen Routinebetrieb stören könnten.22 Zwangsläufig sind die Möglichkeiten zur Herausbildung neuer ›nods‹ durch die bestehende Unternehmensstruktur und -hierarchie eingeschränkt. Sie sind schlicht nicht vorgesehen oder aber in speziell dafür eingerichtete Forschungsabteilungen konzentriert. Aus diesem Grund hält das Untersuchungsdesign der ANT, das auf dem Prinzip des Netzwerkes aufsetzt, für die Wirtschaft ein eingeschränktes Erklärungspotential bereit. Anstelle von einer Neigung zur Kooperation auszugehen benötigt man in Bezug auf die Wirtschaft einen Ansatz, der die Unwahrscheinlichkeit von Kooperation betont. Überspitzt formuliert muss der quasi-anthropologischen Form des ›interesse-

21 Vgl. etwa N. Fligstein: The Transformation of Corporate Control; R. Edwards: Contested Terrains. 22 Aus diesem Grund weisen Unternehmen eigenständige, spezifische Strukturen auf. Grundlagen dazu: D. Baecker: Die Form des Unternehmens.

52 | FLORIAN HOOF

ment‹ in der Wissenschaft ein systemtheoretisch gedachtes ›désintéressement‹ entgegengesetzt werden.

›B OUNDARY O BJECTS ‹ Wissenschaftliche Erkenntnis bildet sich innerhalb formaler Aussagesysteme. Sie zeichnen sich, wie Canguilhem es formuliert, durch »Feuerproben«23 aus. In diesen Situationen muss sich die Forschung in einem »nicht-triviale[n] Wechselspiel«24 konkretisieren. Sie unterwirft sich Definitionen und Zuschreibungen, um weiter Teil des wissenschaftlichen Erkenntnisprozesses zu bleiben. John Law bezeichnet diese Instanzen des Selektionssystems als »obligatory passage points«.25 Susan L. Star und James R. Griesemer kritisieren das Netzwerkmodell der ›obligatory passage points‹. Für sie impliziert es eine zu starke Perspektivierung des wissenschaftlichen Prozesses aus der Sicht des Wissenschaftlers bzw. des Forschungsprojektmanagers.26 Alle Handlungen laufen auf ein imaginäres Zentrum, die wissenschaftliche Erkenntnis zu. Die damit implizierte Stabilität des Systems durch das grundsätzliche ›interessement‹ der Beteiligten und die fixierten Durchgangspunkte wird hinterfragt. Star und Griesemer schlagen ein Modell vor, in dem die Durchgangspunkte nicht im Vorhinein festgelegt sind. Für sie entstehen die ›passage points‹ in einem Aushandlungsprozess zwischen den verschiedenen Interessengruppen, die in den wissenschaftlichen Forschungsprozess involviert sind. Die ›passage points‹ sind deswegen keine obligatorischen Durchgangspunkte, wie sie etwa die ANT konzipiert, sondern eröffnen ein eigenständiges, lohnenswertes Forschungsfeld.

23 G. Canguilhem: Die Position der Epistemologie muß in der Nachhut angesiedelt sein, S. 105. 24 H.-J. Rheinberger: Experimentalsysteme und epistemische Dinge, S. 26. 25 J. Law: Technology, Closure and Heterogeneous Engineering. Michael Callon argumentiert ähnlich. Vgl. M. Callon: »Einige Elemente der Soziologie der Übersetzung«. 26 S.L. Star/J.R. Griesemer: Institutional Ecology, ›Translations‹ and Boundary Objects.

I ST

JETZT ALLES

›N ETZWERK‹?

| 53

Aus dieser Perspektive erscheint der Prozess der wissenschaftlichen Forschung weit weniger stabil und zielgerichtet. Schließlich ist auch der Fall möglich, dass sich keine Aushandlungspunkte bilden. Bevor ein solcher Prozess sich entwickeln kann, müssen sich die verschiedenen Akteure verständigen. Interesse muss geweckt und gefestigt werden. Kooperation und Kommunikation sind zunächst einmal unwahrscheinlich. Es müssen Bedingungen herrschen, die diese Prozesse wahrscheinlicher machen. Dazu, so das Argument von Star und Griesemer, braucht es keinen allgemeingültigen Konsens, den das Netzwerkmodell der ANT impliziert und der einem imaginären Fixpunkt zusteuert. Stattdessen muss eine Umgebung existieren, die eine Kompatibilität zwischen den unterschiedlichen Interessen ermöglicht. Die Interessen müssen nicht aufeinander bezogen sein. Sie können auch unverbunden nebeneinander stehen und keinerlei Operation tätigen. Auch das Scheitern von Wissenstransfers lässt sich damit beschreiben. Diese Umgebung des ›Nicht-signifikanten‹, des ›Nichtepistemischen‹ und des ›Nicht-technischen‹, wird durch ›boundary objects‹ strukturiert. Darunter verstehen Star und Griesemer Objekte, die zwischen Akteuren »from different social worlds«27 vermitteln. Sie müssen sich an die verschiedenen Interessenlagen anpassen lassen und für die jeweiligen Bezugssysteme eine niedrige Eintrittsschwelle aufweisen.28 Nur dann wird ein Objekt zu einem Grenz- bzw. Schwellenobjekt, das Kommunikation, Koexistenz oder Kooperation zwischen unterschiedlichen Bezugssystemen ermöglicht. »Boundary objects are objects which are both plastic enough to adapt to local needs and the constraints of the several parties employing them, yet robust enough to maintain a common identity across sites. They are weakly structured in common use, and become strongly structured in individualsite use. These objects may be abstract or concrete. They have different meanings in different social worlds but their structure is common enough to more than one world to make them recognizable, a means of translation. The creation and management

27 Ebd., S. 388. 28 G.C. Bowker/S.L. Star: Sorting Things Out, S. 292.

54 | FLORIAN HOOF

of boundary objects is a key process in developing and maintaining coherence across intersecting social worlds.«29

›Boundary objects‹ können etwa Wissensspeicher wie ein Archiv sein. Das Archiv weist einerseits feste Strukturen auf. Es speichert verschiedene Dinge nach einer bestimmten Systematik. Andererseits kann darauf höchst selektiv zugegriffen werden. Die diskrete Form der Speicherung ermöglicht den jeweiligen Akteuren einen nicht-linearen Zugriff auf für sie relevante Dinge. Nach dem gleichen Prinzip lassen sich auch neue Archivalien ablegen. Die ›Gesamtheit‹ des Archivs spielt dabei keine Rolle. Sie ist für den individuellen Zugriff ausgeblendet. Dadurch weist es eine niedrige Eintrittsschwelle auf, weil es einen flexiblen, individuellen Zugang sicherstellt. Es stellt eine Kompatibilität zwischen unterschiedlichen Handlungszusammenhängen her. Mögen die Beweggründe für die Verwendung und Nutzung des Archivs keinerlei Gemeinsamkeiten aufweisen, so schlagen sie sich doch am Ende in der Form des Archivs nieder. Es können beispielsweise neue Bestände zur Verfügung stehen, die anschließend in ganz anderen Zusammenhängen Verwendung finden. Zwischen der Einstellung neuer Archivalien und deren anschließender Verwendung besteht kein Zusammenhang, außer dass sie sich als Teil des ›boundary objects‹ Archiv beschreiben lassen. Mit dieser Flexibilität des Zugriffs können verschiedene Bezugssysteme mit einem solchen ›boundary object‹ umgehen. Es entstehen Handlungszusammenhänge, die von den jeweiligen ›boundary objects‹ im Sinne einer losen Kopplung zusammen gehalten werden. Sie garantieren einen »flow of objects«30, der etwa für die wissenschaftliche Forschung als Grundvoraussetzung gilt. Die Perspektive dieses Ansatzes richtet sich auf die Frage, warum überhaupt Kooperation bzw. Kommunikation stattfindet. Die ANT dagegen läuft Gefahr das Vorhandensein von Kommunikation zu postulieren, anstatt diese Prozesse zu untersuchen. Die Netzwerkstruktur der ›obligatory passage points‹ fordert am Ende die

29 Ebd., S. 393. 30 S.L. Star/J.R. Griesemer: Institutional Ecology, ›Translations‹ and Boundary Objects, S. 389.

I ST

JETZT ALLES

›N ETZWERK‹?

| 55

obligatorische Kraftprobe. Dort entscheidet sich in einer Art epistemologisch-relationaler Zusammenschau, welche Bestandteile des Netzwerks sich weiter entwickeln. Die Perspektive ist auf das Resultat der Forschung gerichtet. Dinge, die sich nicht durchsetzen können, werden irrelevant und verschwinden aus dem Fokus der Forschung.31 Eine Perspektive auf Prozesse der Latenz und des Scheiterns und deren epistemische Relevanz wird dadurch erschwert. Die von Star und Griesemer an der Konzeption der ›obligatory passage points‹ thematisierten Probleme einer netzwerkorientierten Wissenschaftsgeschichte verschärfen sich bei der Anwendung auf wirtschaftliche Zusammenhänge. Ein Wirtschaftsunternehmen besteht aus äußerst heterogenen Bestandteilen, die aber nicht unbedingt miteinander in Verbindung stehen müssen. Sie sind zwar da, werden aber möglicherweise später oder nie die dortigen Prozesse der Wissensgestehung beeinflussen. Mit dem Modell der ›boundary objects‹ lassen sich gerade diese latenten Dinge erfassen: Teile eines Prozesses oder einer Umgebung, die zwar bisher ignoriert wurden, gescheitert sind oder bisher keinerlei Bedeutung aufweisen, aber jederzeit als Faktoren einer zukünftigen Entwicklung in Erscheinung treten können. Das Konzept der ›boundary objects‹ macht dies möglich, ohne sich ständig auf einen (in der Wirtschaft nicht ablaufenden) zentralen wissenschaftlichen Erkenntnisprozess beziehen zu müssen.

M EDIALE ›B OUNDARY O BJECTS ‹ Das Konzept der ›boundary objects‹, als Möglichkeitsbedingung von Kommunikation verstanden, ähnelt den Vorstellungen von Medien als grundlegender Struktur von Kommunikationsprozessen.32 Bowker und Star weisen darüber hinaus auf die Kompatibilität zu dem von Marshall McLuhan geprägten Medienbegriff hin. Am Beispiel elektroni-

31 Auf eine ähnliche Problematik dieser Konzeption weist auch der Beitrag von Jan Müggenburg in diesem Band hin. 32 Vgl. etwa H. Innis: Empire and Communications; W. Ong: Orality and Literacy.

56 | FLORIAN HOOF

scher Informationssysteme zeigen sie noch einmal, was die ›boundary objects‹ ausmacht: die Verkoppelung von Gebrauch und Form. »Boundary objects are one way that the tension between divergent viewpoints may be managed. […] This tension is itself collective, historical, and partially institutionalized. The medium of an information system is not just wires and plugs, bits and bytes, but also conventions of representation, information both formal and empirical. A system becomes a system in design and use, not the one without the other. The medium is the message […].«33

Das Diktum McLuhans, dass das »Medium Ausmaß und Form des menschlichen Zusammenlebens gestaltet und steuert«,34 lässt sich auf das Konzept der ›boundary objects‹ applizieren. An anderer Stelle bezeichnen Bowker und Star ihr Konzept auch als »communication medium«35. Es sind aber keine Einzelmedien, die unabhängig voneinander wirkmächtig werden. ›Mediale boundary objects‹ weisen zwar eine unabhängige, innere Logik auf, gleichzeitig aber überlappen und stabilisieren sie sich gegenseitig. Nicht ein, sondern eine Vielzahl an ›medialen boundary objects‹ strukturieren einen Bereich. Sie lassen sich nur dann in ihrer Relevanz und ihrer eigenen Stabilität erklären, wenn sie als Verbund unterschiedlichster medialer Praktiken begriffen werden. »[T]hey deal in regimes and networks of boundary objects«36. Sie korrelieren mit dem, etwa in der Forschung zum frühen Kino verwendeten Konzept des ›Medienverbunds‹37 oder dem des ›Aufschreibesystems‹38. Auf der Ebene der Medienästhetik lassen sich auch Parallelen zum Konzept des ›ästhetischen Regimes‹39 ziehen. Das hier skizzierte Modell ›medialer boundary objects‹ stellt ein grundlegendes Analysewerkzeug dar, das sich in der konkreten medi-

33 G.C. Bowker/S.L. Star: Sorting Things Out, S. 292. 34 M. McLuhan: »Das Medium ist die Botschaft«, S. 14. 35 G.C. Bowker/S.L. Star: Sorting Things Out, S. 298. 36 Ebd., S. 313. 37 Vgl. etwa A. Griffiths: Wondrous Difference; F. Kittler: Grammophon, Film, Typewriter. 38 Vgl. F. Kittler: Aufschreibesysteme. 39 J. Rancière: Politik der Bilder.

I ST

JETZT ALLES

›N ETZWERK‹?

| 57

enhistorischen Forschung einsetzen lässt. Es erlaubt, Medien nicht nur als mögliche Träger von Netzwerkkonnektivität, als »immutable mobiles«40 oder als abstrakte »inscriptions«41 zu sehen. Vielmehr öffnet das Modell eine Perspektive auf die Frage, warum sich bestimmte Medienformen durchsetzen, andere jedoch scheitern und zu historischen (aber möglicherweise epistemischen) Sackgassen werden. ›Mediale boundary objects‹ eignen sich für eine erste idealtypische Bestimmung medienepistemologischer Felder. Es geht dabei nicht um die Wiedereinführung des Objektbegriffs, sondern darum, den Analyseframework des Schwellenobjekts in historischer Detailforschung zu konkretisieren und dadurch zugleich das Konzept eines distinkten Objekts zu unterlaufen. Film als ›Mediales Boundary Object‹ Exemplarisch dafür steht die Verwendung von ›Film‹ in wirtschaftlichen Zusammenhängen in den 1910er und 1920er Jahren. Filmische Aufnahme- und Aufführungspraktiken dienen zu dieser Zeit als Kontrollinstrument, als Mittel der Firmenpropaganda, zur Arbeitsrationalisierung oder zu Werbezwecken für externe Unternehmensberater. Filmvorführungen werden zur Mitarbeitermotivation und das Filmmaterial als Träger von Managementwissen verwendet. Die neue Illusionsmaschine Film wird zu einem überladenen Projektionsfeld für utopische Zukunftsvorstellungen. Ebenso ist Film in Bewegungsstudienlabors Träger von wissenschaftlichem Wissen, das von den Labors in die Unternehmen integriert werden soll. In den Begrifflichkeiten der Science Studies formuliert, handelt es sich zu dieser Zeit um ein Medium mit epistemischem Charakter. Die Verwendungsmöglichkeiten und damit zusammenhängende Definitionen des neuen Mediums sind noch nicht fixiert, sondern unterliegen einem kontinuierlichen Aushandlungsprozess. Dieses breite Feld in der Form von Netzwerkverknüpfungen abzubilden, wie es die ANT vorschlägt, trägt zwar zur Systematisierung bei, erfasst aber nicht das Spezifische des Mediums ›Film‹.

40 B. Latour: Drawing Things Together, S. 26-35. 41 Ebd., S. 35-44.

58 | FLORIAN HOOF

Während die Beschäftigten in den Unternehmen mit Film möglicherweise die Filmkultur des frühen Kinos verbinden, sieht das Management im Film wissenschaftliche Objektivität und Präzision. Für sie ist Film in erster Linie ein physiologisches Messinstrument und kein Medium der frühen Unterhaltungsindustrie. Sie sehen die Vorläufer des Films in den physiologischen Labors und übertragen das dort gemachte Versprechen, den menschlichen Körper zu durchdringen und implizites körperliches Wissen explizit zu machen, auf das Medium.42 Verstanden als ›mediales boundary object‹ ist der Film weder Instrument der Rationalisierung noch Teil eines populären Unterhaltungssegments. Die verschiedenen Facetten des Films, vom Filmmaterial, über die kulturelle Aufladung des Mediums, bis hin zu den konkreten Aufnahme- und Aufführungspraktiken stellen Möglichkeitsbedingen für eine lose Kopplung der verschiedenen Bezugssysteme des wirtschaftlichen Bereichs dar. Je nach gewählter Perspektive ergeben sich dabei völlig konträre Definitionsmuster des Mediums Film. In der einschlägigen Managementliteratur dieser Zeit wird Film als ein Mittel der wissenschaftlich-objektiven Effizienzsteigerung dargestellt. Mit diesem filmischen Versprechen werben u.a. Unternehmensberater um Aufträge in den Unternehmen. Das leitende Management versteht darunter im Extremfall eine Möglichkeit der bedingungslosen Kontrolle der Arbeiter. Die Beschäftigten wiederum fühlen sich als Protagonisten der Industriefilme wie kleine Filmstars, die sie auch in ihrer Freizeit in den ersten Kinos bewundern. Film ist einerseits robust weil er für eine technische Form medialer Praxis steht, andererseits bietet er flexible Möglichkeiten, ihn für individuelle Bezugssysteme anzupassen. Das können Angebote zur Identitätsbildung oder konkrete Funktionen sein, die der Film bereithält. Mit diesen niederschwelligen Angeboten schafft der Film im Sinne eines ›medialen boundary objects‹ eine Sphäre des Medialen. Sie geht über die zu dieser Zeit vorhandenen technischen Möglichkeiten des Films hinaus und lässt sich im konkreten Gebrauch von Film erfassen und bestimmen. Im Mittelpunkt stehen weniger ontologische Fragen nach dem ›Medialen‹ des Films, sondern die Frage wie das Medium ›Film‹ Wissenszusammen-

42 Zum Begriff des impliziten Wissens siehe M. Polanyi: Implizites Wissen.

I ST

JETZT ALLES

›N ETZWERK‹?

| 59

hänge schafft. Ontologische Bestimmungen wiederum, können im Rahmen zeitgenössischer Diskurse durchaus Teil des ›medialen boundary objects‹ Film sein.

S CHLUSS Das Konzept der ›boundary objects‹ bietet mit der Frage nach der Eintrittsschwelle einen forschungspragmatischen Ansatz: Er erlaubt es, einen essentialistischen Medienbegriff aufzubrechen, ohne ihn dabei durch ein beliebiges Medienkonzept zu ersetzen. Wie muss ein Medium überhaupt beschaffen sein, damit es zu einem ›medialen boundary object‹ werden kann? Bei der Klärung medienhistorischer Fragestellungen, wieso Wissenszusammenhänge überhaupt zu Stande kommen, zeigt dieser Ansatz seine Stärken. Gerade Bereiche die nur unscharf umrissen sind – wie etwa wirtschaftliche Zusammenhänge – lassen sich damit untersuchen. Graphische Darstellungen, Film oder Fotografie können so als Teil eines epistemischen Gestehungsprozesses analysiert werden. Sie sind nicht nur wirkmächtig, indem sie einen bestimmten Zweck erfüllen (sollen), sondern auch ihrer medialen Form wegen. Als Zirkulationsobjekte bringen sie unterschiedliche Gruppen und Akteure zusammen und nehmen Einfluss auf Konstitutionsprozesse innerhalb wirtschaftlicher Zusammenhänge. Indem sie zirkulieren, behalten sie aber Strukturen bei und formen die mit ihnen umgehenden Akteure mit: »Something actually becomes an object only in the context of action and use; it then becomes as well something that has force to mediate subsequent action«.43 Sie ermöglichen Kommunikation und können Verständigungsprozesse anstoßen. Das Konzept der ›medialen boundary objects‹ erlaubt es, den Friktionen, dem Dysfunktionalen medialer Kommunikationsprozesse, aber auch den Bedeutungsüberschüssen der Medienkultur nachzugehen. Ein Medium wie der Film ist nicht nur ein technischer Apparat, der Netzwerkverknüpfungen ermöglicht. Er unterliegt gleichzeitig einer medienkulturellen Aufladung, die eine Einbindung von Akteuren sowohl wahrscheinlicher als auch unwahr-

43 G.C. Bowker/S.L. Star: Sorting Things Out, S. 298.

60 | FLORIAN HOOF

scheinlicher machen kann. Dies im Rahmen historischer Medienanalysen nachzuvollziehen wäre Aufgabe einer historisch medialen Epistemologie. »Bevor man zwei Wegstrecken nahtlos ineinander übergehen lässt, sollte man sich zuerst vergewissern, ob es sich auch wirklich um ein und denselben Weg handelt«.44 ›Mediale boundary objects‹ sind eine Möglichkeit, dieses zentrale Diktum von Georges Canguilhem ernst zu nehmen und es angemessen im theoretischen Design einer historischen Medienforschung zu verankern.

L ITERATUR Bachelard, Gaston: Epistemologie, Frankfurt a.M: Fischer 1993. Baecker, Dirk: Die Form des Unternehmens, Frankfurt a.M.: Suhrkamp 1993. Boltanski, Luc/Chiapello, Ève: Der neue Geist des Kapitalismus, Konstanz: UVK 2003. Bourdieu, Pierre: »Der Habitus als Vermittlung zwischen Struktur und Praxis«, in: ders., Zur Soziologie der symbolischen Formen, Frankfurt a.M: Suhrkamp 1997, S. 125-158. Bourdieu, Pierre: Homo Academicus, Frankfurt a.M.: Suhrkamp 1992. Bourdieu, Pierre: Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft, Frankfurt a.M.: Suhrkamp 1987. Bowker, Geoffrey/Star, Susan L.: Sorting Things Out. Classification and its Consequences, Cambridge, MA: The MIT Press 2000. Callon, Michael: »Einige Elemente der Soziologie der Übersetzung. Die Domestikation der Kammmuscheln und der Fischer der St. Brieuc-Bucht«, in: Andréa Belliger/David J. Krieger (Hg.), ANThology. Ein einführendes Handbuch zur Akteur-NetzwerkTheorie, Bielefeld: transcript 2006, S. 135-174. Canguilhem, Georges: »Die Position der Epistemologie muß in der Nachhut angesiedelt sein. Ein Interview«, in: ders., Wissenschaft, Technik, Leben. Beiträge zur historischen Epistemologie, Berlin: Merve 2006, S. 103-122.

44 G. Canguilhem: Der Gegenstand der Wissenschaftsgeschichte, S. 34.

I ST

JETZT ALLES

›N ETZWERK‹?

| 61

Canguilhem, Georges: »Der Gegenstand der Wissenschaftsgeschichte«, in: Wolf Lepenies (Hg.), Wissenschaftsgeschichte und Epistemologie. Gesammelte Aufsätze, Frankfurt a.M.: Suhrkamp 1979. Canguilhem, Georges: Das Normale und das Pathologische, München: Hanser 1974. Castells, Manuel: Die Internet-Galaxie. Internet, Wirtschaft und Gesellschaft, Wiesbaden: Verlag für Sozialwissenschaften 2005. Castells, Manuel: Der Aufstieg der Netzwerkgesellschaft, Opladen: Leske + Budrich 2002. Edwards, Richard: Contested Terrain. The Transformation of the Workplace in the Twentieth Century, New York: Basic Books 1979. Fligstein, Neil: The Transformation of Corporate Control, Cambridge, MA: Harvard University Press 1990. Griffiths, Alison: Wondrous Difference. Cinema, Anthropology, & Turn-of-the-Century Visual Culture, New York: Columbia University Press 2002. Hoof, Florian: »›The One Best Way‹, Bildgebende Verfahren der Ökonomie und die Innovation der Managementtheorie nach 1860«, in: montage/av 15 (2006). S. 123-138. Innis, Harold: Empire and Communications, Toronto: Toronto University Press 1972. Kittler, Friedrich: Aufschreibesysteme. 1800/1900, München: Fink 1995. Kittler, Friedrich: Grammophon, Film, Typewriter, Berlin: Brinkmann & Bose 1986. Knorr-Cetina, Karin: Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Frankfurt a.M.: Suhrkamp 1984. Latour, Bruno: Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie, Berlin: Akademie Verlag 1995. Latour, Bruno: »Drawing Things Together«, in: Michael Lynch/Steve Woolgar (Hg.), Representation in Scientific Practice, Cambridge, MA: MIT Press 1990, S. 19-68. Latour, Bruno: Science in Action. How to follow Scientists and Engineers through Society, Cambridge, MA: Harvard University Press 1987.

62 | FLORIAN HOOF

Latour, Bruno/Woolgar, Steve: Laboratory Life. The Construction of Scientific Facts, Princeton, NJ: Princeton University Press 1986. Law, John: »Technology, Closure and Heterogeneous Engineering. The Case of the Portuguese Expansion«, in: Wiebe Bijker/Trevor Pinch/Thomas P. Hughes (Hg.), The Social Construction of Technological Systems, Cambridge, MA: MIT Press 1987, S. 111-134. Lynch, Michael/Woolgar, Steve (Hg.): Representation in Scientific Practice, Cambridge, MA: MIT Press 1990. McLuhan, Marshall: »Das Medium ist die Botschaft«, in: ders., Die magischen Kanäle. Understanding Media, Düsseldorf: Econ 1968, S. 13-28. Ong, Walter: Orality and Literacy. The Technologizing of the Word, London: Methuen 1987. Polanyi, Michael: Implizites Wissen, Frankfurt a.M.: Suhrkamp 1985. Rancière, Jacques: Politik der Bilder, Berlin: Diaphanes 2005. Rheinberger, Hans-Jörg: Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen: Wallstein 2002. Rheinberger, Hans-Jörg/Hagner, Michael: Die Experimentalisierung des Lebens. Experimentalsysteme in der biologischen Wissenschaft, 1850-1950, Berlin: Akademie Verlag 1993. Rheinberger, Hans-Jörg: Experiment, Differenz, Schrift. Zur Geschichte epistemischer Dinge, Marburg: Basiliken Presse 1992. Schumpeter, Joseph A.: Kapitalismus, Sozialismus und Demokratie, Bern: Francke 1946. Schüttpelz, Erhard: »Ein absoluter Begriff. Zur Genealogie und Karriere des Netzwerkkonzepts«, in: Stefan Kaufmann (Hg.), Vernetzte Steuerung. Soziale Prozesse im Zeitalter technischer Netzwerke, Zürich: Chronos 2007, S. 25-46. Sombart, Werner: Studien zur Entwicklungsgeschichte des modernen Kapitalismus. Band 2: Krieg und Kapitalismus, München: Duncker & Humblot 1913. Star, Susan L./Griesemer James R.: »Institutional Ecology, ›Translations‹ and Boundary Objects. Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907-39«, in: Social Studies of Science 19 (1989), S. 387-420.

Epistemische Häufungen Nicht-Dinge und agentenbasierte Computersimulation S EBASTIAN V EHLKEN

Am Anfang steht eine Irritation. Besucht man den Schwarmforscher Iain Couzin im CouzinLab am Department of Ecology and Evolutionary Biology der Universität Princeton, wo er mit seinem Team das kollektive Verhalten verschiedenster Lebewesen erforscht, dann wird er einem mitnichten zuerst das zeigen, was man sich landläufig unter einem biologischen Forschungslabor vorstellt. Natürlich gibt es hier auch Aquarien für die Beobachtung von Fischschwärmen oder Vorrichtungen zur Untersuchung der Physiologie von Heuschrecken mitsamt all den technischen Geräten, die derartige Experimentalsysteme ausmachen. Der Stolz des Labors steht jedoch in einem ganz normalen Büro – eine Reihe Black Boxes, gängige PC-Tower mit bläulicher Innenbeleuchtung. Und nicht zufällig sehen diese Rechner aus, als seien sie eben noch auf einer LAN-Party im Einsatz gewesen; in ihnen stecken leistungsfähige Grafikprozessoren, speziell entwickelt für rechenaufwendige Computerspiele. Für Couzin und sein – auch programmiertechnisch versiertes – Team findet der Großteil der Arbeit in ›virtuellen Laboren‹ statt. Seit Jahren schon setzen sie Agent-based Modelling and Simulation (ABMS) ein, um das Kollektivverhalten von Tierschwärmen zu erforschen, und visualisieren die Simulationsdurchläufe am Rechnerbildschirm. Die äußerst rechenintensiven – und mit steigender Anzahl der im Simulationsmodell implementierten Individuen oder ›agents‹ noch exponentiell zunehmenden – Operationen solcher Computersimulatio-

64 | S EBASTIAN V EHLKEN

nen überforderten klassische Rechnerarchitekturen und deren CPUs und schränkten somit die Erforschung von Schwarmdynamiken ein. In Kooperation mit einem namhaften Grafikkartenhersteller umgeht das Team jedoch seit Kurzem diese Limitationen, indem es GPUs (Graphics Processing Units) mit ihren jeweils mehreren Hundert Prozessorkernen als Ko-Prozessoren nutzt. Mittels der Programmiersprache CUDA (Compute Unified Device Architecture) lassen sich diese zu einem »personal super computer« zusammenschalten, dessen massiv parallelverarbeitende Architektur ideal ist für die computergrafische Modellierung und Simulation komplexer Schwarmdynamiken.1 Gerahmt vom aktuellen forschungspraktischen Einsatz von GPGPU (General-Purpose Computing on Graphics Processing Units) in der Schwarmforschung wird dieser Beitrag also auf einer ganz basalen Ebene die Transformation von Laboratorien als Räumen mit ›analogen‹ Gerätschaften und Objekten in computergrafische Umgebungen nachvollziehen. Damit einher gehen jedoch viel tiefergreifende Fragen. Eine erste betrifft die Art des Wissens, das beim Einsatz von Computersimulationen virulent wird. Welche Eigenschaften lassen sich hier ausmachen, die es von den Wissensstrategien der klassischen Mode-1-Wissenschaften mit ihrem traditionellen, wissenschaftsintern definierten Rekurs auf Faktoren wie Exaktheit und Beweisbarkeit, mit ihrer epistemologischen Trennung von Theorie und Experiment, und auch mit der an sie angeschlossenen Episteme des Labors unterscheiden?2 Und welche Wechselwirkungen existieren

1

Vgl. U. Erra/B. Frola/V. Scarano/I. Couzin: An efficient GPU implemen-

2

Vgl. M. Gibbons: The emergence of a new mode of knowledge produc-

tation. tion, S. 55-66. Mode-2-Wissenschaften verfahren laut Gibbons in einer interdisziplinären, problemorientierten Perspektive, deren Wissensproduktion sich aus je spezifischen epistemisch-technischen Kontexten generiert. Um den Preis nurmehr numerischer Lösungs- und Annäherungsverfahren und damit unter Verzicht auf die traditionelle Suche nach eindeutigen und analytischen Lösungen ergibt sich für diese Wissenschaften jedoch ein viel größerer Anwendungsbereich. Computersimulationen sind ein Paradebeispiel für die Wissensproduktion von Mode-2-Wissenschaften. Nicht nur sind ihnen hypothetische und heuristische Eigenschaften inhärent – sie

E PISTEMISCHE H ÄUFUNGEN

| 65

zwischen diesen computergrafischen ›Laboratorien‹ und ihrem Wissensobjekt, dem Schwarm? Die drängendste Frage, die daran angeschlossen werden muss, ist aber wohl jene nach der Applikabilität des aktuellen wissenschaftsgeschichtlichen Vokabulars für derartige ›virtuelle Labore‹. Zwar setzten sich z.B. Bruno Latours Akteur-NetzwerkTheorie (ANT) und Hans-Jörg Rheinbergers Experimentalsysteme einerseits wohltuend mit der Komplizierung der Referenzialität wissenschaftlicher ›Dinge‹ auseinander und machten die materiellen Operationsketten von Laborforschungen differenziert beschreibbar. Andererseits befasst sich Rheinberger jedoch leider kaum mit den Spezifika der Simulationsthematik, und auch Latour beschwört inzwischen eher ein Elend der Kritik angesichts im Mode-2 operierender Wissenschaften. Somit ist höchst ungewiss, ob ihre Ansätze auch für die Spezifizierung der ›Immaterialitäten‹ heutiger wissenschaftlicher Computersimulationen taugen.3

H ERSTELLUNG VON Z UKUNFT Bei allem Handlungspotenzial, das man Dingen zuschreiben mag und möchte, bleibt es irritierend, wie sehr ein Begriff wie ›epistemisches Ding‹ sowohl in der Antragsprosa als auch in wissenschaftlichen Texten um sich greifen kann, und wie ubiquitär eine Theorie wie die ANT auf verschiedenste medien- und kulturwissenschaftliche Themenbereiche ›methodisch anzuwenden‹ versucht wird – und im Zuge dessen oftmals als ›supertheory of everything‹ missverstanden zu werden droht. Nun können gute Platten nichts dafür, wenn sie zu oft abgespielt werden. Sie hören auch deswegen keineswegs auf, gute Platten zu sein. Dennoch soll im Folgenden versucht werden, mit Blick auf den Bereich der biologischen Schwarmforschung einige Bruchlinien auf-

sind charakterisiert durch eine grundsätzliche Unexaktheit. Autoren wie Fritz Rohrlich, Paul Humphreys, Peter Galison und Eric Winsberg haben beschrieben, wie dadurch klassische wissenstheoretische Konzepte von Theorie und Experiment durchkreuzt und transformiert wurden. 3

Vgl. auch G. Gramelsberger: Computerexperimente, S. 252-253.

66 | S EBASTIAN V EHLKEN

zuzeichnen, die eine hier vorgeschlagene medien- und kulturwissenschaftliche Betrachtung von ABMS auf dem aktuellen Stand der Technik von Rheinbergers und Latours Ansätzen scheiden könnten. Auch hier mag zunächst eine Irritation entstehen: Können Schwarmkollektive nicht als epistemische Dinge par excellence angesehen werden? Es ist schließlich, so zitiert Rheinberger den Physiologen Claude Bernard, »das Vage, das Unbekannte, das die Welt bewegt«,4 und er erwähnt Abraham Moles, der in Les sciences de l’imprécis systematisch nach der Funktionalität von Unschärfephänomenen in den Wissenschaften sucht. Rheinberger selbst benennt mit seinem Begriff des epistemischen Dings jene Diskurs-Objekte, die sich in Wechselwirkung der technischen Dinge eines Experimentalsystems mit den steten (medien-) archäologischen Neu- und Überschreibung von (geschichteten und ineinandergreifenden) Geschichten und ihren jeweiligen Strategien des Vorantastens ausbilden. Er definiert genauer: »Epistemische Dinge sind die Dinge, denen die Anstrengung des Wissens gilt – nicht unbedingt Objekte im engeren Sinn, es können auch Strukturen, Reaktionen, Funktionen sein. Als epistemische präsentieren sich diese Dinge in einer für sie charakteristischen, irreduziblen Verschwommenheit und Vagheit.«5 Über seinen Begriff richtet Rheinberger die Aufmerksamkeit einer historisch reflektierenden Epistemologie auf die »Entdeckungszusammenhänge«6 einer »im Werden befindlichen wissenschaftlichen Erfahrung«. Für diese sei eine begriffliche Unbestimmtheit und Unschärfe nicht etwa nachteilig, sondern nachgerade produktiv und handlungsleitend. Indem sie Wissen als grundsätzlich vorläufig kennzeichnen – denn epistemische Dinge verkörpern, so Rheinberger, gerade »das, was man noch nicht weiß« – verwiesen sie darauf, dass die Zeit in der Geschichte der Wissenschaft am Werk sei, und diese Wissenschaft sich nicht einfach in der Zeit entfalte. Jedes Experimentalsystem könne somit mit François Jacob als eine »Maschinerie zur Herstellung von

4

C. Bernard: Philosophie, S. 26, zit. n. H.-J. Rheinberger: Experimentalsysteme, S. 27.

5

H.-J. Rheinberger: Experimentalsysteme, S. 27.

6

Ebd., S. 27. Der Begriff ›Entdeckungszusammenhang‹ stammt aus H. Reichenbach: Erfahrung und Prognose, S. 3.

E PISTEMISCHE H ÄUFUNGEN

| 67

Zukunft« bezeichnet werden.7 Michel Serres und Bruno Latour dienen Rheinberger als Advokaten dieser Perspektive einer historischen Epistemologie. Während Serres betont, dass Forschen nicht Wissen, sondern ein stetes Sich-Vorantasten, Basteln und Zögern bedeutet, unterstreicht Latour die Veränderlichkeit von Wissensobjekten. Diese existierten nur als »Liste« von Aktivitäten und Eigenschaften, so dass der Gegenstand mit jedem weiteren ›Listeneintrag‹, also mit jedem Zuwachs an Wissen über das betreffende Objekt, umdefiniert werde und eine veränderte Gestalt erhalte. Damit ist die Frage nach epistemischen Dingen immer schon mit einem historischen Index versehen, und sie vollzieht sich im gleichberechtigten Wechselwirken von menschlichen und nicht-menschlichen Akteuren.8 Neue Wissensobjekte werden, so Rheinberger, also keinesfalls einfach entdeckt oder entschleiert und ›ans Licht gebracht‹, sondern nach und nach innerhalb technischer Anordnungen hergestellt und gestaltet. Auch mit Latour zeichnen sich Forschungsprozesse gerade dadurch aus, dass medialen Repräsentationsverfahren keine eindeutig bestimmbaren Referenten vorgelagert sind. Wissensobjekte werden erst in einer Folge von Referenzialisierungsakten wie Ordnen, Unterscheiden, Aufzeichnen, Übertragen, Markieren oder Filtern hergestellt. Auf den ersten Blick mögen Schwärme somit in ihrer Hybridhaftigkeit zwischen lokalen Relationen, globaler Strukturbildung und kollektiven Bewegungsmustern tatsächlich als prototypische Gegenstände dieser Ansätze erscheinen. Die Anstrengungen von Schwarmforschern gelten einem Wissen um die Strukturen und Funktionen, die aus einer bloßen Aggregation vieler Einheiten ein qualitativ anderes Gebilde mit neuen Eigenschaften und Operationspotenzialen entstehen lassen. Sie siedeln dabei sowohl als materielle ›Objekte‹ wie auch als Wissensobjekte in einem Bereich der optischen Unschärfe und strukturellen Intransparenz. Für die Mediengeschichte der jahrzehntelangen, tatsächlich in biologischen Laboraquarien oder im offenen Meer

7

F. Jacob: Die innere Statue, S. 12, zit. n. H.-J. Rheinberger: Experimentalsysteme, S. 25.

8

Vgl. M. Serres: Elemente einer Geschichte der Wissenschaften, S. 35, zit. n. H.-J. Rheinberger: Experimentalsysteme, S. 28. Vgl. B. Latour: Science in Action, S. 87-88.

68 | S EBASTIAN V EHLKEN

stattfindenden Forschungen z.B. zu Fischschwärmen mögen Rheinbergers und Latours Ansätze mithin durchaus produktiv einsetzbar sein. Doch der entscheidende Fluchtpunkt dieser Mediengeschichte der Schwarmforschung liegt jenseits solcher Laboratorien und jenseits von ›im Feld‹ installierter Mess-, Beobachtungs- und Experimentalanordnungen.

M EDIEN -W ERDEN In Laborstudien zu Schwarmkollektiven stand seit den späten 1920er Jahren stets das Fishy Business experimenteller und empirischer Studien, ihrer optischen und akustischen Beobachtungsverfahren, und ihrer physiko-mathematischen Modellierung im Vordergrund. Hier kündigte sich zwar bereits eine schrittweise Subtraktion der ›Natürlichkeit‹ von Schwärmen hin zu formalen Funktionsprinzipien an: Nicht die Entschlüsselung eines (substanziellen) Seins von Schwärmen wurde avisiert. Vielmehr sollte ihr beständiges ›Werden‹ (Deleuze) erschlossen, ihre dynamische Relationalität und deren Operationslogiken sollten nachvollzogen werden.9 Aufgrund ihrer prekären Objekthaftigkeit blieben solcherart biologische Labor- und Feldstudien mit ihren ›technischen Dingen‹ jedoch allzu oft im »technological morass«10 stecken. Die eingesetzten Medientechniken waren z.B. angesichts der Fülle der zu verarbeitenden Bewegungsdaten überfordert, oder sie waren lediglich imstande, jeweils nur Teilaspekte der Emergenz von Schwarmdynamiken isoliert zu extrahieren. Die für die Entwicklung eines systemischen Blicks auf Schwärme nötige Subtraktion von Natürlichkeit, die Eliminierung der Störungen, die Schwärme innerhalb labortechnischer Anordnungen stets selbst erzeugten, wird erst mit dem Einsatz von Computersimulationen in biologischen Schwarmforschungen erreicht. Und diese erlauben zugleich auch synthetische Beschreibungsmodi zuvor verstreuter Felder von Schwarm-Wissen. Schwärme können dabei nurmehr als Zootech-

9

Vgl. hierzu S. Vehlken: Fishy Business, S. 157-196.

10 J. Parrish/W. Hamner/C. Prewitt: Introduction – From Individuals to aggregations, S. 9.

E PISTEMISCHE H ÄUFUNGEN

| 69

nologien verstanden werden: Nicht ein technisches Modell steht hier Pate für ein biologisches Steuerungsprinzip oder vice versa. Erst in ihrer wechselseitigen Überschneidung produzieren Biologie und Computer Science die Möglichkeitsbedingungen einer Konzeptualisierung von Schwärmen als operative Systeme. Eine Mediengeschichte der Schwarmforschung rückt somit eine historiographische und epistemologische Rekursionsbewegung11 in den Fokus, die den Übergang von experimentellen Forschungen zu Computersimulationen nicht nur als einen medientechnischen Bruch, sondern auch als eine tiefgreifende Transformation im Wissen von Schwarmkollektiven markiert. Mitte der 1980er Jahre überschneiden sich nämlich eine Biologisierung von Computerwissenschaft und Informatik mit einer Computerisierung und Informatisierung der (Schwarm-)Biologie. Dieser transversale Austausch resultiert in einer Konstellation, in der – zugespitzt formuliert – die Schwarmforschung lernt, auf ihr Forschungsobjekt zu verzichten und an einem ganz anderen Ort einen Ausweg aus technologischen Morasten zu finden. Denn mit der Entwicklung computergrafischer Partikelsysteme und Schwarmsimulationen für Hollywood-Produktionen stehen bald Animations- und Visualisierungstools bereit, die ein hohes Maß an komplexen Verhaltensweisen aus den dynamischen Kopplungen vieler Elemente auf Basis weniger Interaktionsregeln modellieren. Zwar inspiriert von den Bewegungen ›realer‹ Schwärme, doch ganz ohne Rückgriff auf biologische Messdaten ergeben sich Partikelschwärme, die wie ›reale‹ Schwärme aussehen und sich wie diese verhalten können. Anstelle einer modellhaften Repräsentation oder Nachahmung der Natur geht es hier um die Präsentation oder – mit einem Wort Hans Blumenbergs – um die »Vorahmung«12 von Systemdynamiken, die gegenstandsneutral sind. Schwarmforschungen können ihrem Wissensobjekt erst gerecht werden, wenn dieses technologische Dritte in Form von agentenbasierten Computersimulationen und den zugehöri-

11 Vgl. zu diesem Begriff in genannter doppelter Perspektive jüngst A. Ofak/ P. von Hilgers: Rekursionen. Der Begriff der Rekursion als historiographische Schreib- und Erkenntnisakt wird im weiteren Verlauf des Kapitels spezifiziert. 12 H. Blumenberg: Nachahmung der Natur, S. 93.

70 | S EBASTIAN V EHLKEN

gen computergrafischen Visualisierungen selbst in den Forschungsprozess integriert wird. Erst mit computergrafischen Visualisierungen und den ihnen zugrundeliegenden Algorithmen erscheint ab Mitte der 1980er Jahre eine Synthese der Relationen in Schwarm-Kollektiven in vier Dimensionen am Horizont des Wissens.13 Spricht man dabei von Visualisierung, so sollte hier konkret ebenfalls eine Definition Rheinbergers modifiziert werden. Dieser problematisiert die Referenz von Repräsentationen in der Wissenschaftspraxis. Arbeitet man mit einer Repräsentationstechnik, z.B. einem Elektronenmikroskop, so kann man dessen Bilder nicht mit einem Blick auf das Objekt an der Repräsentationstechnik vorbei überprüfen – ansonsten bräuchte man ja diese Technik nicht. Das »Wissenschaftswirkliche«, so Rheinberger mit Bezug auf Bachelard, zeigt sich demnach in Repräsentationen, die nur mit anderen Repräsentationen vergleichbar sind, nicht mit dem Repräsentierten selbst. Der Bezug zum Referenzobjekt wird gegenstandslos, und daher spricht Rheinberger anstatt von ›Bild‹ und ›Abbild‹ lieber von Sichtbarmachung und Visualisierung: »Mit Visualisierung in der Wissenschaft meinen wir in der Regel einen Vorgang, der auf graphisch-bildnerische Mittel zurückgreift anstatt auf verbale Beschreibungen und auf Formeln.« Im Fall von Computersimulationen wird diese Trennung von Bildproduktion und Code natürlich hinfällig – der gegenstandslose Bezug zum Repräsentierten lässt sich am Beispiel von Schwärmen jedoch gut zeigen. Die grafische Präsentation in Computersimulationen gewinnt ihre epistemische Freiheit gerade dadurch, dass sie ohne ein direktes ›Re-‹, ohne einen Rekurs auf einen realen Vorgang auskommt. Prozesse und Szenarien in Computersimulationen verifizieren sich zunächst intern. Und auch im Vergleich mit Daten ›aus der Realwelt‹ sind sie konfrontiert mit gemachten Daten, mit den Inputs medientechnischer Verfahren. 14 Im Nachgang von Animationsmodellen aus dem Grafikbereich kann ab dieser Zeitschwelle um 1990 auch in der biologischen Schwarmforschung eine nachhaltige Konjunktur von Computersimulationsmodellen verzeichnet werden, die unter dem Einsatz dynami-

13 Vgl. ausführlich S. Vehlken: Fish & Chips, S. 125-162. 14 Vgl. hierzu H.-J. Rheinberger: Objekt und Repräsentation, S. 57.

E PISTEMISCHE H ÄUFUNGEN

| 71

scher Visualisierungen neue Erkenntnisse über das Verhalten und die Selbstorganisation von Schwärmen erzeugen. Sie erlauben dabei einen produktiven Umgang mit der prekären Objekthaftigkeit von Schwärmen, indem sie diese als mit einem dynamischen, zeitlichen Index versehene, zwischen Konzentration und Verstreuung oszillierende Nicht-Dinge modellieren. Man kann in diesem Zusammenhang und im Kontext einer bewussten Implementierung von Zufallsprozessen und Wahrscheinlichkeitsoperationen in diesen Modellen anstelle von ›Dingen‹ eher von flexiblen und fallweisen epistemischen Häufungen sprechen: In agentenbasierten Computersimulationsmodellen lassen sich jene Globaldynamiken in drei Dimensionen plus Zeit nachverfolgen, die als Ergebnis der nichtlinearen Verschaltungen individueller Bewegungen der einzelnen Schwarm-Mitglieder klassische Laborexperimente mit Schwärmen stets störten und deren Tragweite limitierten. Eine derartige wechselseitige ›Bio-Computerisierung‹ folgt einem rekursiven Modell. Bei diesem geht es jedoch nicht um jene Kombination und Rekombination alter und neuer Wissensbestände, die Ana Ofak und Philipp von Hilgers jüngst als eine historiographische Operation jenseits sowohl einer akkumulativen Fortschrittsgeschichtsschreibung, als auch einer diskursanalytischen Historiographie epochaler Zäsuren vorstellen.15 Das Modell zeigt sich vielmehr als Beispiel für die von den beiden Autoren ebenfalls genannte »formalbegriffliche Schärfung, die die Rekursion in der Mathematik und Informatik erhalten hat« – sie eignet sich, um den »Aspekt der Selbstbezüglichkeit hervortreten zu lassen.«16 Im medientechnisch durch ABMS vollzogenen Chiasmus von Fish & Chips werden durch das Verhalten von biologischen Schwärmen inspirierte Software-Schwärme eingesetzt, um wiederum die Verhaltensweisen biologischer Kollektive zu erforschen. Der Rekursionsprozess von biologischen Schwarmprinzipien und informatischen und computergrafischen Simulationsumgebungen nähert zwei Bereiche intransparenter Selbstregelungsprozesse mit nur teilweise bekannten oder nicht genau bestimmten Parametern anei-

15 Vgl. A. Ofak/P. von Hilgers: Rekursionen, S. 7-18. 16 Ebd., S. 13.

72 | S EBASTIAN V EHLKEN

nander an. Rekursion ist informatisch definiert als die Wiederanwendung einer Verarbeitungsvorschrift auf eine Variable, die selbst bereits der Output dieser Vorschrift ist: »Der Variablenwert ändert sich mit jedem Durchlauf der Schleife, und Effekt der Wiederholung ist gerade nicht die Herstellung von Identität, sondern eine vordefinierte Variation. [...] Rekursion verschränkt Wiederholung und Variation mit dem Ziel, ein Neues hervorzubringen.«17 Sie beschreibt die Eigenschaft eines Programms oder einer Programmroutine, sich selbst aufrufen zu können – und nicht viel anderes geschieht in der Verschränkung von Fish & Chips:18 In einem Prozess, den man mit Joseph Vogl ein ›Medien-Werden‹ nennen kann, finden Schwärme in ABMS eine systematische Heimat, die zugleich als Medientechnik der Schwarmforschung eingesetzt wird und die viele, alternative Simulationsszenarien nebeneinanderstellt.

D IFFERENZIELLES J ETZT Computersimulationen erweitert den Bereich der bearbeitbaren Probleme dadurch, dass sie die Applizierbarkeit quantitativer Analysen vergrößern. Simulationen machen eine Vielzahl von Variablen gleichzeitig und in der Zeit handhabbar. Sie schreiben im Zuge dieser Laufzeit direkt das Verhalten komplexer Systeme an, ohne eine konkrete Analogie zu empirischen Daten zugrunde zu legen. Sie können daher als Extensionen mathematischer Modellbildung betrachtet werden, de-

17 W. Ernst: Der Appell der Medien, S. 185, mit Verweis auf H. Winkler: Rekursion. Über Programmierbarkeit, Wiederholung, Verdichtung und Schema, S. 235. 18 Diese Rekursionsfigur ist zu unterscheiden von jenen iterativen Prozessen szenarischer Variation, die in den ABMS selbst durchgeführt werden. Bei letzterer werden verschiedene Ergebnisse bzw. Parameterkombinationen im Rückgriff auf die Ergebnisse vorheriger Simulationsdurchläufe in einund derselben Programmumgebung wiederholt eingesetzt. Auf die Bedeutung rekursiver Verfahren für bildgenerierende Verfahren in der Computergrafik, namentlich für das Raytracing, hat überdies Friedrich Kittler hingewiesen: vgl. F. Kittler: Computergrafik, S. 186f.

E PISTEMISCHE H ÄUFUNGEN

| 73

ren Wissen in einer Umkehrperspektive erzeugt wird: Im Durchlauf, also erst im Prozessieren eines Simulations-Szenarios mit bestimmten Ergebnissen und in im Wortsinne gezeitigten Phänomenen lassen sich Ähnlichkeiten im Systemverhalten erkennen, die sich auf eine bestimmte Parameterkonfiguration gründen. Deren Ähnlichkeit mit empirischen Daten kann anschließend festgestellt werden – oder eben nicht. Eine Iteration von Simulationsdurchläufen mit je veränderten Parametereinstellungen ist der Modus dieser Art computergestützter Wissensproduktion, und Trial and Error dient ihr als Arbeitsprinzip. Die Basisfunktion dieses Wissens ist ein ›seeing in time‹. Simulationen können in ihrer Zeitgeworfenheit oder besser: Zeitentworfenheit mathematische Modelle animieren, mit ›Leben‹ in Laufzeit füllen. Dabei erschöpfen sie sich jedoch nicht in einer bloßen Erweiterung bestehender epistemischer Strategien; sie leisten mehr als nur eine Verbesserung numerischer Berechnungsverfahren durch die calculating power von Computern. Computersimulationen kann ein ganz eigener epistemischer Status zugeschrieben werden. Sie erlauben ein Experimentieren mit Theorien, in der eine pragmatische Operationalität eine genaue theoretische Fundierung ablöst. Oder kurz: »performance beats theoretical accuracy.«19 Anders als im Falle von Theorien geht es nicht um ihre Wahrheit oder Falschheit, sondern um Fragen von Brauchbarkeit. 20 Als Software losgelöst von konkreten Materialisierungen, aber immer unter der Maxime einer Mitreflexion ihrer eigenen ›Materialität‹, etwa als spezifische, z.B. objektorientierte Codestruktur, als Programmiersprache mit eigenen Grammatiken, oder als Visualisierungstool mit charakteristischen Filteralgorithmen, eröffnen Computersimulationen Möglichkeitsräume. Sie erlauben das Durchspielen von Szenarien, ermöglichen einen rekursiven Abgleich mit aus Beobachtung und Experiment gewonnenen empirischen Daten, forcieren aber auch das Schreiben »synthetischer Geschichte«.21 Zwischenstufen und Zwischenräume für epistemische Dinge oder Modellorganismen, wie sie in Rheinbergers und Latours Arbeiten immer wieder vorkommen, schrumpfen damit zusammen auf die Raumzeit virtueller

19 G. Küppers/J. Lenhard: The Controversial Status of Simulations. 20 Vgl. S. Sismondo: Models, Simulations, and their objects, S. 247. 21 Vgl. C. Pias: Synthetic History, S. 171-183.

74 | S EBASTIAN V EHLKEN

Szenarien, oder anders: Der Einsatz von Computersimulationen führt zu einer simultanen Explosion und Implosion epistemischer Dinge. Eine Explosion deswegen, da sie sich in immer neuen Szenarien multiplizieren lassen, und eine Implosion aus dem Grunde, dass sie damit ihren widerständigen Charakter verlieren, fluide oder besser: prozessierbar werden.22 Auch Rheinbergers eigene Frage, ob epistemische und technische Dinge überhaupt sinnvoll voneinander abgrenzbar seien,23 muss damit im Angesicht von Computersimulationen neu gestellt werden. Der Gradient zwischen diesen beiden Ding-Arten, der Rheinberger hilft, »das Spiel der Hervorbringung des Neuen zu verstehen«,24 verschwimmt in Computersimulations-Szenarien. Epistemische und technische ›Dinge‹ verschmelzen, wenn – wie im Fall der Schwarmforschung – das epistemische ›Ding‹ Schwarm zugleich auch das technische Analyseinstrument ist: Schwärme werden mit Swarm Intelligence-Systemen erforscht, die von biologischen Schwarmprinzipien inspiriert sind. Technische Entwicklungen oder Verfeinerungen der Simulationssoftware und -hardware laufen damit auf der gleichen Ebene und sind somit zugleich immer auch schon eine Arbeit am epistemischen ›Ding‹. Zudem werden Simulationssysteme, ihre Programmierung und ihre Algorithmen oftmals nurmehr differentiell mit anderen Simulationen oder alternativen Parametrisierungen desselben Systems verglichen und validiert. Denn sie werden gerade in Fällen eingesetzt, in de-

22 Zwar behandelt Rheinberger in seinem Text »Alles, was überhaupt zu einer Inskription führen kann« die Bedeutung von »Iterationen«, also die zielgerichtete Wiedereinsetzung von Zwischenergebnissen in nicht geschlossen berechenbare (Gleichungs-, Text-, Experimental-) Systeme, aber diese sind doch eher zu verstehen als lineare Problemlösungsverfahren, wohingegen sich Computersimulationsverfahren und ihre Szenarien als Parallelverarbeitung kennzeichnen lassen, in denen multiple Wiedereinsetzungen verschiedener Variablen vorgenommen und diese dann differentiell evaluiert werden. Vgl. H.-J. Rheinberger: Iterationen, hier besonders S. 17ff. 23 H.-J. Rheinberger: Experimentalsysteme, S. 31. 24 Ebd, S. 31.

E PISTEMISCHE H ÄUFUNGEN

| 75

nen empirisches Datenmaterial – wie bei Schwärmen – nur sehr spärlich vorhanden und von prekärem Status ist: »[S]chooling behavior remains largely an enigma, primarily because of the difficulty to obtain such data experimentally. As a result, simulations [...] continue to be based more on the presumptions of their authors than on actual data.«25 Es ist eben nicht ohne weiteres möglich, die Prozesse von Schwarm-Simulationen mit den Prozessen in biologischen Schwärmen zu vergleichen und so ihre Repräsentationalität zu überprüfen. Vielmehr müssen sie sich quasi intern verifizieren: »[T]hat is, the transformations need to be considered well motivated based on their own internal form, and not solely on the basis of what they produce. Simulation requires an epistemology that will guide us in evaluating the trustworthiness of an approximation qua technique, in advance of being able to compare the results with the broad range of the phenomena we wish to study. In general, the inferential moves made in simulations are evaluated on a variety of fronts, and they can be justified based on considerations coming from theory, from empirical generalizations, from data, or from experience in modeling similar phenomena in other contexts.«26

Die Grenzen zwischen einem technischen ›Milieu‹ und den darin produzierten Wissenschaftsdingen, also von jenen zwei Bereichen, die schon bei Rheinberger im Verlauf des Forschungsprozesses ineinander übergehen können und in dynamischen Austauschbeziehungen stehen, werden hier also nur noch je fallweise und jeweils innerhalb eines von Beginn an technisch-epistemischem Amalgams definiert. Computersimulationen von Schwärmen implizieren jedoch nicht nur epistemologische, sondern vor allem auch medientheoretische und mediengeschichtliche Fragestellungen. Ganz wesentlich ist dabei einerseits die Ablösung analytischer durch numerische Rechenverfahren, die eine approximative Lösung mittels Computern möglich macht. Vor allem aber ermöglichen Computersimulationen die dynamische Visualisierung der untersuchten Phänomene. Eine neue Form von Bildproduktion eröffnet damit auch den Zugang zu einem Wissen,

25 S. Viscido/J. Parrish/D. Grünbaum: The effect of population, S. 361. 26 E. Winsberg: Simulations, Models, and Theories, S. 447.

76 | S EBASTIAN V EHLKEN

das vollständig im Symbolischen operiert, aber gerade und nur deshalb operative Zugänge zu komplexen Realwelt-Phänomenen bereithält. Computersimulationen bedienen sich unter den Bedingungen von Computergrafik und digitalen Bildern in allen Fächern des epistemischen Werkzeugkastens, bricolagieren mit Experiment-, Theorie- und Modellbauteilen. Dabei entwerfen sie nicht nur alternative Welten und Szenarien, sondern auch alternative Zeiten. Was mit Computersimulationen in den Mittelpunkt tritt, sind Relationen innerhalb von Systemen; Relationen, die nur mit einem Zeitpfeil gedacht werden können. In diesem Punkt treffen sich das Wissensobjekt Schwarm und die Episteme der Simulation: Das relationale Sein von Schwärmen in seiner Durchkreuzung von mikroskopischem und makroskopischem Blick kann nur in einer Technologie adäquat erscheinen, die selbst die Unterscheidung zwischen epistemischem und technischem Ding durchkreuzt, die Erkenntnisrelationen fokussiert. Im Gegensatz zu anderen je durch Schwarmdynamiken gestörten medientechnischen Verfahren bringen Computersimulationen die visuelle Unschärfe und die steuerungslogische Intransparenz von Schwärmen mit ihrer eigenen epistemologischen Unschärfe zur Deckung. Diese ist jedoch – und das ist der springende Punkt – ihrerseits genau programmiert und ›festgeschrieben‹. Die Informationsprozesse, die in den Bewegungen der Schwarm-Individuen und des SchwarmKollektivs vermutet werden, die sich aber einer Durchmusterung entziehen, können in Simulations-Szenarien als prozessierte und prozessuale Form loser Kopplungen im Sinne Fritz Heiders in Erscheinung treten.27 Was in vivo und in vitro nicht hinreichend beschreibbar ist, lässt sich in silico schreiben. Die Informationstransmission in Schwärmen ist nicht zu trennen von der Ebene der Form, in der sie sich manifestiert. Sie ist nicht zu trennen von den lokalen und globalen Formen und Bewegungsmustern, die sich in drei Dimensionen plus Zeit ergeben. Der Architekturtheoretiker Stan Allen, der Ende der 1990er Jahre gemeinsam etwa mit Jeffrey Kipnis nach architektonischen Konzepten jenseits der Dichotomie von Objekten und Räumen sucht (Kipnis zog ausdrücklich Fischschwärme als Analogie herbei), formuliert diesbe-

27 Vgl. F. Heider: Ding und Medium.

E PISTEMISCHE H ÄUFUNGEN

| 77

züglich treffend: »Form matters, but not so much the form of things, but the form between things.«28 Wobei man im Hinblick auf die Dynamik von Schwärmen natürlich richtiger von einem Prozess der beständigen Formation und Deformation sprechen muss.29 Computersimulationen synthetisieren diese dynamische Formgebung biologischer Schwärme mittels künstlicher Modellparameter und machen diese Prozesse anhand von Visualisierungen in Computergrafik-Sequenzen nachvollziehbar. Wenn biologische Schwärme mittels Computersimulationen erforscht werden, die selbst auf ganz ähnlichen Regeln basieren, muss neben den Entsprechungen auf den Ebenen der Relationalität und Performativität auch ein historischer Index beachtet werden. Denn wie Claus Pias unterstreicht, existieren »keine Daten ohne Datenträger. Es gibt keine Bilder ohne Bildschirme. Alle Information ist an materielle Technologien und historisch wandelbare Verfahren geknüpft.«30 Verknüpft sich das epistemische Verfahren der Computersimulation mit der Information in Schwärmen, verbinden sich mathematische Modelle mit Computergrafik zu einem Amalgam, das die Trennung von Bild, Schrift und Zahl unterläuft und ein neues Wissen ermöglicht. In Schwärmen konzentrieren sich gewissermaßen jene Problemfelder, die durch die epistemischen Strategien der Computersimulation aufgerufen werden. Deren allgemeine Verbreitung in verschiedenen Wissenschaften kann man als eine Medienkultur der Intransparenz bezeichnen. Computergrafik macht dabei einen visuellen Abgleich verschiedener Globalstrukturen möglich. Sowohl veränderte Parametereinstellungen im Regelwerk der agentenbasierten Simulationsmodelle, als auch die sporadischen empirischen Daten von Open Waterund Laborstudien von Fischschwärmen können mithilfe animierter digitaler Visualisierungsverfahren miteinander kombiniert und in ›virtuellen Verhaltensexperimenten‹ erprobt werden. Erst in diesen Verfahren der Animation von Schwarm-Modellen kann entschieden werden,

28 Vgl. S. Allen: From Objects to Fields, S. 24-31. 29 Jeffrey Kipnis schreibt über Fischschwarmdynamiken, sie seien always in form, but always changing form. Vgl. J. Kipnis: (Architecture) After Geometry, S. 43-47. 30 C. Pias: Das digitale Bild gibt es nicht, S. 19.

78 | S EBASTIAN V EHLKEN

ob die gewählte Parameterkombination ein Ergebnis produziert, das dem Verhalten eines biologischen Fischschwarms ähnlich ist. Es sind vor allem drei Gründe, die den Bereich agentenbasierter Computersimulationen auf Schwärme applizierbar machen: Erstens tragen ABMS einem fundamentalen Nicht-Wissen Rechnung: Sie gründen in einem Modellierungsparadigma des Bottom-Up, das Vorteile bietet gegenüber anderen Formen der Computersimulation wie System Dynamics oder Discrete Events. Während letztere in Top-Down-Manier bestimmte Vorannahmen über die Konstituenten eines Systems und deren Beziehungen untereinander machen müssen, arbeiten ABMS distribuiert und ohne solche Definitionen des systemischen Globalverhaltens. Das Verhalten des zu beschreibenden Systems emergiert eben nur aus jenen einfachen und lokal (nämlich auf der Ebene der individuellen Agenten resp. Teilchen) implementierten Einstellungen. Wie Andrei Borshchev und Alexei Filippov schreiben, sind ABMS daher besser geeignet für den Entwurf von »models in the absence of the knowledge about the global interdependencies: you may know nothing or very little about how things affect each other at the aggregate level, or what is the global sequence of operations, etc., but if you have some perception of how the individual participants of the process behave, you can construct the AB model and then obtain the global behavior.«31

Zweitens zeichnen sie sich durch eine Autonomie im Sinne der Modelldefinition von Evelyn Fox Keller aus. Diese charakterisierte Zelluläre Automaten als das paradigmatische Beispiel für Computersimulationen, die als eigenständige Forschungsinstrumente mit einer besonderen epistemischen Strategie wirksam werden. Sie unterstreicht dabei eigens die Rolle und Relevanz von Visualisierungen: »In actual practice, the presentation – and, I argue, the persuasiveness – of CA models of biological systems depends on translating formal similitude into visual similitude. In other words, a good part of the appeal of CA models […]

31 A. Borshchev/A. Filippov: From System Dynamics and Discrete Event to Practical Agent Based Modeling.

E PISTEMISCHE H ÄUFUNGEN

| 79

derives from the exhibition of computational results in forms that exhibit a compelling visual resemblance to the processes they are said to represent.«32

Drittens schließlich tragen ABMS in beispielhaft interdisziplinärer Manier zu einem Verwischen von Objekt- und Kontextgrenzen bei – ein Verwischen, dass anhand einer Mediengeschichte der Schwarmforschung explizit wird: Etwa dann, wenn ein fragmentarisches biologisches Wissen von Schwärmen Programmierer im Bereich der Computer Graphic Imagery (CGI) inspiriert, die mit ABMS-Methoden Animationssysteme bauen, die wiederum Biologen dazu inspirieren, ähnliche ABMS für ihre – nun computergestützten – Schwarmforschungen einzusetzen. In diesem durch Computersimulationen aufgespannten Möglichkeitsraum zwischen Biologie und Computer Science werden Schwärme unter Umgehung der Unterscheidung, ja letztlich unter Löschung der Unterscheidbarkeit von epistemischen und technischen Dingen entworfen. Die Ebene der dynamischen Visualisierung von Daten in Raum und Zeit wird essentiell für die Wissensproduktion, und die Reversibilität, Flexibilität und Adaptabilität der – zumindest auf der für diese Eigenschaften relevanten Ebene der Simulationssoftware – immaterial culture der Computersimulation entgeht den Beschreibungsrastern und Terminologien, die für die material culture der wissenschaftsgeschichtlichen laboratory studies so produktiv sind.33

V ON NUN

AN

Doch zurück zu den Black Boxes in Princeton, und damit zu einem historischen Datum jener zuvor mit Claus Pias erwähnten Kopplung informatischer Daten und materieller Hardware. Waren seit Mitte der 1980er Jahre – und mit den zuvor beschriebenen epistemologischen Konsequenzen für die Ansätze der laboratory studies – vor allem die computergrafischen Visualisierungen von ABMS tragende Säulen der biologischen Schwarmforschung, so beschränkten die (wiederum ganz

32 E. Keller: Making Sense of Life, S. 272. 33 Vgl. C. Pias: Details Zählen, S. 15.

80 | S EBASTIAN V EHLKEN

materiell bedingten) Rechengeschwindigkeiten herkömmlicher VonNeumann-Architekturen durchaus auch den forschungspraktischen Umgang mit Simulationen. Die eingangs erwähnten GPGPU-Architekturen schaffen hier Abhilfe, vor allem seit sie auch in genügend offen angelegten Consumer-Ausführungen erhältlich sind, die sie neben den angestammten 3D-Rendering-Operationen auch für allgemeine Rechenprozesse einsetzbar machen. Iain Couzin formuliert dies in einem Interview so: »[O]ne of the challenges is and has always been the computational power that you require when you’re actually simulating these individuals. Individuals have to look at each other and see, you know, am I within range to interact with you, and so on. And as we start increasing the number of individuals, the computers tend to sort of chug to a stop and it’s very difficult to work. But there’s a breakthrough. In the last couple of years, there’s been programmable video game cards. [...W]e’re getting around 300 or more times faster.«34

Indes, und das ist der medienwissenschaftlich wiederum interessantere Part, beruht die brute force der Berechnung von großen Kollektiven miteinander interagierender Agenten auf den Eigenschaften der besonderen, massiv parallel arbeitenden Hardwarestruktur der Grafikchips. Ihre Architektur erlaubt die Organisation verschiedener Daten in parallele Streams, die zwar gemeinsam von einem Kernel verarbeitet werden, aber autonom nebeneinander bestehen. Sie entspricht damit ideal den Bedürfnissen der Modellierung individuenbasierter Kollektive. Abb. 1 zeigt, wie die Daten in einem Stream über verschiedene textures organisiert sind: »Textures are bi-dimensional arrays of 4-dimensional components of float values. For each character, state-preserving attributes like position, velocity, mass, size are stored compactly in place of pixels into 2D textures [...]. Textures are used not only for storing state-preserving information but also to

34 I. Couzin im Interview mit BigThink, URL: http://bigthink.com/ideas/ 18124, gesehen am 01.11.2010.

E PISTEMISCHE H ÄUFUNGEN

| 81

store environment-related information [...]. During simulation, textures are used as rendering target to maintain output related to every single behavior.«35

Die Interaktionsdynamiken ergeben sich, indem die Statusinformationen der einzelnen Daten-Zellen (erste Texture) im Stream mittels fragment shaders mit Informationen über die Anzahl der Nachbarn, deren Positionen und deren Orientierung oder Bewegungsrichtung verschaltet werden. Aus deren Kombination ergeben sich das jeweilige ›Bewegungsverhalten‹ für jede individuelle Zelle und damit neue Positionen und Orientierungen im Gesamtsystem. Gemeinsam mit Couzin wird diese Vorgehensweise weiterentwickelt, indem die zu simulierende ›Welt‹ als ein 3D-Grid vorgestellt wird, analog zum GPUMemory. Jede einzelne Zelle trägt eine eigene ID-Nummer, ebenso wie jeder individuelle Agent. Abb. 2 zeigt die Arbeitsschritte, mit denen nun die Simulations-Updates vorgenommen werden, und in Abb. 3 werden die Verschaltungen der verschiedenen zugehörigen Daten noch einmal schematisch aufbereitet.36 Abbildung 1: Stream-Struktur mit hintereinandergeschalteten Textures

Quelle: De Chiara et al., »An architecture for Distributed Behavioral Models« (2006), S. 2.

35 R.De Chiara/U. Erra/V. Scarano: An architecture for Distributed Behavioral Models with GPUs. 36 Vgl. U. Erra et al., Efficient GPU implementation.

82 | S EBASTIAN V EHLKEN

Abbildungen 2 und 3: Positionszuordnung und Neuordnung durch 3D-Space Lattice

Quelle: Erra et al., »Efficient GPU implementation« (2009), S. 4 und 5 (Abbildung 2 mit veränderter Orientierung).

Die rekursive Verschränkung von agentenbasierten Computersimulationsverfahren und biologischen Schwarmforschungen auf der Ebene von Softwareentwicklung kennzeichnet einen epistemischen Bruch, dessen hier angesprochene Konsequenzen nicht mehr mit dem Instrumentarium der laboratory studies, sondern ehestens durch eine technisch informierte, historisch-epistemologisch ausgerichtete Medienwissenschaft eingeholt werden können. Der Einsatz von Grafikchips als Hardware für die Berechnung von Schwarmdynamiken bedeutet nämlich keinesfalls eine Wiederannäherung an die material culture der Wissenschaftsgeschichte. Vielmehr kann hier eine konsequente Übertragung der immaterial culture agentenbasierter Computersimulationen erkannt werden, die nicht nur auf Software-Ebene – etwa durch objektorientierte Programmierung – die Vorteile distribuierter Strukturen nutzt, sondern diese in aktuellen Grafikchips erkennt und ebenfalls für biologische Forschungen an dynamischen Kollektivprozessen nutzbar macht. Genau wie im Fall der ABMS in der Mitte der 1980er Jahre ist es dabei ein invertierter Blick, der auf die Zootechnizität der-

E PISTEMISCHE H ÄUFUNGEN

| 83

artiger Kollektive und Schwärme hinweist. Natürlich ist an Nvidia G8x-Chips nichts ›natürlich‹, aber ein an Computermedien geschulter Blick auf Tiere als »Systemtiere«37 legt Kopplungen zwischen diesen Bereichen nahe, die sich auf deren abstraktes, formales Steuerungsund Relationenwissen berufen. Und diese Kopplungen führen – neben quantitativen Sprüngen bei der computational power – zugleich zu qualitativen Sprüngen, sagt Couzin: »And this has been an absolute revolution in terms of scientific computing for us. So we’re investing heavily in our efforts to try and program all of our simulations on these video game cards. And to give you sort of a rough impression, [...] if you can get 300 or 500 times as fast, if what used to take a month now takes you an afternoon, that changes the way we work. And also, because we can harness this vast computational power, we can start asking questions about evolution, we can start simulating these groups of reasonable size with the reasonable resolution in how they interact in space over such long time scales that we can now start, you know, having a sort of virtual process of evolution to understand how and why collective behavior has evolved.«38

Es wird die Aufgabe einer historisch-epistemologisch verfahrenden Medienwissenschaft sein, derartige überlappende Texturen zwischen Hardware, Software und Wetware zu beschreiben und ihren Wechselbezügen nachzuspüren, wobei nicht zuletzt die Relevanz computergrafischer Visualisierungen als unhintergehbares epistemisches Tool eine prominente Rolle einnimmt. Diese Konstellation, in der die differenzielle Kraft eines Begriffs wie ›epistemisches Ding‹ aufgehoben wird, mag auch der Anfang einer umfassenderen Epistemologie der Computersimulation sein – mit neuen, noch zu (er-) findenden Begriffen und Kategorien. Eines jedoch ist sicher: Jenseits des Labors liegt schon das Diesseits virtueller Computerlaboratorien.

37 Vgl. A.v.d. Heiden/J. Vogl: Politische Zoologie, S. 7-14. 38 Iain Couzin im Interview mit BigThink.

84 | S EBASTIAN V EHLKEN

L ITERATUR Allen, Stan: »From Objects to Fields«, in: AD Profile 127: After Geometry. Architectural Design 67/5-6 (1997), S. 24-31. Bernard, Claude: Philosophie. Manuscrit inédit, Paris 1954. Blumenberg, Hans: »›Nachahmung der Natur‹. Zur Vorgeschichte der Idee des schöpferischen Menschen«, in: ders.: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede, Stuttgart: Reclam 1986, S. 55-103. Borshchev, A./Filippov, A.: »From System Dynamics and Discrete Event to Practical Agent Based Modeling: Reasons, Techniques, Tools«, in: The 22nd International Conference of the System Dynamics Society, July 25 - 29, Oxford 2004. Couzin, Iain im Interview mit BigThink, URL: http://bigthink.com/ideas/ 18124, gesehen am 01.11.2010. De Chiara, Rosario/Erra, Ugo/Scarano, Vittorio: »An architecture for Distributed Behavioral Models with GPUs«, in: Proceedings of the 4th Eurographics Italian Chapter (EGITA 2006), Catania 2006. Ernst, Wolfgang: »Der Appell der Medien: Wissensgeschichte und ihr Anderes«, in: Ana Ofak/Philipp von Hilgers (Hg.), Rekursionen, München: Fink 2010, S. 177-197. Erra, Ugo/Frola, Bernardino/Scarano, Vittorio/Couzin, Iain: »An efficient GPU implementation for large scale individual-based simulation of collective behavior«, Vortrag auf dem International Workshop on High Performance Computational Systems Biology HiBi09, Trient 2009. Gibbons, Michael: »The emergence of a new mode of knowledge production«, in: Social Studies of Science in an International Perspective. Proceedings of a Workshop, Wien, 13-14. Januar 1994, S. 5566. Gramelsberger, Gabriele: Computerexperimente. Zum Wandel der Wissenschaften im Zeitalter des Computers, Bielefeld: Transcript 2010. Heider, Fritz: Ding und Medium, Berlin: Kadmos 2005. Jacob, François: Die innere Statue. Autobiographie des Genbiologen und Nobelpreisträgers, Zürich 1988.

E PISTEMISCHE H ÄUFUNGEN

| 85

Keller, Evelyn Fox: Making Sense of Life. Explaining Biological Development with Models, Metaphors, and Machines, Harvard: Harvard University Press 2002. Kipnis, Jeffrey: »(Architecture) After Geometry – An Anthology of Mysteries. Case Notes to the Mystery of the School of Fish«, in: AD Profile 127: After Geometry. Architectural Design 67/5-6 (1997), S. 43-47. Kittler, Friedrich: »Computergrafik. Eine halbtechnische Einführung«, in: Herta Wolf (Hg.), Paradigma Fotografie. Fotokritik am Ende des fotografischen Zeitalters, Frankfurt/M.: Suhrkamp 2002, S. 178-194. Küppers, Günter/Lenhard, Johannes: »The Controversial Status of Simulations«, in: Proceedings of the 18th European Simulation Multiconference SCS Europe, 2004. o. S. Latour, Bruno: Science in Action, Cambridge: Harvard University Press 1987. Ofak, Ana/Hilgers, Philipp von (Hg.): Rekursionen. Von Faltungen des Wissens, München: Fink 2010. Parrish, Julia K./Hamner, William M./Prewitt, Charles T.: »Introduction – From Individuals to aggregations. Unifying properties, global framework, and the holy grails of congregation«, in: Julia K. Parrish/William H. Hamner (Hg.), Animal Groups in Three Dimensions, Cambridge: Cambridge University Press 1997, S. 1-14. Pias, Claus: »Das digitale Bild gibt es nicht. Über das (Nicht-)Wissen der Bilder und die informatische Illusion«, in: zeitenblicke 2/1 (2003), S. 19. URL: http://www.zeitenblicke.de/2003/01/pias/ pias.pdf, gesehen am 27.10.2010. Pias, Claus: »Details Zählen. Zur Epistemologie der Computersimulation«, Wien: unveröff. Manuskript 2009. Pias, Claus: »Synthetic History«, in: Lorenz Engell/Bernhard Siegert/ Joseph Vogl (Hg.), Mediale Historigraphien, Weimar: Archiv für Mediengeschichte 2001, S. 171-183. Reichenbach, Hans: Erfahrung und Prognose. Gesammelte Werke, Bd. IV, Braunschweig: Vieweg 1983.

Das Wissen kreativer Laboratorien R OLFE B ART

E INLEITUNG Laboratorien produzieren und transformieren Wissen. Doch nicht nur wissenschaftliche Experimentierstätten können als Fabriken des Wissens bezeichnet werden.1 Dieser Artikel nimmt jene Laboratorien in den Blick, denen Horst Rittel einst epistemische Freiheit bescheinigte.2 Es sind die Studios von Designern, Architekten und anderen professionell Entwerfenden. In diesen Dispositiven wird in der Regel nicht das Ziel verfolgt, wissenschaftliche Erkenntnisse hervorzubringen. Stattdessen produzieren – und vor allem transformieren – die kreativen Experimentierstätten kulturelles Wissen.3 Um kreative Laboratorien als Transformatoren von kulturellem Wissen zu identifizieren, gilt es zunächst, einen Blick auf ihre grundlegende Operationsweise zu werfen. Dabei wird ein spezifisches Wissen ausgemacht, welches sich in der Entwurfstätigkeit entfaltet und den Akteuren kreativer Laboratorien zu Grunde liegt: das Entwurfswissen. Dieses kennzeichnet nicht nur die schöpferischen Vollzüge des Entwerfens, sondern cha-

1

Vgl. K. Knorr-Cetina: Die Fabrikation von Erkenntnis.

2

Vgl. H. Rittel: Die Denkweise von Planern und Entwerfern, S. 142.

3

Zur Beschreibung von kulturellem bzw. kollektivem Wissen vgl. etwa J. Assmann: Das kulturelle Gedächtnis; S. J. Schmidt: Geschichten & Diskurse oder M. Zierold: Gesellschaftliche Erinnerung.

88 | ROLFE B ART

rakterisiert auch eine Wissensform, die zur Veränderung von kulturellem Wissen führt. Das Entwerfen als zentrale Handlung kreativer Laboratorien wurde in der Designtheorie ausgiebig beschrieben und diskutiert.4 Die Reflexion des Entwurfsprozesses ließ als ein zentraler Diskurs der Designtheorie zudem eine Diskussion des Entwurfsvorgangs hinsichtlich eines spezifischen Entwurfswissens zu.5 Nicht hinterfragt wurde bisher das Verhältnis von Entwurfswissen und kulturellem Wissen. Dieser Beitrag unternimmt den Versuch zu zeigen, dass die Operationsweise kreativer Laboratorien zu einer Transformation und im Zuge dessen zu einer steten Produktion von neuem kulturellen Wissen führt. Um diesen Zusammenhang zu veranschaulichen, soll der Blick zunächst auf die Operationsweise kreativer Laboratorien und die damit verbundenen Entwurfsprozesse gerichtet werden, vor deren Hintergrund anschließend die entwurfsspezifische Bearbeitung von Wissen betrachtet wird.

K REATIVE L ABORATORIEN Beginnen wir mit terminologischen Aufräumarbeiten: Die Metapher der kreativen Laboratorien wurde gewählt, um auf die Arbeitsweise von Entwurfsstätten wie Designstudios, Architektur-Büros oder anderen Kreativ-Agenturen aufmerksam zu machen. Dabei unterscheiden sich kreative von wissenschaftlichen Laboratorien in erster Linie dadurch, dass Wissen hier eine jeweils andere Rolle spielt. Zweifelsohne ist Kreativität auch im wissenschaftlichen Labor, wie beispielsweise in jenem naturwissenschaftlicher Forschungspraxis, nicht unbedeutend.6 Dennoch besitzt sie hier einen anderen Stellenwert als in

4

Etwa H.A. Simon: Die Wissenschaften vom Künstlichen; J.C. Jones: Design Methods; H.W.J. Rittel/W.D. Reuter (Hg.): Planen, Entwerfen, Design; W. Jonas: Design – System – Theorie; K. Krippendorff: The Semantic Turn.

5

Vgl. D. Schön: The Reflective Practitioner; N. Cross: Designerly Ways of Knowing.

6

Vgl. H.-J. Rheinberger: Iterationen, S. 53-73.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 89

kreativen Laboratorien, welche sich vordergründig durch ihre innovativen Leistungen legitimieren. Mit Luhmann ließe sich sagen, dass die Experimentierstätten jeweils anderen Leitdifferenzen folgen. Wissenschaftliche Laboratorien werden in Arbeitsweise und Ergebnis stets nach Wahrheitsaussagen vor dem Hintergrund des wissenschaftlichen Forschungsstands befragt. Ist diese Art von Hervorbringung nicht gewährleistet, hätte das Sanktionen und gegebenenfalls einen Ausschluss aus dem System der Wissenschaft zur Folge, welches sich nach Luhmann an der Leitdifferenz Wahrheit ausrichtet.7 Die forschenden Akteure sind dabei angehalten, ihre Kreativität der Erzeugung von Wahrheitsaussagen und den damit einhergehenden Formalisierungsstandards zur Gewährleistung epistemischer Überprüfbarkeit unterzuordnen. Anders die kreativen Laboratorien: Diese konstituieren sich, indem sie die schöpferische Hervorbringung als zentrale Dienstleistung anbieten. Kreative Laboratorien werden in der Regel nicht für die Produktion von wissenschaftlichem Wissen, sondern für die kreative Leistung als solche beauftragt. Anstelle der Produktion von Wahrheitsaussagen steht im Zentrum ihres Schaffens die Entwicklung von Entwurfslösungen.8 Ihre Leitdifferenz orientiert sich am Vorgang des Entwerfens, der kreative Laboratorien als solche konstituiert. Die Entwicklung von Entwurfslösungen ist neben begleitenden Leistungen das Produktionsgut kreativer Laboratorien. Kreativität ist das Vermögen, neue, das heißt bisher noch nicht dagewesene, Sinnzusammenhänge und Artefakte9 hervorzubringen.10 Das Schaffen von Neuem bedeutet die Einführung von Veränderungen, und diese gilt es, von kreativ Handelnden nicht nur einfach zu ersinnen, sondern auch hinsichtlich ihrer Implikationen zu prüfen. Kreativität manifestiert sich damit sowohl in der unmittelbaren Durchfüh-

7

Vgl. N. Luhmann: Die Wissenschaft der Gesellschaft, S. 167ff.

8

Vgl. N. Cross: Designerly Ways of Knowing, S. 33ff.

9

Abgeleitet von den lateinischen Wörtern ars, das für Kunst bzw. Kunstfertigkeit steht, und faktum, welches mit gemacht übersetzt werden kann, bezeichnet der Begriff des Artefakts ein vom Menschen hergestelltes bzw. hervorgebrachtes Produkt. Vgl. T. Marshall: Artefakte, S. 19f.

10 Vgl. zur Übersicht über die verschiedenen Ansätze zur Beschreibung von Kreativität H. Lenk: Kreative Aufstiege.

90 | ROLFE B ART

rung einer Transformation als auch in ihrer Planung. Die Entwicklung des Konzepts einer Veränderung kann begrifflich weiter präzisiert werden: Es ist das Entwerfen, ein Prozess, der das Herzstück kreativer Laboratorien kennzeichnet. Entwerfen und Gestalten Entwerfen ist das Planen einer Veränderung. Beim Entwerfen wird eine Transformation ersonnen und reflektiert. Das Besondere am Vorgang des Entwerfens ist nicht die Idee allein, sondern die Idee der Veränderung, einschließlich deren Reflexion vor dem Hintergrund der noch unveränderten Ausgangssituation. Während das Entwerfen einen vordergründig gedanklichen Prozess beschreibt, kann die Entwicklung von kognitiv erfassbaren Veränderungen, beispielsweise in Form von Zeichnungen, Layouts am Computer oder mit Mitteln des Modellbaus, terminologisch unter dem Begriff des Gestaltens präzisiert werden. Mit anderen Worten: Der Begriff des Entwerfens verweist auf den Prozess der kreativen Planung, wohingegen das Gestalten den Vorgang der Veränderung selbst spezifiziert. Gestalten ist damit als zielgerichtete Transformation kognitiver und in der Regel auch ästhetisch wahrnehmbarer Zusammenhänge charakterisiert,11 das heißt, es bestimmt die Erscheinung der Artefakte, wohingegen das Entwerfen grundsätzlich für deren Hervorbringung verantwortlich ist. Angesichts der Tatsache, dass sich nicht jede Veränderung unverzüglich vornehmen lässt, wird dieser Unterschied nachvollziehbar. Es entsteht die Notwendigkeit, auch den Akt der Veränderung selbst planerisch zu antizipieren. Dieser Zusammenhang ermöglicht zudem die weitere Reflexion der Durchführung der Veränderung (ein gestalterischer Prozess) und damit einhergehend auch der ersonnenen Veränderung als solche (ein Vorgang des Entwerfens). Halten wir fest: Entwerfen verweist auf die Planung einer Veränderung sowie auf die Planung der Durchführung einer Veränderung. Der Begriff des Gestaltens beschränkt sich in der Regel auf die Durchführung der Veränderung – schließt deren Planung jedoch nicht aus. Genau hier liegt die Schnittmenge beider Bezeichnungen.

11 Vgl. A. Diefenthaler: Gestaltung, S. 176ff.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 91

Kreatives Problemlösen: Design Hinsichtlich des Ineinandergreifens beider Handlungsvollzüge verwundert es nicht, dass Entwerfen und Gestalten im englischen Sprachraum unter dem Begriff des Design zusammengefasst werden. Dessen Verwendung wird auf die Renaissance, genauer auf Giorgio Vasari zurückgeführt. Desegno bedeutet übersetzt soviel wie von oben herab zeigen.12 Mit dem lateinischen Begriff beschreibt Vasari den einem Kunstwerk vorausgehenden schöpferisch-konzeptionellen Vorgang, welcher sich für ihn in der Entwurfszeichnung manifestiert. Entscheidend für die Entwurfszeichnung ist dabei, dass sie sich nicht auf die Darstellung herrschender Zustände beschränkt. Stattdessen stellt sie Zusammenhänge dar, die geschaffen werden können. Damit zeigt sie stets etwas auf, das zum Zeitpunkt der Darstellung noch nicht existiert. Die Entwurfszeichnung wird damit zum Ausdruck eines Vorgangs, in dem in der Gegenwart Möglichkeiten von Transformationen ersonnen werden, die es in der Zukunft noch zu realisieren gilt. Der Designprozess – und damit sowohl das Entwerfen als auch das Gestalten – verfolgen stets dieses eine Anliegen: die Veränderung. Für Herbert Simon ist Design daher zunächst ein Prozess des Planens einer Veränderung. Designer, so Simon, sind diejenigen, die Abläufe ersinnen, »um bestehende Situationen in erwünschte zu verwandeln.«13 Die im Vorgang des Entwerfens und Gestaltens angestrebte Veränderung stellt stets eine Lösung für einen problematisierten Zusammenhang dar.14 Das Problem im Vorgang des Entwerfens und Gestaltens kann dabei als Aufgabenstellung verstanden werden, auf welche die kreativen Bemühungen gerichtet sind, denn Design kennzeichnet einen Vorgang kreativen Problemlösens. Dabei wird im Prozess von Entwerfen und Gestalten versucht, zu einem als verbesserungswürdig erachteten Zustand – dem Problem – mindestens einen adäquaten Lösungsansatz zu finden. Für Donald Schön begeben sich Entwerfende dabei in einen Dialog mit dem Designproblem, das von

12 Vgl. H. Van den Boom/F. Romero-Tejedor: Design – Zur Praxis des Entwerfens, S. 19. 13 H.A. Simon: Die Wissenschaften vom Künstlichen, S. 95. 14 Vgl. N. Cross: Designerly Ways of Knowing, S. 33ff.

92 | ROLFE B ART

ihnen selbst oder von anderen bestimmt wird.15 Eine Besonderheit des Entwurfsproblems ist, dass es in der Regel nur vage definiert ist.16 Auf der Suche nach adäquaten Entwurfslösungen beschäftigen sich Designer nicht nur mit Lösungsansätzen für eine bereits fixierte Problemstellung, sondern ebenso mit der weiteren Konturierung des zunächst hypothetisch angenommenen Problems. Sie gleichen dabei stets die hervorgebrachten Lösungsansätze mit der Problemstellung ab. Für Donald Schön werden Problem und Lösung in einer Art Wechselspiel gemeinsam entwickelt.17 Die Hervorbringung von Lösungsansätzen dient demnach nicht nur dem Finden einer zum angenommenen Problem führenden Lösung; mit jedem neuen Lösungsansatz wird auch der Blick auf das Problem weiter geschärft. Je mehr möglichst unterschiedliche, gar gegensätzliche Lösungsansätze hervorgebracht werden, desto umfassender wird der Blick von Entwerfenden auf die Problemstellung.18 Darstellen Die zentrale Praxis kreativer Laboratorien ist das Entwerfen als Entwicklung von Lösungen für in der Regel vage definierte Probleme. Im Designvorgang konkurriert die Planung jedoch nicht mit der spontanen Handlung. Als instantaner Vollzug kann etwa die direkte Überführung von Gedanken in eine Darstellung verstanden werden, beispielsweise durch Zeichnen, mit Hilfe des Modellbaus oder in Form von grafischen Arbeiten am Computer. Dabei entlastet die direkte Äußerung der Gedankenarbeit, gleich ob als Zeichnung oder in verschriftlichter Form, die Subjekte von dem Druck, sich jede Überlegung und ersonnene Veränderungsmöglichkeit merken zu müssen. Frei von der Angst, etwas Wichtiges vergessen zu können, ist es Entwerfenden somit möglich, ihre Ideen in Variationen aufzufächern und diese mit Hilfe gewählter Darstellungsformen festzuhalten und zu vergleichen. Diese Äußerungen im Entwurfsvorgang charakterisieren

15 Vgl. D. Schön: The Reflective Practitioner, S. 76ff. 16 Vgl. N. Cross: Designerly Ways of Knowing, S. 33ff. 17 Vgl. D. Schön: The Reflective Practitioner, S. 76ff. 18 Vgl. H.A. Simon: Die Wissenschaften vom Künstlichen, S. 35ff.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 93

Handlungsvollzüge, die terminologisch sowohl dem Entwerfen als auch dem Gestalten zugesprochen werden können. So kennzeichnen die Darstellungen, wie sie im Prozess des Entwerfens vorgenommen werden, dass gleichzeitig ein Gestaltungsvorgang stattfindet. Diese Darstellungen sind Artefakte, welche die Erscheinung noch zu entstehender Artefakte bestimmen. Anhand von Entwurfszeichnungen und anderen Ausdrucksmöglichkeiten transformieren Entwerfende ihre Überlegungen zu neuen Artefakten, einschließlich ihrer formal-ästhetischen Erscheinung. Dabei erlauben das Lesen der eigenen Notizen, die Betrachtung entstandener Skizzen beziehungsweise am Computer erstellter Layouts oder die Diskussion der eigenen Ideen im Gespräch einen Reflexionsabstand zu den hervorgebrachten Ansätzen und Gedanken. Die Darstellungen im Entwurf geben damit nicht nur Auskunft über die Ideen und Überlegungen von Entwerfenden; sie dokumentieren auch das, was Donald Schön als »einen Dialog mit der Situation führen« bezeichnet.19 Designer vergleichen in ihren Überlegungen eine in der Zukunft zu vollziehende Transformation mit der problematisierten Ausgangssituation, die sie zu verändern beabsichtigen. Dabei spielen sie gedanklich nicht nur mögliche Transformationen durch, sondern antizipieren häufig auch die daraus entstehenden Implikationen der in Gedanken durchgeführten Veränderungen – bestenfalls sogar in möglichst unterschiedlichen Szenarios. Des Weiteren ist es für Designer häufig angebracht, die Arbeit an einzelnen Lösungsansätzen zugunsten der Auseinandersetzung mit alternativen Lösungsmöglichkeiten bewusst aufzugeben, um ihre Aufmerksamkeit auf gänzlich neue Ideen und Einsichten richten zu können. Für Entwerfende gilt es dabei, mit den Worten von Jörg Petruschat, »das Bewusstsein über erworbene Problemlösungen aufzugeben, sich auf vorbewusste Phasen geistiger Prozesse einzulassen, um Kausalitäten, die feststehen, ins Fließen zu bringen und die Assoziation neuartiger formaler Arrangements zu ermöglichen«.20

19 Vgl. D. Schön: The Reflective Practitioner, S. 76ff. 20 J. Petruschat: Das Leben ist bunt, S. 110.

94 | ROLFE B ART

Richtungen im Entwurfsvorgang Mediale Techniken wie die des Zeichnens helfen zudem dabei, bereits verfolgte Ansätze entschiedener verwerfen zu können. Die Auslagerung und Konservierung von Ideen in Darstellungen unterstützt das methodische Distanzieren von vormaligen Lösungsansätzen zugunsten der Konzentration auf alternative Lösungsansätze, da es Aufmerksamkeitsressourcen freilegt und Entwerfenden die Möglichkeit gibt, zu älteren Lösungsansätzen zu einem späteren Zeitpunkt zurückkehren zu können. Der Entwurfsvorgang verläuft dabei nicht zwangsläufig vom Entwerfen zum Gestalten beziehungsweise vom Gedanken zu einer kognitiv erfassbaren Äußerung, wie beispielsweise die der Zeichnung. Im Gegenteil: Die Tätigkeit des Darstellens wird selbst zur Quelle neuer Einfälle. Die kognitive Aufnahme der visuellen Äußerungen scheint dabei förmlich zu neuen Ideen, Weiterentwicklungen oder Varianten der hervorgebrachten Ansätze anzuregen. Eine typische Erfahrung von Entwerfenden ist dabei, sich im Vorgang des Darstellens zunehmend auf das Dargestellte selbst zu konzentrieren. Nicht selten werden die Darstellungen beispielsweise mit dem Zeichenstift, dem Layout-Programm oder mit Mitteln des Modellbaus nach formalen Gesichtspunkten weiterentwickelt. Damit ist ein Vorgang gekennzeichnet, der sich oftmals unmittelbar und fließend ereignet und immer wieder zu Phasen führt, in denen das Dargestellte keinen direkten Bezugspunkt mehr zu dem Gedanken aufweist, der den Darstellungsprozess initiierte.21 Die Konzentration auf die Darstellung kann als Quelle für neue Impulse, für weitere Einfälle und Überlegungen angesehen werden. Das Entwerfen (und Gestalten) zeigt sich dabei als ein Vorgang, bei dem gedankliche Impulse mittels ihres Nach-Außen-Führens in eine Art formales Eigenleben überführt werden, das jederzeit wieder zu neuen, unter Umständen sogar gänzlich verschiedenen Einfällen und Reflexionen führen kann. Diese Auslagerungen von Entwerfenden unterstützen den Planungsprozess, in dem diffuse Einfälle gedanklich mit Hilfe ihrer Medien oder augenscheinlich durch die Darstellungen selbst zunehmend konkretisiert werden – ein Zusammenhang, der sich bei-

21 Vgl. G. Hasenhütl: Zeichnerisches Wissen, S. 341ff.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 95

spielsweise durch die intensive geistige Versenkung in den Vorgang des Darstellens selbst erklären lässt. »Reflection in action« nennt Donald Schön diesen Zusammenhang des prozessorientierten Entwerfens.22 Neue gedankliche Impulse entstehen in praktischen Vollzügen wie dem des Darstellens. Häufig beginnen Entwerfende ihre Tätigkeit, indem sie zunächst einmal Handlungen vornehmen, in denen formalästhetische Zusammenhänge hervorgebracht und verändert werden – Handlungen, die noch nicht Ausdruck von gedanklich erfassbaren Überlegungen sind. So entstehen erste Ideen oft infolge scheinbar spielerisch zustande gekommener Darstellungen.

E NTWURFSSPEZIFISCHES W ISSEN Wissen und Können – Explizites und implizites Wissen Halten wir fest: Der Prozess des Entwerfens ist gekennzeichnet durch das Nach-Außen-Verlagern gedanklicher Lösungsansätze. Entwerfende verdichten ihre Einfälle und Überlegungen stets zu Lösungsansätzen. Dabei ereignet sich eine rekursive Reflexion der aus den eigenen Darstellungen gewonnenen Impulse mit dem Ziel, elaborierte Lösungen für problematisierte Zusammenhänge hervorzubringen. Der Entwurfsvorgang ist die Kernoperation kreativer Laboratorien. Dabei umfasst das Entwerfen nicht nur die Entwicklung von Transformationen lebensweltlicher Zusammenhänge (Lösungen), um Situationen und Artefakte (Probleme) zu transformieren beziehungsweise zu verbessern, sondern auch einen entwurfsspezifischen Wissensgebrauch. In der professionellen Arbeit kreativer Laboratorien, einschließlich der zur hauptberuflichen Entwurfstätigkeit führenden Ausbildung, akkumulieren Entwerfende ein sich stets in der Anwendung erprobendes Wissen kreativer Lösungsentwicklung. Hierbei handelt es sich zum einen um explizites Wissen. Dieses umfasst sowohl das berufsrelevante Fachwissen, als auch das fallspezifische Wissen. Je nach Spezialisierungsrichtung besitzen beziehungsweise erwerben Entwerfende ein berufsrelevantes Fachwissen. Im Zuge der Auseinandersetzung mit ei-

22 Vgl. D. Schön: The Reflective Practitioner, S. 76ff.

96 | ROLFE B ART

ner Problemstellung kommt es zudem zu einer weiteren bewussten Recherche fallspezifischen Wissens, das benötigt wird, um sowohl das Entwurfsproblem als auch die hervorgebrachten Lösungsansätze besser verstehen und beurteilen zu können.23 Zum anderen kommt im Entwurfsvorgang eine weitere Form des Wissens zum Einsatz: das implizite Wissen – ein Wissen, das nicht begrifflich reflektiert wird, sich jedoch in physischen Handlungsvollzügen zeigt. Auf diese Form des Wissens soll im Folgenden näher eingegangen werden: Unter dem Begriff des impliziten Wissens (tacit knowledge) versteht Michael Polanyi ein Wissen, das durch Kenntnisse und Fähigkeiten charakterisiert wird, die in der Regel nicht in Worte gefasst werden können. Für Polanyi sind Menschen beispielsweise in der Lage, ein bekanntes Gesicht unter zahlreichen anderen Gesichtern zu erkennen, ohne jedoch benennen zu können, wie sie dies tun. Sie lesen die Stimmung anderer von ihrem Gesicht ab, ohne dabei charakterisieren zu können, wie sie diese Kenntnis gewinnen. Zu dem nicht-artikulierbaren Wissen zählen für Polanyi künstlerische wie technische Geschicklichkeiten, aber auch geistiges Wissen – Zusammenhänge, die sowohl das knowing that also auch das knowing how umfassen.24 Entwerfende entwickeln ihre Entwurfs- und Gestaltungsfähigkeit, indem sie die damit verknüpften Vorgänge laufend praktizieren. Ihr (implizites) Entwurfswissen kann somit auch als Können, das heißt als trainierte Fähigkeit, verstanden werden. Verdeutlichung und Verinnerlichung Polanyi zufolge sind Subjekte bei Versuchen, das eigene implizite Wissen im Zuge eines Akts des Erkennens zu beschreiben, jedoch auf die Mitwirkung des Gegenübers oder des Rezipienten angewiesen. Das, was sie nicht deutlich benennen können, vermitteln sie, indem sie darauf zeigen – ein Vorgang, den er als »daiktische Definition«25 bezeichnet. Das Auf-Etwas-Zeigen ermöglicht, die entstehende Wissenslücke zu den Adressaten zu überbrücken, denen etwas zu vermitteln

23 Vgl. N. Cross: Designerly Ways of Knowing, S. 35. 24 Vgl. M. Polanyi: Implizites Wissen, S. 14ff. 25 Vgl. ebd., S. 15.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 97

beabsichtigt wird. Dabei sind die jeweils Zeigenden stets auf die intelligente Mithilfe der Adressaten angewiesen. Letzteren gilt es schließlich zu zeigen, was gemeint ist. Polanyi verweist damit auf die Notwendigkeit der Darstellung – ist dem Vorgang des Auf-Etwas-Zeigens doch nicht zuletzt die Entstehung des Design-Begriffs geschuldet. Was Polanyi des Weiteren aufwirft, ist die Frage nach dem Adressaten des Entwurfsvorgangs. Da im Vollzug des Entwerfens nicht jeder zur Disposition stehende Zusammenhang mit einem Gegenüber diskutiert werden kann, führen Entwerfende, wie wir von Schön erfahren haben, einen Dialog mit der Situation beziehungsweise dem Entwurfsproblem. So sind die Adressaten der Darstellung zunächst einmal die Entwerfenden selbst, die sich die Implikationen hervorgebrachter Entwurfslösungen mit Hilfe ihrer Darstellungen vor Augen führen. Des Weiteren gibt es zahlreiche Situationen im Entwurfsvorgang, in denen Entwerfende die Notwendigkeit erleben, ihre Lösungsansätze anderen (beispielsweise als Ratsuchende) vorstellen zu wollen oder zur Präsentation ihrer Arbeitsergebnisse gar zeigen zu müssen. Die Notwendigkeit einer möglichst denotativen Vermittlung der eigenen Entwurfsarbeit in Form des Zeigens mittels visueller Darstellung wird anhand der Planungsabläufe in der Architektur besonders deutlich. Hier haben sich bestimmte Darstellungsnormen herausgebildet, die je nach Entwurfsstadium und Adressatenkreis in Normentreue und Detaildichte variieren können. Die Bandbreite der Darstellungsarten im Architektur-Entwurf reicht von den ersten Skizzen, deren Adressaten die Entwerfenden häufig noch selbst sind, bis zu intersubjektiv lesbaren Plandarstellungen, die fachspezifische Konventionen und Standards gewährleisten müssen, um Sachverhalte hinsichtlich eines heterogenen Adressatenkreises möglichst eindeutig darstellen zu können. Die Aufnahme von Informationen im Vorgang des Entwerfens erfolgt hingegen, so lässt sich nach Polanyi feststellen, indem Zusammenhänge implizit, etwa als Ahnung oder diffuse Imagination, erfasst werden, ohne dass Entwerfende diese in ihrer Struktur zunächst genauer benennen können; denn ihre Aufmerksamkeit ist zunächst einmal auf Bedeutungen gerichtet – eine Begebenheit, die Polanyi den semantischen Aspekt impliziten Wissens nennt. Dabei haben die Bedeutungen stets die Tendenz, sich vom Subjekt zu entfernen. Polanyi

98 | ROLFE B ART

erklärt dies damit, dass Menschen somatische, also körperliche Empfindungen, in die Wahrnehmung äußerer Dinge übersetzen: »Wir richten uns von diesen inneren Prozessen auf die Qualitäten äußerer Dinge. Diese Qualitäten sind das, was uns jene inneren Prozesse bedeuten.«26 Nach Polanyi werden sich Subjekte ihres Körpers erst dadurch bewusst, dass sie sich auf das Gewahrwerden des Kontakts mit den Dingen verlassen, die für sie eine Bedeutung haben. Als Beispiel nennt er die Verwendung eines Gehstocks: Wenn wir »einen Stock zum Abtasten unseres Weges zu handhaben lernen, verwandelt sich unser Gewahrwerden des Widerstands gegen die Hand in ein Gefühl ›an der Spitze selbst‹ für die Gegenstände, die wir erforschen.«27 Beim Gebrauch eines Werkzeugs, so fährt er fort, registrieren wir »die Bedeutung seines Drucks auf unsere Hand als seine Wirkung auf die Dinge, auf die wir es anwenden.«28 Vor diesem Hintergrund lässt sich das Darstellen im Entwerfen als Handlung begreifen, in der das verwendete Medium, wie Zeichenstift, Computer oder Modellbau, zum einen zur unmittelbaren Artikulation von implizitem und explizitem Wissen, zum anderen aber auch als metaphorisch einverleibtes Werkzeug zur kognitiven Aufnahme verwendet wird. Als fleischgewordene Werkzeuge erweitern die Medien von Entwerfenden ihr Wahrnehmungsspektrum. Dabei dienen die Darstellungsmittel Entwerfenden nicht nur zur (visuellen) Äußerung, sondern ebenso zur kognitiven Verinnerlichung. Emotionales Engagement und persuasives Wissen Das Zusammenspiel von kreativer Gedankenarbeit und darstellender Aktivität, wie dem Zeichnen oder dem Gestalten am Computer, begünstigt eine geistige Versenkung in das kreative Agieren. Diese wiederum steigert nicht nur die eigene Produktivität, sondern führt im Idealfall zu einer scheinbar emotionalen Honorierung – zur Ausschüttung von Endorphinen. Das gefühlte Erlebnis in Verbindung mit der unmittelbaren Vertiefung in die eigene Tätigkeit ist das, was Mihaly

26 Ebd., S. 21, Hervorhebung im Original. 27 Ebd., Hervorhebung im Original. 28 Ebd., Hervorhebung im Original.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 99

Csikszentmihalyi als Flow beschreibt.29 Doch unabhängig davon, ob sich Entwerfende im Flow befinden, ist dem gefühlten Erlebnis vermutlich die Tatsache geschuldet, dass Entwerfende zu ihren Entwurfslösungen eine emotionale Bindung aufbauen, die sich mit zunehmender Intensität und Dauer der kreativen Auseinandersetzung erhöht. Dieser Zusammenhang äußert sich vor allem darin, dass es Entwerfenden schwerer fällt, sich von verfolgten Lösungsansätzen wieder zu trennen, je länger sie sich mit ihnen befasst haben.30 Wie wir bereits gesehen haben, gibt es im Entwurfsvorgang Situationen, in denen die bewusste Vernachlässigung einzelner Ansätze zugunsten der Arbeit an alternativen Lösungswegen einem umfassenderen Verständnis des Entwurfsproblems dient. Dieses erhöht sich kontinuierlich mit dem weiteren Hervorbringen von neuen, möglichst unterschiedlichen Lösungsansätzen.31 Während die emotionale Bindung die Freude an der Ausarbeitung des Entwurfsansatzes begünstigt, nimmt sie Entwerfenden jedoch den rationalen Abstand, der erforderlich ist, um fokussierte Lösungsansätze weiterhin kritisch betrachten und, wenn nötig, verwerfen zu können. In den Abläufen kreativer Laboratorien kommt es darüber hinaus zu Situationen, in denen es für Entwerfende unvermeidlich wird, sich von mühevoll ausgearbeiteten Entwurfslösungen zu trennen. Entwurfsvorgänge münden stets in Entscheidungsphasen, in denen neben den kreativen Akteuren hauptsächlich andere am Projekt beteiligte Personen über den weiteren Verlauf des Vorgangs entscheiden. So wird beispielsweise der Lösungsansatz für ein Produkt, das in Serie gefertigt werden soll, ein Gebäude oder gar die urbane Planung für ein neues Stadtquartier nicht nahtlos in dessen Fertigung beziehungsweise Bau überführt. Von der Qualität des Entwurfs und den Vorteilen einer Realisierung müssen in der Regel mindestens die Auftraggeber kreativer Laboratorien überzeugt werden. Ob und wie eine weitere Ausarbeitung vorgenommen wird oder ob es zur Realisierung der Entwurfsarbeit kommt, hängt maßgeblich vom Urteil der Entscheidungsträger

29 Vgl. M. Csikszentmihalyi: Flow. 30 Vgl. N. Cross: Designerly Ways of Knowing, S. 36. 31 Vgl. H.A. Simon: Die Wissenschaften vom Künstlichen, S. 35ff.

100 | ROLFE B ART

ab.32 Der Prozess des Entwerfens führt nur in den seltensten Fällen ohne Umwege zur Fertigstellung, Vermarktung und zum Verkauf beziehungsweise zur Benutzung der entworfenen Artefakte. Für Nigel Cross endet der Entwurfsprozess daher zunächst einmal mit einer Beschreibung.33 Als Beschreibung kann die Darstellung der ausgearbeiteten Entwurfslösung, einschließlich der Argumente für die Realisierung des Entwurfs, verstanden werden (beispielsweise das Layout eines Plakats, der Entwurf einer Internetseite, Darstellungen und Prototyp eines Produktes oder Pläne und Modelle eines ArchitekturEntwurfs). Schließlich handelt es sich bei der Entwurfslösung erstmal um die Darstellung eines in der Regel noch zu realisierenden Zusammenhangs.34 Gelingt es nicht, die zumeist fachfremden Entscheidungsträger hinsichtlich der Entwurfsarbeit für sich zu gewinnen, würde der Entwurf nicht in der Realisierung, sondern in der Schublade enden, und wäre bestenfalls noch für eine Werkschau zu verwenden. Zur Arbeitsweise kreativer Laboratorien gehört daher auch die Entwicklung persuasiver Strategien, mit Hilfe derer andere von den Vorteilen hervorgebrachter Entwurfslösungen überzeugt werden können. Auch angesichts dessen, dass sich Entwerfende, wie Cross gezeigt hat, auch emotional an ihre Entwürfe binden, kann eine intrinsische Motivation der Entwerfenden, ihre Entwurfslösungen zur Realisierung zu führen, auch nach nicht-rationalen Gesichtspunkten angenommen werden. Für Nigel Cross ist Design daher stets persuasiv.35 So überrascht es nicht,

32 Nicht selten sind an solchen Entscheidungen zahlreiche Akteure beteiligt, angefangen bei den Kollegen im Entwurfsteam, den Vorgesetzten und Projektmanagern über die Firmenleitungen von Entwurfsstätten und deren Auftraggebern (z.B. aus dem Marketing) bis hin zu Entscheidungsträgern aus dem öffentlichen Dienst, deren Genehmigung gegebenenfalls Voraussetzung zur Realisierung sein kann. 33 Vgl. N. Cross: Designerly Ways of Knowing, S. 33. 34 Eine Ausnahme stellen hierbei Einzelanfertigungen von Produkten oder etwa die Herstellung von grafischen Arbeiten dar, bei denen in einem Wechselspiel von Entwerfen und Gestalten das Produkt selbst kontinuierlich fertiggestellt wird. 35 Vgl. ebd., S. 51f.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 101

dass kreative Laboratorien über ein persuasives Wissen verfügen, das eine überraschende Nähe zur klassischen Rhetorik aufweist.36 Wissen von Machbarkeit Die Abhängigkeit beruflichen Fortkommens von der Realisierung der Entwurfsarbeit in Zusammenhang mit der emotionalen Bindung von Entwerfenden zu ihren mühevoll entwickelten Entwurfslösungen zeigt nicht nur die entwurfsspezifische Notwendigkeit zur Aneignung von persuasivem Wissen. Es plausibilisiert des Weiteren die Motivation von Entwurfstätigen, ein Wissen aufzubauen, mit Hilfe dessen hervorgebrachte Entwurfslösungen ihrer Realisierung näher gebracht werden können. Zum Wissen kreativer Laboratorien gehört neben persuasiven Fähigkeiten auch stets die Kenntnis von Fertigungs- oder Umsetzungstechniken, welche zunächst als Ausführungs- und Machbarkeitswissen bezeichnet werden können. Um eine Entwurfslösung zur Realisierung zu führen ist zweifelsohne ein hohes Maß an fachspezifischem Wissen von Nöten, das, je näher der Entwurf zur Realisierung schreitet, zunehmende Kenntnis über die Verfahren zur Herstellung erfordert. Trotz der angenommenen Motivation von Entwurfstätigen zur Aneignung von Ausführungswissen wird es in späteren Planungsschritten nicht selten unumgänglich, eine Arbeitsteilung mit bereichs-

36 Seit den Vorsokratikern werden unter dem Begriff der Rhetorik (Redekunst) Techniken zur persuasiven Kommunikation verstanden. Die intendierte Wirkung wird in der Rhetorik zum einen durch eine aufmerksamkeitsgenerierende Abweichung von der sprachlichen Norm, zum anderen durch den gezielten Einsatz von Metaphern entfaltet. Wie bereits LeonBattista Alberti erkannte, findet rhetorisches Vorgehen ebenso auf visueller Ebene statt. Für Gui Bonsiepe, Gesche Joost und Arne Scheuermann ist Design stets rhetorisch. So nehmen kreative Laboratorien in Entwurf und Gestaltung nicht nur in ästhetischer Hinsicht Abweichungen vor, sondern verdeutlichen kommunikative Anliegen auch mittels visuell dargestellter Metaphern. Vgl. G. Bonsiepe: Visuell-verbale Rhetorik; G. Joost: Audiovisuelle Rhetorik und Informationsdesign; G. Joost/A. Scheuermann (Hg.): Design als Rhetorik.

102 | ROLFE B ART

relevanten Spezialisten einzugehen und/oder Beratungsdienstleistungen in Anspruch zu nehmen. Entwurfswissen Wie wir gesehen haben, manifestiert sich Entwurfswissen zunächst in den im Entwurfsprozess vorgenommenen Darstellungen wie Skizzen, Computer-Layouts, Modellen, Prototypen und Fertigungsplänen, letztlich jedoch in den im Entwurfsprozess geplanten und bis zur Realisierung geführten Produkten, Gebäuden oder anderen gefertigten Artefakten, welche für die Benutzung vorgesehen sind. In den Handlungsvollzügen des Entwerfens kommt sowohl ein implizites entwurfsspezifisches Wissen, als auch eine spezielle Bearbeitung von explizitem Wissen zum Tragen, welche nicht zuletzt einen dem Entwurfsvorgang innewohnenden Modus der Wissenstransformation charakterisiert. Doch führen wir uns, um diesen näher betrachten zu können, noch einmal die Notwendigkeit der Wissensaufnahme im Entwurfsprozess vor Augen. Entwerfen ist die Suche nach Lösungsansätzen für ein Entwurfsproblem, das es für Entwurfstätige zunächst einmal zu verstehen gilt. Um dabei zu elaborierten Lösungsansätzen gelangen zu können, ist es für sie unerlässlich, Wissen über den Kontext ihres jeweiligen Entwurfsproblems zu recherchieren. Dieses fallspezifische Wissen wird nach dessen Aneignung von Entwerfenden insofern gegliedert, als dass sie bestimmte für wichtig erachtete Aspekte herausnehmen, um sich eingehender mit ihnen zu beschäftigen und/oder um auf deren Basis weitere Entwurfslösungen hervorbringen zu können.37 Für Schön zeigt sich das Entwerfen als Wechselspiel zwischen dem Fokussieren der Problemstellung und dem Blick auf mögliche oder bereits hervorgebrachte Lösungsansätze, die Entwerfende permanent miteinander abgleichen. Dieser Vorgang wird begleitet von einem Prozess der Wissensaneignung. Die Akkumulation von fallspezifischem Wissen beansprucht nicht nur zu Beginn der Entwurfstätigkeit einen prominenten Platz, sondern wird auch parallel zum beziehungsweise im Wechsel mit dem Hervorbringen von Entwurfslösungen

37 Vgl. D. Schön: The Reflective Practitioner, S. 76ff.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 103

vollzogen. Die Wissensaneignung im Entwurfsprozess hilft Entwurfstätigen dabei, sowohl die Problemdefinition, als auch die Lösungsansätze weiterzuentwickeln.38 Entwerfende erarbeiten sich ihre Lösungsansätze und Problemanalysen vor dem Hintergrund ihres akkumulierten Wissens. Ihr Wissenshintergrund umfasst neben dem fallspezifisch recherchierten und berufsrelevanten Fachwissen auch ein kulturelles Wissen. Wie andere Subjekte agieren Entwerfende stets vor dem Hintergrund ihres persönlichen und kulturellen Wissens. Dieses kulturelle beziehungsweise kollektive Wissen wird von den Entwerfenden kreativer Laboratorien laufend transformiert. Die Transformation des Wissens im Entwerfen Für Siegfried J. Schmidt verändert sich Wissen, indem Subjekte Setzungen im Kontext zu dessen Voraussetzungen vornehmen. Der Voraussetzungszusammenhang stellt dabei das kulturelle Wissen dar, vor dessen Hintergrund Akteure Handlungen, die Schmidt als Setzung bezeichnet, vollziehen. Sind diese unternommen worden, verändern sie den Voraussetzungszusammenhang für weitere, neue Setzungen. Der Vorgang ist rekursiv. Setzungen bilden stets neue Voraussetzungen (für weitere Setzungen).39 Die Akteure kreativer Laboratorien suchen nicht nur nach Lösungen im Kontext von problematisierten Zusammenhängen; sie entwickeln ihre Lösungsansätze auch im Abgleich mit der Problemstellung vor dem Hintergrund ihres Wissens. Dabei elaborieren sie nicht nur ihre Lösungsansätze, sondern verändern laufend ihr Wissen über die hervorgebrachten Ansätze im Zusammenhang mit fortschreitender Analyse des Entwurfsproblems. Die zunehmende Auseinandersetzung mit einzelnen Lösungsansätzen transformiert das Wissen von Entwurfstätigen über das Entwurfsproblem. Die weitere Analyse des Problems verändert das Wissen von Entwerfenden über ihre Lösungsansätze, und die fortwährende Beschäftigung mit Problem und Lösung vor dem Hintergrund ihres Wissens transformiert das akkumulierte Wissen der kreativen Akteure im Kontext der im Entwurfsvorgang gewonnenen Erkenntnisse und

38 Vgl. ebd. 39 Vgl. S. J. Schmidt: Geschichten & Diskurse, S. 27ff.

104 | ROLFE B ART

geleisteten Reflexionen. Der Entwurfsvorgang verändert das Wissen von Entwurfstätigen. Mehr noch: Der Prozess des Entwerfens transformiert nicht nur das Wissen von Entwerfenden; die Operationsweise kreativer Laboratorien transformiert das Wissen vieler – sie verändert das kulturelle Wissen. Die Transformation des Wissens ereignet sich im Entwurfsvorgang. Entwerfende beabsichtigen mit ihren ausgearbeiteten Lösungsansätzen stets eine Veränderung mit dem Ziel, dass sie mindestens einen herausgearbeiteten Zusammenhang zu verbessern versuchen. Wie wir gesehen haben, arbeiten professionell Entwurfstätige darauf hin, ihre Entwurfslösungen zur Realisierung zu bringen, das heißt, sie in einem fertiggestellten, die Benutzung ermöglichenden Zustand der Öffentlichkeit und somit anderen, die sich mit der Entwurfslösung weitergehend auseinandersetzen, zur Verfügung zu stellen. Gelingt ihnen die öffentliche Rezeption des Entwurfs, verändern Entwerfende kollektive Voraussetzungszusammenhänge – sie transformieren kulturelles Wissen. Jedes als Lösung hervorgebrachte Artefakt vermittelt ein Wissen über das Verhältnis der Entwurfslösung im Bezug auf das Entwurfsproblem. Spätestens mit dessen Verwendung verleihen hervorgebrachte Artefakte Kenntnis über das Entwurfsproblem, für das sie eine Lösung darstellen. So geben bereits die Produkte des Alltags Aufschluss über die Zusammenhänge, für die sie entwickelt worden sind.40 Die öffentliche Rezeption der Entwurfslösung, sei es auch nur vor einer geringen Fachöffentlichkeit, entscheidet darüber, ob aus einer im Entwurfsprozess stattgefundenen Wissenstransformation neues kulturelles Wissen entsteht. Vereinfacht gesagt: (1) Entwerfende entwickeln Lösungen für von ihnen und/oder anderen problematisierten Zusammenhängen, das heißt für Entwurfsprobleme. (2) Entwurfsprobleme sind vage definierte Probleme. (3) Entwurfstätige sind nicht nur gefordert, Lösungen zu entwickeln, sondern auch eine Analyse ihres jeweiligen Entwurfsproblems vorzunehmen. (4) Entwerfende vollziehen Lösungsentwicklung und Problemanalyse im gegenseitigen Abgleich. (5) Entwurfstätige betreiben Lösungsentwicklung und Problemanalyse vor ihrem Wis-

40 Vgl. etwa H. Karmasin: Produkte als Botschaften.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 105

senshintergrund, der sich aus fallspezifisch angeeignetem Wissen, berufsrelevantem Fachwissen und ihrem persönlichen, kulturellen Wissen zusammensetzt. (6) Die von Entwerfenden gewonnenen Erkenntnisse im Prozess der Lösungsentwicklung und Problemanalyse werden auf ihren Wissenshintergrund rückgekoppelt. (7) Entwerfende verändern im Vollzug von Lösungsentwicklung und Problemanalyse ihr Wissen. (8) Entwurfstätige verwenden neues Wissen stets zur weiteren Lösungsentwicklung und Problemanalyse. (9) Entwurfslösungen beinhalten ein Wissen über das Entwurfsproblem. (10) Werden aus Lösungsansätzen realisierte, der Öffentlichkeit zugeführte und anderen zur Verfügung gestellte Artefakte beziehungsweise Produkte, wird das in den Entwurfslösungen eingebettete Wissen in das kulturelle Wissen anderer überführt.

Z USAMMENFASSUNG Das Wissen kreativer Laboratorien wird im Entwurfsvorgang transformiert, in dem Entwerfende unter laufender Evaluation und Analyse Lösungen für vage definierte Entwurfsprobleme entwickeln. Die daraus gewonnenen Erkenntnisse verändern rekursiv das Wissen von Entwerfenden beziehungsweise Designern, das sich in ihren Entwurfslösungen manifestiert. Da die Lösungen kreativer Laboratorien stets zur Benutzung hervorgebracht werden, führt die Transformation des Wissens von Entwerfenden zu einer Transformation des Wissens jener, die sich mit den Entwurfslösungen, beispielsweise im Alltag, auseinandersetzen. Erst im Zuge der Rezeption und Benutzung der von kreativen Laboratorien entwickelten Lösungen außerhalb des Labors kann sich das entfalten, was Petruschat die Doppelnatur des Entwurfs nennt, denn dieser ist »immer sowohl ›Wurf‹, ein Abreißen von Bekannten, um neue Möglichkeiten zu treffen, als auch ›Ent‹-wurf, also Zurückbindung des Neuen an die bekannten Formen der Kultur.«41 Im Zuge des Entwerfens und Gestaltens zeichnen sich die Akteure kreativer Laboratorien nicht nur für die formal-ästhetische Erscheinung des Alltags verantwortlich; die entwurfsspezifische Bearbeitung von Wis-

41 J. Petruschat: Das Leben ist bunt, S. 110.

106 | ROLFE B ART

sen, eingebettet in realisierte Entwurfslösungen, transformiert das Wissen ihrer Benutzer. Der Vorgang des Entwerfens verändert zunächst nur das Wissen von Entwerfenden. Doch mit der Überführung von Entwurfslösungen in Produkte, Gebäude oder andere Artefakte öffentlicher Rezeption ereignet sich die Transformation kulturellen Wissens.

L ITERATUR Assmann, Jan: Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen, 6. Aufl., München: Beck 2007. Bonsiepe, Gui: »Visuell-verbale Rhetorik«, in: ders. (Hg.): Interface – Design neu begreifen, Mannheim 1996, S. 85-104. Hasenhütl, Gert: »Zeichnerisches Wissen«, in: Daniel Gethmann/ Susanne Hauser (Hg.): Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science, Bielefeld: transcript 2009, S. 341-358. Jonas, Wolfgang: Design – System – Theorie. Überlegungen zu einem systemtheoretischen Modell von Design-Theorie, Essen: Die Blaue Eule 1994. Jonas, Wolfgang: »Mind the Gap! – Über Wissen und Nichtwissen im Design«, in: Maximilian Eibl/Harald Reiterer/Peter Friedrich Stephan/Frank Thissen (Hg.): Knowledge Media Design. Theorie, Methodik, Praxis, 2. Aufl., München/Wien: Oldenbourg 2006, S. 47-70. Jones, John Christopher: Design Methods. Seeds of Human Futures, 2. Aufl., London: John Wiley & Sons 1992. Joost, Gesche: »Audio-visuelle Rhetorik und Informationsdesign«, in: Maximilian Eibl/Harald Reiterer/Peter Friedrich Stephan/Frank Thissen (Hg.): Knowledge Media Design. Theorie, Methodik, Praxis, 2. Aufl., München/Wien: Oldenbourg 2006, S. 211-224. Joost, Gesche/Arne Scheuermann (Hg.): Design als Rhetorik, Basel: Birkhäuser 2008. Karmasin, Helene: Produkte als Botschaften, 3. Aufl., Frankfurt/Wien: Ueberreuter 2004.

D AS W ISSEN

KREATIVER

L ABORATORIEN

| 107

Knorr-Cetina, Karin: Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Frankfurt am Main: Suhrkamp 1991. Krippendorff, Klaus: The Semantic Turn. A New Foundation of Design, London: Routledge 2006. Lenk, Hans: Kreative Aufstiege. Zur Philosophie und Psychologie der Kreativität, Frankfurt am Main: Suhrkamp 2000. Luhmann, Niklas: Die Wissenschaft der Gesellschaft, Frankfurt am Main: Suhrkamp 1990. Marshall, Tim: »Artefakte«, in: Michael Erlhoff/ders. (Hg.): Wörterbuch Design. Begriffliche Perspektiven des Design, Basel: Birkhäuser 2008, S. 19-20. Petruschat, Jörg: »Das Leben ist bunt. Einige Bemerkungen zum Entwerfen«, in: form+zweck 21 (2005), S. 100-111. Polanyi, Michael: Implizites Wissen, Frankfurt am Main: Suhrkamp 1985. Rheinberger, Hans-Jörg: Iterationen, Berlin: Merve 2005. Rittel, Horst W. J.: »Die Denkweise von Planern und Entwerfern«, in: Ders./Wolf D. Reuter (Hg.): Planen, Entwerfen, Design. Ausgewählte Schriften zu Theorie und Methodik, Stuttgart/Berlin/Köln: Kohlhammer 1992, S. 137-148. Schmidt, Siegfried J.: Geschichten & Diskurse. Abschied vom Konstruktivismus, Reinbek: Rowohlt 2003. Schön, Donald: The Reflective Practitioner. How Professionals Think in Action, Aldershot: Ashgate 2009. Simon, Herbert A.: Die Wissenschaften vom Künstlichen, 2. Aufl., Wien: Springer 1994. Van den Boom, Holger/Felicidad Romero-Tejedor: Design – Zur Praxis des Entwerfens, Braunschweig: Olms 2003. Zierold, Martin: Gesellschaftliche Erinnerung. Eine medienkulturwissenschaftliche Perspektive, Berlin: Walter de Gruyter 206.

Wissensobjekte

MAZ ab. Video, die Schnittstelle Labor/Betrieb und der Aufbau des Fernsehens in den 1950er Jahren D ANIELA Z ETTI

Im Mittelpunkt des folgenden Artikels stehen Maschinen, die im Rundfunk benutzt wurden, um Bilder aufzuzeichnen. Sie wurden von unterschiedlichen Herstellern entwickelt, haben aber gemeinsam, dass Aufzeichnungsverfahren verwendet werden, die Signale auf Magnetbändern speichern. Es wird darum gehen, wie Ingenieure, Physiker und Rundfunktechniker diese Maschinen in den 1950er Jahren beschrieben und bewertet haben. Die neue Aufzeichnungstechnik namens »Video« sollte die Wiederholung und Aufzeichnung von Fernsehbildern technisch möglich machen und damit ausgerechnet das Live-Medium Fernsehen systematisch mit Aufzeichnungsinstrumenten ausstatten. Anhand von Publikationen aus US-amerikanischen, europäischen und deutschen Fachzeitschriften sowie mit Hilfe von Quellen aus dem Deutschen Rundfunkarchiv in Frankfurt am Main (DRA) werde ich das Hauptaugenmerk in drei Abschnitten auf die signal- und informationsverarbeitenden Praktiken hinter den Kulissen des frühen Fernsehens legen. Ich gehe mit William Boddy davon aus, dass das Medium, das so gut zur Nachkriegsgesellschaft passt, dass es vollständig und nahtlos in ihr aufzugehen scheint, eine zwar schnelle und bemerkenswerte, aber keineswegs reibungsfreie Entwicklung genommen hat.

112 | D ANIELA Z ETTI

In den beiden ersten Abschnitten werden die gescheiterte bzw. erfolgreiche Entwicklung magnetischer Auzeichnungstechniken durch Laboratorien der Radio Corporation of America (RCA) und der Ampex Corporation beschrieben. Im dritten Abschnitt möchte ich am Beispiel der BRD skizzieren, wie die Magnetische Aufzeichnungsanlage (MAZ) in den Fernsehbetrieb eingeführt wurde. Ich möchte dabei folgender Vermutung nachgehen: Der Rekorder wurde an der Schnittstelle Labor/Betrieb darauf hin überprüft, ob er dem Fernsehen als Ort dienen konnte, an dem die Regeln zur Produktion von Bildern verhandelt werden konnten. Im Rückgriff auf Konzepte verschiedener Provenienz gelang es Akteuren in Sendern, Unternehmen und Interessensvertretungen, sich jenseits etablierter Kategorisierungen zu verorten. Den Geräten von Ampex und RCA wäre damit eine wichtige Funktion bei der Transformation von Wissensfeldern zugekommen, die für und durch den Aufbau des Fernsehbetriebs relevant wurden. Über die drei Abschnitte hinweg möchte ich untersuchen: Wie also hätte man sich eine solche ›Überprüfung‹ vorzustellen? Welche Expertisen, Erfahrungen und Erwartungen wurden für sie in Anschlag gebracht? Wo und wie wurde die Schnittstelle lokalisiert und stabilisiert?

RCA ODER DIE NEUE M ECHANIK DER I NFORMATION Ende 1951 gab David Sarnoff, der Präsident der Radio Corporation of America (RCA), den firmeneigenen Laboratorien fünf Jahre Zeit, um ihm rechtzeitig zum 50. Firmenjubiläum einen Wunsch zu erfüllen: die Konstruktion eines Videographen. Dieser würde Fernsehsender bei der Produktion von Programm unterstützen.1 Die Vision vom Videographen sollte zugleich klären helfen, was Fernsehen zu Beginn der 1950er Jahre ›eigentlich‹ war. Fernsehen bestand technisch gesehen aus Punkten, so Sarnoff. Die bewegten sich durch den Äther, bevor sie von technischen Apparaturen zu Bildern zusammengesetzt wurden.

1

Sarnoff ist abgebildet im Kreis seiner Geburtstagsgeschenke bei A.B. Magoun: RCA Labs, S. 62-65.

MAZ

AB

| 113

Diese »elektrischen Punkte« müssten RCA-Ingenieure nun einfangen und umleiten in einen Magnetband-Rekorder. All die photographischen Verfahren und die Schaltkreise, die die junge fernsehproduzierende Community sonst noch brauchte, könne und müsse man auf elegante Weise umgehen.2 Wer Fernsehen wie Sarnoff als Veranstaltung begriff, die direkt vom Sender zum Empfänger übertragen wurde, für den funktionierte es durch und durch elektronisch. Zumindest theoretisch gesehen: Elektronische Kameras mussten Bilder nicht erst aufzeichnen, ihre Signale konnten direkt in die Haushalte übermittelt werden. Dort reproduzierten elektronische Heimempfänger die Bilder. Ganz offensichtlich aber, so die Beobachtung beim Elektronikproduzenten RCA, kamen Fernsehmacher nicht ohne Aufzeichnungstechniken aus. Sie benutzten für ihre tägliche Arbeit Filmmaterial. Das erforderte bisweilen lange Entwicklungszeiten in Fotolabors. Diese Einsicht dürfte die Firmenleitung von RCA unter anderem im Rahmen ihres Engagements in der Society of Motion Picture and Television Engineers (SMPTE) gewonnen haben. Als die 1916 gegründete Society of Motion Picture Engineers (SMPE) 1950 die Fernsehtechniker offiziell mit aufnahm, entsandte RCA anerkannte Größen der Fernsehforschung, die sich um eine Vermittlung zwischen den Anliegen der Kino- und der Fernsehtechnik bemühten.3 Mit dem Videographen schwebte Sar-

2

Sarnoff expliziert hier einen etablierten und langlebigen Imperativ des Elektrohandels. »Don’t talk circuits« empfahl etwa der Radio Dealer seinen Lesern 1923. Sonst stünde zu befürchten, dass das Radio aus den Haushalten vertrieben werde. Die »Domestizierung« männlicher, jugendlicher Nutzer einerseits sowie Strategien zur Kommerzialisierung und Professionalisierung der zugehörigen Wissensfelder andererseits waren zwei gegenläufige, sich dabei aber nicht selten stützende Trends. Vgl. dazu W. Boddy: New Media and Popular Imagination, hier S. 31. Durch seinen Biographen, einen Cousin, wird Sarnoffs Wunsch im Wortlaut überliefert. E. Lyons: David Sarnoff, S. 302, zitiert nach S. Zielinski: Videorecorder, S. 76.

3

Ebd. Vgl. E.I. Sponable: President’s Convention Address und andere Festreden in derselben Ausgabe des SMPTE Journals. Zum Fernsehengagement von RCA am Ende des Zweiten Weltkriegs (»Gentlemen, the RCA

114 | D ANIELA Z ETTI

noff nun eine Prozessinnovation vor, die die Produktion und Distribution von Fernsehen rationalisieren konnte: »In contrast with present kinescope recordings on film, the instantaneous recording of actual television picture signals on tape would be more economical, would save time in processing, and would simplify certain problems of distribution.«4 Das Fernsehen sollte seine eigene, elektronische Aufzeichnungstechnik erhalten. Ausgangspunkt für die Forschungsarbeiten an einem Magnetic Tape System for Recording and Reproducing Standard FCC Color Television Signals in den nächsten fünf Jahren war eine weitere Beobachtung. Sie betraf die Speicherkapazität des Magnetbandes. Das Band galt der Forschungsgruppe um Harry Olson als der entscheidende limitierende Faktor in der magnetischen Aufzeichnung von Bildern. Im Vergleich zu bekannten Verfahren zur Aufzeichnung von Tönen würde es eine ganz neue Masse von Signalen aufnehmen müssen. Dem begegnete man bei RCA mit einer Anzahl technischer Maßnahmen und theoretischer Modellierungen sowie der Setzung einer grundlegenden Vorannahme: »In any recording and reproducing system, the object is to store as much information as possible.«5 Dieser Satz liest sich heute selbstverständlich, zeugte aber damals von einer Rezeption hochaktueller zeitgenössischer Forschungsarbeiten, die sich der Verwissenschaftlichung technischer Wissensbestände widmeten und die »Information« als wissenschaftliche Größe einführen wollten. In fünf Jahren sollte es den RCA-Laboratorien jedoch nicht gelingen, einen Prototypen zu entwerfen, der ansehnliche Bilder reproduzierte. Als die Forschungsgruppe 1956 kein fertiges Produkt präsentieren konnte, legte sie ihre bisherigen Arbeiten in einem großen, publizierten Bericht dar. Sie berief sich darin auf das mathematischinformationstheoretische Modell von Claude Shannon und Warren Weaver. Fernsehsignale wurden im Magnetic Tape System streng nach Shannon und Weaver als »Informationen« modelliert. Ausgehend von Untersuchungen zu Übertragungsvorgängen in Telegrafennetzen hat-

has one priority: television.« Sarnoff im Dezember 1944); vgl. D.E. Fisher/M.J. Fisher: Tube, S. 309. 4

Beim sog. kinescope wird das Fernsehbild von einem Monitor abgefilmt.

5

H.F. Olson et al.: Magnetic Tape System, hier S. 330.

MAZ

AB

| 115

ten Shannon und Weaver Ende der 1940er Jahre eine allgemeine Theorie der Kommunikationsprozesse formuliert. Deren großes Versprechen lag darin, dass sie prinzipiell auf alles übertragen werden konnte, was als System interpretierbar war. Darunter fielen nicht nur technische, sondern etwa auch biologische »Systeme«.6 Bei RCA re-importierte man die Informationstheorie umgehend wieder auf nachrichtentechnisches Terrain. In ihrem Bericht kamen Olson et al. nicht umhin, es so darzustellen, als hätten sie Shannon und Weaver von Anfang an beim Wort nehmen wollen. Sie suggerierten, die Informationstheorie und der Videograph passten perfekt zusammen. Die Theorie war in der Tat kompatibel mit Sarnoffs Vision vom vollelektronischen Fernsehen – nicht aber mit Olsons Arbeitsansatz. Die buchstabengetreue Adaption der Informationstheorie hatte einen entscheidenden Schönheitsfehler: Shannon und Weaver sprachen konsequent von der Übertragung (»transmission«) von Informationen in Kanälen (»channels«). Sie etablierten den Informationsbegriff wissenschaftlich, indem sie ihn quantifizierbar machten. Nichts desto trotz war er durch und durch prozedural angelegt. Die Informationstheorie beschrieb Prozesse, in denen ein Empfänger durch einen Sender informiert wurde. Für den Entwicklungsleiter Olson war Information gleichbedeutend mit gespeicherten Signalen und ihrer physischen Ausdehnung auf Magnetband. Information war hier kein Prozess, sondern ein physisches Faktum, das einen fest umrissenen Platz und ein Stück Magnetband brauchte.7 Das Magnetic Tape System begegnete dem mit Doppelspurigkeiten. Es bestand im Wesentlichen aus zwei großen Einheiten: einem Rekorder und einem Wiedergabegerät. Beide Teile verfügten über Motoren, über Spulen und über eine Unzahl von justierbaren Vorrichtungen, die die Geschwindigkeit und -spannung eines Magnetbandes kontrollierten sowie über Lese- und Schreibköpfe, die die Videosignale aufs Band brachten und wieder auslasen. In diesen Anordnungen befanden sich Signale entweder in permanenter Übertragung oder in

6

Vgl. C. Shannon/W. Weaver: The Mathematical Theory of Communica-

7

Vgl. H.F. Olson et al.: Magnetic Tape System, S. 331-333; T. Haigh: How

tion. W. Aspray: Scientific Conceptualization of Information, S. 119-124. the Computer Became Information Technology, S. 7f.

116 | D ANIELA Z ETTI

permanenter Bewegung, weil sie vom Band mit hoher Geschwindigkeit transportiert wurden. Man kann es so sagen: Olson et al. entwarfen ein doppeltes informationstheoretisches Kommunikationssystem. In beiden Systemen wurden Informationen von einem Sender zu einem Empfänger geleitet. Dazwischen geschaltet war ein Speichersystem. Dieses musste zwei Rollen erfüllen können: der Speicher musste als Sender (aufgezeichneter Informationen) und als Empfänger (aufzuzeichnender Informationen) fungieren. Die Maschine zerlegte die basale Operation der Informationsübertragung in zwei Unteroperationen: ins Informationsverarbeiten und ins Informationsspeichern. Die Entwickler standen bald vor Problemen, die sich als unüberwindbar erwiesen: Die Rekonstruktion des ursprünglich eingespeisten TV-Signals war darauf angewiesen, dass die sich drehenden Leseköpfe und das sich fortbewegende Magnetband in einer genau definierten relativen Geschwindigkeit aufeinandertrafen. Weil dies hochgradig unwahrscheinlich war, wurde zusammengehörigen TV-Signalen eine »sync«-Information mitgegeben, die die Synchronität des Übertragungsprozesses garantieren sollte. Den Rest würde ein Servomechanismus richten: er empfing Rückmeldungen aus dem System, sollte diese eliminieren und durch flexible Anpassungen dafür sorgen, dass beim Aus- bzw. Einlesen der Signale alles glatt lief: »The basic servomechanism is a feedback arrangement and is, of course, arranged so that the feedback is negative.«8 Der Stolz der RCA-Ingenieure war diese Servomechanik, die »feedback« erkennen wollte, um es jederzeit und sofort ausschalten zu können.9 Die experimentellen Anstrengungen der Entwickler hatten dabei mehr und mehr der Feinmechanik gegolten. Das eigentliche Ziel, die elektronische Aufzeichnung, war in den Hintergrund geraten. Die RCA-Forscher gingen zwar davon aus, dass ihre Labormaschine in einer späteren, betriebstüchtigen Form sicherlich weniger

8

Ebd., S. 353f., vgl. auch Abb. 15.

9

Olson et al. operieren nicht mit Norbert Wieners kybernetischem Feedback-Begriff. Zum Konzept des Feedback bei Wiener vgl. W. Aspray: Scientific Conceptualization of Information. Zum Feedback als nachrichtentechnischer Grösse vgl. D.A. Mindell: Rethinking Feedback’s Myth of Origin.

MAZ

AB

| 117

fehleranfällig wäre, weil ihre Mechanik noch verfeinert würde. Mit diesem Versprechen zielte man jedoch an den praktischen und wissenschaftlichen Erfahrungen der Rundfunktechnik vorbei. Je weniger man sich bei RCA Hoffnungen machen konnte, den Prototypen noch aus dem Labor zu bringen, desto einsamer musste das Vorhaben wirken, den Rekorder auf den goldenen Pfad zu bringen, den idealtypische wissenschaftliche Arbeitsteilungen vorsehen. Dass eine »richtige« Erfindung im Labor gemacht werden muss – diese Annahme wurde durch den RCA-Rekorder eher gestützt als in Zweifel gezogen. In der Wahrnehmung seiner Entwickler war er ja im Transfer steckengeblieben. In den folgenden beiden Abschnitten möchte ich zeigen, dass RCA mit der fernsehtechnischen Innovation in einem wichtigen Punkt richtig gelegen hatte: Beim Rundfunk hatte man die Schnittstelle Labor/Betrieb bisher erfolgreich bewirtschaftet und für Gerätehersteller gab es viel zu gewinnen, wenn es ihnen gelang, hier gute Angebote zu machen. Die Schnittstelle war jedoch nichts, das es zu überwinden galt.

AMPEX : »N OW

LET ’ S SEE ...

«

Am 14. April 1956 wurden die Besitzer und Manager der US-Fernsehkette Columbia Broadcasting System (CBS) Zeugen einer sorgfältig inszenierten Präsentation. Im Hilton Chicago hörten sie einen Vortrag ihres technischen Leiters William Lodge. Dieser wurde simultan auf Monitoren übertragen. Als er schloss, leitete er mit den Worten »now let´s see what Ampex has for us« zum nächsten Programmpunkt über. Doch zur Überraschung der Anwesenden schien Lodge seine Rede zweimal halten zu wollen: die Bildschirme zeigten, wie er noch einmal von vorne begann. Während er zugleich regungslos und unbeteiligt am Pult stand, wurde die Verwirrung im Programmablauf auch schon aufgeklärt: man enthüllte einen »Videotape Recorder«.10

10 Zum so genannten »race to video« zwischen RCA und Ampex vgl. S. Wolpin: Race to Video, oder die Publikation, die die Society of Motion Picture and Television Engineers 1976 herausgab: R.S. O’Brien/R.B. Monroe: 101 Years of Television Technology.

118 | D ANIELA Z ETTI

Das Gerät hatte den Vortrag aufgezeichnet und gab die Bilder nun in einer solchen Qualität wieder, dass sie nicht von den Bildern zu unterscheiden waren, die die Fernsehkamera wenige Minuten zuvor live in die Bildschirme eingespeist hatte. Bei den Programmmachern von CBS muss unmittelbar nach dem Vortrag eine Art Goldgräberstimmung ausgebrochen sein. Noch in den ersten vier Tagen nach der Präsentation von Chicago soll Ampex Bestellungen im Wert von fünf Millionen Dollar entgegengenommen haben.11 Zwei Jahre später schrieb der Ampex-Ingenieur Charles E. Anderson im Journal der Society of Motion Picture and Television Engineers (SMPTE): »At this writing, over one hundred fifty Videotape Recorders are in operation all over the world. […] It is felt that the use of frequency modulation as described is an adequate answer to the problems of video recording, and that any improvements in the immediate future will be refinements upon the basic system.«12

Ampex ließ die Zahlen für sich sprechen. Über 150 verkaufte Maschinen – und das weltweit – wiesen den Erfolg des »Systems Ampex« höchst eindrücklich aus. Bald nach Chicago ließ Ampex erste Publikationen und weitere Präsentationen folgen. Sie setzten sich von den Arbeiten bei RCA mit einigen überaus lakonischen Kommentaren ab. Der Leiter des Entwicklungsteams Charles P. Ginsburg erklärte im April 1957: »It might appear a most formidable problem to control the heads so that they are in the right place at the right time. Actually, the control system is fairly simple.«13 Die Ampex-Maschine war um einiges kleiner und kam mit vergleichsweise wenig anspruchsvoller Mechanik aus. Ein und derselbe Mechanismus war für Aufnahme und Wiedergabe

11 Vgl. R.S. O’Brien/R.B. Monroe: 101 Years, S. 468. Die Anschaffungskosten für eine magnetische Aufzeichnungsanlage von Ampex veranschlagte das Deutsche Fernsehen mit ca. 250.000 DM, vgl. DRAF A 06/NC 282, »ARD-Dokumentation«, HA 20200998, 5-51, Protokoll der Sitzung der Fernseh-Kommission am 16. Mai 1957 in Baden-Baden, S. 15f. 12 C.E. Anderson: Signal Translation, S. 721. 13 C.P. Ginsburg: Comprehensive Description, S. 179.

MAZ

AB

| 119

zuständig. Das eingehende Signal wurde nachrichtentechnisch moduliert. Bevor das empfangene Fernsehsignal in Komponenten zerlegt und aufgezeichnet wurde, traf es auf ein Trägersignal und veränderte es. Es war dieses neue, modulierte Signal, das zwischen Ein- und Austritt mehrfach behandelt wurde. Es passierte Schalter, Verstärker, Leseköpfe und ein Magnetband. Im Wiedergabemodus durchlief das Signal die exakt gleichen Stationen rückwärts. Kurz bevor es die Maschine wieder verließ, wurde es entsprechend demoduliert. Wo RCA schwer kontrollierbare Verunreinigungen eines Originalsignals verhindern wollte, überlegte Ampex, wie man dieses Signal so verändern konnte, dass Verunreinigungen per Definition kein Thema mehr waren. Ob der Rekorder im Betrieb Störungen (»noise«) oder Fernsehbilder aufzeichnete war Ampex ganz prinzipiell egal. Wo RCA justierbare Köpfe einbaute und akkurate Transportwege definierte, um die Synchronität der intern übermittelten, komplementären Signale jederzeit aufrecht zu erhalten, da installierte Ampex hinter den Vorverstärkern der Leseköpfe einen Schalter. »The function of the switcher is to pass the output of each preamp only when it should be passed. This is for the purpose of eliminating noise which would exist by transmitting an undesired signal or what is essentially the same thing, a signal at the wrong time.«14

Es gab eine eigens installierte, elektrotechnische Instanz, der die Aufgabe übertragen wurde, die Synchronität der einzelnen Bestandteile der modulierten Frequenz (erst) dann herzustellen, wenn nachfolgende Operationen darauf angewiesen waren. Warum und wie dieser schlanke Entwurf als System funktionierte, war laut Ampex jedoch weder leicht zu analysieren noch einfach zu vermitteln. So richtig gut erklären ließ sich immer nur, warum das RCA-System nicht funktionierte: »A detailed and precise analysis of the response of the entire system is extremely complex. Although a direct recording approach [wie er im RCAPrototypen verwendet wurde, Anm. der Autorin], as opposed to a carrier sys-

14 Ebd.

120 | D ANIELA Z ETTI

tem such as we are using, would have great pitfalls, especially in trying to obtain a very slow tape speed, the direct recording method would be far easier to analyze.«15

Ginsburg und Co. ließen sich zu allerlei Seitenhieben auf das überbordende und überdefinierte RCA-System verleiten. Zugleich bestanden sie darauf, mit ihrem Rekorder ebenfalls ein System entworfen zu haben, das nicht weniger wissenschaftliche Anstrengungen erfordert hatte. Desweiteren weigerten sie sich strikt, ihr eigenes Produkt letztgültig zu beschreiben oder gar einen Kommentar darüber abzugeben, wie »das Fernsehen« als System zu funktionieren habe. Ampex musste den Kunden umso glaubwürdiger versichern, dass diese in der Lage sein würden, die hervorragende Bildqualität auch in ihren Studios zu erzielen. Die kleine Firma aus Kalifornien gewährleistete dies, indem sie die magnetische Aufzeichnungstechnik für Bilder in den Wissensgebieten der Nachrichten-, Rundfunk- und Kinotechnik verortete. Ginsburg sprach von einem Vertrauen, das er in die Bereitschaft der Kunden setzte, nachrichtentechnische Routinen und Erkenntnisse fruchtbar zu machen: »We trust that the technical and economic advantages of the particular modulation system used in the Ampex video tape recorder outweigh the burden of having to interpolate, invert, translate, and extrapolate certain linear functions in particular elements of the system in an attempt to understand just how to increase resolution by 40 lines.«16

Ausdauer, technisches Know-How und eine gute Vorbildung waren gefragt, wenn man einen Ampex-Rekorder zum Laufen bringen wollte. Das würde nach Meinung des Entwicklungsteams auch über Hürden und Grenzen hinweg funktionieren, wie sie namentlich die von Land zu Land differierenden Zeilennormen darstellten. Der idealtypische Ampex-Kunde, bzw. der Techniker, den er einstellen mußte, war dabei sicherlich keine Zukunftsprojektion. Auf Ingenieure und Filmtechniker, die komplexe Systeme mit Hingabe ana-

15 Ebd., S. 180. 16 Ebd., S. 179.

MAZ

AB

| 121

lysieren konnten, scheinen Ginsburg und sein Team mehr als nur einmal getroffen zu sein. In den USA war es die SMPTE, die gemeinsame Interessensvertretung der Kino- und Fernsehtechniker, die die Begegnungen zwischen Ampex und potentiellen Kunden arrangierte. Der Rekorder von Ampex war ein willkommener Anlass, ein Fachwissen auszutauschen, das als komplementäre Angelegenheit begriffen wurde: die Kinotechnik verstand sich aufgrund ihrer chemischen Prägung auf komplizierte Abläufe, Fernsehtechniker konnten Oszillographen lesen und messtechnische Verfahren anwenden.17 Aus der zeitgenössischen Anspruchshaltung, eine funktionierende Maschine müsse als System beschreibbar sein, zogen die Ampex-Vertreter den Schluss, dass sie als Verkäufer ihren Kunden eine gelassene Haltung nahelegen mussten: Nicht alles, was in der Maschine passiere, müsse auch analysiert werden, um die »overall characteristics of the system« besser verstehen zu können.18 Nutzer mussten die Bilder der Maschine lesen können: Oft reiche die Feststellung, dass das reproduzierte Bild durch eine bestimmte Maßnahme besser oder durch Abnutzungserscheinungen des Bandes oder der Köpfe schlechter wurde. Ampex hat diskutierend, forschend und argumentierend einen Raum geöffnet, in dem den Freuden eines Metiers gefrönt werden konnte, das man als Bildanalyse mit technischen Mitteln bezeichnen kann. »As the excitement of early discoveries died, more scientific explanations were sought.«19 Viele wissenschaftliche Erklärungen habe man produziert in den letzten beiden Jahren. Dieser Stoßseufzer entfuhr Charles E. Anderson 1958. Kaum hatte der video tape recorder das Labor der Ampex Corp. verlassen, wurde er in der Wahrnehmung seiner Konstrukteure immer wissenschaftlicher. Das Team war durchaus überrascht, in welche Richtung sich die Diskussion in den Monaten nach Chicago entwickelte. Man hatte 1956 damit gerechnet, dass in den nächsten Monaten vor allem Anfragen bezüglich Betriebstauglichkeit, insbesondere der Schnitttechnik kommen würden. Doch schon die Wiederholbarkeit von integralen Sendungen warf Fragen auf, die nur im Rückgriff auf Wissen-

17 Vgl. z.B.: Discussion on Video-Tape Recording. 18 Vgl. C.P. Ginsburg: Comprehensive Description, S. 181. 19 C.E. Anderson: Signal Translation, S. 721.

122 | D ANIELA Z ETTI

schaftlichkeit zu beantworten waren.20 Die Bewirtschaftung der Schnittstelle Labor/Betrieb gestaltete sich lukrativer, aber auch aufwendiger als vermutet.

E CHTES F ERNSEHEN

FÜR DIE

BRD

Die Techniker der deutschen Rundfunkanstalten warteten derweil seit längerem auf die fernsehtechnische Innovation aus den USA. Bereits 1955 war ein Mitarbeiter in die USA gereist, um sich über den Stand der Arbeiten zu informieren. Am 16. Mai 1957 – ein gutes Jahr nach der feierlichen Präsentation des Ampex-Rekorders – berichtete Ernst Becker, der Technische Direktor des Südwestfunks (SWF), »bei zwei großen amerikanischen Netzwerken« seien inzwischen »insgesamt sieben Maschinen in Gebrauch«. Bezüglich der erzielten Bildqualität war er nicht euphorisch, aber zuversichtlich. Die Maschine ergänze die Aufzeichnungsmaschinen des Fernsehens, weil ihre Bilder gleich gut waren wie bei bekannten Verfahren: »Selbst wenn sie nicht über den augenblicklichen Stand hinaus verbessert werden könnte, sei sie bereits jetzt schon sehr zweckmäßig einzusetzen«.21 Am nächsten Tag bat die Fernsehkommission die Intendanten der Arbeitsgemeinschaft der öffentlich-rechtlichen Rundfunkgesellschaften der Bundesrepublik Deutschland (ARD), eine Ampex-Maschine anzuschaffen.22 Becker fasste den Stand der Entwicklungen vorsichtig zusammen. Er erweckte fast den Eindruck, als sei das Magnetic Tape System der

20 Vgl. C.P. Ginsburg: Comprehensive Description, S. 182. Oder im summarischen Rückblick Ginsburgs auf : www.labguysworld.com/VTR_BirthOf. htm (31. 12. 2010). 21 DRAF A 06/NC 282, HA 20200998, 5-51, R.T.I. Nürnberg, 11. August 1955, Hoffmann an Verwaltungsdirektor Spies, Bayerischer Rundfunk. DRAF A 06/NC 282, »ARD-Dokumentation«, HA 20200998, 5-51, Protokoll der Sitzung der Fernseh-Kommission am 16. Mai 1957 in BadenBaden, S. 15f. 22 Vgl. DRAF A 06/NC 282, »ARD-Dokumentation«, HA 20200998, 5-51, Protokoll der Intendanten-Konferenz am 17. und 18. Mai 1957 in BadenBaden, S. 12.

MAZ

AB

| 123

RCA einsatzbereit. Der RCA-Prototyp hatte nie mehr leisten sollen, als die herkömmlichen filmischen Aufzeichnungstechniken zu ergänzen. Dass die Ampex-Maschine Bilder in nie gekannter Qualität wiedergab, davon erfuhren die Intendanten höchstens beiläufig. Becker mußte auch gar nicht mehr versprechen: Die Intendanten stimmten der teuren Anschaffung zu. Doch woher rührte seine Vorsicht? Die Magnetische Aufzeichnungsanlage (MAZ) sorgte hinter den Kulissen des Rundfunks noch vor ihrer Ankunft in Deutschland für Verwirrung. Würden die Rundfunktechniker in der Lage sein, sie »störungsfrei« zu implementieren? Das war erstens eine technische Frage, die z.B. jene Anpassungen implizierte, die international abweichende Zeilennormen nötig machten. Zweitens war es aber auch eine Frage der Erwartungen, die in der Öffentlichkeit ans Fernsehen und sein Programm gerichtet wurden. Musste Fernsehen live sein, oder war es ausreichend, gute Bilder zu liefern? Wurden gute Bilder empfangs- oder produktionsseitig generiert? Diese Fragen lagen außerhalb des Kompetenzbereichs eines Technischen Direktors. Sie standen im Raum, weil ein so illustres wie wachsendes Publikum auf die ersten Fernsehsendungen wartete und im Laufe der 1950er Jahre mit zunehmendem Nachdruck artikulierte, was Fernsehen war und was nicht. Im Juli 1953 besichtigte etwa der Verleger Axel Cäsar Springer das Fernsehhaus des Nordwestdeutschen Rundfunks (NWDR). Springer sollte später über Jahrzehnte für privat finanzierte Fernsehprogramme und für seine Chance kämpfen, selbst Fernsehen produzieren zu dürfen. Er steht geradezu beispielhaft für die Versuche der Verlagshäuser und Unternehmer, des medialen Neuankömmlings Fernsehen habhaft zu werden.23 Springer also, dessen Bedeutung als Persönlichkeit für die Fernsehmacher 1953 zunächst wohl darin lag, dass er die Programmzeitschrift Hör Zu herausgab, besuchte die Produktionsstätte des damals größten bundesdeutschen Senders. Die Begegnungen hinter den Kulissen scheinen im Verleger ein gewisses Wohlwollen, vor allem aber Respekt vor dem Fernsehmachen hervorgerufen zu haben.

23 Vgl. R. Steinmetz: Freies Fernsehen. F. Kain: Medienpolitische Debatte in den sechziger Jahren.

124 | D ANIELA Z ETTI

Springers Assistent schrieb an den NWDR-Intendanten Werner Pleister: »Axel Springer war stark beeindruckt nach dem Rundgang im Studio und sprach von der unendlich großen, mühevollen Kleinarbeit in Ihrem Hause. Ich glaube, daß der Besuch und die Unterhaltung Ihre Probleme zeigte, und daß wir zur Beurteilung Ihrer schwierigen Situation einen guten Ausgangspunkt gefunden haben.«24

Der Assistent vermeldete auch die erste Konsequenz, die Springer aus dem Besuch gezogen hatte, um dem öffentlich-rechtlichen Fernsehen in schwieriger Lage zu helfen. An irgendeinem Punkt des Abwägens, das Fernsehen habe vielversprechendes Potential aber noch sei damit ja eigentlich nicht allzu viel anzufangen, war Springer die Idee gekommen, dem Assistenten ein Fernsehgerät zu besorgen. Der Bericht lässt offen, ob man im Hause Springer damals schon einen Apparat aufgestellt hatte – ob man also einstweilen selbst lieber anderen Abendbeschäftigungen nachging oder ob schlicht der Chef dem Assistenten ein Aufholen ermöglichen wollte. Das Fernsehmachen jedenfalls überließ der Verleger Springer einstweilen anderen. Nicht alle Zuschauer verhielten sich so geduldig. Das Aufholen in Fernsehdingen war ein populäres zeitgenössisches Motiv in der BRD der 1950er Jahre. Lokalzeitungen vermerkten regelmäßig, bei ihnen im Kreis gäbe es jetzt auch endlich Fernsehen oder doch immer noch keins. In Ballungszentren kamen die Haushalte schneller ans Fernsehen als in der Provinz, und der Süden machte Druck, weil der Norden besser dran war.25 Als die westdeutschen Rundfunkanstalten den Sen-

24 Christian Kracht an Werner Pleister, 6. 7. 1953, in NDR-Archiv, 01.07021.000, zit. nach A. Schildt: Moderne Zeiten, S. 263. 25 Ausführlich dazu ebd. Die European Broadcasting Union/Union Européenne de Radiodiffusion (EBU/UER) publizierte 1957 anlässlich des Verkaufs von einer Million Fernsehgeräten in der BRD eine Übersicht, auf der die BRD weltweit auf Platz 5 rangierte, was die Anzahl verkaufter Empfänger betraf. In Europa lagen einzig die UdSSR (1,3 Mio. Geräte) und Großbritannien (7,4 Mio.) vor der BRD. Frankreich zählte 634.320 Empfänger, Italien 550.000. Union Européenne de Radiodiffusion, S. 699.

MAZ

AB

| 125

debetrieb nach dem Krieg wieder aufgenommen hatten, waren sie sehr selbstverständlich davon ausgegangen, zukünftig auch den Fernsehbetrieb zu besorgen. Werner Nestel, der technische Direktor des NWDR, hatte 1948 begonnen, fernsehtechnisches Gerät zu beschaffen. Als größte Anstalt der ARD übernahm der NWDR zunächst die Forschung, und im November 1950 strahlte er die ersten Fernsehsendungen aus. Während Radio Bremen als ärmste Rundfunkanstalt es sich noch im Juli 1956 leisten konnte, niemals in die Produktion von Fernsehsendungen einsteigen zu wollen, wurde vor allem der Bayerische Rundfunk (BR) von Industrie, Presse und ARD zunehmend in die Pflicht genommen, mehr Fernsehprogramm zu produzieren.26 Bescheiden im negativen Sinne erschienen die fernsehtechnischen Anfänge der Rundfunkanstalten einem Unternehmer wie Max Grundig, der Empfangsgeräte verkaufen wollte. Was das Fernsehen anbetraf, waren ihm die 1950er Jahre ein einziges Warten. Erst wartete er, dass die Post die Richtfunkstrecken ausbaute und dann, dass die Sender endlich ein Programm produzierten, das die Kunden zum Kauf einer seiner Entwicklungen motivierte. Er bemühte sich seit 1951 vom fränkischen Fürth aus, den BR zum Fernsehen zu bringen. Die Devise war: mehr Fernsehen bitte und das live. Auf einer lokalen Messe installierte er einige Empfangsgeräte und zeigte Filme. Die Nürnberger Nachrichten meldeten in einer Mischung aus National- und Regionalstolz: »Als schließlich abgeschaltet wurde, hatte man das Bewußtsein gewonnen, daß wenigstens von Seiten der Privatindustrie alles getan wird, um in einer Entwicklung nicht zurückzustehen, die in allen Kulturländern bereits zum unentbehrlichen Bestandteil von Kultur und Technik geworden ist.«27

Die Zeitung wusste auch Interessantes aus der Welt der Fernsehtechnik zu berichten. Die verkaufstüchtigen Grundigleute hatten sie darüber in Kenntnis gesetzt, dass die Fürther Vorführungen leider nur

26 Vgl. H. Bausch: Rundfunkpolitik nach 1945, Band 2, S. 267-287 sowie K. Dussel: Deutsche Rundfunkgeschichte, S. 221-226. 27 Nürnberger Nachrichten, 28. 9. 1951, S. 3. C. Bronnenmeyer: Max Grundig, S. 50.

126 | D ANIELA Z ETTI

eine Kostprobe mit eigentlich ungeeignetem Material waren. Die Bildqualität der Geräte werde erst bei »echt elektronischer Fernsehübertragung« zur Geltung kommen. Grundig bedauerte, sein Messepublikum nur mit Konserven versorgen zu können. Echtes Fernsehen war elektronisch und das hieß: live. Die Wochenzeitung Die Zeit fand es 1957 schon ganz natürlich, dass die Empfangstechnik fürs neue Medium völlig tadellos war. Sie teilte die Meinung, die Hersteller in der Bundesrepublik hätten ein Wort mitzureden in Bezug auf die Programmgestaltung. Das Land verfüge inzwischen über ein Fernsehpublikum, das die Millionengrenze erreicht hatte und das spreche für den Erfolg von Unternehmern wie Max Grundig. Am TV-Programm hingegen könne es nicht liegen, weder in quantitativer noch in qualitativer Hinsicht. So brachte die Firma 1957 noch einmal, diesmal aber in einem bundesweit gelesenen Organ, eine »Bitte« vor. Man bat das Deutsche Fernsehen, »nunmehr ein besser aufeinander abgestimmtes, gut vorbereitetes Unterhaltungsprogramm zu gestalten«. Der Journalist argumentierte flankierend: Grundig liefere technisch perfekte, gut ausgestattete und erschwingliche Fernsehempfänger, die Post stelle das Fernsehnetz zur Verfügung. Allein: »das Programm hat nicht mit der Technik Schritt gehalten.«28 Die ARD hatte die Fernsehfrage der so genannten Fernsehkommission überantwortet.29 Auch wenn einige Mitglieder der Kommission früh eine zu »starke Beratung von Seiten der Technik« beklagten, so war sie doch vor allem mit Journalisten und nicht mit Technikern besetzt. Von Seiten des Programms war bereits 1950 Druck auf die Technik ausgeübt worden. Man drängte auf eine klare Arbeitsteilung in der Fernsehproduktion. Den Wünschen der Wirtschaft wollte man dabei nicht unbedingt nachkommen, aber man wollte sie doch nachvollziehen können. Der Intendant des BR, Rudolf von Scholtz, meinte gar, man müsse wissen, »welche Motive die Menschen haben, sich ein Fernsehgerät anzuschaffen; welche Sendungen sie dazu angeregt haben und welche sie zögern ließen, also die ganze psychologische Frage: Wie verhält sich das Programm zur Ausbreitung des Fernsehens in

28 E. Bissinger: Am erfolgreichsten ist der Erfolg..., Die Zeit, 31. 10. 1957. 29 Vgl. H. Bausch: Rundfunkpolitik nach 1945, Band 2, S. 280.

MAZ

AB

| 127

der Seherschaft?«.30 Die »Beipackzettel«, die die Technischen Direktoren den Kauf- und Einsatzempfehlungen für die MAZ mitgaben, griffen diese Sprache auf. Sie waren so sehr darum bemüht, den »lebendigen« Jargon der Journalisten und der künstlerischen Mitarbeiter zu sprechen, dass dabei fast vergessen gehen konnte, dass die MAZ Aufzeichnungen von Sendungen anfertigen konnte.31 Otto Schmidbauer vom Institut für Rundfunktechnik (IRT) und der Physiker Hans-Joachim von Braunmühl bewarben im Sommer 1957 die Fähigkeiten der MAZ, materialsparend »Mitschnitte« von langen Veranstaltungen anzufertigen oder Live-Proben aufzuzeichnen, um den Schauspielern »Selbstkontrolle« zu erlauben. Als sie die »betrieblichen Einsatzmöglichkeiten« der Fernsehaufzeichnung auf Magnetband im ersten Jahrgang der Rundfunktechnischen Mitteilungen zusammenfassten, gebrauchten sie darüber hinaus einen langen Konditionalsatz, um eine Art Stufenplan für den zukünftigen Einsatz der MAZ zu entwerfen. »Für den Fall schließlich, daß es gelingt, die Bildqualität des magnetischen Verfahrens auf einen solchen Stand zu steigern, daß die Wiedergabequalität von der Güte eines direkt gesendeten Bildes praktisch nicht mehr unterschieden werden kann, wie dies für die magnetische Aufzeichnung des Tones im Hörfunk erreicht wurde, und daß außerdem die Schneidetechnik der Aufzeichnung in befriedigender Weise gelöst wird, ergibt sich für das magnetische Bildspeicherungsverfahren eine der wichtigsten Anwendungen, nämlich als Aufzeichnungsgerät für die Vorproduktion von Fernsehspielen und ähnlichen Programmteilen.«32

30 DRAF A 06 7 04, »ARD-Dokumentation«, 0-412 bis 0-41353, Protokoll der Tagung der Rundfunkanstalten des Bundesgebietes und RIAS Berlin am 9./10. Juni 1950 in Bremen (Hauptversammlung). 31 Vgl. dazu ausführlich Zielinski, S. 126-146, der die Diskussionen der Fernsehmacher um die Frage live oder »Konserve« als eine Art cultural lag liest: die Deutschen hätten daher ein technisches Potential des AmpexRekorders lange nicht genutzt. Damit wird suggeriert, Technik und Kulturelles seien zwei klar zu trennende Bereiche. 32 H.-J. v. Braunmühl/O. Schmidbauer: Fernsehaufzeichnung auf Magnetband.

128 | D ANIELA Z ETTI

Schmidbauer und von Braunmühl formulierten nicht nur überaus präzis, ihnen war auch daran gelegen, im Fernsehbetrieb nachhaltig Ordnung zu stiften. Die MAZ war für die beiden Rundfunktechniker erstens ein internes Arbeitsinstrument. Aufzeichnungen, die nie oder nicht mehr gesendet wurden, waren leicht zu löschen. Magnetbänder konnten im Unterschied zum Film mehrfach bespielt werden. Das hieß vor allen Dingen: Löschen würde so erschwinglich werden, dass Aufzeichnungen denkbar wurden, die rein zu provisorischen Zwecken erstellt wurden. Die einmalig hohen Anschaffungskosten einer MAZ würden sich so später mehrfach bezahlt machen. Zweitens stellten von Braunmühl und Schmidbauer damit eine »Befriedung« interner und externer Konfliktlinien in Aussicht. Schauspieler und Regisseure sollten ebenso zu ihrem Recht kommen wie die Finanzabteilung. In die Pflicht genommen wurden hingegen Techniker und Cutterinnen: sie sollten eine Bildqualität garantieren, die das Fernsehpublikum ebenso zufriedenstellte, wie die Tonqualität von Radioaufzeichnungen die Hörer erfreute. Ihr Arbeitsplatz war eine Schnittstelle im doppelten Sinn. Hier wurden, den Fernsehmonitor immer im Blick, Mitschnitte produziert und bearbeitet. Zweitens konnten von Braunmühl und Schmidbauer darauf verweisen, dass hinter den Kulissen die Interessen inner- und außerbetrieblicher Akteure aufeinandertrafen. Man saß also an einer Schnittstelle technischer und organisatorischer Art.33 Die Analogie zum Radio war dabei nicht zufällig gewählt. Hier warf mit Hans-Joachim von Braunmühl ein international anerkannter Experte der so genannten Elektroakustik sein Renommee in die Waagschale. Der promovierte Physiker hatte bis 1929 bei Siemens & Halske gearbeitet, bevor er zur Reichsrundfunkgesellschaft (R.R.G.) gewechselt war. Dort adaptierte er als »Hauptabteilungsleiter der Zentrallei-

33 Zu einer ähnlichen Einschätzung kam der BBC-Ingenieur Peter Axon in einem Artikel, der wenig später in der Review der EBU/UER publiziert wurde. Er legte darüber hinaus dar, dass das Cutten mit Messer und Klebstoff, wie es in der Film- und Radiotechnik üblich war, aus der Sicht der Videotechniker Störungen in der Mechanik des Rekorders und im Bild (sog. Transienten) produzierte. Vgl. P. Axon: B.B.C. Vision Electronic Recording Apparatus, S. 7.

MAZ

AB

| 129

tung Technik« zusammen mit Walter Weber das AEG-Magnetophon für Rundfunkzwecke. Das Tonbandgerät der AEG war dabei entscheidend verbessert worden. Erst den beiden Rundfunktechnikern war 1939 im Labor der R.R.G und in enger Zusammenarbeit mit der I.G. Farben und der AEG die Entwicklung einer rauschfreien, magnetischen Aufnahmetechnik für Töne gelungen. Die kam anschließend schnell zu weltweiter Berühmtheit, weil die technische Qualität deutscher Radiosendungen alliierte Soldaten während des Kriegs aufhorchen ließ. Die Klangqualität sprach dafür, dass sie Live-Übertragungen lauschten. Doch die Hörer wollten nicht glauben, dass irgendjemand ganze Orchester dazu bewegen hatte können, mitten in der Nacht zu spielen. In den letzten Kriegstagen besorgte sich der USSoldat Jack Mullin eine jener mythischen Aufnahmemaschinen aus einem Studio nahe Frankfurt am Main. Das Magnetophon, das Mullin in Einzelteilen verpackt über den Ozean schickte, landete schließlich in den Labors der Ampex Corporation, wo es ausgiebig unter die Lupe genommen wurde.34 Von Braunmühls Künste waren diesseits und jenseits des Atlantiks auf die geschulten Ohren all jener Radioamateure getroffen, die seit ihrer Jugend vom Dachboden aus nach Signalen im Äther fischten. Der Soziologe Dominik Schrage spricht von den »anderen Ohren«, die um die sozialtechnische Struktur der Massenmedien und um den Konstruktionscharakter des »Sounds« wissen. Sie befragen den Klang einer Sendung auf Authentizitätseffekte. So können sie teilhaben an einer Wirklichkeit, deren räumliche Ausdehnung durch intendierte oder nicht intendierte Störgeräusche vernehmbar wird.35 Schon aufgrund der Biographie Hans-Joachim von Braunmühls ist es also nicht weiter

34 Zur Geschichte des Magnetophons (mit »ph« in der Schreibweise der AEG, als Magnetofon mit »f« in der Schreibweise der R.R.G. und ARD) und zur Hochfrequenzvormagnetisierung vgl. F. Engel/G. Kuper/F. Bell: Magnetbandtechnik, S. 43-99 und S. 147-156 sowie Jack Mullins Erfahrungsbericht: Ders: Tape Recording. 35 Die Absenz von Störungen in Ton oder Bild kann dieselbe Funktion erfüllen. Zum Sound des Radios vgl. D. Schrage: Sound als Politik in der Weihnachtsringsendung 1942. Zu den USA vgl. W. Boddy: Wireless Nation.

130 | D ANIELA Z ETTI

verwunderlich, dass die European Broadcasting Union (EBU, bzw. Union Européenne de Radiodiffusion UER) 1957 auf seinen Artikel über die magnetische Aufzeichnung von Fernsehsignalen zurückgriff und ihn ins Englische und Französische übersetzen ließ, um ihren Mitgliedern die Vorteile des Ampex-Verfahrens näher zu bringen. Dem Artikel wurde ein Vorwort vorangestellt, das die Euphorie der jungen bildproduzierenden Community überliefert. Schmidbauer und von Braunmühl machten deutlich, dass das Ampex-System, einmal in Betrieb gesetzt, den Film als vorrangiges optisches Medium vom Thron stürzen werde. »Il est évident que lorsqu’un tel système sera mis au point, il détrônera partiellement le film optique; la télévision sera ainsi dotée d’un outil aussi intéressant que le magnétophone en radiodiffusion, et les conditions d’exploitation devront être vues sous un angle nouveau.«36 Dieser Kommentar zeigt: Der Stufenplan der beiden deutschen Rundfunktechniker ließ sich auch anders lesen. Gipfeln sollte er dereinst in der Entthronung des Films und damit auch der Institution Kino. Er war der Entwurf einer langsamen Annäherung des neuen audiovisuellen Mediums an seinen Gegenstand: die Gesellschaft. Das Objekt, das es einzufangen galt, lag damit zwar außerhalb der Sender – die MAZ hingegen würde stationär in den Sendern bedient werden. Das war jedoch kein Nachteil: Das Studio als Welt im Kleinen, mit Schauspielern als Repräsentanten von Persönlichkeiten und mit Technikern, die diese Abstraktionsleistungen ermöglichen und selbstverständlich machen könnten – das Studio also als Labor der Nachkriegsgesellschaft wurde dadurch erst richtig zur Geltung gebracht.

S CHLUSSBEMERKUNG Welches Angebot hat Ampex mit seinem Rekorder gemacht? Ampex ist es in Chicago gelungen, einen Rollentausch zu inszenieren. Die Ampex-Ingenieure machten die versammelten Experten zu Zuschauern und führten sie »hinters Licht«. Ginsburgs Team dürfte anschließend

36 H.-J. v. Braunmühl/O. Schmidbauer: L’enregistrement des signaux de télé-vision, S. 683.

MAZ

AB

| 131

bisweilen auch Aufklärungsarbeit geleistet haben, vor allem was nachrichtentechnisches Verständnis anbetrifft. Wichtiger scheint mir aber, dass mit dem Zuschauer eine neue Expertenfigur eingeführt und zugleich eine Vision etabliert wurde, die alle Fernsehmacher teilen konnten – und mussten. Die Attraktivität des Ampex-Rekorders als Instrument zur Bildanalyse lag zweitens in einem »universalen« Versprechen begründet: der VTR konnte im Prinzip jedes Bild aufnehmen und wiederholen. Damit wurden technische Differenzen egalisiert: So war es (fast) egal, welche Zeilennorm verwendet wurde. Der Rekorder stellte eine technische Lösung eines allgemeinen Problems in Aussicht. Die Analyse von Bildern war ein ebenso schwieriges wie faszinierendes Unterfangen. Schließlich war der Gegenstand, den man in den ersten Nachkriegsjahren einfangen wollte, per Kamera und jetzt auch per Rekorder, hochgradig dynamisch, bis hin zu eigenwillig, ja geradezu widerspenstig. Wie wenn durch stetes Wiederholen von Fernsehsendungen sowie von fernsehtechnischen Routinen hinter den Kulissen zumindest klarer würde, worum es beim Fernsehen ging, stabilisierte der Ampex-Rekorder alles, was schon da war und aus welchem Grund auch immer zum Fernsehmachen dazu gehörte. Er war das komplementäre Gegenstück zu den Empfangsgeräten, die allerorten aufgestellt wurden und bezeugten, dass das Publikum bzw. »der Zuschauer« Gefallen daran gefunden hatte, aus unterschiedlicher Position und Lage das selbe zu sehen. Dass die Grenzziehung zwischen reiner und angewandter Forschung vor dem Fernsehen nicht Halt machte, war Hans-Joachim von Braunmühl übrigens geläufig. »In Erkenntnis der mit diesem Problem [der magnetischen Aufzeichnung von Bildern] verbundenen Schwierigkeiten hat man dabei bewußt darauf verzichtet, rundfunkeigene Entwicklungsarbeit größeren Stiles zu leisten.«37 Aufgrund von Expertise und im Namen akademischer Arbeitsteilungen hätte man sich bislang aus der Erforschung der magnetischen Aufzeichnung für Bilder lieber herausgehalten. Man konnte gegen diese Grenzziehung Opposition machen, ohne der Unwissenheit oder Untätigkeit geziehen zu werden. Es fehlte nicht viel und man war gleich ganz unbürgerlich

37 H.-J. v. Braunmühl/O. Schmidbauer: Fernsehaufzeichnung auf Magnetband, S. 186.

132 | D ANIELA Z ETTI

pflichtvergessen, jedenfalls von vielem entbunden. Auch das mag zur Attraktivität der Schnittstelle Labor/Betrieb beigetragen haben.

L ITERATUR Ohne Autor: »Discussion on Video-Tape Recording«, in: Journal of the SMPTE 67 (1958), S. 737-739. Anderson, Charles E.: »Signal Translation Through the Ampex Videotape Recorder«, in: Journal of the SMPTE 67 (1958), S. 721725. Aspray, William F.: »The Scientific Conceptualization of Information: A Survey«, in: Annals of the History of Computing 7 (1985), S. 117-140. Axon, Peter: »The B.B.C. Vision Electronic Recording Apparatus«, in: EBU Review 49 (1958), S. 2-7. Bausch, Hans: Rundfunkpolitik nach 1945, München: Deutscher Taschenbuch Verlag 1980. Boddy, William: Fifties Television: The Industry and Its Critics, Urbana: University of Illinois Press 1990. Ders.: »Wireless Nation: Defining Radio as a Domestic Technology«, in: Ders. (Hg.): New Media and Popular Imagination. Launching Radio, Television, and Digital Media in the United States, Oxford: Oxford University Press 2004, S. 16-43. Braunmühl, Hans-Joachim von/Schmidbauer, Otto: »Fernsehaufzeichnung auf Magnetband nach dem Ampex-Verfahren«, in: Rundfunktechnische Mitteilungen 1 (1957), S. 186-190. Dies.: »L’enregistrement des signaux de télévision sur bande magnetique par le procédé Ampex«, in: Bulletin de l’UER 8 (1957), S. 683-690. Bronnenmeyer, Christel: Max Grundig. Made in Germany, Berlin: Ullstein 1999. Dussel, Konrad: Deutsche Rundfunkgeschichte, Konstanz: UVK Medien 1999. Engel, Friedrich, et al.: Zeitschichten. Magnetbandtechnik als Kulturträger. Erfinderbiografien und -erfindungen, Potsdam: Polzer Medien Group 2010 (2008).

MAZ

AB

| 133

Fisher, David E./Fisher, Marshall Jon: Tube. The Invention of Television, Washington, D.C.: Counterpoint 1996. Ginsburg, Charles P.: »Comprehensive Description of the Ampex Video Tape Recorder«, in: Journal of the SMPTE 66 (1957), S. 117-182. Haigh, Thomas: »How the Computer Became Information Technology: Constructing Information in Corporate America, 1950-2000«, Unpubliziertes Paper 2003. http://tomandmaria.com/tom/Writing/InfoFixDRAFT.pdf Kain, Florian: Das Privatfernsehen, der Axel Springer Verlag und die deutsche Presse. Die medienpolitische Debatte in den sechziger Jahren, Münster: LIT Verlag 2003. Lyons, Eugene: David Sarnoff. A Biography, New York: Harper & Row Publishers 1966. Magoun, Alexander B.: David Sarnoff Research Center. RCA Labs to Sarnoff Corporation, Charleston, SC: Arcadia Publishing 2003. Mindell, David A.: »Opening Black’s Box: Rethinking Feedback’s Myth of Origin«, in: Technology and Culture 41 (2000), S. 405434. Mullin, Jack: »Creating the Craft of Tape Recording«, in: High Fidelity (1976), S. 62-67. O’Brien, Richard S./Monroe, Robert B.: »101 Years of Television Technology«, in: Journal of the SMPTE 85 (1976), S. 457-480. Olson, Harry F. et al.: »A Magnetic Tape System for Recording and Reproducing Standard FCC Color Television Signals«, in: RCAReview (1956), S. 330-392. Schildt, Axel: Moderne Zeiten. Freizeit, Massenmedien und »Zeitgeist« in der Bundesrepublik der 50er Jahre, Hamburg: Wallstein 1995. Schrage, Dominik: »Singt alle mit uns gemeinsam in dieser Minute. Sound als Politik in der Weihnachtsringsendung 1942«, in: Daniel Gethmann/Markus Stauff (Hg.): Politiken der Medien, Zürich und Berlin: Diaphanes 2005, S. 267-285. Shannon, Claude E./Weaver, Warren: The Mathematical Theory of Communication, Urbana: University of Illinois Press 1949.

134 | D ANIELA Z ETTI

Sponable, Earl I.: »President’s Convention Address. Presented October 16th, 1950, at the Convention at Lake Placid, N. Y.«, in: Journal of the SMPTE (1950), S. 559. Steinmetz, Rüdiger: Freies Fernsehen. Das erste privat-kommerzielle Fernsehprogramm in Deutschland, Konstanz: UVK-Medien 1996. Wolpin, Stewart: »The Race to Video«, in: Invention & Technology 10 (1994). Zielinski, Siegfried: Zur Geschichte des Videorecorders, Berlin: Spiess 1986.

Über die Quasi-Objekte von Bruno Latour und den Phonometer des Abbé Rousselot L ENA C HRISTOLOVA

AUSGANGSPOSITIONEN : P HÄNOMENOTECHNIK UND T ECHNOWISSENSCHAFT In dem 1840 in London erschienenen Buch The Philosophy of Inductive Sciences1 findet man die erste Definition des Begriffs ›Wissenschaftler‹ (›Scientist‹), die das Aufkommen eines neuen Berufsstandes markiert, dessen Hauptinteresse den Naturwissenschaften gilt: »We need very much a name to describe a cultivator of science in general. I should incline to call him a Scientist. Thus we might say, that as an Artist is a Musician, Painter, or Poet, a Scientist is a Mathematician, Physicist, or Naturalist.«2 Sein Autor, der englische Philosoph und Wissenschaftshistoriker William Whewell (1794-1866) skizziert darin u.a. die den Naturwissenschaften eigene Methode der Hypothesenbildung über bekannte oder im Experiment beobachtete Phänomene,3 hebt aber auch eine gewisse Unmöglichkeit hervor, zwischen sogenannten Naturphänomenen und Produkten des Experiments zu unterscheiden: »Substances which were long known only as the products of the laboratory, are of-

1

W. Whewell, The Philosophy of the Inductive Sciences.

2

Ebd., Bd.1, S. CXIII.

3

Ebd., Bd.1, S. IXXXVIII.

136 | L ENA CHRISTOLOVA

ten discovered, after a time, in natural deposits. Are the crystals which are found in a forgotten retort or solution to be considered as belonging to a different science from those which occur in a deserted mine?«4 Gegenüber der Evidenz der materiellen Beschaffenheit der Substanzen, die für Whewell das Wesen der Phänomene definiert, wird hundert Jahre später sein französischer Kollege Gaston Bachelard (1884-1962) in dem Buch La Philosophie du Non (1940) die Vorrangigkeit der wissenschaftlichen Beobachtung und Theoriebildung hervorheben, die aus den Natur- und Laborphänomenen ein verallgemeinertes Konstrukt, ein ›wissenschaftliches Phänomen‹, erschafft: »Das wissenschaftliche Phänomen ist in Wirklichkeit vorgestellt, es vereinigt in sich ein Komplex von Beobachtungen, die sich in der Natur in dieser Weise nicht antreffen lassen«.5 Das den Naturphänomenen vor-gestellte wissenschaftliche Phänomen stellt für Bachelard einen spezifischen Zugang zur Realität dar, der durch die den Bezug zur Empirie sichernden Instrumente der naturwissenschaftlichen Erkenntnis hergestellt wird. Da diese regelrecht die Architekturen der ihnen vorangestellten Theorien verkörpern, schmiedet Bachelard für die hybriden Konstellationen zwischen den Instrumenten als Materialisationen von Theorien und den von ihnen beobachteten oder antizipierten Objekten und Wissensformationen6 den Neologismus ›Phänomenotechnik‹. Die ›Phänomenotechnik‹ deckt nicht nur neue, sinnlich nicht erfassbare, Objekte und damit ein Dingwissen auf, das neu repräsentiert werden muss, sondern stellt auch die Frage nach der Hypostasierung von Ideen als ›Zwischendinge‹ im Prozess der Phänomenaliserung der neuen Objekte. Diese von der ›Phänomenotechnik‹ aufgeworfene Problematik thematisiert auch Bruno Latour mit dem Begriff der ›Quasi-Objekte‹, wobei er nicht von ontologischen Prämissen ausgeht, sondern vom realen Status der neuen Objekte als ›Zwischendinge‹ im kategorialen Feld der etablierten Wissenschaften. Er betrachtet die bereits etablierten Wissenschaften mit ihrem streng definierten Untersuchungsgegenstand als

4

W. Whewell: The Philosophy of the Inductive Sciences, Bd.1, S. 509f.

5

G. Bachelard: Die Philosophie des Nein, S. 91f.

6

G. Bachelard: Die Bildung des wissenschaftlichen Geistes, S. 348.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 137

Ausprägungen eines naturalistischen oder kulturalistischen Essentialismus, deren Diskursivierungs- oder Dekonstruktionsversuche mehr oder weniger deutlich soziologische oder linguistische Akzente zeigen: »Die Kritiker haben drei unterschiedliche Repertoires der Kritik entwickelt, um über unsere Welt zu sprechen: Naturalisierung, Sozialisierung und Dekonstruktion. […] Jede dieser Formen der Kritik ist für sich genommen stark, aber läßt sich keinesfalls mit den beiden anderen kombinieren. […] Das Dilemma wäre ausweglos, wenn die Anthropologie uns nicht schon seit langem daran gewöhnt hätte, ohne Krise und Kritik das nahtlos ineinander übergehende Gewebe der ›Natur/Kultur‹ zu untersuchen, das ich so nennen will, weil es etwas mehr und etwas weniger als eine Kultur ist.«7

Herzstück seiner Methode ist die von ihm und Michel Callon entwickelte Akteur-Netzwerk-Theorie (ANT), die von der ständigen Bewegung zwischen menschlichen und nicht-menschlichen Akteuren ausgeht, in der Entitäten, die ansonsten durch Begriffe wie Wissenschaft, Gesellschaft, Technik und Kultur zum Ausdruck kommen, ständig (um)geformt und neu konsolidiert werden.8 Den Gegenstandsbereich dieser modernen Hybriden zwischen Natur und Kultur fokussiert die sogenannte ›Technowissenschaft‹ (›Technoscience‹).9 Sie entstammt dem Konglomerat aus Natur- und Ingenieurwissenschaften als Resultat der immer stärkeren Ausdifferenzierung der Naturwissenschaften in Teilgebieten, die am Ende des 20. Jahrhunderts in eine unauflösliche Verbindung zwischen Wissenschaft und Technik kulminiert. Durch die Umwandlung von Naturgesetzen in abstrakte Größen im 19. Jahrhundert wird die Technik zur Organisationsform des Ökonomischen, durch ihre Integration in die Mensch-Maschine-Relation der Kybernetik nach 1945 tritt sie in die reproduktive Ökonomie des Lebens ein, indem sie Aspekte des naturwissenschaftlichen Gesetzes, des naturwissenschaftlichen Experiments und der naturwissenschaftlichen Erkenntnis in technologische Momente zur Simulation und Herstel-

7

B. Latour: Wir sind nie modern gewesen, S.13f.

8

M. Callon/B. Latour: Unscrewing the Big Leviathans.

9

B. Latour: Science in Action.

138 | L ENA CHRISTOLOVA

lung von Leben verwandelt. Entstanden in Zeiten, in welchen sich die Kybernetik als Meta-Modell für die Wissenschaften durchsetzt, überschreitet die ›Technowissenschaft‹ das klassische Selbstverständnis der Moderne mit ihrem auf Dichotomien basierenden Denken und zeigt auf die immer durchlässiger werdenden Grenzen zwischen Natur und Kultur, Individuum und Sozius, Maschine und Organismus. Während die Naturreflexion im 19. Jahrhundert hauptsächlich durch das Prisma der naturwissenschaftlichen Methodologie erfolgt, untersucht Latour, der sich in den 1970er Jahren in Laboratorien als zentrale Produktionsstätten von Technowissenschaft begibt, die naturwissenschaftlichen Datensätze mit ethnomethodologischen Verfahren. Wie sich das Verständnis von Natur und Kultur durch die Einsicht verändert, dass die Bedingungen für die Definition von Eigenschaften von Naturobjekten erst im Experiment festgelegt und unter Laborbedingungen künstlich erzeugt werden, demonstriert Latour in seinem Buch Science in Action (1987).10 Weitere Einsichten in das Eigenleben des Experiments und in die Konstituierung von Forschungsobjekten, die die Experimentalbedingungen des sie hervorbringenden Systems widerspiegeln, gewährt das Buch von Ian Hacking Representing and Intervening (1983), das die Realismusdebatte der analytischen Sprachphilosophie auf die Debatte um die Objektivität der Naturwissenschaften und der Ergebnisse ihrer Experimente verlagert. Der moderne Wissenschaftler ist laut Hacking nicht ›homo faber‹, sondern ›homo depictor‹, da seine eigentliche Aufgabe im Finden der geeigneten Repräsentationsformen für die im Labor stattfindende Wissensproduktion besteht,11 wo die Objekte der wissenschaftlichen Erkenntnis vom Experiment hergestellt und von seinen Bedingungen technologisch überformt werden: »To experiment is to create, produce, refine, and stabilize phenomena. If phenomena were plentiful in nature, summer blackberries just for picking, it would be remarkable if experiments didn’t work. But phenomena are hard to

10 B. Latour: Science in Action. 11 I. Hacking: Representing and Intervening, S. 132.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 139

produce in a stable way. That is why I spoke of creating and not merely discovering phenomena.«12

Somit wird das Experiment selbst zu einem nicht-menschlichen Akteur im Sinne der ANT, da die Laborpraxis die Wissensobjekte ihrer natürlichen Umgebung entzieht und neuen phänomenalen Feldern aufpfropft. Auch die Wissensobjekte und die damit verbundenen Ideen bekommen einen neuen Status: Carl Bereiter und Marlene Scardamia vom Ontario Institute for Studies in Education an der University of Toronto, die ein Knowledge-Building-Communities-Modell nach dem Vorbild der wissenschaftlichen Forschungszentren entwickeln, betrachten beispielsweise die Ideen als ›reale Dinge‹: »In knowledge building, ideas are treated as real things, as objects of inquiry and improvement in their own right. Knowledge building environments enable ideas to get in the world and onto a path of continual improvement.«13

Das Wissen und seine Objekte haben die realen Räume der Laboratorien als Wissensstätten verlassen, um in die Räume der Collaborative Virtual Environments sozialer Netzwerke von Wissensexperten und Lernenden Einzug zu halten. Damit wird ein epistemologischer Paradigmenwechsel im Sinne von Thomas S. Kuhn vollzogen,14 in dem nicht nur die Scientific Community neue Rahmenbedingungen für Debatten und wissenschaftlichen Konsens erhält, es werden auch qualitativ neue Muster in der Organisation von Wissen sichtbar. Der folgende Artikel will zeigen, wie sich dieser Paradigmenwechsel in der Wissensproduktion und ihrer Systematisierung bereits in den experimentellen Systemen des ausgehenden 19. Jahrhunderts mit ihrem Anspruch auf soziale Relevanz andeutet. Dort zeichnet sich ein neuer Problemhorizont ab, in dem die Untersuchungsgegenstände nicht von vornherein festgelegt werden, sondern erst im Verlauf der beschriebenen Prozesse ins Zentrum der Aufmerksamkeit rücken,15

12 Ebd., S. 230. 13 M. Scardamalia/C. Bereiter: Knowledge Building, S. 1371. 14 T. Kuhn: Die Struktur wissenschaftlicher Revolutionen. 15 H.-J. Rheinberger: Experimentalsysteme und epistemische Dinge, S. 24ff.

140 | L ENA CHRISTOLOVA

neu zusammengesetzt und provisorisch stabilisiert werden, um durch eine neue Form, einen neuen Code oder ein neues Netzwerk zugänglich gemacht zu werden. Wie durch Aufzeichnung und Reproduktion von Identischem neues Wissen produziert wird und dadurch neue Wissenstechnologien entstehen, soll entlang der Geschichte eines Registrier- und Messgerätes gezeigt werden, das vom Sprach- und Dialektforscher Jean-Pierre Rousselot (1846-1924), bekannt als Abbé Rousselot, als Phonometer eingesetzt wird. Dass die dadurch gewonnenen Wissenschaftsobjekte der Phonetik als einer damals noch zu etablierenden Wissenschaft Parallelen zu den ›Quasi-Objekten‹ Bruno Latours als Wissenschaftsobjekte einer noch zu etablierenden »neuen Soziologie für eine neue Gesellschaft«16 haben, ist kein Zufall: Die Experimentiermethoden Rousselots beeinflussen das Denken von Gabriel Tarde, von dem sich Bruno Latour zu seinen ›Quasi-Objekten‹ inspirieren lässt. Diese Parallelen deuten auf die gemeinsame Genealogie eines Prozesses hin, der die Laboratorien des späten 19. und frühen 20. Jahrhunderts von Orten des naturwissenschaftlichen Experiments zu Orten des gesellschaftlichen Experiments verwandelt. Indem sie statt Hypothesen über die Natur hybride Entwürfe über die Wechselwirkungen zwischen Natur und Kultur produzieren, stellen sie die Grundlage für einen neuen gesellschaftlichen Vertrag her, den Bruno Latour als Entwurf einer neuen politischen Ökologie sieht, in der das öffentliche Leben als Zusammensetzung von Effekten und Wirkungen zwischen menschlichen und nichtmenschlichen Akteuren betrachtet wird.17 Dazu leistet auch der Phonometer des Abbé Rousselot seinen Beitrag, da er zeigt, wie aus einem nicht besonders aufregenden technischen Objekt eine gesellschaftliche Technologie erwachsen kann.

16 So der deutsche Titel von Latours Buch »Reassembling the Social«: B. Latour: Eine neue Soziologie. 17 B. Latour: Das Parlament der Dinge, S. 277.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 141

U NTERSUCHUNGSGEGENSTÄNDE : W ISSENSCHAFTSOBJEKTE UND TECHNOLOGISCHE O BJEKTE Auf dem Hintergrund der fortwährenden Verschmelzung zwischen Wissenschaft und Technik, welche die Frage nach der Grenzziehung zwischen Technik und Technologie aufwirft, untersucht Hans-Jörg Rheinberger die ›nichttriviale Beziehung‹18 zweier Typen von Objekten, die er ›Wissenschaftsobjekte‹ und ›technologische Objekte‹ nennt. Während die ersteren als Objekte von Untersuchungen erst im Experiment konstituiert und gegebenenfalls immer wieder neu definiert und verortet werden können, schreiben die letzteren die Rahmenbedingungen des Experiments vor und bestimmen demzufolge den Repräsentationsraum der Wissenschaftsobjekte.19 Es ist eine wechselseitige Beziehung, in der die Wissenschaftsobjekte oft im Experiment als solche zunächst nur anvisiert werden, jedoch durch eine begriffliche und/oder skopische Stabilisierung zu ›epistemischen Dingen‹ und ›technologischen Objekten‹ durchaus avancieren können. Während ein ›technisches Ding‹ eine klar definierte Funktion bei der Herstellung anderer Dinge hat, sind die ›epistemischen Dinge‹ Erkenntnisgegenstände, an denen oder über die Wissen gewonnen wird.20 Sie hängen vom experimentellen Arrangement ab, von dem sie dazu gebracht werden, bestimmte Seiten ihrer Eigenschaften zu zeigen, ohne dass eine vollständige Repräsentation all dieser Eigenschaften angestrebt wäre.21 Während bei den ›epistemischen Dingen‹ als Wissenschaftsobjekten der konkrete Gegenstand des Experiments oder der Untersuchung im Verlauf des Experiments noch geändert oder neu festgelegt werden kann, handelt es sich bei den ›technologischen Objekten‹ um hinreichend stabilisierte Wissenschaftsobjekte, welche unter gleichen Bedingungen Gleiches produzieren. Werden allerdings die Abläufe des Experiments als ein Zusammenspiel von identischen Vorgängen beim Verlauf und Differenzen bei den Ausgangsbedingungen betrachtet, so ent-

18 H.-J. Rheinberger: Experiment Differenz Schrift, S. 70. 19 Ebd., S. 67-70. 20 H.-J. Rheinberger: Experimentalsysteme und epistemische Dinge, S. 61. 21 Ebd., S. 55f.

142 | L ENA CHRISTOLOVA

ziehen sich die dabei entstandenen Objekte einer ausschließlich verfahrenstechnologisch zu bestimmenden Definition. Aufgrund dieses etwas fragilen Verhältnisses zwischen Definiens und technisch vermitteltem Definiendum verhandeln Bruno Latour und Steve Woolgar (1979) die Wissenschaftsobjekte unter dem Aspekt der grundsätzlichen Möglichkeit der Konstituierung von Realitäten, welche als Epi-Phänomene, als Effekte der materiellen Bedingungen der Experimentiervorrichtungen entstehen und nichtsdestotrotz fortan als reale Objekte gehandhabt werden.22 Die Umformung der Natur in Realabstraktionen und ihre Objektivierung in den Phänomenen des wissenschaftlichen Experiments lässt für sie insbesondere Objekte interessant werden, welche als »die provisorische Realisierung einer buntscheckigen Assemblage«23 entstehen. Dadurch, dass das Ganze nichts mehr als ein Provisorium darstellt, das durch das Umgruppieren seiner Elemente reassembliert werden kann, geraten die festen Umrisse der Dinge ins Wanken und werden von Latour durch den Begriff des Kollektivs ersetzt, das für ihn sowohl die interagierenden Akteure im Rahmen der Akteur-Netzwerk-Theorie als auch die Assemblagen von Eigenschaften der untersuchten ›Objekte‹ einschließt.24 Solchen ›Objekten‹ haftet oft das Daseinsmodus eines neuartigen »realistischen Ganzen«25 an, das »umso individueller, umso reeller [ist], wie es reich an vielfachen und unterschiedlichen Bestimmungen [ist], die im vornhinein unmöglich vorherzusehen und zu formulieren sind«.26 Sie können noch zu sozialen Tatsachen werden, die das Leben einer ganzen Epoche organisieren.

22 B. Latour/S.Woolgar: Laboratory Life, S. 64. 23 B. Latour: Eine neue Soziologie, S. 358. 24 B. Latour: Das Parlament der Dinge, S. 286, Kapitel »Assoziation« und Kapitel »Ding«. 25 Ebd. 26 B. Latour: Eine neue Soziologie, S. 376, Fußnotentext: G. Tarde: La realité sociale, S. 346.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 143

U NTERSUCHUNGSOBJEKTE : D IE Q UASI -O BJEKTE VON B RUNO L ATOUR UND DER E INFLUSS VON G ABRIEL T ARDE In seiner als Reassembling the Social betitelten Kritik (2005) an der Akteur-Netzwerk-Theorie (ANT) als Metarahmen für die Realitäten der modernen Kommunikationstechnologien führt Latour die Aufweichung des Objektbegriffs auf das Denken des französischen Soziologen Gabriel Tarde (1843-1904) zurück, der das Soziale als eine ontologische Passage von Bewegungen in seinem Inneren versteht, welche die Operationen der Vermengungen, Hybridisierungen und Transformationen der Assemblagen von Objekten als Verknüpfungstypen innerhalb von einem Ganzen setzt und dadurch das Soziale in erster Linie zu einem Aggregat von Beziehungen und Relationen macht.27 Die Entitäten und Prozesse, mit welchen Tarde als ehemaliger Leiter eines Statistikinstituts zu tun hat, sind seltener Menschen und Subjekte als Ideen, Innovationen und die Geschwindigkeiten ihrer Verbreitung. Dadurch führt er nicht-menschliche Akteure in die Netzwerke des Sozialen ein und definiert das Wesen des Sozialen als Verbindungsprinzip28 in Analogie zur Frage nach den Verknüpfungsarten zwischen Mikro- und Makroordnung. Da sich Tarde weniger für die methodologische Definierbarkeit des Sozialen in Differenz zum NichtSozialen interessiert, sondern vor allem für die Quantifizierbarkeit statistischer Prozesse und den Einsatz dieser Methode in der Soziologie und der Philosophie, definiert er beispielsweise die Spezifika eines biologischen Typus als »das Integral zahlloser Differenzierungen oder individueller Variationen«.29 Denn »im Herzen der Dinge liegt die Verschiedenheit und nicht die Einheit«,30 »die Differenz ist in gewissem Sinne das Wesen der Dinge«31 und das »Alpha und Omega des Universums«.32

27 B. Latour: Eine neue Soziologie, S. 16f. 28 Vgl. Ebd., S. 31. 29 G. Tarde: Monadologie und Soziologie, S. 23. 30 Ebd., S. 78. 31 Ebd., S. 71. 32 Ebd., S. 72.

144 | L ENA CHRISTOLOVA

Als ein Denker, der die Differenz nicht in Opposition zur Identität setzt, sondern vom Begriffspaar ›Vielheit und Differenz‹ ausgeht, polemisiert Tarde gegen »eine primordiale Identität«, deren Annahme bedeuten würde, »am Ursprung eine äußerst unwahrscheinliche Singularität anzunehmen, eine unmögliche Koinzidenz mehrerer Wesen, die gleichzeitig verschieden und ähnlich wären, oder aber das unerklärliche Mysterium eines einzigen sehr einfachen Wesens, das sich später teilen müsste, ohne dass man wüsste wieso«.33 Anstelle nach Makrostrukturen zu suchen, welche die individuellen Handlungen nach dem Schema ›Teil des Ganzen‹ in einem totalisierenden Sinngebungssystem organisieren würden, interessiert er sich für die Verteilung der Relationen innerhalb des unendlich Kleinen, die sich nach dem Modell der Differentialrechnung aufsummieren lassen: »Diese Auffassung ist, im ganzen genommen, fast das Gegenteil von derjenigen der Verfechter der geradlinigen Entwicklung [...] und von derjenigen Durkheims: anstatt alles durch die vermeintliche Geltung eines Entwicklungsgesetzes zu erklären, das die Gesamterscheinungen zwingen würde, sich zu reproduzieren, sich unverändert in einer bestimmten Ordnung zu wiederholen, anstatt so das Kleine durch das Große, das Einzelne durch das Ganze zu erklären, erkläre ich die Gesamtgleichheit durch die Anhäufung kleiner elementarer Tatsachen, also das Große durch das Kleine. Diese Anschauungsweise soll in der Soziologie dieselbe Umwandlung bewirken, die die Einführung der Infinitesimalrechnung in der Mathematik bewirkt hat.«34

Tarde erklärt sich vor allem gegen die Setzung des Sozialen als eine unendliche Wiederholung evolutionärer oder struktureller Gesetze und bekundet sein Interesse für das Detail, für die kleinen Gesten und Differenzen, aus welchen er die Ähnlichkeiten bei kollektiven Handlungen ableitet, die durch das Aufblitzen ›elementarer Akte‹ und ihr Aufsummieren das Soziale ergeben. Seine Fortsetzung findet Tardes Denken in den 1960er Jahren in der soziologischen Diffusionstheorie mit ihren Kurvenverlaufsbeschreibungen typischer Diffusionsprozesse in

33 G. Tarde: Monadologie et sociologie, S. 73. Zit. nach B. Latour: Eine neue Soziologie, S. 35. 34 G. Tarde: Die sozialen Gesetze, S. 24. Zit. nach ebd., S. 34.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 145

sozialen Systemen, wo – zugespitzt ausgedrückt – die Subjekte sozialer Handlungen in den Kurvendiagrammen verschwinden. Die Szene betreten die quasi-quantitativen oder quali-quantitativen Aggregate, die ›Quasi-Objekte‹ Bruno Latours, welche verwandtschaftliche Beziehungen zur von der Physik abgeleiteten ›neuen Welt der Mannigfaltigkeiten‹ Michel Serres’,35 oder zur politischen Multitude Toni Negris36 aufweisen. Ihr Vermögen (potentia) nach Entfaltung wird durch ihre Materialisation in Körpern gekennzeichnet,37 die Bruno Latour Kompositkörper nennt, da sie wie eine Durchschnittsfotografie (composite photograph) mehr als die Summe ihrer Komponenten darstellen,38 jedoch jederzeit auf ihre ursprünglichen Komponenten zurückführbar sind. Die These Negris vom ontologischen Vermögen der Multitude, sich auf dem Feld der Arbeit, des Sozius und der Politik zu entfalten,39 führt Latour als eine neue Geschichte der ›epistemischen Dinge‹ weiter, die als Akteure in den durch die Forschung entstandenen Netzwerken den Raum der Singularitäten verlassen und diesen der Repräsentationen betreten. Eine besondere Rolle spielen dabei die Forschungsstätten als Orte des Experiments und der Setzung, als Tauschzonen des Wissens.40 Für Latour ist das Labor nicht nur der Ort, in dem die Wissenschaftler die Dinge zum Sprechen bringen,41 sondern auch der Ort, in dem sich die doppelte Macht von Politik und Wissenschaft durch die Wechselwirkung von präskriptiven und normativen Verfahren42 artikuliert. In der Wechselwirkung von Normen und quantifizierbaren Daten entstehen die Quasi-Objekte, die gleichzeitig zu

35 M. Serres: Anfänge, S. 12. 36 T. Negri: Eine ontologische Definition der Multitude. 37 Ebd., S. 113. 38 B. Latour: Tarde’s idea of quantification, S. 4. 39 Vgl. T. Negri: Eine ontologische Definition, S. 121. 40 Vgl. zum Begriff Tauschzone (trading zone) des Wissens: P. Galison: Context and constraints, sowie P. Galison: Image and Logic. 41 B. Latour: Das Parlament der Dinge, S. 94. 42 Ebd., S. 279.

146 | L ENA CHRISTOLOVA

›Produzenten von Naturen und Konstrukteure[n] von Subjekten‹ werden.43 »Alles ist Gesellschaft«, Assemblage, Kollektiv,44 sagt Latour mit Gabriel Tarde,45 Professor für Philosophie am Collège de France, Vorgänger von Henri Bergson und Verehrer der Methoden von Abbé Rousselot,46 der als Begründer der Experimentalphonetik gilt. Neben den medizinischen Abhandlungen von Claude Bernard (1865) und der Psychologie von Pierre Janet (1889) zählen die Principes de Phonétique Expérimentale47 (1897-1908) von Abbé Rousselot zu den wichtigsten Beiträgen zur Entwicklung der Wissenschaften vom Menschen (Sciences de l’Homme) im 19. Jahrhundert in Frankreich, was wohl Gabriel Tarde veranlasst, vom Desiderat einer neuen, ›experimentellen Soziologie‹ nach dem Beispiel von Rousselot zu sprechen.48

43 B.Latour: Wir sind nie modern gewesen, S. 148f. 44 Vgl. B. Latour: Eine neue Soziologie, S.12. 45 G. Tarde: Monadologie et sociologie, S. 51. 46 G. Tarde: Le lois sociales, S. 65f. 47 J.-P. Rousselot: Principes de phonétique expérimentale. 48 Vgl. G. Tarde: Le lois sociales, S. 63, FN 2: »Si l’on veut faire de la sociologique une science vraiment experimentale et lui imprimer le plus profon cachet de precision, il faut, je crois, par la collaboration d’un grand number d’observateurs dévoués, généraliser la méthode de l’abbé Rousselot en ce qu’elle a d’essentiel. Supposez que vingt, trente, cinquante sociologiques, nés en de régions différentes de la France ou d’autres pays, rédigent, chacun à part, avec le plus de soin et de minute possible, la série des petites transformations d’ordre politique, d’ordre économique, etc. […] – supposez qu’ils fassent des efforts, comme le linguiste distingué plus haut, pour remonter à la source individuelle des petites diminutions, ou augmentations, ou transformations, d’idees et de tendances, qui sont propagées de là dans un certaine groupe de gens et qui se traduisent par d’imperceptibles changements dans le langage, dans les gestes, dans la toilette, dans les habitudes quelconques […] et vous verrez que l’ensemble de monographs pareilles, éminemment instructives, ne pouraiient manquer de se dégager le plus importantes vérites, le plus utiles à connâitre non seulement pour le sociologue mais pour l’homme d’Etat.«

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 147

Nach der Konsolidierung der Experimentalphonetik als Disziplin durch Rousselots Forschung werden die um die Jahrhundertwende49 in ganz Europa gegründeten Phonetischen Laboratorien zur wichtigsten Schnittstelle zwischen den Wissenschaften vom Menschen, Sprache und Kommunikationstechnologien, so dass die Geschichte des Phonetikers und Dialektforschers Jean-Pierre (Abbé) Rousselot, der insbesondere durch seinen Phonometer Ruhm als Forscher erlangt, als ein Beitrag zur Beantwortung der Frage betrachtet werden kann, wie aus den Wissenschaftsobjekten einer damals noch nicht etablierten Disziplin die Quasi-Objekte der Akteur-Netzwerk-Theorie der modernen Kommunikationsgesellschaft entstehen konnten.

O BJEKT DER U NTERSUCHUNG : D IE E XPERIMENTALPHONETIK UND IHRE V ERQUICKUNGEN MIT DER P HYSIOLOGIE Dank neuer physiologischer Erkenntnisse und des gezielten Einsatzes von Registrier- und Messgeräten, welche diese Erkenntnisse einleiten oder empirisch bestätigen, entwickelt sich die Experimentalphonetik nach 1870 rasant als wissenschaftliche Disziplin. Neben den Messungen der Variationen in der Zeit verschiedener physiologischer Abläufe wie Puls, Herzschlag etc., die aus der Physiologie bekannt waren, übernehmen diese Geräte nun die Registrierung der Bewegungen von Teilen des artikulatorischen Apparates des Menschen bei der Produktion von Sprachlauten. Eine Zentralrolle spielt dabei der Kymographion (Wellenschreiber) des deutschen Physiologen Carl Ludwig, der 1847 sein Gerät als Modifikation des Spenglerschen Apparates zur

49 Am Anfang reist Rousselot mit seinem mobilen phonetischen Labor um die Welt: 1891 nach Angoumois, 1892 nach Berlin, 1893-4-5 nach Greifswald, 1895 nach Rennes und London, 1897-98 nach Marburg, 1903 nach Königsberg. 1897 wird offiziell ein Labor für Experimentalphonetik am Lehrstuhl für Vergleichende Grammatik am Collège de France errichtet. Ähnliche Labors werden unter der Anleitung von Rousselot anschließend in Nevers, Chio, Nancy und Chicago gebaut.

148 | L ENA CHRISTOLOVA

Bestimmung des seitlichen Arteriendrucks bezeichnet.50 Unter der Zuhilfenahme eines Manometers, der den Druck misst, und eines stabförmigen Schwimmkörpers auf der freien Quecksilbersäule, an dessen Ende eine Feder befestigt ist, werden die Höhe des Blutdrucks und die Zeitintervalle seiner Schwankungen auf einer gleichmäßig bewegten Trommel als Kurvenbewegungen der Feder aufgezeichnet. Ursprünglich im 18. Jahrhundert als ein Gerät zur Messung von Temperaturschwankungen erfunden, liefert der Kymographion die Grundlage für die Messgeräte der deskriptiven und medizinischen Physiologie, wie etwa für den Myographion von Helmholtz, das ein Gerät zur Registrierung von Muskelkontraktionen war, oder den Pulsschreiber von Vierordt. Die Erkenntnis, dass man die Gesetze der Physik zur Beschreibung und Erforschung von »vitalen« Funktionen einsetzen kann, bringt den französischen Wissenschaftler und Forscher Étienne-Jules Marey auf die Idee, eine Reihe von Geräten nach dem Prinzip des Kymographions zu entwickeln, die er in seinem Vorlesungszyklus Du mouvement dans les fonctions de la vie 1868 präsentierte. Obwohl Marey keineswegs der Originalerfinder all dieser Geräte ist, die Kardiograph, Pneumograph, Thermograph, Polygraph hießen und bereits durch den Namen ihre Funktion als Aufzeichnungsgeräte für bestimmte physiologische oder thermodynamische Prozesse verrieten, nutzt er sie als technologische Objekte, um seine wissenschaftlichen Hypothesen zu verifizieren oder physiologische Prozesse, wie beispielsweise den Blutkreislauf bei Vögeln, zu simulieren. Andere Geräte wie der Odograph, der zur Messung von Gerüchen dienen sollte, können nicht als ernstzunehmende technische Objekte bezeichnet werden, stehen aber für den Traum des ausgehenden 19. Jahrhunderts, die Aufzeichnungsgeräte als Übersetzungsinstanzen für die Gleichheiten und Unterschiede abstrakter Größen und Qualitäten einzusetzen. Dieser Traum von der Quantifizierbarkeit der Daten qualitativer Größen und Entitäten, der damals insbesondere die Psychologie und die Philoso-

50 C. Ludwig: Beiträge zur Kenntnis des Einflusses der Respirationsbewegungen auf den Blutlauf im Aortensystem, S. 244. Zit. nach S. de Chadarevian: Die ›Methode der Kurven‹ in der Physiologie zwischen 1850 und 1900, S. 28.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 149

phie beseelte, schwebt wohl auch Gabriel Tarde vor, der in einer wissenschaftlichen Abhandlung über die sozialen Gesetze in einem Atemzug den Phonometer von Abbé Rousselot und – in Hinblick auf die Zukunft – ein Messgerät zur Messung der Reputation (Gloriometer) erwähnt.51 Möglicherweise nutzt Marey die Simulationen von physiologischen Vorgängen, um die ›blutige Methode‹52 der damals in der Physiologie und der Medizin üblichen Vivisektion zu umgehen. Durch seine Experimente in vitro revolutioniert er aber auch die experimentelle Kultur seiner Zeit. Abbildung 1: Étienne-Jules Marey: Hydraulische Recherchen über den Blutkreislauf von Vögeln und ihre grafischen Aufzeichnungen (1857)

Quelle: B. Teston: L’Œuvre d’Étienne-Jules Marey, S. 243.

R EPRÄSENTATIONEN : E INE NEUE M ETHODE UND IHRE AUFZEICHNUNGSGERÄTE Zweifelsfrei erlangt Marey, der 1869 den Lehrstuhl für Histoire naturelle des corps organisés am Collège de France übernimmt, einen ho-

51 G. Tarde: Les lois sociales, S. 63, FN 2. 52 É.-J. Marey: La station physiologique de Paris, S. 227.

150 | L ENA C HRISTOLOVA

hen Respekt, ja Berühmtheit, vor allem durch seine ›grafische Methode‹, die er in seinem Buch La méthode graphique dans les sciences expérimentales (1878) als eine universale Sprache präsentiert.53 Ihren systematischen Zusammenhang mit anderen Notationssystemen sieht er in der musikalischen Notation des Guido von Arezzo (992-1050) und in der analytischen Geometrie, die zur Organisation und zur Visualisierung der akustischen Phänomene, auf welchen die Sprache basiert, beigetragen hätten.54 Sie eröffnet den Raum der Schrift als einen neuen Repräsentationsraum für das Experiment, kann aber anderseits als Produkt seiner Experimentiermethoden betrachtet werden. Für ihre konkrete Realisation entwickelt er mit der Hilfe des Meisters für Präzisionsinstrumente Antoine-Louis Bréguet, dessen begabtester Mitarbeiter Charles Verdin ab 1873 für ihn arbeiten und fast alle Prototypen seiner Wissenschaftsinstrumente entwerfen wird, besonders präzise arbeitenden Trommeln nach dem Prinzip des Manometers, an welchen horizontale Schreibstäbe befestigt waren. Die Stäbe schrieben die aufgefangenen Bewegungen auf ein durch Rauch geschwärztes Papier, ihre horizontale Lage sorgte für die Linearität der Aufzeichnung, was den visuellen Konventionen der Schriftsprache entsprach und die Lesbarkeit erleichterte. Abbildung 2: Étienne-Jules Marey: Schreibtrommel (1878)

Quelle: B. Teston: L’Œuvre d’Étienne-Jules Marey, S. 244.

53 É.-J. Marey: La méthode graphique. 54 É.-J. Marey: Du mouvement dans les fonctions de la vie, S. 93.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 151

Auf die Frage, ob Marey durch seine universal einsetzbare grafische Methode tatsächlich eine universale Sprache entwickelt hat, wird etwas später geantwortet. Der Universalanspruch seiner Methode und ihrer Realisierbarkeit kommen vor allem durch seine wissenschaftlichen Instrumente zum Ausdruck, z.B. durch den zusammen mit Verdin entworfenen Polygraph, der als vielseitig anwendbare Aufzeichnungsmaschine erfolgreich vermarktet und in unterschiedlichsten Fällen eingesetzt wird. Abbildung 3: Polygraphe enregistreur (1880)

Quelle: B. Teston: L’Œuvre d’Étienne-Jules Marey, S. 245.

Marey gelingt es auf jeden Fall, eine wissenschaftliche Methode zur Registrierung von Bewegungen und die dazu notwendigen Settings zu entwickeln. Ebenso erfolgreich ist er beim Vermarkten seiner Geräte als universale Aufzeichnungsmaschinen, wovon ein kommerzieller Katalog zeugt, der 1884 dreisprachig erscheint. Die Standardisierung der Inskriptionen der ablaufenden Aufzeichnungsprozesse und die Kontrolle der Geräte werden ab 1902 durch das Institut Marey gesichert, das auch mit der Kalibrierung der nach seinen Prototypen hergestellten Registrier- und Messinstrumenten beauftragt ist. Marey hat bereits 1900 eine Commission Internationale de contrôle des instruments et d’unification des méthodes gegründet, die für alle mit diesen Instrumenten ausgestatteten Laboratorien zuständig war. Die Beweggründe für die allumfassende Standardisierung und Kontrolle waren allerdings nicht nur kommerzieller Natur. Eigen-

152 | L ENA CHRISTOLOVA

schwingungen der Messinstrumente und verschiedene Drehzahlen in den Geschwindigkeiten der Drehtrommeln und -zylinder verfälschten oft die Ergebnisse. In einem Bericht vor der Französischen Akademie der Wissenschaften von 1898 führt Marey die Schwierigkeiten bei der Umsetzung seines Vorhabens aufgrund unklarer Aufzeichnungsparameter an: »Bei ihrem Erscheinen versprachen die selbstschreibenden Geräte der Physiologie den authentischen Ausdruck der Phänomene selbst zu liefern. Unglücklicherweise jedoch waren die Dinge nicht so einfach. Man merkte bald, dass dieselben Phänomene durch verschiedene Geräte inskribiert, verschiedene Kurven lieferten.«55

Neben der Gewährleistung der Kontrolle über die Geräte sorgt Marey noch für die Berücksichtigung der Abweichungskoeffizienten bei der Eintragung der Messungen in das Protokoll des Experiments. Außerdem vereinheitlicht er die Eintragungsmodalitäten der Graphen, die nun in dasselbe Quadrat des Messungsprotokolls56 aufgezeichnet werden sollen. Diese Maßnahmen stabilisieren zwar die grafische Methode als zuverlässiges Aufzeichnungsverfahren, geben ihr aber nicht den Status einer Universalsprache. Wo die Differenzen zwischen Aufzeichnung, Notation und Sprache liegen, zeigt die Erfahrung eines anderen Experimentators, Thomas Alva Edison, der zu den Vätern der Aufzeichnungs- und Speichermedien gehört.

I NSKRIPTIONEN : AUFZEICHNUNGEN UND IHRE ZWISCHENMEDIALEN Ü BERSETZUNGEN Die Geschichte der Kommunikationstechnologien des 19. Jahrhunderts ist durchdrungen von den wechselseitigen Verflechtungen zwischen Tonaufzeichnungen und ihrer Wiedergabe sowie von Visualisierungsversuchen gesprochener Sprache: Morse nutzt bei der Erfindung

55 É.-J. Marey: Mesures à prendre pour l’uniformisation des methods, S. 376. Zit nach: S. de Chadarevian: Die Methode der Kurven, S. 43. 56 Vgl. S. de Chadarevian: Die Methode der Kurven, S. 44.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 153

seines Alphabets, das eine entscheidende Rolle für die Funktionstüchtigkeit des von ihm patentierten Telegrafs (1844) spielt, Kenntnisse über die numerischen Eigenschaften von Zahlen, die er sich aus der Stenographie und Kryptographie angeeignet hat. Der Erfinder des Telefons (1876) Bell kommt aus der Taubstummenpädagogik, wo er sich mit der Vermittlung von gesprochener Sprache auf nicht-akustischem Wege beschäftigt hat. Er erfindet ein ikonisches Transkriptionssystem auf der Basis des bahnbrechenden Werkes seines Vaters Visible Speech (1867), das bis dato von vielen Wissenschaftlern als Standardwerk der Phonetik gelesen wird. Edison perfektioniert seinen Phonograph zu tonreproduzierender Maschine 1888, nachdem er sich mit dem Morse’schen Alphabet auseinandergesetzte hat, obwohl er die potentiellen Erweiterungsmöglichkeiten des Phonographen in dem Artikel Phonograph and its Future in der North American Review bereits 1878 geschildert hat.57 Es stellt sich vor die Forscher zunehmend die Frage, ob nicht die Sprache von einem Forschungsgegenstand zu einem ›technologischen‹ Gegenstand avanciert, und wenn ja, welche Form von Sprache. Wenn Mareys Idee darin besteht, gesprochene Sprache in Graphen zu übersetzen, so trachtet Edison danach, den Graphen ihren Klang zurückzugeben, sie in gesprochene Sprache zurückzuverwandeln. Dies will längere Zeit nicht gelingen, bis er in einem ganz anderen Kontext mit den Zeichen des Morse’schen Alphabets zu tun bekommt und dabei die Möglichkeit der Reproduktion von aufgezeichneten Tönen entdeckt: »My own discovery that this could be done came to me almost accidentally while I was busy with experiments having a different object in view. I was engaged upon a machine intended to repeat Morse characters, which were recorded on paper by indentations that transferred their message to another circuit automatically, when passed under a tracing-point connected with a circuitclosing apparatus. In manipulating this machine I found that when the cylinder carrying the indented paper was turned with great swiftness, it gave off a

57 T.A. Edison: The Perfected Phonograph, S. 4.

154 | L ENA CHRISTOLOVA

humming noise from the indentations – a musical, rhythmic sound resembling that of human talk heard indistinctly.«58

Auch wenn die Entdeckung Edisons dem Zufall und den konkreten Bedingungen eines anderen Experiments zu verdanken ist, entsprechen sein Dispositiv und die Funktionsprinzipien der Apparatur konkreten physikalischen Gesetzen, deren Bedeutung er folgendermaßen beschreibt: »In the phonograph we find an illustration of the truth that human speech is governed by the laws of number, harmony, and rhythm. And by means of these laws, we are now able to register all sorts of sound and all articulate utterance – even to the lightest shades and vibrations of the voice – in lines and dots which are absolutely equivalent for the emission of sound by the lips, so that, through this contrivance, we can cause these lines and dots to give forth again the sound of the voice, of music, and all other sounds recorded by them, whether audible or unaudible.«59

Was Edison in seinem Bericht nicht preisgibt, da er hauptsächlich die technische Beschreibung der notwendigen Vorrichtungen zur Aufnahme und Reproduktion von akustischen Signalen vor Augen hat, wird an anderer Stelle von seinem Patentanwalt Frank L. Dyer erzählt: Im Zuge der Debatten um die Kopier- und Schutzrechte von Audioaufnahmen 1906 und 1908 in den USA argumentieren Edison und seine Anwälte, dass Audioaufzeichnungen nicht im herkömmlichen Sinne lesbar sind und daher nicht als Kopien eines Werkes betrachtet werden können. Der Beweis dafür stammt aus einem Laborexperiment Edisons. Er soll versucht haben, auf für das Ziel vorgefertigten Aufnahmen des Vokals a die Graphen zu identifizieren, die dem Ton entsprechen, der im Alphabet mit dem Buchstaben a bezeichnet wird. Zu diesem Zweck studiert er anhand von einem Mikroskop identische Einkerbungen und meint nach zwei-drei Tagen konzentrierter Arbeit, er hätte die dem a zuzuordnenden Einkerbungen gefunden. Nachdem er allerdings die ersten Einkerbungen mit diesen der Aufzeichnung ei-

58 Ebd., S. 5. 59 Ebd., S. 4.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 155

nes anderen Sprechers vergleicht, kommt er zum niederschmetternden Ergebnis, dass es keinerlei Entsprechungen zwischen den Mustern beider Aufzeichnungen gibt. Da das Aufgezeichnete nicht im herkömmlichen Sinne verständlich und lesbar ist, kann es weder als Schrift noch als Sprache bezeichnet werden.60 Diese Anekdote zeigt, dass beide grafische Systeme, die Schrift und die grafische Methode, unterschiedliche Ordnungen der Signifikation aufweisen. Während die Schrift ein kodifiziertes System darstellt, reagiert die grafische Aufzeichnung auf die individuellen Modalitäten der Aussprache der Probanden, die im Notationssystem des Alphabets nicht berücksichtigt werden können. Anderseits ermöglicht die Kenntnis des Notationsprinzips des Alphabets Bedeutungszuweisungen, was bei der grafischen Aufzeichnung von Tönen und Geräuschen nicht möglich ist, da sie der Iterativität regelmäßiger Muster entbehrt, welchen eine semantische Bedeutung zugeordnet werden kann. Das misslungene Experiment von Edison deutet auf die Notwendigkeit einer analytischen Methode hin, die ein Konzept von Sprache entwirft, das zwar die akustischen Qualitäten der Laute berücksichtigt, jedoch nicht ausschließlich auf der aufgezeichneten Spur und ihrer akustischen RePhänomenalisierung beruht. Diese Aufgabe übernimmt die experimentelle Phonetik, die sich damals als eine eigenständige Disziplin mit eigenen Methoden zu etablieren sucht und mit dem Problem des Fehlens eines eigenen Notationssystems zu kämpfen hat.

E INE

NEUE

D ISZIPLIN

UND IHRE

O BJEKTE

Den Auftakt zur experimentellen Phase der Phonetik gibt das Jahr 1874: Eine Delegation der neugegründeten Gesellschaft für Sprachwissenschaft (Société de Linguistique de Paris) unter der Leitung von Louis Havet sucht Étienne-Jules Marey auf, um sich zu informieren, ob seine grafische Methode auch auf solche komplexe und flüchtige Bewegungen anwendbar wäre wie die Produktion der gesprochen Sprache (parole). Die Wissenschaftler gehören zur Gruppe der Junggrammatiker. Deren Hauptziel ist es, taxonomische Regeln für die

60 T.Y. Levin: ›Tones from out of Nowhere‹, S. 52.

156 | L ENA C HRISTOLOVA

synchrone und diachrone Entwicklung der Sprache als Ganzes, sowie für einzelne Sprachen und ihre Dialekte, festzulegen. Sie erhoffen sich durch das Studium von dialektalen Unterschieden Einsichten in die Mechanismen der Diversifikation von europäischen und nicht-europäischen Sprachen zu bekommen, von deren gemeinsamen Ursprung sie überzeugt sind. Die Antwort Mareys ist positiv: Zusammen mit seinem LaborMitarbeiter Charles Rosapelly, der u.a. an musikalischen und akustischen Notationen arbeitet, entwickelt er drei pneumatische Trommeln, welche die Vibrationen der Larynx, die Bewegungen der Lippen und den Druck in den Nasenhöhlen registrieren, und montiert sie an den von ihm als universale Aufzeichnungsmaschine bereits realisierten Polygraph. Abbildung 4: Charles Rosapelly: Rekonstruktion des Experiments von Havet

Quelle: B. Teston: L’Œuvre d’Étienne-Jules Marey, S. 253.

Havet, der die Artikulation des Vokals a nach labialen Konsonanten im Hindi und im Französischen untersucht und dadurch das für Hindi typische Yama-Phänomen auch in den europäischen Sprachen entdeckt, bekommt durch das Experiment eine Bestätigung der These der Junggrammatiker von dem gemeinsamen indo-europäischen Ursprung

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 157

beider Sprachfamilien.61 Sowohl sein Bericht als auch der Bericht von Rosapelly, der sich mit den Einschreibungsbewegungen der phonetischen Elemente62 beschäftigt, ordnen die durchgeführten Experimente dem Forschungsfeld der Physiologie zu, die ja die grafische Methode und das Experimentalsystem zur Verfügung gestellt hat. Auch Abbé Rousselot, der 1885 auf Vermittlung von Charles Verdin in das Physiologische Labor von Marey kam, sucht wie Louis Havet ausschließlich Antworten auf die phonetischen Probleme, an welchen er gerade arbeitet. Er ist damals mit den Dialekten seiner Heimat (Südwestfrankreich) beschäftigt, wessen Studium das Thema seiner Doktorthese ergibt, die er 1891 erfolgreich an der Sorbonne verteidigt.63 Ausgehend von dem Verständnis von gesprochener Sprache (parole) als Produktion von Lauten, die alle ihre individuellen und dialektalen Nuancen haben, will Rousselot durch die grafische Methode Aufschluss über die historische Entwicklung der französischen Sprache bekommen, um die These von den Besonderheiten einer lingua franca, einer Sprache im allgemeinen, zu verifizieren. Deshalb sucht er 1885 vor allem nach technischen Möglichkeiten, um einen Korpus von Lauten akkurat zu registrieren. 1897 kommt es zur Gründung eines eigenen Labors für Experimentelle Phonetik, bereits früher aber werden Berichte über quantitative Untersuchungen über die Dauer der Artikulation eines Wortes in Abhängigkeit von seiner Position innerhalb von einer Phrase veröffentlicht, die auf der Basis des ›Appareil de Rousselot‹ durchgeführt worden sind.64 Rousselot veranlasst wichtige Änderungen an den Apparaten von Marey, deren Trommeln fortan elektrisch betrieben werden. Außerdem wird – um auch die subtilsten Schwingungen und Feinheiten in der Aussprache der Probanden aufzufangen – direkt auf den Trommeln geschrieben. Zur Verstärkung der Schwingungen wird noch ein Mikrophon eingesetzt. Es stellt sich heraus, dass zur Artikulation der

61 L. Havet: Sur la nature physiologique des nasals. 62 C.L. Rosapelly: Essais d’inscription des mouvements phonétiques. 63 J.-P. Rousselot: Les modifications phonétiques du langage. 64 Vgl. beispielsweise den Bericht von A. Binet und V. Henri: Les actions d’arrêt dans les phénomenes de la parole.

158 | L ENA CHRISTOLOVA

Laute zwei Atemzüge notwendig sind – einen, der die Artikulation einleitet, und einen, in dem sie »arretiert« wird. Da die Dauer des ersten nicht abrupt unterbrochen wird, setzen sich die Intervalle zwischen beiden Atemzügen in dem Rhythmus der Phrase fort, so dass das für die Aussprache des ersten und letzten Gliedes einer Serie eine länger anhaltende Zeitsequenz benötigt wird als für die Serie ermittelte Durchschnittsdauer. Daraus erwächst die Frage nach der Position der Artikulationsorte bei der Produktion von Lauten und ihrer grafischen Inskription. Zu diesem Zweck fügt Rousselot den drei Schwingungsamplituden von Rosapelly und Havet (vgl. Abbildung 4) noch zwei hinzu: die Bewegungen jeder Lippe wurden einzeln registriert, außerdem werden die Bewegungen der Larynx in Koordination mit der Nackenmuskulatur aufgezeichnet, um auch die Anspannung der gutturalen Muskulatur zu registrieren. Dadurch wurden in den Graphen nicht nur die Artikulationsbewegungen, sondern auch die Artikulationsorte des Sprechapparats »lesbar«. Dank des Phonographs und seiner Aufzeichnungszylinder kann Rousselot das bereits bekannte Verfahren der Palatographie, das zur Ermittlung der Artikulationsorte von Lauten entwickelt wurde, präzisieren und für seine Forschungen fruchtbar machen. Das Verfahren etabliert 1879 der New Yorker Zahnarzt Norman Willis Kingsley, der durch weiche Prothesen, die er an den Gaumen seiner Patienten anbrachte, die Artikulationsorte einiger Laute bestimmte. Die Idee ist nicht ganz neu: Bereits der Großvater von Charles Darwin, Erasmus Darwin, beschreibt in seinem Buch The Temple of Nature (1803), wie er zum selben Zweck in den Mund seiner Probanden Zylinder mit weichen Oberflächen einführt und die Abdrücke auswertet.65 Ein anderer Zahnarzt aus London, James Oakley Coles (1845-1906), polstert die Mundhöhle der Probanden mit einer Mischung aus Kautschuk und Mehl und überträgt die Ergebnisse auf vorgefertigte Modelle.

65 E. Darwin: The Temple of Nature or the Origin of Society.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 159

Abbildung 5: James Oakley Coles: Palatogramme

Quelle: G. Panconcelli-Calzia: Quellenatlas zur Geschichte der Phonetik, S. 55.

Nun gehört zu den Aufgaben der experimentellen Phonetik neben der Aufzeichnung von Sprachlauten auch die Untersuchung ihrer Artikulationsorte unter Einbeziehung der Erkenntnisse der Palatologie. Die Untersuchung der Artikulationsorte der Laute legt die Ursachen für die voneinander differierende Lautproduktion für dasselbe schriftliche Zeichen in den untersuchten Sprach- oder Dialektgruppen frei. Sie trägt außerdem zur Systematisierung der Laute, die durch die Position ihrer Artikulationsorgane durch einen höheren oder weniger ausgeprägten Grad an Nasalität, Palatalität oder Sonorität gekennzeichnet sind. Dank des inzwischen ihm zugeschriebenen Phonometers (Abbildung 6) gewinnt Abbé Rousselot bei der Herstellung seiner Palatogramme nicht nur Abdrücke, sondern auch kontinuierliche Graphen, die von der damaligen Fachpresse mit Hieroglyphen verglichen werden. Dementsprechend wird Rousselot als Entdecker einer neuen »Sprache« zum Nachfolger von François Champollion erklärt.66

66 B. François: L’inscription de la parole.

160 | L ENA C HRISTOLOVA

Abbildung 6: Jean-Pierre Rousselot: L’enregistreur de mots

Quelle: Bruno François: L’inscription de la parole, S. 97.

Auch wenn der Phonometer fälschlicherweise von der Presse als Aufzeichnungsgerät für Wörter (L’enregistreur de mots) präsentiert wird,67 hat dies eine gewisse Berechtigung: Inzwischen kann Rousselot aufgrund der durchgeführten Messungen in Echtzeit nicht nur die genaue nichtstatische Bestimmung der Artikulationsorte im Redefluss aufzeichnen, sondern auch quantitative Daten über mögliche Abweichungen gewinnen. Dadurch nähert er sich einigermaßen dem Desiderat der Aufzeichnung von Wörtern. Obwohl die Bewegung der Prosodie, der Musikalität der Phrase, in den grafischen Aufzeichnungen kaum aufzufangen ist, strebt er die Standardisierung seiner Phonogramme an, um ihre Lesbarkeit zu erleichtern. Es werden Gruppen von Positionen von Lauten deduziert, die das Entziffern von fehlenden Gliedern aufgrund von schlechter Aussprache oder Aufzeichnungsmängeln möglich machen. Bei einfachen Phrasen, an deren Ausformung nicht allzu viele Regionen des Artikulationsapparats beteiligt sind, gelingt Rousselot sogar das, was Edison versagt blieb: die Dechiffrierung von Mustern grafischer Aufzeichnungen menschlicher Stimme, die sinnvolle Sätze oder Phrasen vorspricht, sowie die Identifizierung dieser Muster aufgrund ihrer ikonischen Qualitäten. Da sie

67 B. François: L’inscription de la parole.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 161

zusätzlich eine semantische Bedeutung transportieren, kann man sie sogar als Notationen eines »Alphabets« gelten lassen. Eine Montage von Ausschnitten aus Originalaufzeichnungen der Phrase »ma pauvre femme« (Abbildung 7) zeigt die von den Vibrationen der Larynx (oben) und den Bewegungen der Lippen (unten) gebildeten Muster, die aufgrund von ihren Amplituden und ihrem Wiedererkennungswert für die Sachkundigen als »ma pauvre femme« lesbar werden. Der Informationswert der Sprache (valeur) wird durch die Form bestimmt, die wiederum durch die Bewegungen des Kehlkopfs und der Lippen repräsentiert wird. Abbildung 7: Montage von Aufzeichnungen der Phrase »ma pauvre femme«

Quelle: B. Teston: L’Œuvre d’Étienne-Jules Marey, S. 255.

Die Unbestrittenheit dieser Ergebnisse wird zwar 1898 von Ernst Meyer, der durch seine Silbenforschung neue Erkenntnisse über die Prosodie und ihre suprasegmentale Ebene gewonnen hat, angezweifelt,68 trotzdem etabliert sich Rousselot weltweit als Sprachforscher und Erfinder von Geräten wie Sprachwellenzeichner und Stimmwellenzeichner, die 1922 auf der Verkaufsliste der Fabrik für wissenschaftliche Apparate E. Zimmermann Berlin und Leipzig stehen.69

68 E.A. Meyer: Die Silbe. 69 Fabrik Wissenschaftliche Apparate E. Zimmermann: Liste 40 über akustische und phonetische Instrumente.

162 | L ENA C HRISTOLOVA

Abbildung 8: Stimmwellenzeichner nach Rousselot

Quelle: Wissenschaftliche Apparate E. Zimmermann, Nr. 1508, S. 15.

Rousselot selbst betrachtet sich als Mann des Experiments. Das einfache Registrieren und Sichtbarmachen der akustischen Erscheinungen, ohne in das Experiment und in seine Versuchsanordnungen zu intervenieren, bezeichnet er als wissenschaftliche Berichterstattung über Naturphänomene. Durch die Analyse der Messungen, durch das Sezieren ihrer Spuren und die Synthese der Ergebnisse oder ihre Neuordnung, die zu neuen Entitäten führt, bewegt er sich souverän auf dem Gebiet des Experiments, das neue wissenschaftliche Phänomene an den Tag legt. Er erschafft neue Wissenschaftsobjekte und leitet die Geburt neuer wissenschaftlicher Disziplinen ein: »Sans doute, si je me borne à inscrire la parole avec un phonographe en vue de la reproduire pour l’écouter, ou même, si l’on veut, les mouvements phonateurs uniquiement pour les rendre plus visible, je ne sors pas du domaine de l’observation. Mais, si je me propose d’analyser les tracés du phonographe, opération qui exige soit des instruments de mesure directe, soit la transformation des tracés en courbes et de longs calculs, ou bien si je cherche à établir les rapports qui existent entre l’articulation et le son, de manière à saisir, le lien constant qui relie la cause et l’effet, ne suis-je plus qu’un simple observateur? Si, sans modifier en soif l’acte de la parole, je m’ingénie, par un artifice d’expérimentateur, à diriger vers des inscripteurs différents le courant d’air nasal et le souffle buccal, les obligeant à s’analyser eux- mêmes, et, si prenant en dérivation deux portions de ces courants d’air, je les associe de nouveau de fa-

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 163

çon à restituer le son normals par la synthèse et à l’inscrire sous cette forme, est- ce que je n’opère par sur le son comme l’opticien sur la lumière? est- ce que je mérite moins qui lui le nom d’expérimentateur?«70

In der Trennung der Aufgabenbereiche der Phonetik in Instrumentalphonetik und Experimentalphonetik durch Rousselot71 zeichnet sich eine Tendenz ab, die 1927 durch das offizielle Entstehen einer neuen Disziplin, der Phonologie, gekrönt wird. Während die Phonetik als eine Wissenschaft der gesprochenen Sprache (parole) eine epistemologische Vorgehensweise an den Tag legt und nach Konvergenzen mit anderen wissenschaftlichen Disziplinen und Theorien strebt, geht die Phonologie als eine Wissenschaft der kodifizierten Sprache (langue) eher taxonomisch vor und sorgt für die Uniformität der Klassifikationen der Sprachlaute und ihre einheitliche Transkription. Setzt die Phonetik auf die Materialität und die Diversität der gesprochenen Sprache, so konsolidiert die Phonologie ein davon abgeleitetes System, indem sie die Differenz zwischen ihren Varianten operationalisiert. Vor Rousselots Experimenten geht seine zeitgenössische Linguistik von dem Konzept der Junggrammatiker aus, dass es nicht die Sprache per se, sondern nur unzählige Varianten davon gibt, die jeweils mit ihren Eigenheiten ausgestattet sind. Durch das Studium dieser Varianten und ihrer Veränderungen als Ergebnis innerer Gesetzmäßigkeiten und externer Einflüsse gelingt Rousselot die Normsetzung einer realiter nicht vorhandenen Ideal(aus)sprache, die erst durch das Aufsummieren der Differenzen der individuellen und dialektal bedingten Nuancen die Etablierung einer Norm möglich macht. Diese Norm ermöglicht das Konstrukt des Systems der schriftlich fixierten Sprache (langue), das als Folge der Dialektforschung von Rousselot betrachtet werden kann. Durch die Etablierung des Sprachsystems als Norm lassen sich die Differenzen zwischen den Varianten nachträglich als Abweichungen bestimmen. In Hinsicht auf die historische Entwicklung der Sprache(n) bekommt dadurch die Auffassung der Junggrammatiker vom Substrat der Sprache als einer uniformen Substanz, die durch

70 J.-P. Rousselot: Phonétique Experimentale, S. 3. 71 Ebd., S. 1.

164 | L ENA CHRISTOLOVA

ihre historische Entwicklung ›deformiert‹ und dadurch neu geformt wird, eine Bestätigung, was zu einer weiteren Differenzierung des Sprachsystems führt: Neben den Begriffen der langue und der parole wird der Begriff der langage etabliert, der die konkrete Sprache als Untersuchungsgegenstand, als Objekt des phonologischen Experiments definiert, das durch das Experiment eine neue, physikalische Dimension gewinnt.

F AZIT Auch wenn Rousselot nicht nur die disziplinäre Identität von Linguistik und Experimentalphonetik, sondern auch die Einflüsse der Linguistik als »Mutterdisziplin« abstreitet, zeitigt seine Forschung Konsequenzen, die die Fluchtlinien der historischen Entwicklung der Sprache und der künftigen Entwicklung der Linguistik als Meisterdisziplin des 20. Jahrhunderts72 besetzen. Durch den Begriff der langage und ihrer Formbarkeit wird der linearen Entwicklung der phonetischen Evolution eine neue historische Dimension hinzugefügt, die Ferdinand de Saussure, der als Vater der modernen Linguistik gilt, als diachron bezeichnen wird. In seinem auf phonologischen Differenzen basierenden System der Sprache steht diachron in Opposition zum Begriff des Synchronen, das sich erstmalig in einer Schrift von Rousselot findet.73 Ob Rousselot deswegen zum Vater der modernen Linguistik erklärt werden soll, sei dahingestellt. Was zählt, ist die Tatsache, dass das von ihm antizipierte Konzept von Sprache durch die Vermittlung des Strukturalismus und der poststrukturalistischen Philosophien der Differenz sich zu einer richtigen Technologie entwickelt hat, die auch zur Beschreibung und Steuerung sozialer Prozesse dienen kann. Der Verdacht auf Social Engineering, der immer in solchen Technologien erspürt werden kann, veranlasst Bruno Latour, durch sein Plädoyer für die ›Quasi-Objekte‹ ihre Konstruiertheit zu desavouieren. Den Verdacht auf Social Engineering las-

72 Vgl. J. Lacan: Le Séminaire. Livre XX: Encore, S. 33. 73 J.-P. Rousselot: Les modifications, S. 84. Vgl. noch: F. d. Saussure: Cours de Linguistique Générale, S. 46.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 165

sen wir noch für die Philosophie von Gabriel Tarde gelten, für den die Überzeugung und das Begehren die Kräfte sind, die den »drei Hauptarten der universalen Wiederholung – d[er] Welle, d[er] Fortpflanzung, d[er] Nachahmung«74 innewohnen, »denen drei Arten der physikalischen, vitalen und sozialen Invasion entsprechen: die schwingungsförmige Strahlung, die Ausbreitung durch Fortpflanzung und die Ansteckungskraft des Vorbildes«.75 Hier wird die Differenz in einem biologistisch-mechanistischen Weltbild integriert, das weit weg von den Laborbedingungen eines gedanklichen Experiments führen kann. Das wäre aber eine andere Geschichte der Quasi-Objekte, die von Bruno Latour im Vorwort der letzten deutschen Ausgabe von Monadologie und Soziologie 2009 anvisiert wird.76 Bei Abbé Rousselot materialisieren sich die Quasi-Objekte in der Verschmelzung zwischen Mensch und Maschine, die nicht monströs ist, da die beide Akteure abgrenzende Differenz nicht verschwindet, sondern durch ihre Interaktion als eine neue Art von Schrift perpetuiert wird. Wenn dabei durch die Vermittlung des Phonographs ein neues Alphabet entsteht, so ist dieses nicht normsetzend, sondern nur ein vorläufiges Ergebnis eines Laborexperiments: »Dans cet alphabet nouveau, chaque lettre se composerait, non d’un ensemble plus ou moin complexe de lignes ou de points à valeur conventionelle, non des forms abstraites, mais de traces memes produits par l’articulation correspondante.«77

Deshalb ersetzt Rousselot die dieses Alphabet hervorbringende Spur, die für ihn das logische Ergebnis der sie hervorbringenden Technologie ist, durch ein Prinzip, das sowohl die physikalische Dimension seines Experiments als auch eine höhere philosophische Dimension in sich birgt. »La parole est un mouvement«78 schreibt er zum Auftakt seines ersten gewichtigen Werkes zu den dialektalen Besonderheiten

74 G. Tarde: Monadologie et sociologie, S. 37. 75 Ebd., S. 100. 76 Ebd., S. 7-15. 77 J.-P. Rousselot: Principes, S. 332. 78 J.-P. Rousselot: Les modifications, S. 1.

166 | L ENA CHRISTOLOVA

im französischen Ort Cellefrouin und bleibt diesem Credo und seinem großen Vorbild Marey treu, für den das ganze Leben eine einzige Bewegung ist. Darüber, ob seinen Objekten die sich selbst erzeugende Kraft dieses Prinzips erhalten bleibt, werden künftige Technologien entscheiden.

L ITERATUR Bachelard, Gaston: Die Bildung des wissenschaftlichen Geistes. Beitrag zu einer Psychoanalyse der objektiven Erkenntnis, Frankfurt a. M.: Suhrkamp 1978, S.348. Bachelard, Gaston: Die Philosophie des Nein. Versuch einer Philosophie des neuen wissenschaftlichen Geistes, Frankfurt a. M.: Suhrkamp 1980, S. 91f. Binet, A./Henri, V.: »Les actions d’arrêt dans les phénomenes de la parole«, in: L’Année psychologique 1 (1894), S. 446-450. Bruno, François: »L’inscription de la parole«, in: La Nature (1998) 1892, S. 97-98. Callon, Michel/Latour, Bruno: »Unscrewing the Big Leviathans: How Do Actors Macrostructure Reality«. In: Knorr-Cetina, Karin/Cicourel, Aron V. (Hg.): Advances in Social Theory and Methodology. Toward an Integration of Micro and Macro Sociologies, London/Boston: Routledge & Kegan Paul, 1981, S. 277-303. Chadarevian, Soraya de: »Die ›Methode der Kurven‹ in der Physiologie zwischen 1850 und 1900«, in: Hans-Jörg Rheinberger/Michael Hagener (Hg.): Die Experimentalisierung des Lebens, Berlin: Akademie Verlag 1993, S. 28-49. Darwin, Erasmus: The Temple of Nature or the Origin of Society, London: J. Johnson 1803. Reprint: Menston: Scolar Press 1973. Edison, Thomas Alva: »The Perfected Phonograph«, in: Description of the Phonograph and Phonograph-Graphophone by their Respective Inventors. Testimonials as to their practical use, New York: Russel Bros 1888, S. 3-12. Fabrik Wissenschaftliche Apparate E. Zimmermann: Liste 40 über akustische und phonetische Instrumente, Berlin/Leipzig 1922.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 167

François, Bruno: »L’inscription de la parole«, in: La Nature (1998) 1892, S. 97-98. Galison, Peter: Image and Logic. The Material Culture of Microphysics, Chicago: Chicago UP 1997. Galison, Peter: »Context and constraints«, in: Jed Z. Buchwald (Hg.), Scientific Practice. Theories and Stories of Doing Physics, Chicago: Chicago UP 1995, S. 13-41. Hacking, Ian: Representing and Intervening: Introductory Topics in the Philosophy of Natural Science, Cambridge: Cambridge UP 1983, S. 132. Havet, Louis: »Sur la nature physiologique des nasals«, in: Bulletin de la Societé de Linguistique de Paris, 1875, Bd. 2, S. 74-80. Kuhn, Thomas: Die Struktur wissenschaftlicher Revolutionen, Frankfurt a. M.: Suhrkamp 1967. Lacan, Jacques: Le Séminaire. Livre XX: Encore, Paris: Seuil. Latour, Bruno/Woolgar, Steve: Laboratory Life. The Construction of Scientific Facts, Princeton, NJ: Princeton UP 1986 [1979]. Latour, Bruno: Das Parlament der Dinge. Für eine politische Ökologie, Frankfurt am Main: Suhrkamp 2001 [1999]. Latour, Bruno: Reassembling the Social. An Introduction to ActorNetwork-Theory, Oxford: Oxford UP 2005. Latour, Bruno: Eine neue Soziologie für eine Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie, Frankfurt am Main: Suhrkamp 2007 [2005]. Latour, Bruno: Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie, Frankfurt am Main: Suhrkamp 2008 [1991]. Latour, Bruno: Science in Action: How to Follow Scientists and Engineers Through Society, Cambridge (Ma): Harvard UP, 1987. Latour, Bruno: »Tarde’s idea of quantification« 2009, S. 4-18, S. 4, unter: www. bruno-latour.fr/articles vom 30.09.2010. Levin, Thomas Y.: »›Tones from out of Nowhere‹. Rudolf Pfenninger and the Archaeology of Synthetic Sound«, In: Wendy Hui Kyong Chun/Thomas Keenan (Hg.): New Media, Old Media, New York/London: Routledge 2006, S. 45-82 Ludwig, Carl: »Beiträge zur Kenntnis des Einflusses der Respirationsbewegungen auf den Blutlauf im Aortensystem«, in: Archiv für

168 | L ENA CHRISTOLOVA

Anatomie, Physiologie und wissenschaftliche Medizin 1847, S. 242-302, S. 244. Zit. nach Chadarevian 1993, S. 28. Marey, Étienne-Jules: Du mouvement dans les fonctions de la vie. Leçons faites au Collège de France, Paris: Masson 1868. Marey, Étienne-Jules: La méthode graphique dans les sciences expérimentales et principalement en physiologie et en medicine, Paris: Masson 1878. Marey, Étienne-Jules: »La station physiologique de Paris«, in: La Nature (Sept.) 1883, S. 226-223. Marey, Étienne-Jules: »Mesures à prendre pour l’uniformisation des methods et le contrôle des instruments employés en physiologique«, in: Comptes rendus des séances de l’Academie des Sciences 127 (1898), S. 375-381. Meyer, Ernst Alfred: »Die Silbe«, in: Die neueren Sprachen 6 (1898), S. 479-493. Negri, Toni: »Eine ontologische Definition der Multitude«, in: Thomas Atzert/Jost Müller (Hg.), Kritik der Weltordnung. Globalisierung, Imperialismus, Empire, Berlin: ID Verlag 2003 S. 111125. Panconcelli-Calzia, Giulio: Quellenatlas zur Geschichte der Phonetik, Hamburg: Gildenverlag 1940 (Reprint: Amsterdam & Philadelphia: Benjamins 1993). Rheinberger, Hans-Jörg: Experimentalsysteme und epistemische Dinge, Göttingen: Wallstein 2001. Rheinberger, Hans-Jörg: Experiment Differenz Schrift. Zur Geschichte epistemischer Dinge, Marburg an der Lahn: Basilisken Press 1992. Rosapelly, Charles Léopold: »Essais d’inscription des mouvements phonétiques«, in: École Pratique des Hautes Études, Physiologie expérimentelle. Travaux du laboratoire de M. Marey, Paris: Masson, Bd.2, S. 109-130. Rousselot, Jean-Pierre: Les modifications phonétiques du langage, études dans le patois d’une famille de Cellefrouin (Charente), Paris: Welter 1891. Rousselot, Jean-Pierre: Principes de phonétique expérimentale, ParisLeipzig: Welter, Bd. 1 1897-1901, Bd. 2 1901-1908.

Ü BER

DIE

QUASI -O BJEKTE VON B RUNO L ATOUR

| 169

Rousselot, Jean-Pierre (L’Abbé Rousselot): »Phonétique Experimentale et ›Instrumentalphonetik‹«, in: Revue de Phonétique 1911, Bd. 1, S. 1-6. Saussure, Ferdinand de: Cours de Linguistique Générale, Paris: Payot 1972 [1916]. Scardamalia, Marlene/Bereiter, Carl: »Knowledge Building«, in: Encyclopaedia of Education, New York: Macmillan Reference 2003, S. 1370-1373. Serres, Michel: Anfänge, Berlin: Merve 1991. Tarde, Gabriel: Le lois sociales, Paris: Alcan 1898. Tarde, Gabriel: Monadologie und Soziologie, Frankfurt am Main: Suhrkamp 2009. Teston, Bernard: »L’Œuvre d’Étienne-Jules Marey et sa contribution a l’emergence de la phonetique dans les sciences du langage«, in: Travaux Interdisciplinaires du Laboratoire Parole et Langage 23 (2004), S. 237-266. Whewell, William, The Philosophy of the Inductive Sciences, founded upon their History, London: John W. Parker, West Strand/Cambridge: J. and J. J. Deighton, 2 Bde., 1840.

Angewandte Forschung? Cortison zwischen Hochschule, Industrie und Klinik L EA H ALLER

Als im Frühjahr 1949 publik wurde, dass an der Mayo Clinic in Rochester, Minnesota ein synthetisches Hormon erfolgreich bei Rheuma getestet worden war, schrieb die Times: »Of the significance of the discovery there can be no doubt. It has been universally hailed as one of the greatest advances in medicine of recent years […].«1 Die Substanz wurde unter dem Namen Cortison in den 1950er Jahren zu einem omnipotenten Mittel zur Behandlung von Rheuma und rheumatischem Fieber, Haut- und Augenkrankheiten, Asthma und Allergien aller Art. Bereits 1950 erhielten die beiden Chemiker Tadeus Reichstein und Edward C. Kendall sowie der Rheumatologe Philipp Hench für ihre Forschung an Nebennierenrindenhormonen den Nobelpreis für Medizin und Physiologie. Die Chemie, das wurde mit dieser Geste klar, hatte die wissenschaftlichen Grundlagen geliefert für die Entwicklung und praktische Verwertung dieses Hormons. Das war auch die Einschätzung des Wissenschaftlichen Informationsdienstes der Schweizer Pharmafirma Ciba, der 1955 in seinem internen Bulletin für Ärztebesucher schrieb: »Die Ergebnisse, die von unmittelbar praktischer Bedeutung für die therapeutische Auswertung der Hormonfor-

1

New Rheumatism Treatment, in: Times, 05. Juli 1949.

172 | L EA H ALLER

schung waren, sind in den letzten zwei Jahrzehnten vor allem dem gewaltigen Aufschwung der Hormonchemie zu verdanken.«2 Cortison stand also paradigmatisch für die erfolgreiche Zusammenarbeit zwischen Hochschule, Industrie und Medizin und erfüllte damit das forschungspolitische Credo, das seit der Jahrhundertwende – und verstärkt seit der Zwischenkriegszeit – wissenschaftlich-technische Innovation als Motor der westlichen Volkswirtschaften propagierte.3 Was im Nachhinein als Erfolgsprodukt gelobt wurde, war allerdings eine therapeutische Überraschung gewesen. Weder hatte man Nebennierenrindenhormone im Hinblick auf eine Behandlung von Rheuma entwickelt noch war die Wirkung der systemischen Therapie – Cortison heilte keine Krankheiten, sondern unterdrückte nur deren Symptome – vorauszusehen gewesen. Dass man sich für die Hormone der Nebennierenrinde zu interessieren begann, hatte vorwiegend produktionstechnische und patentrechtliche Gründe; eine breite medizinische Anwendung stand nicht zur Diskussion. »Technisch Verwertbares liegt zur Zeit nicht vor«, so der Standpunkt der Ciba, als es darum ging, mit der holländischen Pharmafirma Organon und dem Schweizer Nahrungsmittelkonzern Haco einen Vertrag über das so genannte Cortingebiet, also die Nebennierenrindenhormone, auszuarbeiten: »Die Mithilfe der Ciba bezweckt die weiteren Forschungen derart zu beschleunigen, dass die Führung auf diesem Gebiete unserer Gruppe auf alle Fälle gesichert bliebe.«4 Die von Ciba unterstützte Forschung an Steroidhormonen unterhöhlte in den folgenden Jahren permanent die Erwartungen und damit jede Planbarkeit. Ciba konnte zwar 1938 ein erstes synthetisches Nebennierenrindenhormon auf den Markt bringen, mit dem man einen körpereigenen Mangel an solchen Hormonen ersetzen konnte. Das Medikament war allerdings vor allem ein Prestigeprodukt. Mit ihm ließen sich keine hohen Einnahmen generieren, dafür dokumentierte es die gelungene Zusammenarbeit zwischen Hochschule und Industrie zugunsten von ein paar wenigen, todkranken Patienten (die Nebennierenrindenhormone sind lebenswichtig). Auf-

2

Ciba: Vom Anteil der CIBA an der Hormonforschung.

3

Vgl. D. Gugerli/J. Tanner: Wissen und Technologie.

4

StaBS, PA 979a , K 11-1 2 Korrespondenz betr. Aromaforschung, Vitamine, Nebenniere, 1932-1937, Brief der Ciba an Haco vom 9. Nov. 1936.

A NGEWANDTE FORSCHUNG ?

| 173

grund von sich verändernden Aufmerksamkeiten und Koalitionen zwischen biologischer Theorie, pharmazeutischer Entwicklung und medizinischem Experiment richtete sich das Interesse in den 1940er Jahren auf andere, bisher vernachlässigte Nebennierenrindenhormone. Sie waren für die Ersatztherapie nicht mehr von Belang. Dafür wurden sie mit dem Kohlehydratstoffwechsel und der Reaktion auf Stress in Verbindung gebracht und beförderten die Hoffnung, leistungssteigernd auf den Organismus zu wirken. 1948 wurde im Zusammenhang mit vermuteten Stresskrankheiten schließlich eine folgenschwere wissenschaftliche Fehlannahme möglich, die zu einem klinischen Versuch mit einer Rheumapatientin führte und Cortison den Weg in die medizinische Therapie ebnete. Chemische (Grundlagen-)Forschung spielte also sehr wohl eine Rolle bei der Entwicklung von Cortison, dennoch kann das Antiallergikum und Antiphlogistikum der 1950er Jahre gerade nicht monokausal darauf zurückgeführt werden. Wenn nun aber – wie hier argumentiert wird – nicht die erfolgreiche Anbindung der reinen an die angewandte Forschung und somit die Verwertungslogik für die Entwicklung von Cortison verantwortlich gewesen war, was war es dann? Die Antwort, die ich auf den folgenden Seiten zu geben versuche, lautet in der Kurzformel: Die Interdependenz von Akteuren in heterogenen Netzwerken. Die Geschichte von Cortison kann nur als Geschichte der wechselnden Interessen innerhalb einer von Kommunikation, Konkurrenz und Kooperation geprägten Forschungslandschaft verstanden werden, und nicht als Resultat einer gelungenen Diffusion wissenschaftlichen Wissens in die medizinische Praxis. Die betreffenden Substanzen wurden nicht im Hinblick auf eine bestimmte medizinische Anwendung in die Forschungs- und Entwicklungslaufbahn geschickt, sondern umgekehrt eröffneten die chemische Forschung, die pharmazeutische Produktion und die parallel laufende biologische und medizinische Forschung erst die Anwendungsfelder, in denen Nebennierenhormone – so genannte Corticosteroide – schließlich relevant wurden. Waren sie zuerst Ersatz bei einem körpereigenen Mangel, so tauchten sie in den 1940er Jahren im Zusammenhang mit der Optimierung des Körpers wieder auf, um in den 1950er Jahren zu einem Wundermittel gegen eine Reihe chronischer Krankheiten zu werden, die damit zwar nicht geheilt, aber wenigstens in Schach gehalten werden konnten. Grund für diese Innova-

174 | L EA H ALLER

tion war nicht eine zielorientierte Forschungs- und Entwicklungspolitik, sondern ein Umfeld, in dem ein produktiver Austausch von Wissen, Material und Finanzen stattfand, der dezentral organisiert war und flexibel genug, sich immer wieder an veränderte Situationen anzupassen. Es gibt keinen Stichtag, an dem die Nebennierenrindenhormone das Labor verlassen hätten, um als Cortison Einzug in die Therapie zu halten. Sie waren immer gleichzeitig biologischer Stoff, chemisches Molekül und Teil eines bestimmten Therapiedispositivs, sie tauchten parallel im Labor, in der Klinik, in Verträgen, in der biologischen Theorie und im Patentamt auf. Die Möglichkeit zur Zusammenarbeit über disziplinäre und institutionelle Grenzen hinweg sowie das Aufkommen von Vorstellungen biologischer Stressreaktion, Optimierung und Leistungssteigerung in den 1940er Jahren waren verantwortlich dafür, dass sich in den 1950er Jahren die klinische Wirkung des Cortisons entfalten konnte.

H ORMONE UND DAS UM 1900

P ROBLEM

DER

N EBENNIERE

Um zu verstehen, wieso sich gerade die Hormone der Nebennierenrinde in den 1930er Jahren nahtlos in das neue Forschungs- und Technologieschema fügten, das wissenschaftliche Forschung als Innovationsmotor an die Industrie koppelte, muss ein Blick auf ihre Genese als Gegenstand der organischen Chemie geworfen werden. Die Nebennieren sind lebenswichtige Organe. Ihre Zerstörung, zum Beispiel durch Tuberkulose, führt zu einer tödlich verlaufenden Krankheit, deren typische Merkmale Braunfärbung der Haut, Übelkeit und zunehmende Schwäche sind, wobei bereits nach wenigen Wochen oder Monaten der Tod eintritt. 1855 hatte der englische Arzt Thomas Addison, nach dem die Krankheit später benannt wurde, diese pathologischen Beobachtungen veröffentlicht.5 Konnte man seither zwar eine Handvoll Symptome zuverlässig mit einer Zerstörung der Nebennieren korrelieren und die Krankheit benennen, so fehlte doch eine entsprechende Therapie. Gegen Ende des 19. Jahrhunderts tauchte das Problem der

5

Vgl. T. Addison: On the Constitutional and Local Effects.

A NGEWANDTE FORSCHUNG ?

| 175

Nebennieren in einem neuen Zusammenhang wieder auf. Nicht mehr der physiologisch-pathologische Befund oder der Verlauf der Krankheit interessierten die Forscher, die sich nun mit diesen kleinen Organen beschäftigten, sondern die Chemie der von ihnen ans Blut abgegebenen Stoffe und die Wirkung, die diese auf den Organismus haben. Dass »mehr für die drüsige, als für die nervöse Natur dieses Organes spricht«, hatte bereits Rudolf Virchow vermutet, der sich nach Addisons pathologischem Befund mit der Chemie der Nebennieren beschäftigt hatte.6 Aber erst gegen Ende des 19. Jahrhunderts wurden die endokrinen Drüsen, die ihre Säfte ans Blut abgeben, innerhalb der Physiologie zu einem zwar umstrittenen, aber wachsenden Forschungsfeld. Es verfestigte sich die Überzeugung, dass ihre Sekrete über den Blutkreislauf im Körper zirkulieren und bestimmte physiologische Wirkungen zeitigen. Physiologen testeten im Tierexperiment die Wirkung von isolierten Präparaten und Ärzte experimentierten im Selbst- und Patientenversuch mit dem Verabreichen organischer Extrakte.7 Im 19. Jahrhundert hatten die Organe im Zentrum des (pathologischen) Interesses gestanden. Um die Jahrhundertwende spielten die von ihnen abgesonderten Sekrete – aktive physiologische Stoffe – eine zentrale Rolle bei der Entstehung der Endokrinologie und des Hormonkonzepts. Virchow, Doyen einer sich strikt an wissenschaftlichen Erkenntnissen orientierenden Medizin, machte keinen Hehl daraus, dass er diesen Trend wie die gesamte »Naturheilkunde« für bloßen Hokuspokus hielt. »Wir stehen in diesem Moment vor einer neuen Klippe«, kommentierte er um 1900 die neue, undogmatisch vorgehende medizinische Therapie, die im Modus des Realexperiments operierte. »Aus dem Gewirre der chemischen Substanzen, welche mit starken und vielfach unerwarteten Kräften ausgestattet sind, ist eine besondere Gruppe losgelöst worden, aus der sich gerade jetzt eine neue Richtung des praktischen Handelns der Ärzte gestaltet. Man hat diese Richtung Organ-Therapie genannt.«8 Extrakte aus Drüsen standen um die Jahrhundertwende im Zentrum verschiedener Veränderungen. Sie lieferten der organischen Che-

6

Vgl. R. Virchow: Zur Chemie der Nebennieren, S. 483.

7

Vgl. M. Borell: Organotherapy.

8

R. Virchow: Zum neuen Jahrhundert, S. 5.

176 | L EA H ALLER

mie, die sich von der Physiologie emanzipierte, einen Forschungsgegenstand und eröffneten der Physiologie einen experimentellen Umgang mit dem Organismus, der auf Manipulation setzte statt auf Analyse. An der Popularität organischer Extrakte manifestierte sich außerdem eine Krise der scientific medicine: Ärzte agierten nicht mehr aufgrund von vorausgehenden physiologischen Erkenntnissen, sondern aufgrund klinischer Evidenz. »We simply give to the blood the principle or principles missing in it«, kommentierte Charles-Edouard Brown-Séquard, einer der Vorreiter der Organotherapie, die Methode. Entsprechend beförderten organische Extrakte Phantasien von Verjüngung und Regeneration,9 sie entsprachen einem Diskurs der Ganzheitlichkeit und ermöglichten ein Therapiekonzept, das mit natürlichen Stoffen operierte und damit einem Desiderat der Lebensreformbewegung entsprach. Als der englische Physiologe Ernest Starling 1905 für körpereigene Stoffe, die über den Blutkreislauf transportiert werden, den Begriff »Hormone« vorschlug und ihnen eine umfassende Steuerungs- und Regulierungsfunktion zuschrieb, griff er explizit auch das Moment der natürlichen Therapie auf. Angesichts von Hormonen biete sich die Möglichkeit, den chemisch regulierten Körper mit seinen eigenen Mitteln behandeln zu können: »The methods, however, which we employ are not at variance with those made use of by the body itself in securing the harmonious cooperation of its various parts.«10 Damit wurde der Organismus zu einem großen, von der Natur zur Verfügung gestellten Arzneimittellager. Mit dem natürlichen Therapiekonzept ging die Hoffnung einher, die chemisch regulierten Abläufe im Organismus kontrollieren zu können, wenn Hormone erst isoliert, strukturell aufgeklärt, synthetisch nachgebaut und der Medizin zur Verfügung gestellt würden. Starlings Hormonkonzept machte keinen Unterschied mehr zwischen physiologischen und pharmakologischen Substanzen. Er prophezeite, dass mit der Isolierung von Hormonen eine umfassende Kontrolle über die körpereigenen chemischen Koordinationsprozesse möglich werde.11 Das war um 1900 Zukunftsmusik und bis in die Zwischenkriegszeit ein utopisches

9

Zu Verjüngungstheorien vgl. H. Stoff: Ewige Jugend.

10 E.H. Starling: The Chemical Correlation, S. 340. 11 Vgl. ebd., S. 579.

A NGEWANDTE FORSCHUNG ?

| 177

und höchst umstrittenes Versprechen. Innerhalb der sich Anfang des Jahrhunderts konstituierenden Endokrinologie, der Lehre der inneren Drüsen, waren viele Physiologen der Meinung, dass das Studium der Drüsen, ihrer Sekrete und deren physiologischer Wirkung strikt von der pharmakologischen Verwendung solcher Stoffe zu trennen sei. Von Kontrolle der körpereigenen chemischen Prozesse konnte ihrer Meinung nach keine Rede sein.12

Z WEI E XTRAKTE : ADRENALIN UND C ORTIN Ein aus Nebennieren gewonnenes Extrakt – das Epinephrin – war sowohl bei den Apologeten der Steuerungs- und Kontrollthese als auch bei den vor Verallgemeinerungen Warnenden ein beliebtes Exempel. Bei keinem anderen organischen Stoff konnte man seit der Jahrhundertwende einen pathologischen Befund (die Addisonsche Krankheit), eine physiologische Wirkung (die Extrakte aus Nebennieren wirkten stark blutdrucksteigernd) und eine chemische Formel korrelieren. Die chemische Struktur des Epinephrins war 1897 von John J. Abel beschrieben worden, und bereits 1904 konnte die Substanz synthetisch hergestellt werden; sie wurde von der Firma Parke, Davis & Co. unter dem Handelsnamen Adrenalin vermarktet. Einer Therapie mit einem organischen Stoff stand damit nichts mehr im Weg, und erstmals war es nun möglich, die Addisonsche Krankheit als endokrine Fehlfunktion zu deuten.13 Der fehlende klinische Beweis für den Zusammenhang zwischen Addisonscher Krankheit und Adrenalin, war während fast drei Jahrzehnten Wasser auf die Mühlen jener, die das Hormonkonzept grundsätzlich in Frage stellten. Sämtliche Versuche, AddisonPatienten mit Adrenalin am Leben zu erhalten, schlugen fehl. Dennoch etablierte sich als allgemeine Lehrmeinung bis in die 1920er Jahre hinein die Korrelation zwischen Addisonscher Krankheit

12 Vgl. D. Long Hall: The Critic and the Advocate. 13 Abel schrieb 1899: »Aside from the chemical and physiological interest attaching to this substance it is believed that its careful study will throw light on the symptoms of Addison’s disease.« J.J. Abel: On Epinephrin, S. iii.

178 | L EA H ALLER

und dem Verlust der blutdrucksteigernden Funktion des Adrenalins. Als Sir Walter Langdon Brown 1920 vor der British Medical Association eine Rede über die Prinzipien der inneren Sekretion hielt, korrelierte er selbstverständlich die Funktion der Nebennieren mit dem Adrenalin: »We have little evidence in disease of overaction of adrenalin [...]. But we have a clear-cut example of adrenalin defect in Addison’s disease, in which all the symptoms can be attributed to loss of sympathetic action.«14 Dass eine innersekretorische Drüse je eine wirksame Substanz absondere, die pars pro toto für ihre eigentliche Funktion stehe, hatte sich bis in die Zwischenkriegszeit als allgemeine Lehrmeinung gefestigt. Dieses Dogma begann erst zu bröckeln, als einerseits wieder Experimente mit unreinen Extrakten durchgeführt wurden, die das Wirksamkeitsspektrum erweiterten, und als Biologen andererseits Verfahren entwickelten, adrenalinfreie Extrakte aus Nebennieren zu gewinnen und sie in Tierversuchen zu testen. Erste positive Resultate in der Addison-Behandlung brachte eine Therapie, die sich von der Adrenalinfixiertheit verabschiedete. Im Juli 1920 begab sich ein Dr. A. L. Muirhead, Professor für Pharmakologie, in die Mayo Clinic; er litt an Addisonscher Krankheit in einem fortgeschrittenen Stadium. Bereits im Mai hatte er begonnen, Adrenalin einzunehmen und am 1. Juni hatte er vom Direktor der Research Laboratories von Parke, David & Co. zusätzlich je ein Präparat aus getrockneter Nebenniere und ein Präparat aus ganzen Hypophysen erhalten, von denen er zweimal täglich eine Kapsel einnahm. Dr. Leonard Rowntree, der ihn in der Mayo Clinic behandelte, führte die parallele Medikation fort. Anstatt nur das chemisch reine, standardisierte Adrenalin zu verabreichen, verschrieb er auch Extrakte aus tierischen Nebennieren.15 Das kam einem medizinisch-therapeutischen Rückschritt gleich. Die Organotherapie hatte immer den Ruf, wissenschaftlich nicht abgesichert und wegen der Unreinheit der Extrakte nicht überprüfbar zu sein. Die Resultate der Therapie waren jedoch so positiv, dass Rowntree die Organotherapie in der Folge an elf weiteren Patienten durchführte. Im Vergleich zu Patienten, die nur Adrenalin be-

14 W. Langdon Brown: The Principles of Internal Secretion, S. 687. 15 Die Notizen seiner Selbstbeobachtung während der Behandlung erschienen post mortem: A.L. Muirhead: An Autograph History.

A NGEWANDTE FORSCHUNG ?

| 179

kamen, lebten die meisten von ihnen deutlich länger, zum Teil bei relativ guter Gesundheit.16 Die erstaunlichen Resultate dieser klinischen Versuche bedienten nicht nur die physiologische Theorie, die sich seit der Jahrhundertwende mit der umfassenden Steuerung und Regulierung des Organismus durch chemische Botenstoffe auseinandersetzte, sie forcierten auch die biologisch-physiologische Forschung im Labor. Verschiedene Forscher vermuteten, dass die Nebenniere abgesehen von Adrenalin einen weiteren Stoff produziere, und dass dieser lebenswichtig sei.17 1928 gelang es erstmals, adrenalektomierte Hunde mit einem Nebennierenextrakt über längere Zeit am Leben zu erhalten.18 Im selben Jahr erschien im American Journal of Physiology ein Artikel mit dem Titel »The Hormone of the Adrenal Cortex«.19 Frank A. Hartman und seine Mitarbeiter hatten aus der Rinde von Nebennieren ein Extrakt gewinnen können, das adrenalinfrei war und im Tierversuch positive Resultate zeitigte. Sie nannten die lebenserhaltende Substanz Cortin. Deren chemische Zusammensetzung war zwar nach wie vor ungeklärt und der Wirkungsmechanismus ein Rätsel, aber Cortin entschied endgültig die Streitfrage, ob das Nebennierenmark oder die Nebennierenrinde lebenswichtig war zugunsten letzterer. Gleichzeitig verlagerte sich das Problem von der biologischen Ebene auf die molekulare Ebene. Die biologische Lösung wurde als chemisch-pharmazeutisches Problem reformuliert, und zwar just zu einem Zeitpunkt als an der ETH die organische Chemie ausgebaut wurde und ein Assistent Leopold Ruzickas auf der Suche nach einem interessanten neuen Arbeitsgebiet war.

16 Vgl. Editorial: Studies in Addison’s Disease, S. 411. 17 Vgl. J.M. Rogoff/G.N. Stewart: Studies on Adrenal Insufficiency in Dogs, S. 683. 18 Vgl. J.M. Rogoff/G. N. Stewart: Studies on Adrenal Insufficiency in Dogs. 19 F.A. Hartman et al.: The Hormone of the Adrenal Cortex.

180 | L EA H ALLER

K OOPERATIONEN Am 12. April 1934 traf sich Tadeus Reichstein mit Ernst Laqueur, Pharmakologe und Mitbegründer der holländischen Pharmafirma Organon, und Gottlieb Lüscher, Leiter des Schweizer Nahrungsmittelkonzerns Haco, der Reichsteins Forschung unterstützte, im Zürcher Hauptbahnhof zu einem Gespräch über eine mögliche Zusammenarbeit. Bei Organon hatte man sich die Isolierung und Synthetisierung von wirksamen organischen Stoffen vorgenommen und war nun auf der Suche nach einem Chemiker, der für dieses Projekt zu begeistern war. Organon war 1923 von einem Direktor von Schlachtbetrieben gegründet worden und konnte organisches Ausgangsmaterial günstig und in großen Mengen beziehen. Nachdem verschiedene Substanzen wie Insulin, Sexualhormone, Vitamin B1 und D, Leberextrakte und blutdrucksenkende Stoffe aus unterschiedlichen Gründen verworfen wurden, einigten sich Reichstein und die Vertreter von Organon nach einem zweiten Treffen am 28. Mai in Utrecht darauf, die Nebennierenrindenhormone in Angriff zu nehmen.20 Ausschlaggebend dürfte gewesen sein, dass Organon einen Test entwickelt hatte, um solche Substanzen an Ratten auf ihre Wirksamkeit zu prüfen, und dass der amerikanische Chemiker Edward C. Kendall just vor dem zweiten Treffen eine Mitteilung über die Isolierung einer kristallinen Substanz aus den Nebennieren publiziert hatte.21 Sie war im Publikationsorgan der Mayo Clinic erschienen, wo Kendall ein Forschungslaboratorium betrieb, und ihr war ein Kommentar von William J. Mayo, einem der Gründer der Klinik, angefügt: »The completion of this research marks an epoch in scientific medicine. The Clinic justifies itself not only in what it does for sick people, but in bringing forth those discoveries which aid in advancing medical science.«22 Wissenschaftsbasierte Medizin war bis um die Jahrhun-

20 Vgl. StaBS, PA979a, K 11-2 1, Korrespondenz betr. Leberextrakte, 1934-1937, Notiz über Besprechung mit Herrn Prof. Laqueur, 12. April 1934, Bahnhof Zürich, sowie Notiz über Besprechung vom 28. Mai 1934. Hygiene-Institut der Universität Utrecht. 21 Vgl. E.C. Kendall et al.: Isolation in Crystalline Form. 22 Ebd., S. 249f.

A NGEWANDTE FORSCHUNG ?

| 181

dertwende eine Medizin gewesen, die sich auf physiologische und pathologische Befunde stützte. Für Mayo war die Physiologie, die sich im 19. Jahrhundert als medizinische Grundlagenwissenschaft hatte etablieren könnten, nicht mehr relevant. Mit der Isolierung und Synthetisierung von organischen Stoffen war 1934 nun die Chemie Garantin für eine scientific medicine. Die Chemie lieferte allerdings nicht definitive Resultate, sondern neue Untersuchungsgegenstände. Nachdem eine kristalline Substanz isoliert worden war, galt es herauszufinden, ob sie Hormonfunktion hatte, wofür man biologische Prüfungs- und Standardisierungsmethoden, geeignete Versuchstiere und spezifische Messinstallationen brauchte. Anfang der 1930er Jahre entwickelten Biologen in verschiedenen Laboratorien, vorwiegend in den biologischen Abteilungen großer Pharmabetriebe oder Kliniken, solche Eichungsverfahren, wobei sie je mit anderen Tieren arbeiteten und die Beeinflussung unterschiedlicher Körperfunktionen untersuchten. Bei Organon prüfte Ernst Laqueur die von Reichstein isolierten Substanzen nach Everse-de Fremery.23 In diesem Test wurde die Muskelermüdung von Ratten als Untersuchungskriterium genommen, da physische Schwäche ein erstes Zeichen für einen Mangel an Nebennierenrindenhormon war. An der Mayo Clinic in den USA wurde der so genannte Hundetest durchgeführt.24 Kriterium in diesem Test war das Allgemeinbefinden des nebennierenlosen Hundes, das heißt, man entfernte dem Tier beide Nebennieren, gab ihm dann Nebennierenrindenextrakte, bis es sich erholt hatte, und injizierte darauf die zu prüfende Substanz, wobei die Dosis so lange verringert wurde, bis erste Zeichen von Addisonscher Krankheit auftraten. Die Dosis, die gerade noch keine Ausfallserscheinungen auftreten ließ, nannte man eine »dog-unit« – sie galt als Vergleichsgröße, um die Wirksamkeit verschiedener Substanzen zu messen.25

23 Vgl. J.W.R. Everse/P. de Fremery: On a Method of Measuring Fatigue in Rats. 24 Vgl. W.W. Swingle/J. J. Pfiffner/H.M. Vars: The Cortical Hormone Requirement of the Adrenalectomized Dog. 25 C. Bomskov/K. Bahnsen: Biologische Standardisierung, S. 1.

182 | L EA H ALLER

Als der Basler Mediziner Fritz Verzár 1936 einen neuen GlucoseTest vorstellte, in dem die Aktivität von Corticosteron getestet werden konnte, fragte Reichstein bei Organon an, ob sie einverstanden wären, dass er bei ihm Substanzen testen ließ.26 Auf den Vorschlag von Organon, selbst einen solchen Test durchzuführen, statt Substanzen in fremde Hände zu geben, schrieb Reichstein erklärend: »Mein Vorschlag, sich den neuen Test von Verzár zu Nutze zu machen, sollte natürlich kein Misstrauensvotum für die bisherigen Methoden sein […]. Es scheint allerdings, dass alle Testmethoden bisher besonders gut an dem Ort ausgeführt werden, wo sie erfunden wurden. Ich traue dem Hundetest daher vorläufig nur dann, wenn er wirklich von Dr. Pfiffner ausgeführt wurde, ebenso wie der Everse-de Fremery-Test offenbar nur bei Ihnen richtig durchgeführt wird.« 27

Verzár gab an, mit deutlich geringeren Mengen testen zu können. »Da nur 1/10 der bisher benötigten Materialmenge verwendet wird«, argumentierte Reichstein, »so liegt meiner Ansicht nach genügend Grund vor, um die Sache sehr genau nachzuprüfen.«28 Organon willigte schließlich ein, dass Reichstein Substanzen an Verzár schickte, und übernahm die dabei anfallenden Kosten. Sie kompensierte den Verlust des Wissensmonopols mit einer von Reichstein vermittelten Partnerschaft, die wissenschaftliches Wissen mit minimalem Materialverbrauch garantierte. Das Umfeld, in dem man sich 1934 für die Nebennierenrindenextrakte zu interessieren begann, war also geprägt von einem Interesse an der pharmazeutischen Verwertung von Organextrakten, von einem Aufstieg der organischen Chemie zur medizinischen Grundlagenwissenschaft und von einer sich formierenden Zusammenarbeit zwischen akademischer Chemie, Medizin und Pharmaindustrie. Das Auftrennen des aus Schlachtabfällen gewonnenen Extrakts und die Isolierung kris-

26 1937 publizierten Reichstein und Verzár den Test in Nature: T. Reichstein/F. Verzár/L. Laszt: Activity of Corticosteron in the Glucose Test. 27 StaBS, PA 979a, K 11-2 1 Korrespondenz betr. Leberextrakte, 1934-1937. Reichstein an Organon, 7. Feb. 1936. 28 Ebd.

A NGEWANDTE FORSCHUNG ?

| 183

talliner Substanzen führten allerdings nicht in erster Linie zu einer technisch zugänglich gemachten Natur. Die isolierten Substanzen waren chemische Abstrakta. Ihre Evaluation hing von einer diffizilen physiologischen Interpretationspraxis ab, die an bestimmten Zeichen des Mangels abzulesen versuchte, welche der Steroidverbindungen am ehesten die Ausfallserscheinungen beheben könne. Um die Substanzen zu eichen, mussten zuerst die Ratten und Hunde geeicht werden, an denen sie getestet wurden, wobei je nach Untersuchungskriterium ein ganz anderes Verfahren angewandt wurde und damit auch ein nur bedingt reproduzierbares und vergleichbares Testergebnis resultierte. Die Frage, nach welchem Verfahren isolierte Substanzen geprüft werden sollten, ließ sich nicht nach wissenschaftlichen Kriterien beantworten, es war vielmehr eine Frage der Kooperationsverhältnisse, des Know-how, des Vertrauens und der Ökonomie. Entsprechend der biologischen Testmethoden wurde die zur Substitution nötige Menge einer Substanz nicht in einer Dezimalskala angegeben, sondern als Hunde- oder Ratteneinheit berechnet.

S TREIT

UND

V ERTRÄGE

Was William J. Mayo in seinem Kommentar zu Kendalls erster Veröffentlichung als Abschluss der Forschungsarbeiten lobte, war erst der Anfang einer langen Odyssee zu immer wieder neuen Einsichten, Fragen, Prüfungsergebnissen und Substanzen. Etwa um 1936 war klar, dass die Drüse nicht nur ein Hormon produziert, sondern zahlreiche ähnliche Verbindungen mit unterschiedlicher Wirkung. Ebenfalls 1936 konnte Reichstein plausibel machen, dass diese Verbindungen zur Klasse der Steroidhormone gehören. Eine unmittelbare Folge dieser Strukturaufklärung war, dass Reichstein in Konflikt geriet mit Leopold Ruzicka, dem Vorsteher des Instituts für organische Chemie der ETH. Ruzicka arbeitete auf dem Gebiet der Sexualhormone – ebenfalls Steroidhormone – und hatte mit der Ciba einen ausschließlichen Vertrag unterzeichnet.29 Es bestand nun akut Gefahr, dass Wissen über Verfahren zum synthetischen Aufbau von Steroidhormonen

29 Vgl. D. Gugerli/P. Kupper/D. Speich: Die Zukunftsmaschine, S. 200.

184 | L EA H ALLER

via Reichstein an die holländische Firma Organon und somit an die ausländische Konkurrenz ging. Wollte man das vorhandene Wissen nutzen, kamen Haco, Organon und Reichstein nicht umhin, die Ciba mit an Bord zu holen, insbesondere weil die Ciba auf bestimmten Verfahrensschritten zur Steroidsynthese wichtige Patente besaß. Ende 1936 wurden mit der Ciba Verhandlungen aufgenommen, die lange von gegenseitigem Misstrauen geprägt waren. Im März 1937 unterzeichneten Ciba, Organon und Haco schließlich einen Vertrag für das Cortingebiet. Ciba kam in den Genuss sämtlicher Reichstein-Erfindungen im Bereich der Nebennierenrindenhormone, wobei sie Organon mit 6% am Umsatz aller zukünftigen Cortin-Erzeugnisse beteiligen musste. Organon war ihrerseits Inhaberin von Reichsteins CortinPatenten und Haco partizipierte mit 25% am Bruttogewinn eines Vertragsproduktes.30 Mit dieser Abmachung wurden nicht nur Minimalpreise festgelegt, Verkaufsrechte zugewiesen und zukünftige Märkte verteilt, wie man das bei einem Kartell gemeinhin annimmt. Der Vertrag regelte vor allem die Verwaltung von zukünftig zu erwartendem geistigem Eigentum.31 Mit jedem von Reichstein neu isolierten oder synthetisierten Stoff war er wegen seines hypothetischen Charakters zwangsläufig bereits überholt und musste den Gegebenheiten angepasst werden. Ein Präzedenzfall für Stoffe, die den vertraglichen Rahmen sprengten, waren Verbindungen der Cholansäurereihe. Mit ihnen konnten sowohl cortinartig wirkende Substanzen als auch über das Vertragsgebiet hinausreichende Produkte hergestellt werden, konkret Progesteron und Testosteron. Besonders brisant war die rechtliche Frage, weil diese Zwischenprodukte von Reichstein in Zusammenarbeit mit der Ciba entwickelt wurden. Der Anspruch der Ciba, die Patentanmeldungen solcher Substanzen selber vorzunehmen, konnte mit dem bestehenden Vertrag noch legitimiert werden. »Dagegen erscheint es uns ebenso selbstverständlich«, so Haco einschränkend, »dass ein Verfahren, das zu einem cortinartig wirkenden Produkt führt, ausschließlich der Organon gehört, auch wenn dieses Produkt

30 Vgl. StaBS, PA979a, K 11-2 1 Korrespondenz betr. Leberextrakte, 1934-1937, Abkommen auf dem Cortingebiet vom 24. März 1937. 31 Vgl. J.-P. Gaudillière: Cartellisation et propriété intellectuelle, S. 150.

A NGEWANDTE FORSCHUNG ?

| 185

andere therapeutische interessante Anwendungen finden kann […].«32 Eine Woche später lag erneut ein Schreiben der Ciba vor: »Konkret gestellt lautet die uns interessierende Frage: Was geschieht mit solchen Verfahren, welche […] weder auf unsere Anregung noch mit unserer Unterstützung ausgearbeitet sind, und welche, was ja sehr wohl möglich ist, gleichzeitig zu Cortin, Progesteron und auch Testosteron führen.«33 Das wissenschaftlich-technische Innovationsunternehmen mündete nicht in eine reibungslose Verwertung wissenschaftlicher Ergebnisse. Stattdessen fand eine Ökonomie des Wissens statt, für die patentrechtliche Bedingungen, vertragliche Übereinkünfte und die Unabsehbarkeit der Forschung maßgebend waren. Das Auftrennen von Extrakten und die Klassifikation isolierter Substanzen führten unweigerlich zu Konflikten. Es tauchten Substanzen auf, die weder wissenschaftlich noch administrativ antizipiert worden waren und die das sorgfältig austarierte Kooperationsgefüge wieder aus dem Gleichgewicht brachten. Lange Zeit war die relativ seltene Addisonsche Krankheit die einzige Indikation für Nebennierenrindenhormone gewesen. »Under these conditions«, so Kendall in seiner Nobelpreisrede, »it is not surprising that pharmaceutical manufacturers were not interested in the commercial aspects of the adrenal cortex.«34 Das war auch bei der Ciba nicht anders. Die Produktion eines ersten synthetischen Nebennierenrindenhormons wurde Ende der 1930er Jahre nur aufgenommen, weil das Präparat ohne weitere Investitionen in den Maschinenpark oder die Produktionsabläufe aus einem Nebenprodukt der Progesteronsynthese hergestellt werden konnte. Dass die Ciba die Forschung an Nebennierenrindenhormonen trotz der geringen Aussicht auf eine lukrative Verwertung unterstützte, hatte vorwiegend patentrechtliche Gründe; sie sicherte sich damit ihre führende Position in der Steroidchemie.

32 CIBA-Archiv, C_RE/V, Recht, Verträge Nr. 386 a/b/c, HACO A.G./Prof. Dr. T. Reichstein. Haco an Ciba, 7. April 1938. 33 Ebd. Ciba an Haco, 13. April 1938. 34 E.C. Kendall: The Development of Cortisone as a Therapeutic Agent, S. 271.

186 | L EA H ALLER

V OM L ABOR IN DIE K LINIK UND

ZURÜCK

1937 erwies sich eine von Tadeus Reichstein und seiner Assistentin Marguerite Steiger 1937 teilsynthetisch hergestellte Substanz (Desoxy-corticosteron) im Everse-de Fremery-Test als hoch wirksam.35 Reichstein und Steiger hatten sie hergestellt, um die empirische Formel eines aus Nebennierenrindenextrakt isolierten Hormons (Corticosteron) nachzuweisen. Dass die künstliche Substanz wirksam war, ja sogar wirksamer war als das natürliche Hormon, war nicht voraussehbar gewesen. Eine auch in großtechnischem Maßstab durchführbare Synthese rückte 1937 ganz unerwartet in reale Reichweite. Die Synthese des Desoxy-corticosterons war allerdings äußerst ineffizient; die Oxydation, mit der dem Cholesterin eine ganze Seitenkette abgerissen werden musste, verlief sehr schlecht und gab nur wenig der nötigen Ätio-cholansäure.36 Genau diese Oxydation wurde bei der Ciba aber schon längere Zeit zu ganz anderen Zwecken, nämlich zur Gewinnung von Progesteron und Testosteron, fabrikatorisch durchgeführt, so dass die benötigte Säure dabei als Nebenprodukt abfiel. Als an einer Sitzung des Verkaufskomittees der Ciba am 26. Oktober 1938 die Frage aufgeworfen wurde, ob es sich lohne, größere Summen in die Fabrikation von Desoxy-corticosteron zu investieren, fiel die Antwort pragmatisch aus: »Die Anwesenden glauben, dies bejahen zu können, obschon das Indikationsgebiet auf Grund der bisherigen Prüfungen noch klein erscheint, da mit der Fabrikation des Nebennierenrindenhormones auch diejenige von Progesteron verbunden ist.«37

Bereits im April 1938 hatte die Ciba erste klinische Prüfungen in Auftrag gegeben. Die Sache war einigermaßen heikel. »Der Vorschlag einer Ankündigung in Form eines Inserats wird von den Herren der Propaganda-Abteilung als ungünstig bezeichnet«, heißt es in einem

35 Vgl. M. Steiger/T. Reichstein: Partial Synthesis. 36 Vgl. StaBS, PA 979a K11-2 3, Korrespondenz betr. Nebennieren, 1939. Referat Reichsteins an der Ärztetagung in Oss, Holland, 13. Juni 1939. 37 CIBA-Archiv, Vf 1, Pharmazeutisches Komitee, Protokoll vom 26. Okt. 1938.

A NGEWANDTE FORSCHUNG ?

| 187

Protokoll des pharmazeutischen Komitees. »Die zu behandelnden Fälle müssen gut ausgewählt werden und unter Kontrolle stehen. Wenn wir ein Inserat machen, haben wir es nicht mehr in der Hand, Prüfer oder Fälle abzulehnen.« Es wurde der Vorschlag gemacht, die Bereitschaft für die klinische Prüfung in einigen Zeitschriften bekanntzugeben. Cibas Vertrauensarzt Fritz Verzár erklärte sich bereit, eine Aufstellung jener Krankheitsbilder zu machen, die nach seinen Arbeiten in Frage kamen.38 An diesem Beschluss sind zwei Dinge erstaunlich: Erstens waren jene Ärzte, die natürliche Nebennierenrindenextrakte seit bald zehn Jahren erfolgreich in der Therapie von AddisonPatienten anwendeten, anscheinend nicht die Zielgruppe für die Prüfung einer neuen synthetischen Substanz, weshalb die Ciba kein Inserat schaltete, sondern über den Weg wissenschaftlicher Fachzeitschriften Leute aus der endokrinologischen Forschung erreichen wollte. Zweitens war nicht mehr von der einen Krankheit die Rede, bei der mit Sicherheit ein Mangel an Nebennierenrindenhormonen besteht (Addison’s Disease), sondern von in Frage kommenden Krankheitsbildern im Plural. 1938 brachte die Ciba das neue Hormon unter dem Handelsnamen Percorten auf dem Markt. Percorten wurde offiziell zur Behandlung von Addisonscher Krankheit propagiert, die Aufmerksamkeit der medizinischen Forschung richtete sich jedoch auf weitere mögliche Indikationen, die mit dem Hormon eventuell günstig beeinflusst werden konnten. Das standardisierte Präparat ersetzte die nicht homogenen, nur sehr aufwändig zu gewinnenden und teuren natürlichen Extrakte. Während die Markteinführung von Percorten als Resultat der gelungenen Zusammenarbeit zwischen Hochschule und Industrie zugunsten der Medizin gefeiert wurde, konzentrierte sich die medizinische Forschung auf die Ausweitung der Indikationen. Gleichzeitig rückte das Desoxy-corticosteron in der chemischen Forschung in den 1940er Jahren in den Hintergrund und machte anderen Substanzen aus der Nebennierenrinde Platz. In biologischen Testverfahren, die nicht nur die lebensverlängernde Wirkung testeten, sondern die Wirkung auf verschiedene Körperfunktionen, schnitten je nach Kriterium auf einmal

38 Vgl. CIBA-Archiv, Vg 1.10.1, Pharmazeutisches Komitee, Protokoll vom 12. April 1938.

188 | L EA H ALLER

Verbindungen besser ab, die bisher als kaum wirksam klassiert worden waren. Sie wirkten, so hatte man herausgefunden, positiv auf den Kohlehydratstoffwechsel und damit auf das Arbeitsvermögen, was ganz neue Behandlungsperspektiven eröffnete. Mit dem Aufstieg solcher Hormone ging eine Verschiebung der Aufmerksamkeit einher, weg vom Ersatz bei einem körpereigenen Mangel hin zur Optimierung der Leistungsfähigkeit.39 Zwei Entwicklungen haben diese Neuorientierung auf der technisch-wissenschaftlichen Seite mitgetragen. Erstens brachte der Biochemiker und Endokrinologe Hans Selye die Nebennierenrindenhormone mit der körpereigenen Reaktion auf Stress in Verbindung. Selye war aufgrund von Untersuchungen an Ratten zum Schluss gekommen, dass sie zuständig seien für die längerfristige Anpassung des Organismus an widrige Umstände und schädliche Einflüsse, und somit für die Aufrechterhaltung der Leistungsfähigkeit.40 Zweitens konnte Dwight J. Ingle 1941 plausibel machen, dass in einem von ihm entwickelten Arbeitsleistungstest nicht das Desoxycorticosteron (wie Percorten) am wirksamsten war, sondern das Dehydro-corticosteron, das positiv auf den Glucosehaushalt wirkt.41 Anfang der 1940er Jahre wurde die enge Kopplung von Addisonscher Krankheit und Desoxy-corticosteron abgelöst durch ein neues Aufmerksamkeitsraster, das eine bestimmte Klasse von Nebennierenrindenhormonen mit Arbeitsleistung, Kohlehydratstoffwechsel und Stressresistenz in Verbindung brachte. Und jene Hormone, die zwar am besten die allgemeinen Ausfallserscheinungen von Addisonpatienten beheben konnten, waren gerade nicht diejenigen, die auf den Kohlenhydrat-Stoffwechsel wirkten und damit auf die Leistungsfähigkeit. Die Arbeiten von Selye, der eine erhöhte Ausschüttung von Nebennierenrindenhormonen bei Schock, operativem Eingriff, Verbrennungen, extreme Kälte, Vergiftungen oder exzessiver Muskelarbeit beobachtet hatte, veranlassten die Ciba dazu, ihr Hormonpräparat Percorten 1939 bei postoperativem Schock, bei Verbrennungen und nach

39 Vgl. dazu B. Bächi: Vitamin C für alle. 40 Vgl. H. Selye: A Syndrome Produced by Diverse Nocuous Agents. Zur Genese des biologischen Stressbegriffs L. Haller: Stress, Cortison und Homöostase. 41 Vgl. D.J. Ingle: Work Performance.

A NGEWANDTE FORSCHUNG ?

| 189

schweren Infektionskrankheiten zu prüfen.42 Als Selye 1940 eine Übersicht über den therapeutischen Wert von Nebennierenrindenhormonen publizierte, hielt er allerdings fest, dass die Ergebnisse bei der Schockbehandlung nicht einheitlich seien, und er konnte die Divergenzen auch erklären: »probably because many of these authors advocated the use of desoxycorticosterone, which, as we shall see later, is relatively inactive in this respect.«43 Wie bereits beim Muirhead Treatment, war es nötig, auf ein unreines Extrakt zurückzugreifen, um die intendierte Wirkung zu erzielen. Mit der wiederholten Gabe von Cortin gelang es Selye, die körpereigene Reaktion auf schädliche Einflüsse zu imitieren. Das synthetisch hergestellte Desoxy-corticosteron sei dagegen unwirksam.44 In den 1940er Jahren konzentrierten sich die Forschungsbemühungen auf jene Hormone, die auf den Kohlehydratstoffwechsel wirkten. Bis solche Hormone kommerziell verfügbar waren, wurden ähnliche Steroidverbindungen wie Pregnenolon – vor allem in der Aviatik – auf ihre Wirkung als Leistungssteigerer getestet. Militärpiloten verkörperten idealtypisch Körper unter physischem Stress aufgrund von wiederholten hohen Belastungen. Sie waren angesichts des Zweiten Weltkriegs prädestiniert für ein Biological Engineering, das auf Leistungsoptimierung ausgerichtet war.45 Gleichzeitig mit den Tests zur Leistungssteigerung bei der Luftwaffe entwickelte Selye die These, dass es »Adaptationskrankheiten« gebe, also Syn-

42 Vgl. CIBA-Archiv, Vg 1.10.1, Pharmazeutisches Komitee, Protokoll vom 25. September 1939. 43 H. Selye et al.: On the Therapeutic Value, S. 2. 44 Vgl. Ebd., S. 7.; H. Staub: Pharmakologie der Ermüdung. 45 Vgl. G. Pincus/H. Hoagland: Steroid Excretion and the Stress of Flying; G. Pincus/H. Hoagland: Effects of Administered Pregnenolone; H. Hoagland: Adventures in Biological Engineering. In den USA wurde die Forschung an Nebennierenrindenhormonen zur Kriegsforschung erklärt und mit staatlichen Geldern unterstützt. Grund dafür mag ein Gerücht gewesen sein, gemäß dem die deutsche Luftwaffe über Nebennierenrindenstoffe verfügte, die gegen Hypoxämie wirksam waren und den Piloten eine Flughöhe von über 40.000 Fuß ermöglichten. A.J. Birch: Steroid Hormones and the Luftwaffe.

190 | L EA H ALLER

drome, die aufgrund von einer fehlenden oder mangelhaften Ausschüttung von Nebennierenrindenhormonen unter Stress entstehen.46 Als die Firma Merck 1948 erstmals eine hinreichend große Menge des Compound E herstellen konnte, vermittelte Edward C. Kendall, jener Chemiker, der 1934 einen ersten Artikel über die Isolierung einer wirksamen Substanz aus Nebennierenrinden veröffentlicht hatte, die Probe an seinen Freund, den Rheumatologen der Mayo Clinic Philip Hench. Hench hatte bereits in den 1930er Jahren beobachtet, dass die Schmerzen von Rheumapatienten bei Gelbsucht, bei Hepatitis oder während einer Schwangerschaft gemildert waren. Er vermutete, dass rheumatische Erkrankungen eine Folge gescheiterter Adaptation des Körpers an Stress, eine so genannte Adaptationskrankheit sein könnte.47 Obwohl sich diese Vermutung später als falsch herausstellte, übertraf der Erfolg seines unsystematischen klinischen Versuchs alle Erwartungen. Er hatte die Substanz einer Patientin injiziert, die seit Jahren an schwerer rheumatischer Arthritis litt und bisher auf keine Behandlung angesprochen hatte. »Schon nach zwei Tagen konnte sich die Patientin im Bett bewegen, am dritten Tag hatte sie keine Schmerzen mehr und stand erstmals auf. Nach einer Woche Behandlung nahm sie ein Taxi, fuhr in die Stadt und machte drei Stunden lang Einkäufe«, hieß es später in einem Grundlagenwerk zur Cortisonthe48 rapie. Am 13. April 1949 berichteten Hench und sein Team an der wöchentlichen Konferenz der Mayo Klinik vor einem größeren Ärztekreis über die antirheumatische Wirkung der neuen Substanz, die unter dem Namen Cortison zu einer der wichtigsten Innovationen der Nachkriegszeit werden sollte.

46 Vgl. H. Selye: The General Adaptation Syndrome. 47 Vgl. P.S. Hench: Effect of Spontaneous Jaundice; dazu auch H. Selye: Hormonal Production of Arthritis. 48 H. Kaiser/H.K. Kley: Cortisontherapie, S. 5; vgl. auch P.S. Hench: The Potential Reversibility of Rheumatoid Arthritis.

A NGEWANDTE FORSCHUNG ?

| 191

S CHLUSS Cortison war weder das Produkt einer strategischen pharmazeutischen Entwicklungspolitik, wie es die Rede von der »pharmazeutischen Revolution« der Nachkriegszeit nahelegt, noch das Produkt einer staatlich kontrollierten Forschungsförderung im Stil der Big Science. Es wurde auch nicht im Labor entwickelt, um dann als standardisiertes Produkt in der medizinischen Behandlung einer bestimmten, dafür prädisponierten Krankheit anzukommen. Im Gegenteil: gerade die frühen klinischen Versuche mit Nebennierenrindenextrakten (also der medizinisch-praktische Kontext) haben überhaupt erst die Grundlage geschaffen für ein chemisch-pharmazeutisches Joint-Venture mit unbekanntem Ausgang. Cortison ist aus einem heterogenen Unternehmen hervorgegangen, das quer zu den Institutionen und Disziplinen stand und an dem zahlreiche, ganz unterschiedlich motivierte Akteure beteiligt waren. Die Nebennierenrindenhormone waren immer Teil einer Praxis, die vorab darin bestand, in kommunikativen Akten Probleme zu delegieren, Lösungen vorzuschlagen und Verbindungen zu stabilisieren. Das designierte Ziel – die Bekämpfung der Addisonschen Krankheit – erwies sich noch vor der Markteinführung von Percorten als relativ unspektakuläre Zwischenstation und wurde weder von den involvierten Pharmabetrieben noch von den an diesen Hormonen arbeitenden Chemikern und Biologen als Grund angesehen, die Arbeit ad acta zu legen. Die Bemühungen um eine Synthese jener Hormone, die auf den Kohlehydratstoffwechsel wirkten, waren mit einem neuen Zugriff auf den Körper verbunden: Energie und Leistungssteigerung ersetzten das Dogma der Lebenswichtigkeit. Der Körper, der mit diesen neuen, bisher vernachlässigten Nebennierenrindenhormonen therapiert werden sollte, war nicht mehr ein mangelhafter Körper, sondern ein verbesserungsfähiger Körper. In den 1950er Jahren wurde ein solches Gluco-corticosteroid aufgrund einer Fehlannahme (Rheuma ist keine Adaptationskrankheit) zu einem der bedeutendsten Medikamente der Nachkriegszeit. Biologische Studien zur Adaptation des Körpers unter Stress, die während und nach dem Krieg forcierte chemische Forschung und eine hypothetische Korrelation von Rheuma und Nebennierenrindenhormonen hatten zu einem pharmazeutischen Produkt geführt, das die Therapie nachhaltig verändern sollte.

192 | L EA H ALLER

Cortison wirkt nicht, weil Rheuma ursächlich mit der körpereigenen Hormonproduktion verbunden ist, sondern obwohl die Krankheit damit nicht ursächlich zusammenhängt. Entsprechend heilt Cortison keine Krankheit, sondern unterdrückt die Symptome, solange es verabreicht wird. Das veränderte die medizinische Therapie. 1951 zitierte die Times einen Rheumatologen mit den Worten: »The prescription of a host of remedies the use of which is only sanctioned by outmoded conceptions of the etiology of the disease can no longer be defended.«49 Die Ätiologie, das heißt die Lehre der Krankheitsursachen, war nicht mehr maßgebend bei der Cortisontherapie. An ihre Stelle trat ein pragmatischer Umgang mit synthetischen Hormonen, der auf klinischer Evidenz beruhte: zentral war, dass es wirkt.

L ITERATUR Abel, John Jacob: »On Epinephrin, the Active Constituent of the Suprarenal Capsule and its Compounds«, in: American Journal of Physiology 2 (1899), S. iii-xxi. Addison, Thomas: On the Constitutional and Local Effects of Disease of the Supra-renal Capsules, London: Samuel Highley 1855. Bächi, Beat: Vitamin C für alle! Pharmazeutische Produktion, Vermarktung und Gesundheitspolitik (1933-1953), Zürich: Chronos 2009. Birch, Arthur J.: »Steroid Hormones and the Luftwaffe. A Venture into Fundamental Strategic Research and Some of its Consequences: The Birch Reduction Becomes a Birth Reduction«, in: Steroids 57 (1992), S. 363-377. Bomskov, Christian/Bahnsen, Karl: »Biologische Standardisierung des Hormons der Nebennierenrinde«, in: Naunyn-Schmiedeberg’s Archives of Pharmacology 178 (1935), S. 1-14. Borell, Merriley: »Organotherapy, British Physiology, and Discovery of the Internal Secretions«, in: Journal of the History of Biology 9 (1976), S. 235-268.

49 Treatment of Rheumatic Diseases: Medical Views on New Drugs, in: The Times, 01.01.1951.

A NGEWANDTE FORSCHUNG ?

| 193

Ciba: »Vom Anteil der CIBA an der Hormonforschung«, in: Die Information 11 (1955). Editorial: »Studies in Addison’s Disease; The Muirhead Treatment«, in: The Canadian Medical Association Journal 15 (1925), S. 410411. Everse, J. W. R./de Fremery, P.: »On a Method of Measuring Fatigue in Rats and its Application for Testing the Suprarenal Cortical Hormone (Cortin)«, in: Acta Brevia Neerlandica de Physiologia, Pharmacologia, Microbiologia 2 (1932), S. 152. Felsch, Philipp: »Ganzheit und ihre Apparaturen. Konstitutionelle Medizin um 1900«, in: Cornelius Borck/Volker Hess/Henning Schmidgen (Hg.): Mass und Eigensinn. Studien im Anschluss an Georges Canguilhem, München: Wilhelm Fink 2005, S. 135-156. Gaudillière, Jean-Paul: »Cartellisation et propriété intellectuelle: l’accord de 1939-1942 sur la Cortin«, in: Entreprises et histoire 36 (2004), S. 150-153. Gugerli, David/Kupper, Patrick/Speich, Daniel: Die Zukunftsmaschine. Konjunkturen der ETH Zürich 1855-2005, Zürich: Chronos 2005. Gugerli, David/Tanner, Jakob: »Wissen und Technologie«, in: Schweizerische Gesellschaft für Wirtschafts- und Sozialgeschichte (SGWSG) (Hg.): Wirtschaftsgeschichte der Schweiz im 20. Jahrhundert, Zürich: im Erscheinen. Haller, Lea: »Stress, Cortison und Homöostase. Künstliche Nebennierenrindenhormone und physiologisches Gleichgewicht, 19361950«, in: NTM Zeitschrift für Geschichte der Wissenschaften, Technik und Medizin 18 (2010), S. 169-195. Hartman, Frank A. et al.: »The Hormone of the Adrenal Cortex«, in: American Journal of Physiology 86 (1928), S. 353-359. Hench, Philipp S.: »Effect of Spontaneous Jaundice on Rheumatoid (Atrophic) Arthritis. Attempts to Reproduce the Phenomenon«, in: British Medical Journal 2 (1938), S. 394-398. Hench, Philipp S.: »The Potential Reversibility of Rheumatoid Arthritis«, in: Proc Staff Meet Mayo Clinic 24 (1949), S. 167-178. Hoagland, Hudson: »Adventures in Biological Engineering«, in: Science, New Series 100 (1944), S. 63-67.

194 | L EA H ALLER

Ingle, Dwight J.: »Work Performance of Adrenalectomized Rats Treated with 11-Desoxycorticosterone Sodium Phosphate and 11Desoxy-17-Hydroxycorticosterone«, in: American Journal of Physiology 133 (1941), S. 676-678. Kaiser, Hanns/Kley, Hans K.: Cortisontherapie. Corticoide in Klinik und Praxis. 11. Aufl., Stuttgart/New York: Thieme 2002. Kendall, Edward C.: »The Development of Cortisone as a Therapeutic Agent. Nobel Lecture, December 11, 1950«, in: (1950). Kendall, Edward C. et al.: »Isolation in Crystalline Form of the Hormone Essential to Life From the Suprarenal Cortex; Its Chemical Nature and Physiologic Properties«, in: Mayo Clinic Proceedings 9 (1934), S. 245-250. Langdon Brown, Walter: »The Principles of Internal Secretion«, in: British Medical Journal 2 (1920), S. 687-691. Long Hall, Diana: »The Critic and the Advocate: Contrasting British Views on the State of Endocrinolgy in the Early 1920s«, in: Journal of the History of Biology 9 (1976), S. 269-285. Lundvall, Bengt-Ake (Hg.): National Systems of Innovation. Towards a Theory of Innovation and Interactive Learning, London: Pinter Publishers 1992. Muirhead, A. L.: »An Autograph History of a Case of Addison’s Disease«, in: Journal of the American Medical Association (JAMA) 75 (1922), S. 556. Nelson, Richard R.: »What is Private and What is Public about Technology?«, in: Science, Technology, & Human Values 14 (1989), S. 229-241. Pincus, Gregory/Hoagland, Hudson: »Steroid Excretion and the Stress of Flying«, in: Journal of Aviation Medicine 14 (1943), S. 173193. Pincus, Gregory/Hoagland, Hudson: »Effects of Administered Pregnenolone on Fatiguing Psychomotor Performance«, in: Journal of Aviation Medicine 15 (1944), S. 98-135. Reichstein, Tadeus/Verzár, Fritz/Laszt, L.: »Activity of Corticosteron in the Glucose Test in Rats«, in: Nature 139 (1937), S. 331. Rogoff, Julius M./Stewart, George N.: »Studies on Adrenal Insufficiency in Dogs I: Control Animals Not Subjected to andy Treatment«, in: American Journal of Physiology 78 (1926), S. 683-710.

A NGEWANDTE FORSCHUNG ?

| 195

Rogoff, Julius M./Stewart, George N.: »Studies on Adrenal Insufficiency in Dogs V. The Influence of Adrenal Extracts on the Survival Period of Adrenalectomized Dogs«, in: American Journal of Physiology 84 (1928), S. 660-674. Selye, Hans: »A Syndrome Produced by Diverse Nocuous Agents«, in: Nature 138 (1936), S. 32. Selye, Hans: »Hormonal Production of Arthritis«, in: The Journal of the American Medical Association 124 (1944), S. 201-207. Selye, Hans: »The General Adaptation Syndrome and the Diseases of Adaption«, in: The Journal of Clinical Endocrinology 6 (1946), S. 117-230. Selye, Hans et al.: »On the Therapeutic Value of Adrenal Cortical Hormones in Traumatic Shock and Allied Conditions«, in: The Canadian Medical Association Journal 43 (1940), S. 1-8. Starling, Ernest H.: »The Croonian Lectures on the Chemical Correlation of the Functions of the Body«, in: The Lancet 166 (1905), S. 339-341. Staub, Hans: »Pharmakologie der Ermüdung«, in: Klinische Wochenschrift 21 (1942), S. 73-78. Steiger, Marguerite/Reichstein, Tadeus: »Partial Synthesis of a Crystallized Compound with the Biological Activity of the Adrenal-cortical Hormone«, in: Nature 139 (1937), S. 925-926. Stoff, Heiko: Ewige Jugend. Konzepte der Verjüngung vom späten 19. Jahrhundert bis ins Dritte Reich, Köln: Böhlau 2004. Swingle, Wilbur W./Pfiffner, J. J./Vars, H. M.: »The Cortical Hormone Requirement of the Adrenalectomized Dog, With Special Reference to a Method of Assay«, in: Journal of Biological Chemistry 104 (1934), S. 701-716. Virchow, Rudolf: »Zur Chemie der Nebennieren«, in: Archiv für pathologische Anatomie und Physiologie und für klinische Medicin (Virchows Archiv) 12 (1857), S. 481-483. Virchow, Rudolf: »Zum neuen Jahrhundert«, in: Archiv für pathologische Anatomie und Physiologie und für klinische Medicin (Virchows Archiv) 159 (1900), S. 1-23.

Wissenstransformationen

Implizites Wissen und Wissensvermittlung Ein Blick auf Polanyis Wissenschaftsphilosophie E VA -M ARIA J UNG

We can know more than we can tell. MICHAEL POLANYI

E INLEITUNG Der Begriff des ›impliziten Wissens‹ (›tacit knowledge‹), den der ungarisch-britische Philosoph Michael Polanyi prägte, findet über Fachgrenzen hinweg eine breite und vielseitige Verwendung. Er dient zumeist als Schlagwort für vor- und unterbewusste Wissensbestände, die sich auf spezifische Kontexte praktischer Fähigkeiten beziehen und nicht durch Sprache ausgedrückt werden können. So populär der Begriff auch ist – die Hintergründe und Zusammenhänge, in denen er in den Werken Polanyi steht, bleiben zumeist unbeachtet und sind kaum bekannt. Das Ziel dieses Beitrags ist es, die Bedeutung, die ›implizites Wissen‹ für Polanyis wissenschaftsphilosophische Gesamtkonzeption einnimmt, zu rekonstruieren. Es soll aufgezeigt werden, dass der Begriff des impliziten Wissens in einigen zeitgenössischen Debatten als ›terminus technicus‹ eine Bedeutungsverschiebung erfährt, die den ursprünglichen Intentionen Polanyis nicht gerecht wird.

200 | EVA -M ARIA J UNG

Darüber hinaus wird die Frage in den Mittelpunkt gestellt, welche Konsequenzen sich aus der impliziten Dimension des Wissens für die Wissensvermittlung ergeben. Obwohl Polanyi dafür plädiert, dass implizites Wissen sich prinzipiell nicht explizieren lässt, argumentiert er für eine zumindest graduelle Übertragbarkeit solchen Wissens. Einige grundlegende Probleme, vor die Polanyis Auffassung gestellt ist, werden aufgezeigt.

P OLANYI : V ON DEN N ATURWISSENSCHAFTEN ZU DEN S OZIAL - UND G EISTESWISSENSCHAFTEN Als Michael Polanyi 1948 den für ihn eigens geschaffenen Lehrstuhl für Social Studies an der Universität Manchester annahm, konnte er bereits auf eine beeindruckende Karriere als Naturwissenschaftler zurückblicken. Sein Interessenwechsel hin zu geistes- und sozialwissenschaftlichen Themen stieß bei seinen Fachkollegen teilweise auf großes Unverständnis, wurde er doch als außerordentliches Talent im Bereich der physikalischen Chemie mit guten Aussichten auf einen Nobelpreis gehandelt.1 Polanyi selbst betrachtete seine Ausbildungs- und Forschungsjahre in naturwissenschaftlichen Labors als wichtige Erfahrung, die ihm als Nährboden für seine philosophischen Überlegungen dienen sollte. In der Auseinandersetzung mit der Philosophie sah er keinen Bruch in seinem Werdegang, sondern betrachtete sie als »afterthought«2 seiner naturwissenschaftlichen Karriere. Auch in seiner zweiten akademischen Laufbahn erwies sich Polanyi als überaus produktiv und vielseitig. Die Unkonventionalität seiner Biographie bewahrt sich auch in seinen Schriften: Sie bedienen sich oft eigenständigen Methoden und Begrifflichkeiten und lassen sich nur schwer in die Debatten der Einzelwissenschaften einordnen. Polanyi nähert sich in seinen zahlreichen Beiträgen, die er zu unter-

1

Isaiah Berlins kommentierte Polanyis Fachwechsel etwa mit den folgenden Worten: »These Hungarians are strange. [...] Here is a great scientist given up the Nobel to write mediocre works of philosophy«, zit. nach M.T. Mitchell: Michael Polanyi, S. 17.

2

M. Polanyi: The Tacit Dimension, S. 3.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

| 201

schiedlichen Themen der Geistes- und Sozialwissenschaften verfasst hat, aus einer vielschichtigen innovativen Perspektive, die Fächergrenzen überschreitet. Insbesondere in der Wissenschaftsphilosophie des deutschsprachigen Raums ist Michael Polanyi nur eine Randfigur, die weitgehend von Thomas S. Kuhn überschattet wurde.3 So ist es wenig verwunderlich, dass der Begriff des ›impliziten Wissens‹ zwar eine weite Verwendung findet, aber die Zusammenhänge, in die dieses Konzept in Polanyis Werk eingebunden ist, zumeist unbeachtet bleiben.

P OLANYIS ›P ERSONAL K NOWLEDGE ‹ Der Begriff des ›persönlichen Wissens‹ (›personal knowledge‹) ist innerhalb Polanyis Philosophie dem des ›impliziten Wissens‹ vorgeschaltet und legt den Ausgangspunkt für die Entwicklung seines spezifischen Zugangs zu Wissensphänomenen offen. Polanyis Anliegen ist es, die Vorstellung eines vollständig unpersönlichen, abstrakten und objektiven Wissens zurückzuweisen. Die Auffassung, dass Wissenschaft ein solches Wissensideal anstrebe, sei völlig fehlgeleitet und könne der Natur menschlichen Wissens nicht gerecht werden. Polanyis Hauptkontrahent ist diesbezüglich Karl R. Popper, der sich explizit für ein solches Idealbild ausspricht: »Knowledge in this objective sense is totally independent of anybody’s claim to know; it is also independent of anybody’s belief, or disposition to assent or to assert, or to act. Knowledge in the objective sense is knowledge without a knower: it is knowledge without a knowing subject.«4

Polanyis Ziel ist es, der von Popper und anderen ›Objektivisten‹ vorgestellten ›kritischen Philosophie‹, die sich von der Anbindung an Traditionen und der Berufung auf Autoritäten und Dogmen zu lösen versucht, eine ›post-kritische Philosophie‹ gegenüber zu stellen. In de-

3

Vgl. hierzu H. Mai: Michael Polanyis Reduktionismuskritik.

4

K.R. Popper: Objective Knowledge, S. 109.

202 | EVA -M ARIA J UNG

ren Zentrum steht ein reformierter Wissensbegriff, der persönliche wie implizite Momente einschließt: »I want to establish an alternative ideal of knowledge, quite generally. Hence, the wide scope of this book and hence also the coining of the new term I have used for my title: Personal Knowledge. The two words may seem to contradict each other: for true knowledge is deemed impersonal, universally established, objective. But the seeming contradiction is resolved by modifying the conception of knowing.«5

Das Hauptanliegen der Wissensanalyse Polanyis ist demzufolge die Rückbindung von Wissen an das Wissenssubjekt. Diesem komme in jedem Wissensakt eine unverzichtbare Rolle zu, so dass Wissen immer als ›persönliches Wissen‹ aufzufassen sei. Diese Vorstellung solle jedoch nicht mit einem Subjektivismus einhergehen, sondern transzendiere vielmehr die Trennung zwischen subjektivistischen und objektivistischen Auffassungen. In welcher Weise Polanyi ›persönlichem Wissen‹ einen objektiven Charakter zuschreibt, soll an späterer Stelle diskutiert werden. Zunächst bleibt festzuhalten, dass Polanyis ›implizites Wissen‹ sich entgegen weit verbreiteter Ansichten nicht durch eine schlichte Gegenüberstellung zu ›explizitem Wissen‹ erfassen lässt. Polanyis Betonung impliziter Wissensmomente lässt sich nur im Zusammenhang seiner gesamten wissenschaftsphilosophischen Konzeption verstehen: Es ging ihm nicht darum, eine bestimmte, an Praxis gebundene Wissensform herauszustellen, sondern mit dem Konzept des ›persönlichen Wissens‹ eine grundständige Reformierung des Wissensbegriffs vorzulegen, die ihm auch als Bezugspunkt für seine sozial-, wirtschafts- und religionsphilosophischen Arbeiten diente. Die Suche nach einer angemessenen theoretischen Analyse von Wissen verweist für Polanyi auf eine ethische Dimension und berührt daher auch die Frage nach einer gerechten Gesellschafts- und Wirtschaftsordnung.6

5

M. Polanyi: Personal Knowledge, S. vii.

6

Vgl. etwa M. Polanyi: Science, Faith and Society, S. 7ff.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

D IE

IMPLIZITE

D IMENSION

DES

| 203

W ISSENS

Der Ausgangspunkt für die Entwicklung eines neuen Wissenskonzepts liegt für Polanyi in der Einsicht, dass Wissen über unsere Sprache hinausreicht: »we can know more than we can tell.« 7 Hiermit wendet er sich gegen die Auffassungen des frühen Wittgenstein und des logischen Positivismus, die darauf abzielen, alles wissenschaftliche Wissen auf Basissätzen zu begründen. Als Begründung für seine These dienen ihm insbesondere gestaltpsychologische Überlegungen: In welcher Weise der Grundsatz, dass das Ganze mehr ist als die Summe seiner Teile, für unser Wissen geltend gemacht werden könne, zeige sich insbesondere, wenn man praktische Fähigkeiten in den Blick nimmt. Als Beispiel zieht Polanyi unsere Fähigkeit der Gesichtserkennung heran:8 Wir können das Gesicht einer vertrauten Person zumeist mit einem Blick identifizieren. Wollen wir aber beschreiben, welche Anhaltspunkte uns dies ermöglichen, so gelangen wir in eine Reihe von Beschreibungen (etwa: »Die Nase der Person ist spitz«, »Die Augenbrauen sind buschig«, »Die Lippen sind schmal«), die zusammen genommen unsere Fähigkeit der Gesichtserkennung nicht erfassen können. Selbst wenn wir die Auflistung der Anhaltspunkte immer weiter fortführen und ausdifferenzieren, liefert sie uns keine Erklärung für das kohärente Ganze. Die Fähigkeit lässt sich nicht auf ein durch Sprache vermittelbares Wissen zurückführen. Nur mit der Bezugnahme auf die Unterscheidung zwischen ›fokaler‹ (›focal‹9) und ›subsidiärer‹, ›unterschwelliger‹ (›subsidiary‹10) Aufmerksamkeit können praktische Fähigkeiten laut Polanyi angemessen analysiert werden. Demzufolge lässt sich ›implizites Wissen‹ durch eine triadische Anordnung11 erläutern, die zum einen das Wissenssubjekt, zum anderen die subsidiär wahrgenommenen Einzelheiten und schließlich das fokussierte kohärente Ganze einschließt. Jeder

7

M. Polanyi: The Tacit Dimension, S. 4.

8

Vgl. ebd., S. 4ff.

9

Vgl. M. Polanyi: Personal Knowledge, insbes. S. 55-65.

10 Vgl. ebd. 11 Vgl. M.Polanyi/H. Prosch: Meaning, S. 38.

204 | EVA -M ARIA J UNG

Wissensakt ist durch eine ›implizite Integration‹12 der unterschwellig wahrgenommenen Einzelheiten und des kohärenten Ganzen gekennzeichnet. Er erfordert somit die kontinuierliche aktive Teilnahme des Wissenssubjekts: »All tacit knowing requires the continued participation of the knower, and a measure of personal participation is intrinsic therefore to all knowledge.«13 Durch die aktive Rolle des Wissenssubjekts ist jegliches Wissen durch persönliche Momente geprägt. Und dies gilt laut Polanyi nicht nur für paradigmatische praktische Fertigkeiten, sondern für jede Form des Wissens. Die Vorstellung eines vollständig explizierbaren Wissens sei eine Illusion: »tacit thoughts form an indispensable part of all knowledge.«14 Alles Wissen sei implizites Wissen oder gründe auf solchem Wissen: »All knowledge falls into one of these two classes: it is either tacit or rooted in tacit knowledge. The ideal of a strictly explicit knowledge is indeed selfcontradictory.«15 Jeder Wissensakt ist im Rahmen der triadischen Anordnung Polanyis durch eine ›von-zu-Relation‹ (›from-to-relation‹16) gekennzeichnet: Von den unterschwellig wahrgenommenen Besonderheiten der Situation richten wir unsere Aufmerksamkeit hin zu einem kohärenten Ganzen. Im Hinblick auf diese Relation unterscheidet Polanyi vier Aspekte, in denen sich der gestalttheoretische Grundsatz, dass das Ganze mehr als die Summe seiner Bestandteile ist, jeweils unterschiedlich manifestiert.17 Neben dem ›funktionalen Aspekt‹, der die Bedeutung der unterschwellig wahrgenommenen, nicht spezifizierbaren Besonderheiten für das Gelingen unserer Fertigkeiten betont, tritt hierbei ein ›phänomenaler Aspekt‹. Mit der impliziten Integration erfährt auch die Erscheinungsform der Gegenstände eine wesentliche Veränderung, die nicht auf die wahrgenommenen Einzelheiten reduzierbar ist. Zudem weist jeder Wissensprozess auch einen ›semantischen Aspekt‹ auf: Situationen gewinnen neue Bedeutungen, die sich

12 Vgl. M. Polanyi: The Tacit Dimension, S. 19ff. 13 M. Polanyi: Knowing and Being, S.152. 14 M. Polanyi: The Tacit Dimension, S. 20. 15 M. Polanyi: Knowing and Being, S. 195. 16 Vgl. M. Polanyi/H. Prosch: Meaning, S. 34. 17 Vgl. ebd., S. 34 ff.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

| 205

nicht aus ihren Bestandteilen erschließen lassen. Schließlich betont Polanyi mit dem Verweis auf einen ›ontologischen Aspekt‹, dass sich die ›von-zu-Relation‹ nicht nur auf unsere Erkenntnisse und Empfindungen, sondern auch auf die Beschaffenheit der Welt bezieht: Die implizite Integration führt nicht nur auf ein kohärentes Ganzes, das für uns eine andere Funktion, Erscheinungsform und Bedeutung gewinnt. Vielmehr legt sie offen, dass es unabhängig von unseren Erkenntnisfähigkeiten etwas gibt, das sich nicht auf die Summe seiner Bestandteile reduzieren lässt.

›I MPLIZITES W ISSEN ‹

UND

›K NOWING H OW ‹

Polanyis ›implizites Wissen‹ wird oft mit Gilbert Ryles ›knowing how‹ in Verbindung gebracht. Eine vorschnelle Parallelisierung der beiden Konzepte ist jedoch unangemessen. Zwar greifen beide auf ähnliche Beispiele, etwa auf alltägliche sensomotorische Fähigkeiten wie das Fahrradfahren zurück, um ihre Positionen zu begründen. Doch die Argumentationszusammenhänge, in denen die Begriffe stehen, sind höchst unterschiedlich. Ryle argumentiert gegen eine Strohmannposition, die er als ›intellektualistische Legende‹ bezeichnet und die einen bestimmten chronologischen Ablauf intelligenter Fähigkeiten postuliert:18 Demzufolge denkt die betreffende Person zunächst über bestimmte handlungsanleitende Propositionen, Regeln oder Handlungsmaxime nach und setzt dann in einem zweiten Schritt ihr theoretisches Wissen in die Praxis um. ›Knowing how‹ ist im Rahmen dieser Beschreibung auf propositionales Wissen bzw. Faktenwissen (›knowing that‹) rückführbar. Ryle zufolge ist dieses Modell von intelligenten Fähigkeiten einem völlig fehlgeleiteten kartesischen Dualismus verhaftet. Es widerspreche zum einen unserer Alltagserfahrung und der Phänomenologie praktischer Fähigkeiten, und führe zudem in einen infiniten Regress: Da das Abwägen und Nachdenken über bestimmte Propositionen eine intelligente Tätigkeit darstelle, die nach dem Erklärungsschema der Legende wiederum von einer solchen Tätigkeit des Nachdenkens und

18 Zu Ryles Argumentation vgl. G. Ryle: The Concept of Mind, Kapitel 2.

206 | EVA -M ARIA J UNG

Abwägens von Propositionen angestoßen werden müsste, und sich diese Reihung unendlich fortsetzen ließe, sei das Ausführen einer intelligenten Handlung schlicht unmöglich. Ryle stellt der intellektualistischen Legende eine eigene Analyse von ›knowing how‹ gegenüber, welche dieses als ›mehrspurige, erworbene Disposition‹ auffasst, d.h. als praktische Fähigkeit, die wir durch Praxis erlernen und die im Gegensatz zu bloßen Angewohnheiten ein hohes Maß an Flexibilität aufweist. Somit stellt ›knowing how‹ für Ryle eine eigenständige Wissensform dar, die nicht auf propositionales Wissen, d.h. auf ›knowing that‹ reduzierbar ist.19 Ryles Position erweist sich deswegen als problematisch, weil er im Unklaren belässt, auf welche Argumentationsebene die Unterscheidung der beiden Wissensformen zu beziehen ist. Die Gegenüberstellung von ›knowing how‹ und ›knowing that‹ kann sowohl der Erkenntnistheorie und der Sprachphilosophie wie auch der Philosophie des Geistes zugeordnet werden. Vor diesem Hintergrund ist es nicht verwunderlich, dass sich die Diskussionen um die Tragfähigkeit der Unterscheidung beider Wissensformen oft auf unterschiedliche Fragestellungen beziehen. Insbesondere die Debatten, die Jason Stanleys und Timothy Williamsons20 Zurückweisung der Ryle’schen Unterscheidung in jüngerer Zeit ausgelöst haben, bezeugen dies.21 Polanyi und Ryle wenden sich zwar beide gegen eine Reduzierbarkeit allen Wissens auf sprachlich vermittelbares Faktenwissen und stellen unter Rückgriff auf praktische Fähigkeiten bestimmte Manifestationsmöglichkeiten des Wissens jenseits der sprachlichen Ausdrucksfähigkeit ins Zentrum. Doch zielt Polanyis Wissenschaftsphilosophie nicht auf eine Gegenüberstellung von theoretischen und prakti-

19 In einem 1945 erschienenen Aufsatz spricht Ryle ›knowing how‹ sogar ein Primat zu und argumentiert dafür, dass ›knowing that‹ auf solches Wissen reduzierbar ist. Vgl. G. Ryle: Knowing How and Knowing That. Diese Vorstellung wird allerdings in dem vier Jahre später erschienenen »The Concept of Mind« nicht wieder aufgegriffen. 20 J. Stanley/T. Williamson: Knowing How. 21 Vgl. hierzu E.-M. Jung: Probleme mit dem Wissensbegriff; E.-M. Jung/A. Newen: Knowledge and Abilities; sowie Dies: Understanding Knowledge in a New Framework.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

| 207

schen Wissensformen ab: Er versucht durch die Konzepte des ›persönlichen‹ und ›impliziten Wissens‹ vielmehr, einen neuen Standpunkt zu begründen, von dem aus alle Wissensphänomene zu betrachten sind. Diesem Umstand kann eine Parallelisierung von ›implizitem Wissen‹ und ›knowing how‹ nicht gerecht werden. Doch auch in Diskussionskontexten, in denen ein Bedeutungsunterschied der beiden Begriffe eingeräumt wird, verbleibt die ursprüngliche Polanyi’sche Vorstellung des ›impliziten Wissens‹ zumeist unbachtet: So verweist beispielsweise Jerry Fodor im Rahmen der Frage nach der Formalisierbarkeit praktischer Fertigkeiten am Beispiel des Schuhe-Bindens auf die funktionale Rolle des ›tacit knowledge‹.22 Dieses Wissen bezieht sich aber in Fodors Argumentation auf ein unbewusstes Wissen über Regeln und Handlungsanweisungen, das prinzipiell formalisierbar ist. Mit dieser Bedeutungsgebung findet der Begriff als ›terminus technicus‹ in den Kognitions- und Neurowissenschaften eine weite Verwendung: ›implizit‹ wird oft schlicht mit ›unbewusst‹ parallelisiert. Polanyis These, dass ›implizites Wissen‹ sich prinzipiell einer Formalisierung entzieht, findet vor diesem Hintergrund keine Berücksichtigung mehr.23

D IE K UNST

DES

W ISSENS

Polanyis Wissenskonzeption richtet sich gegen die Auffassung, dass Wissen und Wissenschaft auf einem expliziten Regelwerk beruht. Mit der Vorstellung von Wissen als ›Kunst‹ betont Polanyi vielmehr dessen kreativ-unkonventionellen Charakter. Diesen bezieht er nicht nur auf die ohnehin schon künstlerisch-kreativen Wissensbereiche, sondern auf die gesamte Wissenschaft: »We may conclude quite generally that no science can predict observed facts except by relying with confidence upon an art: the art of establishing by the

22 Vgl. J. Fodor: The Appeal to Tacit Knowledge. 23 Zoltan Dienes und Josef Perner stellen eine differenziertere Theorie impliziten Wissens dar, die aber auch nicht auf Polanyi Bezug nimmt: Vgl. hierzu: Z. Dienes/J. Perner: A Theory of Implicit and Explicit Knowledge.

208 | EVA -M ARIA J UNG

trained delicacy of eye, ear, and touch a correspondence between the explicit predictions of science and the actual experience of our senses to which these predictions shall apply.«24

Auch Wissenschaften, die sich formalisierter Sprachen bedienen, sei dieser Kunstcharakter zuzuschreiben. So erfordere die angemessene Verwendung der Sprache in wissenschaftlichen Kontexten ebenso wie im Alltag ein hohes Maß an implizitem Wissen, ohne das Bedeutungen nicht erkannt und in ihren Zusammenhängen verstanden werden können. Selbst ein auf den ersten Blick streng formales System wie das mathematisch-logische sei letztlich in implizitem Wissen begründet: »a mathematical theory can be constructed only by relying on prior tacit knowing and function as a theory only within an act of tacit knowing, which consists in our attending from it to the previously established experience on which it bears.«25

Auch die grundlegenden Vorgänge, durch die sich jede Wissenschaftspraxis auszeichnet, beispielsweise das Erkennen eines Problems oder das Auffinden geeigneter wissenschaftlicher Fragestellungen, werden in Polanyis Wissenstheorie auf implizite Integrationen und somit auf persönliche Momente zurückgeführt. Aus seiner Charakterisierung von Wissen als aktiven, künstlerischen Prozess lässt sich auch die unverzichtbare Rolle erschließen, die Polanyi dem Körper für Wissensakte zuschreibt: »Our body is the ultimate instrument of all our external knowledge, whether intellectual or practical. In all our waking moments we are relying on our awareness of contacts of our body with things outside for attending to these things.«26

24 M. Polanyi/H. Prosch: Meaning, S. 31. 25 M. Polanyi: The Tacit Dimension, S. 21. 26 Ebd., S. 15f.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

| 209

Nicht der Sprache, sondern dem Körper kommt innerhalb Polanyis Wissenskonzeption die grundlegende Funktion des Wissensmediums zu. Jeder Wissensprozess verlangt demzufolge ein empathisches ›Innewohnen‹ (›indwelling‹) des betreffenden Wissenssubjekts, das einer passiven Beobachtung gegenübersteht: »The use of the term ›indwelling‹ applies here in a logical sense as affirming that the parts of the external world that we interiorise function in the same way as our body functions when we attend from it to things outside. In this sense we live also in the tools and probes which we use, and likewise in our intellectual tolls and probes. To apply a theory for understanding nature is to interiorise it.«27

Mit der Betonung der körperlichen Bedingungen für Wissensvorgänge greift Polanyi eine Vorstellung auf, die in den Kognitionswissenschaften seit einigen Jahren im Rahmen der Forschungsrichtung der ›embodied cognition‹28 große Popularität errang. Ausgehend von der These, dass mentale Zustände grundlegend von körperlichen Bedingungen geformt werden, werden hier – zumeist unter Rückgriff auf phänomenologische Überlegungen Merleau-Pontys, Husserls und Heideggers – Konzepte zur Analyse des menschlichen Geistes und der Kognition vorgestellt.29 Auf Polanyis Wissenskonzeption wird innerhalb dieser neueren Debatten meist nicht explizit Bezug genommen; dennoch betonte Marjorie Grene bereits 1966 in einem Buch, das Polanyi gewidmet ist, grundlegende Zusammenhänge zwischen dessen Wissenschaftsphilosophie und der Phänomenologie Merleau-Pontys.30

27 M. Polanyi: Science and Religion, S. 8. 28 Vgl. hierzu F. Varela/E. Thompson/E. Rosch: The Embodied Mind. 29 Vgl. etwa S. Gallagher: How the Body Shapes the Mind. 30 Vgl. M. Grene: The Knower and The Known.

210 | EVA -M ARIA J UNG

D IE V ERMITTLUNG

IMPLIZITEN

W ISSENS

Polanyis Wissenskonzeption stellt die Frage nach der Wissensvermittlung in ein neues Licht.31 Die implizite und persönliche Dimension des Wissens schließt eine erfolgreiche Übertragung auf der Grundlage von Lehrbüchern und sprachlicher Unterweisung aus. Als Kunst kann Wissen nur durch Praxis und ein geeignetes Lehrer-Schüler-Verhältnis erlernt und vermittelt werden. Polanyi zufolge muss daher ein kontextgerechtes ›Lernen am Beispiel‹ im Vordergrund stehen: »Connoirship, like skill, can be communicated only by example, not by precept«32 Insbesondere ›ostensive‹, situationsbezogene Definitionen spielen, so Polanyi, für das Lehren und Lernen eine bedeutende Rolle; sie erfordern ein hohes Maß an Empathie und Vertrauen auf Seiten der Schüler und Dozenten.33 Die besonderen Herausforderungen für die Vermittlung praktischen Wissens implizieren zudem eine enge Anbindung der Wissenschaft an Tradition und Autoritäten: »To learn by example is to submit to authority. [...] A society which wants to preserve a fund of personal knowledge must submit to tradition.«34 Diese Auffassung kontrastiert Polanyi mit einem Verständnis von Wissensvermittlung, das durch Poppers kritischen Rationalismus nahe gelegt wird: »it appears then that traditionalism, which requires us to believe before we know, and in order that we may know, is based on a deeper insight into the nature of knowledge and of the communication of knowledge than is a scientific rationalism that would permit us to believe only explicit statements based on tangible data and derived from these by a formal inference, open to repeating testing.«35

31 Wenig verwunderlich erscheint vor diesem Hintergrund die weite Reputation seiner Philosophie in den Erziehungswissenschaften. Vgl. etwa G.H. Neuweg: Könnerschaft und implizites Wissen. 32 M. Polanyi: Personal Knowledge, S. 54. 33 Vgl. ebd. 34 Ebd., S. 53. 35 M. Polanyi: The Tacit Dimension, S. 61f.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

| 211

An die Stelle einer sprachlichen Wissensvermittlung tritt innerhalb Polanyis Philosophie somit eine kontextabhängige Lerntheorie, die hohe Anforderungen an die beteiligten Akteure stellt. Die erfolgreiche Vermittlung von Wissen jenseits der Sprache verlangt, dass bestimmte Wissenssituationen, soziale Kontexte oder ›Lebensformen‹ geteilt werden. Polanyis Rückbindung des Wissensbegriffs an das Subjekt lässt keine beliebig formale Übermittlung von Wissen zu; vielmehr wird Wissensvermittlung selbst zu etwas Persönlichem. Dies führt zu der Frage, wie eine Wissensverständigung möglich ist, wenn die geforderte Nähe der betreffenden Personen ausbleibt und soziale wie kulturelle Kontexte sich wesentlich unterscheiden. Durch Bezugnahme auf Studien über die zentralafrikanische Volksgruppe Azande spricht sich Polanyi dafür aus, dass es durchaus ›logische Lücken‹ (›logical gaps‹36) zwischen konkurrierenden Wissenssystemen unterschiedlicher Kulturen geben kann, die eine Vermittlung unmöglich machen. Diese Vorstellung wird oft als Vorgriff des Konzepts der ›Inkommensurabilität‹ gewertet, das Feyerabend und Kuhn zeitgleich entwickelten.37 In diesem Zusammenhang wird Polanyi oftmals fälschlicherweise als Relativist verstanden. Er selbst spricht sich aber explizit gegen einen Relativismus aus. Polanyis Argumentation lässt sich hierbei nur vor dem Hintergrund seines wissenschaftlichen Realismus verstehen: »We can account for this capacity of ours to know more than we can tell if we believe in the presence of an external reality with which we can establish contact. This I do. I declare myself committed to the belief of an external reality gradually accessible to knowing, and I regard all true understanding as an intimation of such a reality which, being real, may yet reveal itself to our deepened understanding in an indefinite range of unexpected manifestations.«38

Wissenssubjekte gewinnen demzufolge einen graduellen Kontakt zu einer objektiven Realität. Trotz seiner impliziten Momente weist unser

36 Vgl. M. Polanyi: Personal Knowledge, S. 287 ff. 37 Vgl. P. Feyerabend: Against Method sowie T.S. Kuhn: The Structure of Scientific Revolution. 38 M.Polanyi: Knowing and Being, S. 133.

212 | EVA -M ARIA J UNG

Wissen laut Polanyi daher eine ›universelle Bedeutung‹ (›universal intent‹39) auf. ›Personal Knowledge‹ verliert vor diesem Hintergrund seinen subjektivistischen Charakter und wird zu einer Wissensform, die Objektivismus und Subjektivismus transzendieren soll.40 Eine Rettung vor relativistischen Tendenzen erhofft sich Polanyi durch den Verweis auf ein ›Commitment‹41 der Wissenssubjekte, das an ihre ›intellektuellen Leidenschaften‹42 gebunden ist. Die Frage nach einer geeigneten Wissensübertragung, die über Gruppen hinausgeht, die soziale und kulturelle Kontexte teilen, bleibt aber vor diesem Hintergrund ungeklärt: Weder gibt Polanyi Kriterien dafür an, wie diese funktionieren kann, ohne dass die persönliche Dimension des Wissens verletzt wird; noch zeigt er auf, wie vermeintliche ›logische Lücken‹ zwischen Wissenssystemen aufgelöst werden können. Der universelle Charakter unseres Wissens wird aus Polanyis Auffassung der Wissensübertragung so nicht verständlich. Lern- und Lehrsituationen scheinen demzufolge auf ›geschlossene Gesellschaften‹ beschränkt zu sein. Nur durch eine stärkere Fokussierung auf epistemische Vermittlungen und Konflikte zwischen diesen Gruppen hätte Polanyi eine Überbrückung von der persönlichen und der universellen Ebene des Wissens erkennbar machen können.

S CHLUSS Mit den Begriffen des persönlichen und impliziten Wissens entwickelt Polanyi eine Wissenstheorie, die weit über den Verweis auf die Bedeutung unbewusster Vorgänge für Wissensprozesse hinausreicht. Polanyis Ziel ist es, die komplexen Zusammenhänge, in die jeder Wissensakt eingebunden ist, und die aktive Rolle des Wissenssubjekts zu berücksichtigen. Hiermit gelingt ihm eine situationsgerechte und differenzierte Beschreibung von Wissensprozessen. Die Frage nach einer geeigneten Wissensvermittlung bleibt aber innerhalb der Wissenstheo-

39 Vgl. M. Polanyi: Personal Knowledge, S. 37. 40 Vgl. ebd., S. 17. 41 Vgl. ebd., S. 299 ff. 42 Vgl. ebd., S. 132 ff.

I MPLIZITES W ISSEN UND W ISSENSVERMITTLUNG

| 213

rie Polanyis ungeklärt: Die Übertragung von Wissen scheint zu einer persönlichen, privaten Angelegenheit zu werden. Wie Wissen sich an Schnittstellen von Wissenssystemen unterschiedlicher sozialer und kultureller Gruppen verhält, wird vor diesem Hintergrund nicht deutlich.

L ITERATUR Dienes, Zoltan/Perner, Josef: »A Theory of Implicit and Explicit Knowledge«, in: Behavioral and Brain Sciences 22 (1999), S. 735808. Feyerabend, Paul: Against Method: Outline of an Anarchistic Theory of Knowledge, London: Verso 1975. Fodor, Jerry: »The Appeal to Tacit Knowledge in Psychology«, in: The Journal of Philosophy 65 (1968), S. 627-640. Gallagher, Shaun: How the Body Shapes the Mind, New York: Oxford University Press 2005. Grene, M.: The Knower and the Known, New York: Basic Books 1966. Jung, Eva-M.: »Probleme mit dem Wissensbegriff«, in: Information Philosophie 3 (2010), S. 18-27. Jung, Eva-M./Newen, Albert: »Knowledge and Abilities: The Need for a New Understanding of Knowing-how«, in: Phenomenology and the Cognitive Science 9 (2010), S. 113-131. Jung, Eva-M./Newen, Albert: »Understanding Knowledge in a New Framework: Against Intellectualism as a Semantic Analysis and as an Analysis of Mind«, in: Albert Newen/Andreas Bartels/Eva-M. Jung (Hg.): Knowledge and Representation, Stanford: CSLI Publications 2011, S. 79-105. Kuhn, Thomas S.: The Structure of Scientific Revolutions, Chicago: University of Chicago Press 1962. Mai, Helmut: »Michael Polanyis Reduktionismuskritik«, in: Zeitschrift für philosophische Forschung 63 (2009), S. 562-580. Mitchell, Mark T.: Michael Polanyi: The Art of Knowing, Wilmington: ISI Books 2006.

214 | EVA -M ARIA J UNG

Neuweg, Georg-H.: Könnerschaft und implizites Wissen. Zur lehrund lerntheoretischen Bedeutung der Erkenntnis- und Wissenstheorie Michael Polanyis, Münster und New York: Waxmann 1999. Popper, Karl R.: Objective Knowledge: An Evolutionary Approach. Oxford: The Clarendon Press 1972. Polanyi, Michael: Science, Faith and Society, Chicago: University Press of Chicago 1946. Polanyi, Michael: Personal Knowledge, London: Routledge & Kegan Paul 1958. Polanyi, Michael: »Science and Religion«, in: Philosophy Today 7 (1963), S. 4-14. Polanyi, Michael: The Tacit Dimension, London: Routledge & Kegan Paul 1966. Polanyi, Michael/Prosch, Harry (Hrsg.), Meaning. Chicago: University of Chicago Press 1975. Ryle, Gilbert: »Knowing How and Knowing That«, in: Proceedings of the Aristotelian Society 46 (1945), S. 1-16. Ryle, Gilbert: The Concept of Mind, London: Hutchinson 1949. Stanley, Jason/Williamson, Timothy: »Knowing how«, in: Journal of Philosophy 98 (2001), S. 411-444. Varela, Francisco J./Thompson, Evan T./Rosch, Eleanor: The Embodied Mind: Cognitive Science and Human Experience, Cambridge, MA: The MIT Press 1992.

›Hirnforschung‹ zwischen Labor und Talkshow Ideal der Wissenstransformation?1 T ORSTEN HEINEMANN

Neurowissenschaftliche Forschung, im medialen Kontext meist als »Hirnforschung« bezeichnet, ist heute in aller Munde. Kaum eine wissenschaftliche Disziplin hat es in den vergangenen Jahren geschafft, eine vergleichbare öffentliche Aufmerksamkeit zu erregen. Es vergeht kaum ein Tag, an dem nicht in einer Tages- oder Wochenzeitung, einem populärwissenschaftlichen Dokumentarfilm oder sonstigen massenmedialen Format über die Entdeckungen der Neurowissenschaften berichtet wird. Parallel zu einem umfassenden wissenschaftlichen Erkenntnisfortschritt ist es den Neurowissenschaften gelungen, das im Labor produzierte Wissen verschiedenen Öffentlichkeiten, anderen wissenschaftlichen Disziplinen ebenso wie der Medienöffentlichkeit, zugänglich zu machen.2 Die populärwissenschaftlichen Beiträge der

1

Ich danke Bodo Hahn-Dehm, Linda Heinemann, Christine Resch und Heinz Steinert sowie den Organisatorinnen und Teilnehmerinnen der Tagung »Knowledge has left the building« für wertvolle Hinweise und anregende Diskussionen.

2

Der hier verwendete Begriff von Öffentlichkeit umfasst verschiedene Ebenen oder Stufen. Zu unterscheiden ist zwischen der »Fachwissenschaft«, das heißt dem Fach im engeren Sinn, der »Fachöffentlichkeit«, also anderen wissenschaftlichen Disziplinen, und einer »breiten Öffentlich-

216 | TORSTEN H EINEMANN

›Hirnforschung‹ werden mit regem Interesse zur Kenntnis genommen und kontrovers diskutiert. Die Spannbreite der Reaktionen reicht von euphorischer Begeisterung und Bewunderung der wissenschaftlichen Leistungen über zurückhaltende Skepsis bis hin zu offener Kritik an der Popularität des Fachs. Schon ist die Rede von der »Neuro-Revolution«, die gleichermaßen Auswirkungen auf das Selbstverständnis der Menschen als auch die Gesellschaft hätte.3 Bei aller Kritik ist festzuhalten, dass die Neurowissenschaften sowohl im Labor als auch in der Popularisierung4 von Wissen große Fortschritte gemacht und zum Teil neue Maßstäbe gesetzt haben. Damit scheinen die Neurowissenschaften ein sehr gutes Beispiel für die gelungene Popularisierung von wissenschaftlichem Wissen und dem Transfer von Laborsituationen in andere gesellschaftliche Bereiche zu sein. Doch sind die Neurowissenschaften tatsächlich ein Ideal der Wissenstransformation? Gibt es neurowissenschaftliche Errungenschaften im Bereich der Popularisierung von Wissen, die als sinnvoller Orientierungspunkt für andere Wissenschaften dienen können? Welche Risiken und Probleme sowie Konsequenzen sind mit der Wissenstransformation verbunden? Diese Fragen sowie damit einhergehende Themenkomplexe sollen im Folgenden bearbeitet und kritisch analysiert werden. Im Rahmen dreier längerer Forschungsaufenthalte in führenden amerikanischen

keit«. Dieses Stufenmodell der Öffentlichkeit geht ursprünglich auf Ludwik Fleck zurück und wurde später zu einem umfassenden Stufenmodell der Öffentlichkeit weiterentwickelt. Siehe hierzu S. Nikolow/A. Schirrmacher: Das Verhältnis von Wissenschaft und Öffentlichkeit, S. 27-31; A. Schirrmacher: Nach der Popularisierung, S. 83. 3 4

Z. Lynch: The Neuro Revolution. Im Anschluss an die Definition von Whitley meint Popularisierung hier nichts anderes als die Transformation von Wissen aus dem Entstehungskontext in einen anderen Kontext. Es ist damit ausdrücklich keine normative Vorstellung verknüpft. Vielmehr wird der Begriff den Ausführungen Kretschmanns folgend, deskriptiv verwendet, um allgemein Prozesse der Wissenstransformation zu beschreiben. Siehe hierzu C. Kretschmann: Wissenschaftspopularisierung – Ansätze und Konzepte, S. 84f; C. Kretschmann: Wissenschaftspopularisierung – Verfahren und Beschreibungsmodelle; R. Whitley: Knowledge Producers, S. 12.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 217

und deutschen neurowissenschaftlichen Instituten in den Jahren 2007 und 2008 hatte ich Gelegenheit, mich intensiv mit Fragen der Transformation wissenschaftlichen Wissens auseinanderzusetzen. Die in diesem Zusammenhang entstandenen Beobachtungs- und Gsprächsprotokolle sowie zwölf qualitative Interviews mit Neurowissenschaftlerinnen5 dienen als Material der Analyse. Zudem wurden verschiedene populärwissenschaftliche Beiträge der ›Hirnforschung‹ herangezogen, auf die im Text gesondert verwiesen wird. Um den aufgeworfenen Fragen nachzugehen, wird zunächst ein historischer Überblick des Verhältnisses der (Natur-)Wissenschaften zu verschiedenen Öffentlichkeiten gegeben bevor in einem zweiten Schritt zentrale Aspekte und Errungenschaften der neurowissenschaftlichen Medienpräsenz herausgearbeitet werden. Anschließend werden die Probleme der Popularisierung und Medialisierung dargestellt und interpretiert. Abschließend wird die neurowissenschaftliche Wissenstransformation kritisch reflektiert und theoretisch verortet.

P OPULARISIERUNG WISSENSCHAFTLICHEN WISSENS. Z UM V ERHÄLTNIS VON N ATURWISSENSCHAFT UND Ö FFENTLICHKEIT Die Thematik des Transfers von Wissen aus dem Labor in andere gesellschaftliche Bereiche ist alles andere als neu. Bereits seit der Herausbildung der modernen Wissenschaften im Zeitalter der Aufklärung wird die Frage nach dem Verhältnis der (Natur-)Wissenschaften zu verschiedenen Öffentlichkeiten und damit verbunden der Popularisierung von Wissen immer wieder gestellt und ganz unterschiedlich beantwortet.6 Im ausgehenden 17. und 18. Jahrhundert war es das Ziel,

5

Gegenüber dem großen »I« habe ich gewisse sprachästhetische Hemmungen. Gleiches gilt für Schreibweisen wie »_innen« oder »/innen«. Deshalb gilt für den gesamten Text, dass verschiedentlich sowohl das generalisierte Femininum als auch das generalisierte Maskulinum verwendet wird.

6

Den Wandel der bürgerlichen Öffentlichkeit, der »eingebettet [ist] in die Transformation von Staat und Ökonomie«, hat Habermas in seinem Buch Strukturwandel der Öffentlichkeit umfassend dargelegt. Ebd. S. 12.

218 | TORSTEN H EINEMANN

durch die Popularisierung wissenschaftlichen Wissens überhaupt eine Akzeptanz für wissenschaftliches Denken und Arbeiten zu etablieren und sicherzustellen. Die ab 1751 erschienene und von Diderot, D’Alembert und de Jaucourt herausgegebene Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des métiers ist das heute wohl bekannteste Medium aus dem Zeitalter der Aufklärung.7 Anschließend folgte mit dem 19. Jahrhundert eine Phase, die durch einen von der Wissenschaft ausgelösten Fortschrittswahn und eine bis dahin ungeahnte Wissenschaftsbegeisterung gekennzeichnet war.8 Die Naturwissenschaften ließen die interessierte Öffentlichkeit bereitwillig am wissenschaftlichen Erkenntnisfortschritt teilhaben und informierten in eigens dafür ins Leben gerufenen Medien gezielt über ihre neuesten Errungenschaften. Die heute wohl renommiertesten naturwissenschaftlichen Journale Nature und Science wurden beispielsweise ursprünglich mit dem vorrangigen Ziel gegründet, naturwissenschaftliches Wissen einer interessierten Öffentlichkeit zugänglich zu machen.9 In den 1920er Jahren veränderte sich das Verhältnis der Naturwissenschaften zu verschiedenen Öffentlichkeiten drastisch. Mit den bahnbrechenden physikalischen Entwicklungen der Relativitätstheorie und der Quantenmechanik wird der Öffentlichkeit, sowohl der breiten Öffentlichkeit als auch der Fachöffentlichkeit, vonseiten der Naturwissenschaft die Fähigkeit und auch das Interesse abgesprochen, den wissenschaftlichen Errungenschaften weiter zu folgen. Diese Theorien und die damit verbundenen Erkenntnisse würden radikal mit der Alltagswahrnehmung brechen, sodass lediglich Experten imstande seien, sie nachzuvollziehen und zu verstehen. Der Versuch einer Transformation dieses Wissens sei aussichtslos. Folglich wurden Bemühungen zur Popularisierung wissenschaftlichen Wissens auf ein Minimum reduziert und nahezu eingestellt.10 Es findet zwar weiterhin ein technisch-praktischer Transfer wissenschaftlicher Erkenntnisse in andere

7

P. Blom: Enlightening the World; R. Darnton: The Business of Enlight-

8

A. Schwarz: Vom Maschinenpark zum Futurama.

9

R. Barton: Just before Nature.

enment.

10 B. Bensaude-Vincent: A genealogy.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 219

Gesellschaftsbereiche statt und die Gesellschaft partizipiert mittelbar am Erkenntnisfortschritt der Wissenschaft, doch ein Wissenstransfer im eigentlichen Sinn, der das wissenschaftliche Wissen einem breiten Publikum verfügbar macht, ist kaum zu beobachten. Seit etwa drei Jahrzehnten ist eine neue Entwicklung in der Wissenskommunikation und -transformation zu beobachten, die auf mehrere Faktoren zurückzuführen ist. Mit den Katastrophen in Bhopal und Tschernobyl sowie dem Scheitern wissenschaftlicher Großprojekte wie dem Superconducting Super Collider, der bei Fertigstellung der weltgrößte Teilchenbeschleuniger gewesen wäre, aber aufgrund der unabsehbaren Kosten eingestellt wurde, als bereits zwei Milliarden US-Dollar investiert waren, wurde in verstärktem Maße die Frage nach dem Sinn naturwissenschaftlicher Forschung gestellt. Die Naturwissenschaften wurden in weiten Teilen der Gesellschaft als »esoterisches System«11 wahrgenommen, in dem von der Öffentlichkeit weitgehend unbeobachtet an Projekten gearbeitet wird, deren Nutzen nicht immer offensichtlich ist. Gleichzeitig wären die ökonomischen Kosten und ökologischen Folgen unabsehbar und mit großen Risiken verbunden, so der allgemeine Vorwurf.12 Vor diesem Hintergrund und aus einer eher defensiven Position heraus wurde innerhalb der Naturwissenschaften und allgemein in der Wissenschaftspolitik über Maßnahmen nachgedacht, wie die gesellschaftliche Akzeptanz zu verbessern und das Vertrauen in die Wissenschaft wieder herzustellen sei. In der Folge wurden Kommunikationskampagnen wie »Public Understanding of Science«, »Public Engagement with Science and Technology« oder »Wissenschaft im Dialog« ins Leben gerufen. Ziel war und ist es, sich den kritischen Fragen der Öffentlichkeit nach Kosten und Nutzen der naturwissenschaftlichen Forschung zu stellen und durch die Popularisierung wissenschaftlichen Wissens für eine größere Anerkennung und Wertschätzung der wissenschaftlichen Arbeit zu werben.13 Bei aller berechtigter Kritik an den genannten Initiativen zur Wissenschaftskommunikation kann man doch feststellen, dass sich die

11 T.S. Kuhn: The Structure of Scientific Revolutions. 12 U. Beck: Risikogesellschaft. 13 P. Weingart: Die Wissenschaft der Öffentlichkeit; I. Zetzsche: Wissenschaftskommunikation.

220 | TORSTEN H EINEMANN

Einstellung zu den Naturwissenschaften in der Folge merklich verbessert hat.14 Dieser Prozess eines neuerlichen Dialogs zwischen Wissenschaft und Gesellschaft ist eingebettet in einen grundsätzlichen gesellschaftlichen Wandel. Mit dem Ende des Fordismus wurde von verschiedenen Theoretikern eine stärker wissensbasierte Produktionsweise für das Zeitalter der postindustriellen Gesellschaft gefordert. Wissen, so die Idee, soll zur zentralen Ressource und Produktivkraft werden. Diese Überlegungen vereinen sich in der Gesellschaftstheorie der »Wissensgesellschaft«.15 Der Wissenschaft kommt dabei als bedeutender gesellschaftlicher Institution der Wissensgenerierung eine Schlüsselrolle zu und um diese auszufüllen, so ist allenthalben zu hören, sei es auch notwendig, dieses Wissen verschiedenen Öffentlichkeiten zugänglich zu machen. Damit sind zwei Implikationen verbunden: Wissenschaftliches Wissen wird in der Logik der ›Wissensgesellschaft‹ zunehmend nach Kriterien der Warenförmigkeit und Marktgängigkeit produziert und bewertet. Die wissenschaftlichen Disziplinen sollen und müssen auf einem, zum Teil noch im Aufbau befindlichen Markt um Forschungsgelder werben und die Ergebnisse ihrer Forschung feilbieten.16 Damit verändert sich der Stellenwert der Popularisierung von Wissen. Ihr kommt eine gleichbedeutende Rolle zu wie dem eigentlichen Prozess der Wissensgenerierung.17 Das Feld der Neurowissenschaften hat diese veränderten gesellschaftlichen Rahmenbedingungen sowie die wissenschaftspolitischen Anforderungen, wie bereits eingangs gezeigt, in besonderem Maße für die eigene Professionalisierung und Profilierung des Fachs zu nutzen

14 Office of Science and Technology/The Wellcome Trust: Science and the Public. 15 D. Bell: The Coming of Post-Industrial Society; M. Castells: The Rise of Network Society; P. Drucker: The Age of Discontinuity. N. Stehr: Arbeit, Eigentum und Wissen; kritische dazu C. Resch: Beraterkapitalismus; grundsätzlich zur Warenförmigkeit intellektueller Arbeit M. Horkheimer: Eclipse of Reason; M. Horkheimer/T.W. Adorno: Dialektik der Aufklärung. 16 D.C. Bok: Universities; S. Slaughter/L.L. Leslie: Academic Capitalism. 17 T. Heinemann: Die Wirklichkeit des Wissens.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 221

verstanden. Neurowissenschaftliche Forschung erfreut sich heute sowohl im wissenschaftlichen als auch populärwissenschaftlichen Kontext großer Beliebtheit. Die Neurowissenschaften sind entsprechend ein hervorragendes Beispiel, um den Prozess der Wissenstransformation aus dem Labor in andere Kontexte in seiner Vielschichtigkeit zu untersuchen und die damit verbundenen Errungenschaften und Konsequenzen für das wissenschaftliche Feld herauszuarbeiten.

E RRUNGENSCHAFTEN DER NEUROWISSEN SCHAFTLICHEN W ISSENSTRANSFORMATION Es dürfte weitestgehend unstrittig sein, dass die Neurowissenschaften grundlegende Fortschritte bezüglich des Wissens über das Gehirn und seine Funktionen gemacht haben. Angestoßen durch Innovationen in der Medizintechnik, unter anderem das Entwickeln neuer beziehungsweise verbesserter Verfahren der nicht-invasiven Bildgebung,18 konnten die Neurowissenschaften in den letzten Jahren wichtige Erkenntnisse über neuronale Prozesse gewinnen.19 Vorgänge im Gehirn können heute präziser beschrieben werden als je zuvor und es ist zu erwarten, dass dieser Erkenntnisfortschritt anhält. So gibt es beispielsweise im Bereich der Grundlagenforschung ein umfangreiches Wissen zur Funktionsweise der Sinnessysteme oder der Integration und dem Zusammenführen der Fülle von im Gehirn eingehenden Signalen zu einem konsistenten und stimmigen Bild.20 Doch der Erkennt-

18 Gemeint sind hier beispielsweise die funktionellen Magnetresonanztomographie (fMRT) und die Positronen-Emissions-Tomographie (PET). Auch die Elektroenzephalografie (EEG) und Magnetoenzephalographie (MEG), im eigentlichen Sinn keine bildgebenden Verfahren, bei denen die bildliche Darstellung für die Auswertung und Kommunikation der Ergebnisse ebenfalls von Bedeutung sind, spielen in diesem Zusammenhang eine wichtige Rolle. 19 C. Elger u.a.: Das Manifest. 20 L.L. Colgin u.a.: Frequency of gamma oscillations; P. Fries/D. Nikolié/W. Singer: The gamma cycle; W. Singer/O.D. Creutzfeldt: Reciprocal lateral inhibition.

222 | TORSTEN H EINEMANN

nisfortschritt ist nicht nur auf die Grundlagenforschung beschränkt, sondern hat auch unmittelbare Folgen für die anwendungsbezogene Forschung. Zwei Beispiele in diesem Bereich sind die Behandlung von psychiatrischen Erkrankungen wie Schizophrenie und Depression durch Eingriffe in den Neurotransmitter-Haushalt oder neue Therapieansätze für Tinnitus und Phantomschmerzen.21 Häufig werden der bisherige Erkenntnisfortschritt sowie die prognostizierten Entdeckungen der kommenden Jahre in erster Linie auf die technischen Innovationen und hier insbesondere der Bildgebung zurückgeführt, die es den Neurowissenschaften ermöglichen, »die biologische Natur von Wahrnehmung, Lernen, Gedächtnis, Denken, Bewusstsein und die Grenzen des freien Willens [zu] verstehen«.22 Tatsächlich ist eine solche Betrachtungsweise äußerst einseitig. Sie unterschätzt die Bedeutung wissenschaftspolitischer Entscheidungen sowie insbesondere die neurowissenschaftlichen Leistungen im Bereich der Transformation wissenschaftlichen Wissens, die maßgeblich zur Popularität und dem wissenschaftlichen Erfolg des Fachs beigetragen haben. Doch welchen Stellenwert hat die Popularisierung wissenschaftlichen Wissens für die ›Erfolgsgeschichte‹ der Neurowissenschaften? Es lassen sich zwei Bereiche identifizieren, in denen der Transfer von Wissen eine wichtige Rolle spielt und die den Erfolg verdeutlichen. Diese Bereiche sind mit unterschiedlichen Öffentlichkeiten beziehungsweise Kontexten verbunden, in denen eine Transformation von Wissen stattfindet: die Fachöffentlichkeit und die breite Öffentlichkeit. Ist die Rede von der Popularisierung wissenschaftlichen Wissens, so denkt man schnell an die massenmediale Präsenz der Wissenschaften. Wie bereits angesprochen, ist es den Neurowissenschaften gelungen, in der medialen Berichterstattung unter dem Schlagwort ›Hirnforschung‹ eine exponierte Stellung einzunehmen, die weit über den

21 A. Carlsson: A paradigm shift; A. Carlsson/M.L. Carlsson: Adaptive properties; V. Ramachandran/D. Rogers-Ramachandran: Synaesthesia; E. Viirre: Cognitive neuroscience. 22 R. Kandel: Auf der Suche.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 223

Kern neurowissenschaftlicher Forschung hinausreicht.23 ›Hirnforscher‹ äußern sich zu verschiedensten gesellschaftlichen Themenbereichen und transformieren ihr wissenschaftliches Wissen zu diesem Zweck in verschiedenste Kontexte. Beispielhaft seien an dieser Stelle Zeitschriften wie Gehirn&Geist, Scientific American Mind und BrainWorld oder Fernsehsendungen wie Geist und Gehirn von Manfred Spitzer sowie Scobel von Gert Scobel genannt, die der ›Hirnforschung‹ als Plattform dienen.24 Sie sind dabei alles andere als zurückhaltend in ihren Prognosen und Ankündigungen des weiteren Erkenntnisfortschritts und wählen gezielt Themen, die ein breites Publikum ansprechen sollen.25 Nimmt man die Rezeption und Verbreitung wissenschaftlicher Themen als ein Erfolgskriterium der Wissenstransformation, so sind die Neurowissenschaften ohne Zweifel ein Paradebeispiel der Popularisierung. Sie erfüllen in besonderem Maße die Normen, die von Initiativen wie Wissenschaft im Dialog vorgeschlagen werden. Sofern man diese Normen teilt, sind die Neurowissenschaften zweifellos ein wünschenswertes Ideal der Popularisierung und Wissenschaftskommunikation. Eine derart umfangreiche Medienpräsenz der Neurowissenschaften wäre ohne die fachwissenschaftlichen Fortschritte kaum denkbar. Die Wissenstransformation in Bezug auf die Fachöffentlichkeit ist eine der großen Stärken der Neurowissenschaften, denn gerade durch diese Form der Popularisierung ist es der ›Hirnforschung‹ gelungen, aus einem interdisziplinären Forschungszusammenhang heraus eine eigene Disziplin zu institutionalisieren. Ursprünglich wurde neurowissenschaftliche Forschung in verschiedenen Disziplinen betrieben, allem voran der Medizin, Psychologie, Biologie und Chemie aber auch der Physik und Informatik. Seit den 1970er Jahren ist ein immer engeres Zusammenwachsen dieser Fachkulturen unter dem Label der Neuro-

23 L.V. Heinemann/T. Heinemann: ›Optimise your brain!‹. 24 Die Palette neurowissenschaftlicher Medienprodukte erschöpft sich bei weitem nicht in den genannten Medien und Formaten. Siehe beispielhaft F.A.Z.-Hörbucher: Hirnforschung Bd. 1 u. 2; G. Hüther: Bedienungsanleitung fürs Gehirn; G. Hüther: Männer; M. Spitzer: Vom Sinn des Lebens. M. Spitzer/W. Bertram: Hirnforschung für Neu(ro)gierige. 25 M. Hagner/C. Borck: Brave Neuro Worlds, S. 22ff.

224 | TORSTEN H EINEMANN

wissenschaften zu beobachten. Besucht man heute ein neurowissenschaftliches Institut, so trifft man auf Wissenschaftlerinnen mit unterschiedlichen Studienabschlüssen, die sich jedoch ihrem Selbstverständnis nach alle als Neurowissenschaftlerinnen bezeichnen. Dieser Integrationsprozess wird von den Wissenschaftlern damit begründet, dass es bei fast allen Beteiligten eine große Bereitschaft gibt, sich auf die anderen Schwerpunkte einzulassen und das eigene Wissen so zu präsentieren, dass es auch für entfernte Forschungsschwerpunkte anschlussfähig ist. Die Transformation von Wissen ist eine Grundvoraussetzung für den Verständigungsprozess und es ist immer wieder zu beobachten, dass selbst Neurowissenschaftler auf von Kolleginnen geschriebene populärwissenschaftliche Artikel zurückgreifen, um sich im Feld der Neurowissenschaften zu orientieren oder sich einen Überblick über ein neues Themengebiet zu verschaffen.26 Dieser Prozess sei nicht immer einfach und ohne gewisse »Verluste an Wissenschaftlichkeit« zu erreichen, wie es ein renommierter Neurowissenschaftler formuliert. Letztlich überwiegen die genannten Vorteile die Risiken und »der Erfolg gibt uns recht.« Wissenstransformation in andere fachwissenschaftliche Bereiche lässt sich entsprechend als elementarer Bestandteil der Laborarbeit identifizieren. Schon Fleck beschreibt in analoger Weise die Bedeutung der Popularisierung wissenschaftlichen Wissens für das Herausbilden eines gemeinschaftlichen Denkstils.27 Noch deutlicher als in der Zusammenarbeit der Kernfächer der Neurowissenschaften zeigt sich dieser Prozess in der Herausbildung diverser Bindestrich-Neurowissenschaften, wie beispielsweise der Neuro-Ökonomie, Neuro-Pädagogik, Neuro-Theologie und NeuroPhilosophie. Diese Projekte wären ohne die Bereitschaft und den Willen zu einer Popularisierung von Wissen nicht denkbar und diese Errungenschaften scheinen den beteiligten Forschern Recht zu geben. Die grundsätzliche Offenheit der Neurowissenschaften, sich auf andere Themengebiete einzulassen und das eigene Wissen so zu transformieren, dass fachfremde Forscher damit weiterarbeiten können, ist eine der großen Stärken der Disziplin. An diesem Punkt können andere Wissenschaften durchaus von der ›Hirnforschung‹ lernen, denn gerade

26 L.V. Heinemann/T. Heinemann: ›Optimise your brain!‹, S. 293f. 27 L. Fleck: Entstehung und Entwicklung, S. 146.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 225

an den Schnittstellen zwischen den verschiedenen Disziplinen gibt es großes Potential für vielversprechende Forschungsprojekte. Durch das Betonen von Fachgrenzen und einer ›Schrebergärtner-Kultur‹, bei der man eher um Abgrenzung als um wissenschaftliche Offenheit und einen intensiven Dialog mit benachbarten Disziplinen bemüht ist, bleiben viele Möglichkeiten zum Generieren neuen Wissens ungenutzt. Die Debatte um den »freien Willen« mag ein Gegenbeispiel für die hier dargestellte Offenheit und Bereitschaft zur Popularisierung zu sein, denn hier tritt die ›Hirnforschung‹ alles andere als integrativ und mit dem Ziel, sich auf andere Positionen einzulassen, in Erscheinung. In der Tat nimmt die Diskussion um den »freien Willen« eine Sonderstellung ein. Als handfester Kontrapunkt zu der oben genannten Argumentation taugt sie allerdings aus zwei Gründen nicht. Zum einen ist diese Debatte in erster Linie ein kulturindustriell geprägtes Ereignis und eine mediale Inszenierung. Es kann nicht einfach vom Mediendiskurs auf das tatsächliche Verhältnis von Fachwissenschaft und Fachöffentlichkeit geschlossen werden, da die Fachöffentlichkeit nicht der zentrale Adressat der Kontroverse ist. Zum anderen handelt es sich bei der konfrontativ geführten Debatte um eine Besonderheit des deutschen Sprachraums. In anderen Ländern spielt diese Diskussion kaum eine Rolle und eine derartige Kontroverse zwischen Neuro- und Geisteswissenschaften ist dort nicht oder kaum zu beobachten. Eine Verallgemeinerung ist also nicht ohne weiteres möglich. Allgemein lässt sich festhalten, dass der starke Fokus auf den Transfer von Wissen deutliche Wirkung zeigt: Die Neurowissenschaften sind heute nicht nur der Fachwissenschaft und Fachöffentlichkeit ein Begriff. Vielmehr wird in verschiedensten Diskursen und Diskussionen auf das populärwissenschaftliche Wissen Bezug genommen.28

28 G. Frazzetto/S. Anker: Neuroculture.

226 | TORSTEN H EINEMANN

D AS D IKTAT

DER

P OPULARISIERUNG

Auch wenn sich die Neurowissenschaften zweifellos um die Popularisierung wissenschaftlichen Wissens verdient gemacht haben und ihr Erfolg, wie oben argumentiert, zu einem großen Teil auf den fortwährenden Wissenstransfer in verschiedene Öffentlichkeitsbereiche zurückzuführen ist, ist es mehr als fraglich, ob die ›Hirnforschung‹ ein wünschenswertes Ideal der Wissenschaftskommunikation darstellt. Eine genaue Analyse des wissenschaftlichen Feldes sowie der Medienpräsenz der Neurowissenschaften macht auf verschiedene Problemkomplexe aufmerksam, die unmittelbar auf den Medienbezug und die Popularisierung neurowissenschaftlichen Wissens zurückzuführen sind. Dabei geht es nicht in erster Linie um die Tatsache, dass wissenschaftliches Wissen im Prozess der Popularisierung trivialisiert und dekontextualisiert wird. Die Kontextbezogenheit und die Komplexität von Wissen spielen bei der Transformation von Wissen eine wichtige Rolle. Nur allzu leicht kann die Qualität des Wissens leiden, wenn durch die Popularisierung zum Teil banale Bezüge hergestellt werden oder wichtige Kontextfaktoren nicht mehr zur Verfügung stehen, um einen Sachverhalt adäquat zu interpretieren. Diese Punkte sind zwar durchaus von Relevanz, jedoch lassen sie sich verhältnismäßig leicht kontrollieren und pragmatisch lösen. Im Folgenden werden drei Aspekte der Popularisierung aufgegriffen und reflektiert, die strukturelle Konsequenzen für die Wissenschaft an sich, das Generieren wissenschaftlichen Wissens und den Erkenntnisfortschritt haben. Hirnscans als Verkaufsschlager Analysiert man die neurowissenschaftliche Medienpräsenz eingehender, so fällt auf, dass die popularisierten Studien große Gemeinsamkeiten aufweisen. Diese beziehen sich zunächst weniger auf den Inhalt, sondern vor allem auf die zugrundeliegenden technischen Messverfahren. In vielen Untersuchungen, die später populärwissenschaftlich aufgearbeitet werden und damit die Grundlage der Wissenstransformation sind, werden bildgebende Verfahren, insbesondere fMRT und PET, eingesetzt. Dies hängt mit dem Stellenwert und der Attraktivität bildlicher Darstellungen in der Medialisierung zusammen. Bilder

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 227

besitzen in gewisser Weise eine natürliche Evidenz und Macht, die den Prozess der Wissenstransformation deutlich erleichtern. So sagt ein Bild sprichwörtlich bekanntermaßen mehr als 1000 Worte. Entsprechend werden vor allem solche Studien popularisiert, die mit der Neurobildgebung arbeiten. Dies klingt auf den ersten Blick unproblematisch, denn selbstverständlich ist nicht jede Untersuchung, nicht jedes Experiment in gleichem Maße für den Wissenstransfer geeignet. Doch mit dem Fokus auf die Bildgebung sind weitreichende Probleme verbunden. Zunächst einmal sind die Neurowissenschaften weitaus vielfältiger als der Bereich der neurowissenschaftlichen Bildgebung. Rein quantitativ sind Neurowissenschaftler, die mit nicht-invasiven bildgebenden Verfahren arbeiten sogar in der Minderheit. Es ist somit eine unplausible Verallgemeinerung, in den Neurowissenschaften im Allgemeinen ein Ideal der Wissenstransformation zu sehen, denn hier muss man bezüglich verschiedener Teilbereiche deutlich differenzieren. Es gibt einige Subdisziplinen, die sich an der Popularisierung in besonderem Maße beteiligen während andere kaum in Erscheinung treten beziehungsweise sich schwerpunktmäßig auf die Transformation von Wissen im Bereich der Fachwissenschaft konzentrieren. Darüber hinaus ist mit dem Fokus auf bildgebende Verfahren eine thematische Begrenztheit und Einengung verbunden. Zwar handelt es sich hier lediglich um eine Forschungstechnik, doch können bei Weitem nicht alle neurowissenschaftlichen Fragestellungen mit bildgebenden Verfahren untersucht werden. Die Dominanz der non-invasiven Bildgebung hat einen »Mainstreaming-Effekt« und verengt die Forschungsperspektive. Gleichzeitig wird in den Medien ein einseitiges Bild der ›Hirnforschung‹ gezeichnet. Vergleicht man einschlägige neurowissenschaftliche Journale mit den populärwissenschaftlichen Artikeln, so fällt erst auf, dass über einige Bereiche wie die Neurochemie wenig bis gar nicht berichtet wird. Die Popularisierung für die breite Öffentlichkeit ist also auf einen spezifischen und kleinen Bereich des neurowissenschaftlichen Feldes begrenzt. Dies wirkt sich auch auf die oben genannte integrative Funktion der Neurowissenschaften und die Bereitschaft zu einem intensiven Dialog mit anderen Wissenschaften aus. Die genannten BindestrichNeurowissenschaften arbeiten fast ausschließlich mit bildgebenden Verfahren. Das ist jedoch nicht allein in der Sache begründet, sondern

228 | TORSTEN H EINEMANN

hängt damit zusammen, dass andere Wissenschaften die Medienpräsenz für ihre eigenen Zwecke nutzen wollen und demnach die Formen wählen, die schon erfolgreich sind. Also setzt man auf das bewährte Mittel der Bildgebung. Zudem bieten sich hier die einfachsten Kontaktmöglichkeiten, denn es sind gerade die ›Bildforscherinnen‹, die Wissen popularisieren und sich für interdisziplinäre Projekte anbieten. Damit ist der bemerkenswerte interdisziplinäre Dialog weitaus begrenzter, als es zunächst scheint und verlangt eine differenzierte und genaue Betrachtung und Analyse. Forschung für die Medien Die Bezogenheit auf die Medien und der Wunsch, in den Medien präsent zu sein, führen jedoch nicht nur zu einer thematischen Begrenztheit, sondern im Extremfall dazu, dass Forschung ganz gezielt und von Anfang an ausschließlich für die spätere populärwissenschaftliche Präsentation konzipiert wird. Es lassen sich verschiedene Beispiele finden, wo bestimmte Studien und Projekte ausschließlich unter dem Primat der späteren Chancen für die mediale Verwertbarkeit durchgeführt wurden. Solche Untersuchungen haben kein spezifisches wissenschaftliches Erkenntnisinteresse, sondern dienen ausschließlich dem Ziel, prestigeträchtig popularisiert zu werden. Ein Beispiel für eine solche Studie, welches international für Aufsehen gesorgt hat, ist der Artikel »This is your brain on politics« auf der Meinungsseite der Sonntagsausgabe der New York Times.29 Die Seite »Opinion« ist fester Bestandteil der Sonntagsausgabe. Hier wird Personen aus Politik, Wirtschaft und Wissenschaft die Möglichkeit gegeben, zu verschiedenen aktuellen Themen Stellung zu nehmen und Analysen vorzulegen. In besagtem Artikel beschäftigten sich drei Neurowissenschaftler, wie die Überschrift schon nahe legt, mit politischen Einstellungen von Wählerinnen in Bezug auf die amerikanische Präsidentschaftswahl 2008 sowie die dieser Wahl vorausgehende Kandidatenkür. Bei einer ersten Betrachtung des Artikels fällt auf, dass auch in dieser Untersuchung mit einem bildgebenden Verfahren gearbeitet wurde und der Artikel somit ein Beispiel für die oben genannte thematische Be-

29 M. Iacoboni u.a.: This is your brain on politics.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 229

grenztheit ist. Bei einer intensiveren Beschäftigung mit diesem Text fallen jedoch verschiedene Punkte auf, die deutlich machen, dass die gesamte Studie ausschließlich das Ziel verfolgte, in der New York Times publiziert zu werden. Zunächst ist es überraschend, dass es keine diesem Artikel zugrundeliegende wissenschaftliche Publikation in einem naturwissenschaftlichen Journal gibt, was äußerst ungewöhnlich ist. Betrachtet man das Design der Studie und die grundlegenden Hypothesen und Annahmen der Autoren, so wird deutlich, warum es eine solche wissenschaftliche Veröffentlichung nicht gibt: Die Untersuchung gibt vor, wissenschaftlich zu sein, würde jedoch einem sonst üblichen Peer-Review-Verfahren nicht im Ansatz standhalten. Von den gezeigten fMRT-Bildern werden Thesen abgeleitet, die nicht nur fragwürdig, sondern schlicht unhaltbar sind.30 Gleichzeitig wird im Artikel jedoch ein Kontext gewählt, in dem die präsentierten Ergebnisse einem allgemein interessierten Leser plausibel erscheinen müssen. Da die Autoren zudem mit der Autorität von Wissenschaftlern sprechen, werden größere Zweifel unterbunden. Was zunächst als ein großartiges Beispiel für die Transformation von Laborwissen auf gesellschaftliche Ereignisse zu sein scheint, ist bei genauer Betrachtung eher das Gegenteil. Hier wird nicht wissenschaftliches Wissen transformiert, sondern unter dem Anschein der Transformation allein für den Zweck der medialen Inszenierung produziert. Es ist zu betonen, dass es sich dabei keinesfalls um eine Ausnahme handelt, auch wenn das genannte Beispiel eines der bekanntesten ist. Untersucht man andere Tageszeitung und populärwissenschaftliche Journale, wie beispielsweise die Süddeutsche Zeitung oder Gehirn und Geist, so lassen sich eine Reihe weiterer Studien dieser Art finden. Instrumentelle Wissensproduktion Die bisher genannten Beispiele beziehen sich auf die Medienpräsenz der Neurowissenschaften. Man könnte nun argumentieren, dass die genannten Probleme zwar bedauerlich und nicht akzeptabel sind. Da die Konsequenzen für das wissenschaftliche Feld eher gering sind,

30 Nature Editorial: Mind Games.

230 | TORSTEN H EINEMANN

könnte man sie gleichwohl vernachlässigen. In den Neurowissenschaften ist jedoch insgesamt ein instrumentelles Wissensverständnis zu finden, welches die allgemeine Struktur der Disziplin betrifft und Konsequenzen für die wissenschaftliche Wissensproduktion hat. Durch den deutlichen Fokus auf die Medien sowie das Ziel, möglichst viele Anknüpfungspunkte für andere Öffentlichkeiten zu bieten, wird der Prozess der Wissensgenerierung häufig vom Ergebnis her gedacht. Der erwartbare Erfolg eines Experiments wird zum zentralen Kriterium der Versuchsplanung und -durchführung. Erfolg bedeutet dabei sowohl die Chance, überhaupt ein positives und damit wissenschaftlich publikationsfähiges Ergebnis zu erhalten, als auch die Möglichkeiten der späteren Popularisierung. Spontaneität und die Bereitschaft, sich auf ergebnisoffene Fragen einzulassen, die folglich auch ein Scheitern implizieren, treten in den Hintergrund. Dies führt insgesamt zu einer Verarmung des wissenschaftlichen Forschungs- und Erkenntnisprozesses. In einem Forschungsprojekt, welches ich über längere Zeit in einem Institut verfolgt habe, sollte die Schmerzwahrnehmung und insbesondere die Frage von Phantomschmerzen untersucht werden. Um bei Probandinnen Schmerzen zu erzeugen, sollte trotz verschiedener versuchstechnischer Nachteile und Schwierigkeiten ein Kohlendioxidlaser verwendet werden. Dieses Verfahren ist für die Probandinnen zwar grundsätzlich risikofrei und wird auch verschiedentlich in Experimenten verwendet, doch hätten in dem genannten Projekt die Schmerzstimuli viel sinnvoller und effektiver mittels einer Thermode oder elektrischen Schocks erzeugt werden können. Trotz der offensichtlichen Nachteile der Lasertechnik entschied sich die leitende Professorin dafür, das Experiment mit einem Laser als Schmerzstimulus durchzuführen. Ihre Begründung war simpel: »Die Chancen einen solchen Artikel nicht nur wissenschaftlich zu veröffentlichen, sondern auch populärwissenschaftlich zu platzieren sind ungleich höher, wenn wir einen Laser verwenden. Das ist spektakulärer und lässt sich gut verkaufen.« An diesem Beispiel zeigt sich, wie instrumentell die Wissensproduktion gestaltet ist. Der Möglichkeit einer prestigeträchtigen Wissenstransformation werden inhaltliche Aspekte untergeordnet. Weitere Beispiele lassen sich bezüglich der Untersuchungsmethode finden. Bereits oben wurde die Bedeutung von Bildern und der

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 231

bildgebenden Verfahren genannt. Um eine einfachere Popularisierung wissenschaftlichen Wissens zu gewährleisten, werden zum Teil Untersuchungsmethoden gewählt, die nicht am Untersuchungsgegenstand, sondern ausschließlich an der späteren Verwertung orientiert sind. So würden für viele Studien zunächst Verhaltensexperimente genügen. Da in diesem Fall jedoch lediglich Diagramme und Statistiken präsentiert werden könnten, wird ohne erkennbaren wissenschaftlichen Nutzen eine fMRT-Studie durchgeführt, die mit einem deutlich höheren Aufwand und zusätzlichen Kosten verbunden ist. Auch wenn die daraus resultierenden Hirnbilder keinen Erkenntnisgewinn versprechen, erleichtern sie doch die Wissenstransformation in entscheidendem Maß. Dieser Logik folgend, werden zum Teil auch EEG- oder MEGStudien durch fMRT-Studien ersetzt, da hier eine bessere Vermarktung der Ergebnisse zu erwarten ist. Es steht somit nicht mehr der Gegenstand und der Wunsch nach Erkenntnis im Vordergrund, sondern es sind die Möglichkeiten der Popularisierung, die den Forschungsprozess dominieren. Immerhin ist in diesen Zusammenhängen noch eine Chance gegeben, neue Erkenntnisse zu gewinnen und so produktiv zur Entwicklung von Wissenschaft und Gesellschaft beizutragen. Es ist aber auch zu beobachten, dass eine Studie mittels moderner Untersuchungsmethoden durchgeführt wird, die so schon vor 20 oder 30 Jahren erfolgreich abgeschlossen wurde. Hier geht es nicht darum, neue Erkenntnisse zu gewinnen, sondern lediglich mit einer sehr hohen Erfolgswahrscheinlichkeit ein Ergebnis zu produzieren, welches sich anschließend gut verkaufen und popularisieren lässt. Eine solche Entwicklung ist nicht nur bedenklich, sondern stellt den wissenschaftlichen und gesellschaftlichen Fortschritt infrage und konterkariert die Idee eines Dialogs zwischen Wissenschaft und Gesellschaft.

Z UR K RITIK DER INSTRUMENTELLEN W ISSENSTRANSFORMATION Die Transformation von Wissen in andere gesellschaftliche Bereiche und der Dialog von Wissenschaft und Gesellschaft sind von großer Relevanz. Ein intensiver Austausch zwischen den (Natur-)Wissenschaften und verschiedenen Öffentlichkeiten ist ein wünschenswertes

232 | TORSTEN H EINEMANN

Ideal, von dem beide Seiten profitieren können.31 Dies setzt einerseits eine gebildete Öffentlichkeit voraus, die nicht nur auf wissenschaftliche Sensationen aus ist, sondern Lust an der Erkenntnis, am Entdecken und Verstehen naturwissenschaftlicher Sachverhalte hat. Erst eine in diesem Sinn kritisch-interessierte Öffentlichkeit stellt für die (Natur-)Wissenschaften eine Bereicherung dar. Andererseits bedeutet dies für die Wissenschaft, dass eine gelungene Wissenstransformation gerade nicht mit bloßer Effekthascherei gleichgesetzt werden kann. Eine an der Sache orientierte Popularisierung von Wissen ist eine Grundvoraussetzung für das Konstituieren einer solchen Öffentlichkeit. Wie die vorliegende Analyse zeigt, haben die Neurowissenschaften im Bereich der Wissenstransformation durchaus nennenswerte Erfolge erzielt. Ihre wissenschaftliche Popularität und der Erkenntnisfortschritt innerhalb der Neurowissenschaften sind eng mit der Transformation von Wissen verbunden. Doch der Fokus auf eine massenmediale Präsenz und die interdisziplinäre Ausrichtung hat strukturelle Konsequenzen, die den wissenschaftlichen Erkenntnisfortschritt der Disziplin in Teilen infrage stellen. Die Zielsetzung einer späteren Popularisierung und Wissenstransformation, wie sie in der ›Wissensgesellschaft‹ zum Ideal erhoben und von den Neurowissenschaften teilweise beispielhaft umgesetzt wird, führt dazu, dass nicht mehr allein die Sache, das heißt der Untersuchungsgegenstand und die Frage nach den geeignetsten Untersuchungsverfahren, im Mittelpunkt steht. Forschung wird nicht mehr vom Wunsch nach neuer Erkenntnis her gedacht, sondern zielt auf eine gute Vermarktung der Ergebnisse.32 Gerade der Vergleich von einer fachwissenschaftlichen und fachöffentlichen Wissenstransformation zur öffentlichen Popularisierung legt die unterschiedlichen Mechanismen offen. Eine an der Sache orientierte und im Interesse der Erkenntnis begründete Transformation kann für die Wissenschaften von zentraler Bedeutung sein. Eine Transformation um ihrer selbst willen, das heißt allein aus Gründen der Sichtbarkeit und Popularität, ist dagegen problematisch. Sie ist keinesfalls ein Ideal der Wissenstransformation, da damit die eigentlichen Ziele der

31 P. Weingart: Welche Öffentlichkeit, S. 18. 32 H. Steinert: Das Verhängnis der Gesellschaft.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 233

Popularisierung, Erkenntnisfortschritt und Vertrauen in die Wissenschaft, negiert und in ihr Gegenteil verkehrt werden.33 Dies heißt freilich nicht, dass eine Wissenstransformation nicht möglich und nötig sei. Wie bereits eingangs erläutert, kann eine interessierte, gebildete Öffentlichkeit für die Wissenschaft durchaus anregend sein. Die Öffentlichkeit hat zudem ein berechtigtes Interesse, über den Fortschritt in den Wissenschaften informiert zu werden. Ziel der (Natur-)Wissenschaften sollte es folglich weiterhin sein, einen intensiven Dialog mit der Gesellschaft zu suchen. Dabei muss jedoch die Sache selbst, die Lust an der Erkenntnis, im Mittelpunkt stehen und nicht das Ziel der bloßen Transformation oder bestimmte Vermarktungsinteressen.

L ITERATUR Barton, Ruth: »Just before Nature: the purposes of science and the purposes of popularization in some english popular science journals of the 1860s«, in: Ann Sci 1 (1998), S. 1-33. Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt a.M.: Suhrkamp 1986. Bell, Daniel: The Coming of Post-Industrial Society. A Venture in Social Forecasting, New York, NY: Basic Books 1973. Bensaude-Vincent, Bernadette: »A genealogy of the increasing gap between science and the public«, in: Public Underst Sci 1 (2001), S. 99-113. Blom, Philipp: Enlightening the World. Encyclopédie, The Book That Changed the Course of History, New York, NY and Basingstroke: Palgrave Macmillan 2005. Boden, Petra/Müller, Dorit (Hg.): Populäres Wissen im medialen Wandel seit 1850, Frankfurt a.M.: Kulturverlag Kadmos 2009. Bok, Derek C.: Universities in the Marketplace. The Commercialization of Higher Education, Princeton, NJ: Princeton University Press 2003.

33 L.V. Heinemann/T. Heinemann: ›Optimise your brain!‹, S. 294; T. Heinemann: ›Neuro-Enhancement‹, S. 146ff.

234 | TORSTEN H EINEMANN

Carlsson, Arvid: »A paradigm shift in brain research«, in: Science 5544 (2001), S. 1021-1024. Carlsson, Arvid/Carlsson, Maria L.: »Adaptive properties and heterogeneity of dopamine D(2) receptors – pharmacological implications«, In: Brain Res Rev 2 (2008), S. 374-378. Castells, Manuel: The Rise of the Network Society. The Information Age: Economy, Society and Culture Volume 1, Cambridge: Cambridge University Press 1996. Colgin, Laura L./Denninger, Tobias/Fyhn, Marianne/Hafting, Torkel/Bonnevie, Tora/Jensen, Ole/Moser, May-Britt/Moser, Edvard I.: »Frequency of gamma oscillations routes flow of information in the hippocampus«, in: Nature 7271 (2009), S. 353-357. Darnton, Robert: The Business of Enlightenment. A Publishing History of the Encyclopédie 1775-1800, Cambridge, MA and London: Harvard University Press 1979. Drucker, Peter F.: The Age of Discontinuity. Guidelines to our Changing Society, New York, NY: Harper & Row 1969. Elger, Christian E./Friederici, Angela D./Koch, Christof/Luhmann, Heiko/von der Malsburg, Christoph/Menzel, Randolf/Monyer, Hannah/Rösler, Frank/Roth, Gerhard/Scheich, Henning/Singer, Wolf: »Das Manifest. Elf führende Neurowissenschaftler über die Gegenwart und Zukunft der Hirnforschung«, in: Gehirn&Geist 6 (2004), S. 30-37. F.A.Z.-Hörbucher: Hirnforschung. Bd. 1: Wer ist der Käpt’n im Kopf? Frankfurt a.M.: Frankfurter Allgemeine Verlag 2008. F.A.Z.-Hörbucher: Hirnforschung. Bd. 2: Wie wir denken und entscheiden. Frankfurt a.M.: Frankfurter Allgemeine Verlag 2008. Fleck, Ludwik: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv, Frankfurt a.M.: Suhrkamp 1935/1980. Frazzetto, Giovanni/Anker, Suzanne: »Neuroculture«, in: Nat Rev Neurosci, 11 (2009), S. 815-821. Fries, Pascal/Nikolié, Danko/Singer, Wolf: »The gamma cycle«, in: Trends Neurosci 7 (2007), S. 309-316. Habermas, Jürgen: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, Frankfurt a.M.: Suhrkamp 1962/1990.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 235

Hagner, Michael/Borck, Cornelius: »Brave Neuro Worlds. Historische Untersuchungen zur Hirnforschung«, in: Michael Hagner, Der Geist bei der Arbeit. Historische Untersuchungen zur Hirnforschung, Göttingen: Wallstein 1999/2006, S. 17-37. Heinemann, Linda V./Heinemann, Torsten: »›Optimise your brain!‹ – Popular science and its social implications. A joint review of the popular science journals Scientific American Mind and Gehirn& Geist«, in: BioSocieties 2 (2010), S. 291-294. Heinemann, Torsten: »Die Wirklichkeit des Wissens. Zur Kritik der instrumentellen Vernunft in der Wissensgesellschaft«, in: Salon des Indépendants 1 (2007). Url: http://www.folks-uni.org/index. php?id=116 (besucht am 28. 06. 2010). Heinemann, Torsten: »›Neuro-Enhancement‹. Gesellschaftlicher Fortschritt oder neue Dimension der Medikalisierung?«, in: Katharina Liebsch/Ulrike Manz (Hg.), Leben mit den Lebenswissenschaften. Wie wird biomedizinisches Wissen in Alltagspraxis übersetzt?, Bielefeld: transcript Verlag 2010, S. 131-151. Horkheimer, Max: Eclipse of Reason, London and New York: Continuum 1947/2004. Horkheimer, Max/Adorno, Theodor W.: »Dialektik der Aufklärung. Philosophische Fragmente«, in: Max Horkheimer, Gesammelte Schriften Band 5. Dialektik der Aufklärung und Schriften 19401950. Frankfurt a.M.: Fischer 1947/1997, S. 11-290. Hüther, Gerald: Bedienungsanleitung für ein menschliches Gehirn. 9. Aufl. Göttingen: Vandenhoeck & Ruprecht 2001. Hüther, Gerald: Männer – Das schwache Geschlecht und sein Gehirn. Göttingen: Vandenhoeck & Ruprecht 2009. Iacoboni, Marco/Freedman, Joshua/Kaplan, Jonas/Hall Jamieson, Kathleen/Freedman, Tom/Kapp, Bill/Fitzgerald, Kathryn (2007): »This is your brain on politics«, in: The New York Times 315 (2007), S. 14. Kandel, Eric R.: Auf der Suche nach dem Gedächtnis. Die Entstehung einer neuen Wissenschaft des Geistes, München: Siedler 2006. Kretschmann, Carsten: »Wissenschaftspopularisierung – Ansätze und Konzepte. Bilder als Medium der Popularisierung von Wissenschaft«, in: Bernd Hüppauf/Peter Weingart (Hg.), Frosch und

236 | TORSTEN H EINEMANN

Frankenstein. Bilder als Medium der Popularisierung von Wissenschaft, Bielefeld: transcript Verlag 2009, S. 79-89. Kretschmann, Carsten: Wissenspopularisierung. Verfahren und Beschreibungsmodelle – ein Aufriss«, in: Boden/Müller, Populäres Wissen, S. 17-34. Kuhn, Thomas S.: The Structure of Scientific Revolutions, Chicago, IL: The University of Chicago Press 1962. Lynch, Zack: The Neuro Revolution. How Brain Science Is Changing Our World, New York, NY: St. Martin’s Press 2009. Nature Editorial: »Mind games«, in: Nature 7169 (2007), S. 457. Nikolow, Sybilla/Schirrmacher, Arne: »Das Verhältnis von Wissenschaft und Öffentlichkeit als Beziehungsgeschichte. Historiographische und systematische Perspektiven«, in: Sybilla Nikolow/Arne Schirrmacher (Hg.), Wissenschaft und Öffentlichkeit als Ressourchen füreinander. Studien zur Wissenschaftsgeschichte im 20. Jahrhundert, Frankfurt a.M.: Campus Verlag 2007, S. 11-36. Office of Science and Technology/The Wellcome Trust: Science and the Public. A Review of Science Communication and Public Attitudes to Science in Britain, London: The Wellcome Trust 2000. Ramachandran, Vilayanur S./Rogers-Ramachandran, Diane: »Synaesthesia in phantom limb induced with mirrors«, in: Proc Biol Sci 1369 (1996), S. 377-386. Resch, Christine: Berater-Kapitalismus oder Wissensgesellschaft? Zur Kritik der neoliberalen Produktionsweise, Münster: Westfälisches Dampfboot 2005. Schirrmacher, Arne: »Nach der Popularisierung. Zur Relation von Wissenschaft und Öffentlichkeit im 20. Jahrhundert«; In: Geschichte und Gesellschaft 1 (2008), S. 73-95. Schwarz, Angela: »Vom Maschinenpark zum Futurama: Popularisierung von Wissenschaft und Technik auf Weltausstellungen (18511940)«, in: Boden/Müller, Populäres Wissen, S. 83-99. Singer, Wolf/Creutzfeldt, Otto D.: »Reciprocal lateral inhibition of on- and off-center neurones in the lateral geniculate body of the cat«, in: Exp Brain Res 3 (1970), S. 311-330. Slaughter, Sheila/Leslie, Larry L.: Academic Capitalism. Politics, Policies, and the Entrepreneurial University, Baltimore, MD: Johns Hopkins University Press 1997.

H IRNFORSCHUNG ZWISCHEN L ABOR

UND

T ALKSHOW

| 237

Spitzer, Manfred: Vom Sinn des Lebens. Wege statt Werke. Stuttgart: Schattauer 2007. Spitzer, Manfred/Bertram, Wulf (Hg.): Hirnforschung für Neu(ro)gierige. Braintertainment 2.0. Stuttgart: Schattauer 2010. Stehr, Nico: Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften, Frankfurt a.M.: Suhrkamp 1994. Steinert, Heinz: Das Verhängnis der Gesellschaft und das Glück der Erkenntnis: Dialektik der Aufklärung als Forschungsprogramm, Münster: Westfälisches Dampfboot 2007. Viirre, Erik: »Cognitive neuroscience in tinnitus research: a current review«, in: Int Tinnitus J 2 (2007), S. 110-117. Weingart, Peter: »Welche Öffentlichkeit hat die Wissenschaft?«, in: Zetzsche, Wissenschaftskommunikation, S. 15-21. Weingart, Peter: Die Wissenschaft der Öffentlichkeit. Essays zum Verhältnis von Wissenschaft, Medien und Öffentlichkeit. Weilerswist: Velbrück Wissenschaft 2005. Whitley, Richard: »Knowledge Producers and Knowledge Acquirers. Popularisation as a Relation Between Scientific Fields and Their Publics«, in: Terry Shinn/Richard Whitley (ed.) Expository Science: Forms and Functions of Popularisation, Dordrecht, Boston, MA, and Lancaster, PA: Reidel 1985, S. 3-28. Zetzsche, Indre (Hg.): Wissenschaftskommunikation, Bonn: Lemmens 2004.

Neurokognitive Bildgebung Selbstverständnis, Transformationen und Menschenbild1 U LRICH S ALASCHEK

»Immer wieder in der Geschichte der Naturwissenschaften haben überraschende Entdeckungen und neue Idee zu wissenschaftlichen Auseinandersetzungen geführt: sie haben polemische Veröffentlichungen entstehen lassen, die die neuen Ideen kritisieren, und solche Kritik ist oft für ihre Entwicklung durchaus nützlich gewesen. […] [D]ie ungenauen und zum Teil unkorrekten Behauptungen, die hier und dort in der Begeisterung über die neuen Entdeckungen veröffentlicht worden sind, [haben] alle Arten von Mißverständnissen hervorgerufen.«2

Diese kurze Skizzierung Werner Heisenbergs der wissenschaftlichen und öffentlichen Wirkung der Quantentheorie Anfang des 20. Jahrhunderts bildet im Folgenden den Ausgangspunk, um die Situation der bildgebenden Hirnforschung Anfang des 21. Jahrhunderts auf mögliche Parallelen zu untersuchen. Vor rund einem Jahrhundert führte die

1

Dieser Beitrag wurde ursprünglich erarbeitet für die Mellon Graduate Student Conference »Objects of Knowledge, Objects of Exchange«, im April 2009 an der Havard-Universität in Boston. Ich danke dem dortigen Plenum, ebenso wie den Teilnehmern der Bochumer Tagung, für ihre wertvollen Anregungen.

2

W. Heisenberg: Physik und Philosophie, S. 139.

240 | ULRICH S ALASCHEK

Entdeckung der Quantenphysik dazu, dass ein vormals selbstverständliches physikalisches Axiom zunächst in Frage gestellt und letztlich aufgegeben wurde; nämlich, dass alle Kräfte im Universum auf allen Ebenen kontinuierlich und kausal wirken. Heutzutage scheinen bildgebende Verfahren der Hirnforschung optisch eindrückliche Hinweise darauf zu produzieren, dass traditionelle Vorstellungen bezüglich der conditio humana überholt sein könnten – so postulieren zumindest einige etablierte Hirnforscher.3 Farbige Ergebnisbilder der funktionellen Magnetresonanztomographie (fMRT) (und in den 1990er Jahren die der Positronenemissionstomographie (PET)) finden sich seit einiger Zeit nicht nur periodisch in (populärwissenschaftlichen) Massenmedien,4 sondern in den letzten Jahren regelmäßig auch in Publikationen aus den Geisteswissenschaften, die vormals nicht mit neurowissenschaftlicher Forschung in Verbindung gebracht wurden. Solche ›Hirnscan‹-Verfahren werden oft unter der Prämisse eingesetzt, dass das zentrale Nervensystem Autorität über jegliches, für Menschen konstitutives, Fühlen, Denken und Handeln hat. Während die Quantenphysik ein Weltbild mit (gegenüber vormaligen Auffassungen) vermehrten Freiheitsgraden postuliert, beharren einige Neurowissenschaftler auf einem Determinismus – schließlich gelte die Quantenphysik für neuronale Prozesse nicht.5 Nach Wolf Singer ist das Selbst letztlich »nur ein soziales Konstrukt.«6 Obwohl es unter Neurowissenschaftlern keinen vollständigen Konsens zur Konzeption des Menschen gibt, ist häufig eine Überzeugung anzutreffen, die sich als Paradigma einer ›neuronalen Maschine‹ beschreiben lässt.7 Die ›neuronale Maschine‹ lässt sich auf die Kombination zweier Theoreme zurückführen. Erstens: das Gehirn sei eine neuronale Maschine

3

Vgl. z.B. W. Singer: Menschenbild im Spannungsfeld.

4

Vgl. den Beitrag von Torsten Heinemann in diesem Band. Vgl. auch E. Racine et al.: FMRI in the public eye.

5

Vgl. W. Linden: Erkenntnisprobleme.

6

W. Singer: Menschenbild im Spannungsfeld, S. 27.

7

Oder auch ›neuropsychologisches Paradigma‹; vgl. W. Singer: Verschaltungen legen uns fest; J.-P. Changeux: Der neuronale Mensch; P. Churchland: Engine of Reason; K. Meyer-Drawe, Diskurse des Lernens.

N EUROKOGNITIVE B ILDGEBUNG

| 241

(bestehend aus bioelektrischen, chemisch modulierten Netzwerken), und zweitens: Der Mensch sei durch sein Gehirn vollständig determiniert; er sei identisch mit seinem Gehirn. In dem folgenden Zitat eines etablierten US-amerikanischen Neurobiologen kommen die beiden Theoreme besonders klar zum Ausdruck: »In our era, we know that it is our brain that sustains, manages, and generates our sense of self, of personhood, our sense of others, and our humanness. […] [Y]ou are your brain. The neurons interconnecting in its vast network, discharging in certain patterns, modulated by certain chemicals, controlled by thousands of feedback networks – that is you.«8

Diese beiden Theoreme – das Gehirn ist eine Maschine und der Mensch ist sein Gehirn – beeinflussen neuropsychologische Forschung bereits seit dem 19. Jahrhundert.9 Kombiniert werden sie jedoch erst gegen Ende des 20. Jahrhunderts und lösen damit erneute und bis heute andauernde Debatten über die conditio humana aus.10 Während die Axiome der Quantenphysik nach den anfänglichen Kontroversen stabil und allgemein anerkannt sind, haben sich die Theoreme des Paradigmas der neuronalen Maschine bisher nicht zu unumstrittenen Axiomen entwickelt. Der interdisziplinäre Diskurs um die Frage, ob und wie Widersprüche zwischen individuellem Erleben und neurobiologischer Fremdbeschreibung aufgelöst werden können, hat bisher nicht zu einem Grundkonsens geführt.11 Auch dieser Beitrag kann bei weitem keine endgültige oder vollständige Antwort liefern. Um aber einer Antwort näher zu kommen, untersucht er, ob die Vorstellung vom Menschen als einer neuronalen Maschine durch die derzeit populärste Methode der Hirnforschung – der funktionellen Magnetresonanztomographie – belegt werden kann.

8

M. Gazanniga: Ethical brain, S. 19.

9

Vgl. E. Florey/O. Breidbach: Das Gehirn; E. Clarke/L.S. Jacyna: Origins; M. Boden: Mind as machine.

10 Vgl. U. Salaschek: Neuronale Maschine, Kapitel 2. 11 Vgl. H.-P. Krüger: Hirn als Subjekt; M. Pauen/G. Roth: Neurowissenschaften und Philosophie.

242 | ULRICH S ALASCHEK

Z UR W IRKUNG VON M ENSCHENBILDERN Die anthropologische Relevanz des Bildes vom Menschen als neuronaler Maschine sei in Kürze mit Helmuth Plessner erläutert. Plessner unterstreicht, dass Bestimmungen des Menschen Vorgriffe darauf sind, wie sich zukünftiges menschliches Miteinander gestaltet: Menschliches Verhalten orientiere sich an menschlichen Selbstentwürfen, und diese basierten wiederum auf dem Wissensstand einer Gesellschaft. Innerhalb des Wissenschaftssystems liegt die Deutungshoheit derzeit bei den Wissenschaften, die mit naturwissenschaftlichen Methoden arbeiten. Naturwissenschaftlich ausgerichtete Anthropologie – in der heutigen Wissenschaftslandschaft verkörpert durch die sogenannten LifeSciences – arbeite mit dem Ziel, aufgrund artspezifischer Charakteristika allgemeine Gesetze menschlichen Verhaltens zu finden und zu beschreiben. Individuelle oder philosophische Zugänge zu menschlichem Erleben hingegen – z.B. über Konnotationen und Assoziationen – wirken oft weniger ›wissenschaftlich‹ als ›Gesetze‹ der Entwicklung, des Wahrnehmens, Verhaltens oder Lernens. Einigen in populärwissenschaftlichen Kontexten getätigten Aussagen prominenter Vertreter der Life-Sciences lässt sich sogar deutlich eine Verachtung geisteswissenschaftlicher Methoden entnehmen: »Das Instrumentarium der Philosophen – eine durch Introspektion angereicherte logische Argumentation – ist der enormen Komplexität und Unzugänglichkeit des menschlichen Geistes einfach nicht gewachsen. Bei der naturwissenschaftlichen Methode ist das anders. Die Methoden der Hirnforschung werden immer feiner und genauer.«12

Aus geisteswissenschaftlicher Perspektive wird hingegen in Frage gestellt, ob naturwissenschaftliche Erkenntnisse über physikalische oder physiologische Prozesse das menschliche Geistesleben angemessen beschreiben können, und es wird darauf verwiesen, dass eine vollständige Überführung geistiger Phänomen in physische (und umgekehrt)

12 Ch. Koch: Zukunft der Hirnfoschung, S. 229.

N EUROKOGNITIVE B ILDGEBUNG

| 243

bisher nicht möglich ist.13 Wenn Plessners Hinweis auf die menschliche Selbstgestaltung zutrifft, könnte eine Vorherrschaft naturwissenschaftlich geprägter Disziplinen bei der Deutung des Menschen also zu einer unterkomplexen Sichtweise auf ihn und damit zur Begünstigung eines eingeschränkten Erlebens- und Verhaltensrepertoirs führen: »So wie der Mensch sich sieht, wird er; darin besteht seine Freiheit, an der er festzuhalten hat, um Mensch zu sein.«14 Es gibt Hinweise darauf, dass das Bild der neuronalen Maschine in Zusammenhang mit einem veränderten Umgang mit Psychopharmaka steht. Auch in Deutschland nimmt der Gebrauch von Antidepressiva und Psychostimulanzien rasant zu.15 Auf das Beispiel der Verwendung von Methylphenidat – besser bekannt unter dem Markennamen ›Ritalin‹ – soll hier kurz eingegangen werden. Der Wirkstoff Methylphenidat ist in Deutschland seit den 1950er Jahren zugelassen, hat aber bis in die 1990er Jahre auf dem Medikamentenmarkt so gut wie keine Rolle gespielt. Erst mit dem wachsenden Interesse populärwissenschaftlicher Massenmedien an der Hirnforschung und dem Einsatz von suggestiven Bildern, die direkte Einblicke ins Gehirn zu ermöglichen und das Bild der neuronalen Maschine zu stützen scheinen, stieg der Verbrauch dieses Amphetaminderivats stark an.16 Der medizinische Einsatz von Methylphenidat ist eigentlich an die Diagnose des Aufmerksamkeitsdefizit-/Hyperaktivitätssyndroms (ADHS) geknüpft. Allerdings lässt eine Studie von Froehlich et al. aus den USA befürchten, dass möglicherweise fast die Hälfte der Kinder, die regelmäßig Methylphenidat einnehmen, nicht die anamnestischen Kriterien für ADHS erfüllen.17 Stattdessen zeigt sich im veränderten Umgang mit Psychopharmaka eine Selbstwahrnehmung, die durch das neuropsychologische Paradigma begünstigt wird: Medikamente werden nicht mehr nur für die Behandlung von Krankheiten eingesetzt, sondern dienen als Treibstoff oder Tuning für die neuronale Maschine – als ›neuronales Enhance-

13 Vgl. H. Schwegler: Reduktionismen und Physikalismen. 14 H. Plessner: Menschenverachtung, S. 116. 15 Vgl. M. Lohse/B. Müller-Oerlinghausen: Phsychopharmaka. 16 Vgl. ebd., S. 798. 17 Vgl. T. Froehlich et al.: Prevalence of ADHD, S. 859, 861f.

244 | ULRICH S ALASCHEK

ment‹ um auch bei Gesunden die mentale Leistungsfähigkeit zu verbessern.18 Welche Rolle die Bildgebung bei der Einschätzung der Selbstgestaltung mittels Psychopharmaka spielen kann, wird besonders deutlich in der vorgefundenen Metaphorik zur Potenz bildgebender Verfahren. Von ›Hirnscans‹ wird gesagt, sie seien ›Schnappschüsse des Geistes‹, öffneten ›Fenster ins Gehirn‹, zeigten den ›Geist bei der Arbeit‹ oder ermöglichten gar ›Gedankenlesen‹.19 So wird suggeriert, man könne die Wirkung der Psychopharmaka direkt am Gehirn ablesen.

R ANDBEDINGUNGEN

DER

MRT-B ILDGEBUNG

Wenn bildgebende Methoden in der Lage sind, neuronale Prozesse abzubilden, die kausal und determinierend auf menschliche Erfahrungen, Emotionen und Verhalten wirken – also die neuronale Maschine zu durchleuchten – so ist zu erwarten, dass sich sämtliche Verarbeitungsschritte vom Laborexperiment bis zum Bild stets vollständig beschreiben lassen, dass es während der Auswertung nicht zu (bedeutsamen) Informationsverlusten kommt, und dass auch die den Messungen zugrunde liegenden physikalischen und physiologischen Prozesse vollständig verstanden sind. Im Folgenden werden einige technische Transformationsprozesse geschildert, die die Neurobildgebung mittels MRT begleiten. Es soll kurz erläutert werden, wie die Bilder entstehen und was auf ihnen abgebildet ist. Ein Grundprinzip scheint für die allermeisten Darstellungsformen neurowissenschaftlicher Forschung zu gelten: Je wirklicher und präziser die Bilder wirken, desto mehr technischer Aufwand ist im Prozess der Bildgenese vonnöten und desto weiter ist ihre Bedeutung von der

18 Vgl. B. Sahakian/S. Morein-Zamir: Professor’s little helper; H. Greely et al.: cognitive-enhancing drugs. Vgl. auch: T. Heinemann: Neuro-Enhancement. 19 Beispielhaft: J. auf dem Hövel: Gedankenleser. Vgl. auch A. Beaulieu: Images are not the (only) truth.

N EUROKOGNITIVE B ILDGEBUNG

| 245

Darstellung realer Hirnprozesse entfernt.20 Auf einem Hirnschnittbild der funktionellen MRT, auf dem die tatsächlichen Messwerte in Graustufen kodiert werden, lässt ohne einen entsprechenden Kontext nicht einmal erahnen, dass es sich bei der Darstellung um ein Gehirn handelt (Abbildung 1A-B). Abbildung 1: Graustufenkodierte Messwerte eines fMRT-Versuchs

Huettel/Song/McCarthy: fMRI, S. 244.

Typischerweise veröffentlichte Hirnschnittbilder21 bestehen aus einem strukturellen Teil, der an ein schwarz-weiß-Foto erinnert und einem funktionellen farbigen Teil, der auf den strukturellen Hintergrund projiziert wird. Das MRT-Signal struktureller Schnittbilder wird als eine Art Echo von Wasserstoffprotonen emittiert, die zuvor mittels Radiowellen angeregt wurden. Das empfangene Signal kann in erster Linie auf die Dichte von Wasserstoffatomkernen (Protonen) in unterschiedlichen Gewebearten zurückgeführt werden. Das Echo verändert sich je nach Verhältnis von Fett zu Wasser im jeweiligen Gewebe. Strukturelle MRT-Bilder mögen an schwarz-weiße Fotographien eines Querschnittes durch das Gehirn erinnern, sie repräsentieren aber das Verhältnis von fettreichem zu wasserreichem Gewebe. Das jeweilige Gewebe könnte dabei (theoretisch) jede beliebige Farbe haben – solange

20 Bredekamp et al. bezeichnen dieses Phänomen als »Disjunktionsprinzip der naturwissenschaftlichen Darstellung«; vgl. H. Bredekamp et al.: Bildwelten des Wissens, S. 15. 21 Beispielsweise http://www.radiologie.ruhr-uni-bochum.de/imperia/md/ images/institut/mrt/fmri.jpg.

246 | ULRICH S ALASCHEK

das Fett-zu-Wasser-Verhältnis und die Protonendichte ähnlich wäre, könnten sie mittels MRT nicht voneinander unterschieden werden und erschienen auf den Bildern mit derselben Grautönung. Betrachtet man die Auflösung solcher strukturellen MRT-Bilder, ist auch diese schwerlich mit der von Fotos vergleichbar: Eine typische Auflösung solcher Hirnschnittbilder ist 512 mal 512 Pixel – rund 0,25 Megapixel (MP). Bereits durchschnittliche Kleinbildkameras können (mit 6-12 Megapixeln) mindestens 20-mal besser auflösen. Zwar existieren in einigen Forschungseinrichtungen MRT-Geräte, die Aufnahmen in höherer Auflösung erstellen können, jedoch wird die Auflösung eines einzelnen Scans unerheblich, sobald Aufnahmen von Versuchsreihen mit mehreren Personen ausgewertet werden. Da alle Gehirne sich in Form und Funktion unterscheiden, müssen die Datensätze der Messungen aneinander angepasst werden; nur so lassen sich Daten von unterschiedlichsten Personen miteinander vergleichen. Sie werden in einem Prozess, der ›Warping‹ genannt wird, auf solche Art transformiert, dass sie alle in der Form eines gemeinsamen Referenzvolumens erscheinen. Die Größe eines Voxels (eines dreidimensionalen Pixels) kann bei diesem Prozess des nicht-linearen Stauchens und Dehnens in allen drei Raumrichtungen auf bis zu 125 m³ anwachsen. Die Auflösung sinkt damit gegebenenfalls auf unter 0,001 MP.22 Hierin liegt die grundlegende Problematik der BOLD-fMRT23: Es gibt zwar Techniken, die prinzipiell Scans mit wesentlich höheren Auflösungen ermöglichen, jedoch spielt die maximal technisch realisierbare Auflösung kaum noch eine Rolle, sobald Untersuchungen auf der Basis mehrerer Versuchspersonen durchgeführt werden. Neben der extremen Verschlechterung der Auflösung sorgt der funktionelle Untersuchungsanteil aber eben auch für die farbigen Anteile von Hirnbildern. Bei Versuchen der BOLD-fMRT indizieren die farbigen Anteile letztlich aber keine Messwerte, sondern, mit welcher Irrtumswahrscheinlichkeit die Signalunterschiede, die zwischen zwei Versuchsbedingungen gemessen werden, auch tatsächlich auf die beiden unterschiedlichen Stimuli zurückzuführen sind – und nicht auf

22 Vgl. K. Friston et al.: SPM, S. 14. 23 Das Akronym BOLD steht für Blood Oxygen Level Dependency. Vgl. auch FN 26.

N EUROKOGNITIVE B ILDGEBUNG

| 247

kontingente Prozesse. Farbe indiziert auf den Bildern also nicht direkt Aktivität, sondern die Verteilung statistischer Kennwerte. Versuche, die beispielsweise zur Lokalisation von Abhängigkeit, Angst, moralischen oder ästhetischen Vorstellungen führten,24 funktionierten im letzten Jahrzehnt überwiegend nach der Methode der ›kognitiven Subtraktion‹.25 Nach diesem Konzept werden Versuchsbedingungen möglichst derart gestaltet, dass der Unterschied zwischen dem von einer Person durchzuführenden Versuchsaufgabe und einer Kontrollaufgabe einer kognitiven Funktion entspricht. Kognitive Subtraktion bei der funktionellen BOLD-MRT bedeutet, dass die Signalunterschiede, die sich reproduzierbar auf Änderungen im Sauerstoffmetabolismus als Resultat unterschiedlicher Versuchsbedingungen zurückführen lassen, als kognitive Funktion den entsprechenden Hirnregionen zugeschrieben werden, in denen sich die Signalunterschiede ergeben.26 Abbildung 1 zeigt reale grauwertcodierte Messwerte eines Durchgangs eines solchen Unterschiedsversuchs. Unter Versuchsbedingung

24 Vgl. Y. Christen et al.: Neurobiology of Human Values. 25 Vgl. K. Friston et al.: Trouble with cognitive subtraction. 26 Signalunterschiede sind allgemein bedingt durch unterschiedliche Störungen im magnetischen Feld des Tomographen. Gehen Störungen von der Technik oder physiologischen Strukturen aus – darunter z. B. Hohlräume, wie die Nasennebenhöhlen –, existieren sie laut der zugrunde liegenden Messtheorie entweder unter beiden Versuchsbedingungen gleichermaßen oder sie sind zufällig verteilt, sodass sie sich bei Durchschnittbildung gegenseitig nivellieren, wenn nur die Anzahl an Messungen groß genug ist. Störungen des Magnetfeldes, die regelmäßig mit dem Wechsel der Versuchsbedingungen auftreten, werden dem geänderten Stimulus zugeschrieben. Nach der zugrunde liegenden Theorie folgt auf eine erhöhte Aktivität der Nervenzellen eine verstärkte Blutzufuhr zu den entsprechenden Regionen mit erhöhtem Sauerstoffanteil. Dieser Nachschub an sauerstoffreichem Blut schlägt sich im fMRT-Signal auf spezifische Weise nieder und wird als sogenannte BOLD-Funktion modelliert. Der Verlauf des Sauerstoffrückflusses unterscheidet sich jedoch von Hirnregion zu Hirnregion und von Mensch zu Mensch, sodass die modellierte BOLD-Funktion nur eine Näherung darstellt.

248 | ULRICH S ALASCHEK

A wird der Proband gebeten, eine Faust zu ballen und fest zusammenzudrücken, unter Bedingung B soll er die Hand möglichst entspannt lassen. Abbildungsteil C zeigt die Unterschiede zwischen den beiden Messungen (mit erhöhtem Bildkontrast). Eine Anpassung an ein Referenzvolumen – also das auflösungsvergröbernde Warping – wurde an diesen Bildern nicht vorgenommen. Besonders an Abbildungsteil C wird deutlich, dass sich hier anhand nur eines Versuchsdurchgangs keine korrekten Schlüsse aus der Messung ziehen lassen. Signalunterschiede finden sich – allerdings mit lokalen Häufungen – über den gesamten Kopfbereich verteilt und sogar außerhalb des Kopfes. Aus diesem Grund – und es gilt zu bedenken, dass dieser sogenannte HandSqueeze-Versuch zu den Versuchen mit den eindeutigsten Ergebnissen zählt – müssen Versuche der fMRT immer über viele Versuchsdurchgänge und in der Regel über viele Versuchspersonen gemittelt werden, um überhaupt signifikante Ergebnissen zu erhalten. Die Bildung von Durchschnitten bewirkt nach der klassischen Testtheorie, dass Messfehler, die zufällig verteilt sind, sich gegenseitig auslöschen, wenn die Anzahl der Messungen groß genug ist. In den durch Durchschnittsbildung aggregierten Daten verschwindet damit aber auch alles Individuelle. Spontane Konnotationen und Assoziationen mögen unerheblich oder sogar störend sein, wenn es um motorische Funktionen geht, wie im obigen Beispiel. Sollen aber zum Beispiel komplexe emotionale Reaktionen auf einen Stimulus untersucht werden, stellt sich die Frage durchaus, ob die Analyse von aggregierten Daten hier der richtige Weg sein kann. Für die rechenintensive Anpassung von Daten an ein Referenzgehirn und auch für die Suche nach statistischen Signifikanzen im Datensatz wird halbautomatische Auswertungssoftware verwendet, wie z. B. ›SPM‹ oder ›Freesurfer‹. In dem Maße, wie die einzelnen Transformationsschritte bei der Datenauswertung unsichtbar und automatisiert werden, könne die Sensibilität für die mit ihnen verbundenen Probleme abnehmen, wodurch Fehlinterpretationen entstehen können, so warnen seit einigen Jahren vermehrt auch etablierte Neurowissenschaftler: »It is tempering for those new to the technique to assume that it is unnecessary to understand the working of such programs. Indeed, one can use the technique

N EUROKOGNITIVE B ILDGEBUNG

| 249

of fMRI without understanding its physical and biological foundations, making those foundations seem unnecessary for (or even impediments to) scientific progress. We believe that as these attitudes have become increasingly common, they almost invariably lead to research errors, false claims, or misinterpretations. […] One should not blindly trust data analysis packages, because each statistical approach, like any other aspect of research, has strengths and weaknesses. […] The power of fMRI allows researchers to not only address important questions, but also to make spectacular mistakes.«27

Aggregierte Daten und automatische Auswertungssoftware können also unterkomplexe Interpretationsansätze begünstigen, die wiederum das Paradigma der neuronalen Maschine stärken.

T RANSFORMATIONSASPEKTE DER INTERDISZIPLINÄREN F ORSCHUNG Neurokognitive Bildgebung ist ein stark interdisziplinär ausgerichtetes Forschungsfeld: Der Tomograph inkorporiert Wissensbestandteile von Ingenieuren und Physikern. Auch für den Betrieb (vor allem für den adäquaten Umgang mit Unzulänglichkeiten des Geräts) sind fundierte physikalische Kenntnisse erforderlich. Die Frage, wie Veränderungen innerhalb und um Blutgefäße herum genau mit Nervenzellaktivität zusammenhängen – diese Veränderungen sind ja die Basis des fMRTSignals –, begründet ein Feld, das intensiv von Neurobiologen bearbeitet wird. Auch die Frage, in welchen Hirnregionen ein erhöhtes Signal eine Aktivierung und wo es vielleicht eine Inhibierung bedeutet, ist nicht abschließend beantwortet.28 Die Konzeption von Forschungsdesigns, die valide Antworten auf die Forschungsfragen zu geben vermögen, ist oft alles andere als trivial. Auch für diesen Bereich empfehlen sich entsprechende Spezialisten. Es gibt Forschungslabore, bei denen Physiker, Statistiker, Psychologe und Biologe dauerhaft zum fMRT-Forschungsteam gehören. Denn, so der Lehrbuchau-

27 Vgl. Heuttel/Song/McCarthy: fMRI, S. 512f. 28 Vgl. N. Logothetis: can/cannot do.

250 | ULRICH S ALASCHEK

tor McRobbie, eine Lebenszeit genügt nicht, um Expertenwissen in allen Bereichen der MRT zu akquirieren.29 Aus diesem Grund müssen sich alle Mitglieder einer Forschungsgruppe auf das Wissen der anderen verlassen. Doch in diesem notwendigen Vertrauen sieht der Soziologe Dumit ein Problem: In jedem Forschungsfeld gebe es eine Kultur, Ergebnisse aufzubereiten und zu präsentieren. Innerhalb des jeweiligen Bereiches wisse jeder um die Idiome, Metaphern und Indizien für die Unsicherheiten, die den Prozess der Wissensgewinnung begleiten und in die Ergebnisse einfließen. Über die Disziplinengrenzen hinweg existiere das oft implizite Wissen bezüglich der Bewertung von Forschungsprozessen und -ergebnissen hingegen nicht – fremde Ergebnisse würden daher nicht selten als stabile Fakten interpretiert.30 Die Rezeption und Wiedergabe physikalischer Basistheorien in der Hirnforschung ist ein markantes Beispiel für eine Wissenstransformation beim -transfer zwischen Disziplinen, bei der es regelmäßig zu Konfusionen kommt. Für Ärzte und Psychologen, die mit MRT arbeiten, scheinen physikalische Theorien zunächst wenig relevant zu sein (solange der Tomograph einwandfrei funktioniert). Kenntnisse in Gehirnanatomie und Experimentaltheorie scheinen wesentlich wichtiger als das Wissen, welche Prozesse auf der Ebene der Teilchenphysik dafür verantwortlich sind, dass sich Wasserstoffatomkerne über Magnetfelder und Radiowellen so manipulieren lassen, dass sich ein Echo ergibt, aus dem auf physiologische Merkmale und Prozesse zurückgeschlossen werden kann. Diese elementare Eigenschaft der Bausteine von Atomen heißt ›Spin‹ und stammt aus einer nanoskopischen Welt, deren Gesetze sich kaum mit dem Konstrukt der neuronalen Maschine in Einklang bringen lassen. Interaktionen in der Welt der kleinsten (bisher bekannten) Teilchen folgen keinen deterministischen Gesetzen, sondern lassen sich ausschließlich probabilistisch beschreiben. Deswegen führt jeder lebensweltliche – zwangsläufig makroskopische – Beschreibungsversuch zu mindestens skurrilen, nicht selten auch falschen Aussagen, wie nachfolgend erläutert wird.

29 Vgl. D. McRobbie: MRI from picture to proton, S. 1. 30 Vgl. J. Dumit: Picturing Personhood, S. 11, 55ff.

N EUROKOGNITIVE B ILDGEBUNG

| 251

Auf nanoskopischer Ebene stammt das MRT-Signal von Quantensprüngen in der Energie von Wasserstoffkernen (im Wasserstoff 1H besteht der Atomkern nur aus einem einzelnen Proton). In einem starken magnetischen Feld kreiseln viele subatomare Teilchen in einer jeweils einzigartigen, von der Stärke des äußeren Magnetfelds abhängigen Frequenz (der Larmorfrequenz) um die Achse des externen Magnetfeldes (Wasserstoff hat eine Larmorfrequenz von rund 42,5 MHz pro Tesla). Wird ein Körper, der sich im starken Magnetfeld befindet, mit Radiowellen in exakt der Larmorfrequenz der Protonen bestrahlt (bei 1,5-Tesla-Tomographen also 63,75 MHz), dann nehmen einige der Protonen Energie auf. Ob und wann ein einzelnes Proton Energie aufnimmt, lässt sich für das einzelne Proton nicht vorhersagen; bei einer sehr großen Anzahl an Protonen gleichen sich die Unsicherheiten bei der Vorhersagbarkeit bei Vorkommnissen der subatomaren Ebene jedoch wieder aus. Wird die Radiowellenstrahlung abgeschaltet, gibt der Körper die aufgenommene Energie wieder ab – es kommt zu einer Resonanz: dem Echo. Die Strahlung, die hierbei entsteht, wird durch weitere externe Gradienten so aufbereitet, dass ein Signal gemessen werden kann, aus dem Rückschlüsse auf die physiologischen Prozesse im Körper geschlossen werden. Auch bei der Energieabgabe gilt, dass sich keine Vorhersagen für einzelne Protonen treffen lassen, sondern nur für das Gesamtsystem. Die Effektivität der Anregung ist gering. Bei einem Magnetfeld von 1,5 Tesla trägt durchschnittlich etwa jedes hunderttausendste Proton zum Echo bei, weswegen MRT in der Biologie als inhärent unempfindliche Methode gilt.31 Während Wahrscheinlichkeitsfunktionen heutzutage allgemein anerkannt sind und für die wenigsten Menschen ein wirkliches Verständnisproblem bedeuten sollte, dürfte bei den Theorien bezüglich des Aufbaus der kleinsten Teilchen und ihren Eigenschaften eher ein Vorstellungsproblem entstehen. Nach dem sogenannten Standardmodell der Physik besteht ein Wasserstoffatom aus vier punktförmigen Teilchen (Teilchen, bei denen sich keine physischen Ausmaße messen lassen). Drei von ihnen, Quarks, bilden ein System, das über messbare Ausmaße verfügt, nämlich das Proton. Das vierte Teilchen, das Elek-

31 Vgl. P. Storey: Introduction to MRI, S. 15.

252 | ULRICH S ALASCHEK

tron, wird heutzutage oft als Wolke beschrieben, das den Atomkern umgibt (nach älteren Modellvorstellungen umkreist das Elektron den Kern). Die Eigenschaft des Atomkerns, die für die MRT unbedingt erforderlich ist, ist – wie oben bereits beschrieben – sein Spin. Ohne einen für verschiede Atomkerne charakteristischen und jeweils stabilen Spin gäbe es keine stabile Larmorfrequenz; es könnte keine gezielte Anregung geben und es gäbe kein verwertbares Echo und damit keine Magnetresonanztomographie. Dieser elementare Spin ist im Gegensatz zu einem makroskopischen Drehmoment absolut konstant, er verlangsamt oder beschleunigt niemals ohne eine Änderung des umgebenden Magnetfeldes. Spin kann dabei nicht als Rotation eines Teilchens um seine eigene Achse verstanden werden, da sich die äußeren Teile des Protons, dessen Ausmaße ja messbar sind, sonst mit Überlichtgeschwindigkeit drehen müssten.32 In Protonen, so der aktuelle Stand der Forschung, basiert der Spin nicht nur auf dem Spin seiner Quarks (die ebenfalls Spin haben), sondern auch auf der Bewegung der Quarks innerhalb des Protons. Durch diese beiden Annahmen lässt sich aber noch nicht der gesamte Spin des Protons erklären, sodass angenommen wird, dass weitere Teilchen innerhalb des Protons einen Beitrag leisten müssen. Dies sollen sogenannte Gluonen sein, die die Quarks zusammenhalten. Nach der Theorie entstehen Gluonen für winzige Zeitspannen aus dem Nichts und gehen auch wieder in diesem auf.33 Weder Quarks noch Gluonen wurden bisher einzeln beobachtet; die Erklärung für Spin, ohne den MRT nicht möglich wäre, ist also in erster Linie theoretisch und bisher empirisch nicht vollständig belegt. Lebensweltlich ist Spin ohnehin nicht erklärbar, weil es in der makroskopischen Welt kein Äquivalent gibt für ein absolut stabiles Drehmoment, das noch dazu nicht einmal auf einer Drehung basiert.34 Die quantenphysikalischen Prozesse, die der Magnetresonanz zugrunde liegen, haben, so der MRT-Didaktiker Hanson, aufgrund ihrer Kontraintuitivität regelmäßig zu missverständlichen und sogar fal-

32 Vgl. Y. Ne’eman/Y. Kirsch: Die Teilchenjäge, S. 59. 33 Vgl. S. Bass: How does the proton spin? 34 Vgl. M. Levitt: Spin Dynamics, Kapitel 1.2.

N EUROKOGNITIVE B ILDGEBUNG

| 253

schen Darstellungen in MRT-Lehrbüchern geführt.35 Daraus schließt Hanson, dass Spin, obwohl er maßgeblich für Techniken der MRT ist, in der Lehre unberücksichtigt bleiben sollte. Er begründet dies damit, dass sich fast alle Elemente der MRT auch ohne quantenphysikalische Basis korrekt beschreiben und erlernen ließen und dass das Erlernen von MRT auch ohne quantenmechanische Phänomene schwierig genug sei.36 Einer solchen vor allem didaktisch geprägten Auffassung lässt sich jedoch entgegnen, dass auch sie zu unterkomplexen Vorstellungen beim Verständnis von MRT beiträgt und ebenso wie automatische Auswertungssoftware und realitätsferne Hirnschnittbilder das Menschenbild der neuronalen Maschine begünstigt.

R ESÜMEE In diesem Beitrag wurde der Frage nachgegangen, ob die Methode der funktionellen Magnetresonanztomographie ein Bild vom Menschen als neuronaler Maschine belegen kann. Denn dieses Menschenbild ist in populärwissenschaftlichen Darstellungen sehr präsent, und es wird dort mithilfe von nur scheinbar selbstevidenten Hirnbildern untermauert. Es ist davon auszugehen, dass sich mit einem gewandelten Menschenbild auch die Lebenspraxis wandelt – dies zeigt sich z. B. im geänderten Umgang mit Psychopharmaka. Es wurde erläutert, dass fMRT-Bilder im Vergleich zu Fotos eine extrem niedrige Auflösung haben, die u. a. durch Datentransformationen wie Durchschnittsbildung und Warping bedingt wird und die wegen des Kompositcharakters der Bilder dem Betrachter nicht deutlich wird. Entgegen der Augenscheinevidenz lässt sich die Validität eines Experiments ebenso wenig an Bildern ablesen wie die Datenqualität. Sobald aggregierte Daten ausgewertet werden, können nur Gemeinsamkeiten zwischen allen Versuchsdurchgängen und Versuchspersonen gezeigt werden – alle individuellen Abweichungen gehen verloren.

35 Vgl. L.G. Hanson: Is Quantum Mechanics Necessary, S. 330. 36 Vgl. ebd., S. 333.

254 | ULRICH S ALASCHEK

Die physiologischen Abläufe im Gehirn und die aus ihnen resultierende BOLD-Funktion lassen sich nicht allgemeingültig und naturgetreu, sondern nur näherungsweise modellieren.37 Letztlich ist auch der elementare physikalische Ursprung der Magnetresonanz bisher nicht vollständig verstanden. Vereinfachungen der physikalischen Basis der fMRT führen – zugunsten der Veranschaulichung – in Lehrbüchern regelmäßig zu unterkomplexen oder unrichtigen Darstellungen nanoskopischer Prozesse, die sich naturgemäß einer lebensweltlichen Plausibilisierung entziehen. Diese Fragmente aus der langen Kette der Transformationen bei der fMRT verdeutlichen, dass mit dieser Technik keine Kausalverhältnisse aufgezeigt werden können. Es ist zu resümieren, dass die funktionelle Magnetresonanztomographie in ihrer heutigen Form das Menschenbild der neuronalen Maschine konzeptbedingt nicht belegen kann. Es ist (derzeit) auch nicht nicht möglich, mit der fMRT zu Ergebnissen zu kommen, die diesem Menschenbild widersprächen. Was Werner Heisenberg zum Umgang mit der Quantenphysik forderte, bleibt auch heute in Bezug auf die Interpretation bildgebender Verfahren richtig und wichtig: »[W]ir müssen uns daran erinnern, daß das, was wir beobachten, nicht die Natur selbst ist, sondern Natur, die unserer Art der Fragestellung ausgesetzt ist.«38

L ITERATUR Bass, Steven D.: »How Does the Proton Spin?«, in: Science 315 (2007), S. 1672-1673. Beaulieu, Anne: »Images Are Not the (Only) Truth: Brain Mapping, Visual Knowledge, and Iconoclasm«, in: Science, Technology, & Human Values 27,1 (2002), S. 53-86. Boden, Margaret A.: Mind as Machine: a history of cognitive science, Oxford: Clarendon Press 2006. Bredekamp, Horst et al.: »Bildwelten des Wissens«, in: Ders./Gabriele Werner (Hg.): Bilder in Prozessen, Bildwelten des Wissens.

37 Vgl. auch: E. Fox-Keller: Natur and the Natural. 38 W. Heisenberg: Physik und Philosophie, S. 40.

N EUROKOGNITIVE B ILDGEBUNG

| 255

Kunsthistorisches Jahrbuch für Bildkritik. Band 1,1, Berlin: Akademie-Verlag 2003. S. 9-20. Changeux, Jean-Pierre: Neuronal Man: The Biology of Mind, New York: Oxford University Press 1986. Changeux, Jean-Pierre, et al.: 2005. Neurobiology of human values, Berlin: Springer 2005. Christen, Yves, et al.: »Introduction: Neurobiology of Human Values«, in Changeux, Jean-Pierre, et al. (Hg.): Neurobiology of human values, Berlin: Springer 2005, S. IX-XV. Churchland, Paul M: The engine of reason, the seat of the soul: A philosophical journey into the brain, Cambridge, Mass.: MIT Press 2007. Clarke, Edwin/Jacyna, Leon S.: Nineteenth century origins of neuroscientific concepts. Berkeley: Univ. of California Press 1987. Dumit, Joseph: Picturing Personhood: Brain Scans and Biomedical Identity, Princeton, NJ: Princeton University Press 2004. Florey, Ernst/Breidbach, Olaf (Hg.). Das Gehirn – Organ der Seele?: Zur Ideengeschichte der Neurobiologie, Berlin: Akademie-Verlag 1993. Fox-Keller, Evelyn: »Nature and the Natural«, in: BioSocieties 3,2 (2008), S. 117-124. Friston, Karl J.: Statistical Parametric Mapping: The analysis of functional brain images, Amsterdam: Elsevier Academic Press 2007. Ders et al.: »The Trouble with Cognitive Subtraction«, in: Neuroimage 4 (1996), S. 97-104. Froehlich, Tanya E. et al.: »Prevalence, Recognition, and Treatment of Attention-Deficit/Hyperactivity Disorder in a National Sample of US Children«, in: Archives of Pediatrics & Adolescent Medicine 161,9 (2007). S. 857-864. Gazzaniga, Michael: The ethical brain. The Science of Our Moral Dilemmas, New York: Harper Perennial 2006. Greely, Henry et al.: »Towards responsible use of cognitive-enhancing drugs by the healthy«, in: Nature 456 (2008), S. 702-705. Hanson, Lars G.: »Is Quantum Mechanics Necessary for Unterstanding Magnetic Resonance?«, in: Concepts in Magnetic Resonance Part A (Bridging Education and Research) Vol. 32A(5) (2008), S. 329-340.

256 | ULRICH S ALASCHEK

Heinemann, T.: »›Neuro-Enhancement‹ – Gesellschaftlicher Fortschritt oder neue Dimension der Medikalisierung?«, in: K. Liebsch/U. Manz (Hg.): Leben mit den Lebenswissenschaften. Wie wird biomedizinisches Wissen in Alltagspraxis übersetzt? Bielefeld: Transcript 2010. S. 131-151. Heisenberg, Werner: Physik und Philosophie, Berlin: Ullstein 1959. Auf dem Hövel, Jörg: »Der Gedankenleser. Der Psychologe JohnDylan Haynes über die Kunst, das Gehirn beim Denken zu beobachten«, in: Berliner Zeitung vom 24.03.2007, S. 16. Huettel, Scott A./Song, Allen W./McCarthy, Gregory: Functional Magnetic Resonance Imaging, 2nd edition, Sunderland: Palgrave Macmillan 2008. Koch, Christoph: »Die Zukunft der Hirnforschung. Das Bewusstsein steht vor seiner Enthüllung«, in: Ch. Geyer (Hg.): Hirnforschung und Willensfreiheit. Zur Deutung der neuesten Experimente, Frankfurt am Main: Suhrkamp 2004. S. 229-234. Krüger, Hans-Peter (Hg.): Hirn als Subjekt?: Philosophische Grenzfragen der Neurobiologie, Berlin: Akademie-Verlag 2007. Levitt, Malcolm H.: Spin Dynamics: Basics of Nuclear Magnetic Resonance. 2nd edition, Chichester: Wiley 2008. Linden, Walfried: »Und seh, dass wir nichts wissen können? Erkenntnisprobleme der Hirnforschung«, in: Ders./A. Fleissner: Geist, Seele und Gehirn. Entwurf eines gemeinsamen Menschenbildes von Neurologen und Geisteswissenschaftlern. Münster: LIT 2004. S. 9-20. Logothetis, Nikos K.: »What we can do and what we cannot do with fMRI«, in: Nature 453 (2008), S. 869-878. Martin J. Lohse/Bruno Müller-Oerlinghausen: »Psychopharmaka«, in: U. Schwabe/D. Paffrath (Hg.): Arzneiverordnungs-Report 2009. Aktuelle Daten, Kosten, Trends und Kommentare. Heidelberg: Springer 2009, S. 767-810. McRobbie, Donald W. et al.: MRI From Picture to Proton, 2nd edition, Cambridge: University Press 2008. Meyer-Drawe, Käte: Diskurse des Lernens, München: Fink 2008. Ne’eman, Yuval/Kirsh, Yoram: Die Teilchenjäger, Berlin: Springer 1995.

N EUROKOGNITIVE B ILDGEBUNG

| 257

Pauen, Michael/Roth, Gerhard (Hg.): Neurowissenschaften und Philosophie: Eine Einführung, München: Fink 2001. Plessner, Helmuth: »Über Menschenverachtung«, in: Ders.: Conditio humana, Gesammelte Schriften, Band 8, herausgegeben von G. Dux, U. Marquard und E. Ströker, Frankfurt am Main 1953, S. 105-116. Racine, Eric/Bar-Ilan, Ofek/Illes, Judy: »fMRI in public eye«, in: Nature Reviews Neuroscience 6 (2005), S. 159-164. Sahakian, Barbara/Morein-Zamir, Sharon: »Professor’s little helper«, in: Nature 450 (2007), S. 1157-1159. Salaschek, Ulrich: Der Mensch als neuronale Maschine? Zum Verhältnis von bildgebenden Verfahren und Menschenbildern am Beispiel der Erziehungswissenschaft, Dissertationsschrift, eingereicht an der Fakultät für Philosophie und Erziehungswissenschaft der Ruhr-Universität Bochum 2010. Ders./Wistuba, Frank: »Zur Ontologisierung eines Menschenbildes und deren pädagogischen Implikationen«, in: S. Schlüter/A. Langewand (Hg.): Neurobiologie und Erziehungswissenschaft. Die neueren Konjunkturen pädagogischer Wissenschaftsforschung aus historischer und systematischer Perspektive. Bad Heilbrunn: Klinkhardt 2010, S. 38-53. Schwegler, Helmut: »Reduktionismen und Physikalismen«, in: M. Pauen/G. Roth (Hg.): Neurowissenschaften und Philosophie. Eine Einführung, München: Fink 2001, S. 59-82. Singer, Wolf: Unser Menschenbild im Spannungsfeld von Selbsterfahrung und neurobiologischer Fremdbeschreibung, Reden und Aufsätze der Universität Ulm, Band 11, Ulm: Universität Ulm 2003. Singer, Wolf: »Verschaltungen legen uns fest, wir sollten aufhören, von Freiheit zu sprechen«, in Ch. Geyer, (Hg.): Hirnforschung und Willensfreiheit: Zur Deutung der neuesten Experimente. Frankfurt am Main: Suhrkamp 2004, S. 30-65. Storey, Pippa: »Introduction to Magnetic Resonance Imaging and Spectroscopy«, in P. Prasad (Hg.): Magnetic resonance imaging: Methods and biologic applications, Methods in Molecular Medicine, Band 124, Totowa, NJ.: Humana Press 2006, S. 3-57. http://www.radiologie.ruhr-uni-bochum.de/imperia/md/images/institut /mrt/fmri.jpg (2.05.2011)

›Economists in the Wild‹ Von der Finanzökonomik zu dem undisziplinierten Wissen der Finanzmärkte L EON J ESSE W ANSLEBEN

D IE P ERFORMATIVITÄT

DER

Ö KONOMIK

Die Frage des Zusammenhangs zwischen ökonomischem Wissen und ökonomischer Praxis wird gegenwärtig intensiv diskutiert und erforscht. Anstoß zu dieser Diskussion gab ein 1998 von Michel Callon veröffentlichter Aufsatz mit dem Titel »The Embeddedness of Economic Markets in Economics«.1 Callons darin vertretenes Argument lautet, dass die Wirtschaftswissenschaften ihren Gegenstand nicht primär beschreiben oder analysieren, sondern erschaffen. Den Begriff, der die produktive Funktion ökonomischen Wissens beschreiben soll, entlehnt Callon der Sprechakttheorie: Er spricht von der »Perfomativität« ökonomischen Wissens.2 Donald MacKenzie hat Callons These aufgegriffen und für den Bereich der Finanzmärkte empirischen Untersuchungen ausgesetzt.3 Dieser Bereich eignet sich deshalb besonders gut, weil wir es auf Sei-

1

M. Callon: Introduction, S. 1-57.

2

siehe auch M. Callon: What does it mean to say that Economics is Performative?

3

Vgl. D.A. MacKenzie: An engine, not a camera.

260 | L EON J ESSE W ANSLEBEN

ten der Ökonomik mit einer relativ begrenzten Anzahl an Theoremen4 und auf Seiten der Märkte mit einer höchst wissensintensiven ökonomischen Wirklichkeit zu tun haben. Kann man nun von einer performativen Herstellung von Finanzmärkten durch die Finanzökonomik sprechen? MacKenzies Antwort ist ein qualifiziertes Ja. Jedenfalls in Bezug auf die Option Pricing Theory and den wichtigsten Markt für Finanzoptionen, den Chicago Board Options Exchange (CBOE), stellen Donald MacKenzie und Yuval Millo fest,5 dass sich Marktpreise und -praktiken in einer bestimmten Periode (1976-1987) tatsächlich an das Modell angeglichen haben. Allerdings erforderte die Etablierung des CBOE und die Benutzung des Modells auf dem Handelsflur Formen kollektiven Handelns, die nicht ökonomisch erklärbar sind. MacKenzie schlussfolgert deshalb, dass Callons Ansatz durch klassische Wirtschaftssoziologie ergänzt werden müsse. In meinem Beitrag stelle ich mir ebenfalls die Frage des Zusammenhangs zwischen Ökonomik, ökonomischem Wissen und der Praxis auf Finanzmärkten. Der spezifische Markt, den ich untersuche, handelt mit Devisen. Das heißt: auf diesem Markt werden Währungen gegeneinander getauscht und auf diese Weise Wechselkurse, Preise für Währungen ausgedrückt in anderen Währungen, bestimmt. Wir sprechen von Devisenmärkten als Finanzmärkten, weil Devisenmärkte von Banken und Finanzinstitutionen – Investmentfonds, Hedgefonds, Versicherungen etc. – geprägt sind.6 Sie sind primär organisiert als Interbankenmärkte, das heißt nicht über eine zentrale Börse, sondern direkt zwischen den beteiligten Institutionen (Over the Counter Market). Währungen werden auf diesen Märkten nicht primär als Zahlungsmittel für Güter, sondern als finanzielle Objekte, verbunden mit unter-

4

Hierzu zählen im Wesentlichen das Capital Asset Pricing Model, die Portfolio Selection Theory, die Market Efficiency Hypothesis und die Option Pricing Theory. Für einen Überblick, siehe D.A. MacKenzie: An engine, not a camera.

5

Vgl. D. MacKenzie und Y. Millo: Constructing a Market, Performing a

6

Ihr Marktanteil liegt bei etwa 89 Prozent. Vgl. BIS: Triennial Central

Theory, S. 107-145. Bank Survey Foreign Exchange 2010; K. Knorr Cetina/U. Bruegger: Global Microstructures, S. 905-950.

›ECONOMISTS IN THE W ILD ‹

| 261

schiedlichen Renditen (etwa auf Staatsanleihen in der jeweiligen Währung) betrachtet.7 Kann Callons und MacKenzies Konzept der Performativität beschreiben, wie Theorien und Modelle in Zusammenhang stehen mit den Praktiken8 der Teilnehmer auf den Devisenmärkten? Ich werde zeigen, dass dies nicht der Fall ist. Performativität gelingt einerseits nicht, weil durch die Wechselkursökonomik ungelöste wissenschaftliche Kontroversen verlaufen, die die Formulierung eines konsensuellen Modells verhindern. Andererseits operieren Marktteilnehmer in Marktsituationen mit spezifischen sozialen und temporalen Anforderungen, denen die Wechselkursmodelle nicht Rechnung tragen können. Marktteilnehmer benutzen zwar ökonomische Modelle, unterminieren aber ständig die Rahmung ihres Blickfeldes auf das Marktgeschehen durch diese Modelle.

W ECHSELKURS -Ö KONOMIK Es ist unmöglich, den Wechselkurstheorien und -modellen der Ökonomik als Fachfremder, und zudem in hier gebotener Kürze und Vereinfachungsgrad gerecht zu werden. Ich beschränke mich deshalb darauf in nicht-technischen Begriffen drei Phasen der Entwicklung dieses Spezialbereichs der Ökonomik zu skizzieren. Die erste Phase begann mit dem Ende des Währungsregimes von Bretton Woods. Dieses Währungsregime bestand vereinfachend gesagt in der Festschreibung der Wechselkurse. Zentralbanken übernahmen die Aufrechterhaltung des Regimes, indem sie für die vereinbarten Kurse fremde Währungen kauften und eigene verkauften. Durch die expansive Geldpolitik der USA entstanden schließlich so große Ungleichgewichte, dass das System 1971 durch die USA aufgegeben und 1973 endgültig begraben wurde.9 Die Folge war, dass

7 8

Vgl. R.M. Levich: Empirical Studies of Exchange Rates, S. 979-1040. Ich spreche von Praktiken während Callon von Agencements spricht. Beide Begriffe schließen technische Artefakte, Medien und menschliche Tätigkeiten ein.

9

Vgl. B.J. Eichengreen: Globalizing Capital.

262 | L EON J ESSE W ANSLEBEN

Wechselkurse nun bestimmt durch Angebot und Nachfrage gegeneinander fluktuierten (siehe Abbildung 1). Mitte der 1970er begannen Ökonomen, insbesondere Experten der Internationalen Makroökonomik, sich intensiver dem neuen Wechselkursregime, und insbesondere dem Einfluss der wieder erstarkten globalen Finanzmärkte auf Wechselkursschwankungen zu widmen. 1975 versammelten sich die Exponenten dieser Forschungsrichtung in Stockholm, um neue Ansätze und Modelle zu diskutieren.10 Einig war man sich, dass dem Einfluss der Finanzmärkte Rechnung getragen werden musste, dass aber andererseits Währungen Gleichgewichtspreise zwischen Geld- und Gütermärkten darstellten. Es wurden deshalb Modelle entwickelt, die die neue Kapitalmarkttheorie und makroökonomische Modelle der Nachkriegszeit mit dem traditionellen Konzept der Kaufkraftparität zu verbinden vermochten. Vereinfachend gesagt gewannen die neuen Modelle der post-Bretton Woods Ära aus dieser Synthetisierung ökonomischer Theorien ihre Plausibilität. Abbildung 1. Wechselkurse nach Bretton Woods

Quelle: R. M. Levich: Empirical Studies of Exchange Rates, S. 986.

Die zweite Phase begann Anfang der 1980er Jahre. Die neuen Wechselkurstheorien der 1970er Jahre waren nicht nur theoretisch überzeugend, sondern sollten auch zur empirischen Erklärung des neuen Wäh-

10 Vgl. L. Calmfors/C. Wihlborg: General Discussion, S. 386-412.

›ECONOMISTS IN THE W ILD ‹

| 263

rungsregimes, insbesondere der Wechselkursschwankungen beitragen. Sie konnten also in den Bereich ökonomischer Theoriebildung eingeordnet werden, den Milton Friedman mit positive economics bezeichnet hat. Nach Friedman ist positive economics »a system of generalizations that can be used to make correct predictions about the consequences of any change in circumstances. Its performance is to be judged by the precision, scope, and conformity with experience of the predictions it yields. In short, positive economics is, or can be, an objective science, in precisely the same sense as any of the physical sciences.«11

Als Beitrag zur positive economics mussten die neuen Theorien also letztlich ökonometrische Modelle generieren, die die seit 1973 beobachteten Kursschwankungen zu prognostizieren in der Lage wären. 1981 präsentierten die Ökonomen Richard Meese ein Papier über »Empirical Exchange Rate Models of the Seventies«, in dem sie genau die von Friedman eingeforderte und von den Wechselkurstheoretikern in Aussicht gestellte Prognosekraft der Modelle zu testen versprachen. Das Ergebnis der Tests gibt folgendes Zitat wieder: »We find that a random walk model would have predicted major-country exchange rates during the recent floating-rate period as well as any of our candidate models. Significantly, the structural models fail to improve on the random walk model in spite of the fact that we base their forecasts on actual realized values of future explanatory variables.«12

Dieses Ergebnis erwies sich als robust: Weitere empirischen Überprüfungen bestätigten die Ergebnisse von Meese und Rogoff oder es gelang ihnen jedenfalls nicht, sie zu verwerfen.13 Die Modelle waren also auf ganzer Linie an den Tests gescheitert. Mussten nun neue Modelle formuliert werden? Solchen Versuchen stellte sich ein weiteres

11 M. Friedman, zitiert nach. D.A. MacKenzie: An engine, not a camera, S. 9. 12 R.A. Meese/K. Rogoff: Empirical exchange rate models, S. 3. 13 Vgl. J.A. Frankel/A.K. Rose: Empirical Research on Nominal Exchange Rates, S. 1689-1729.

264 | L EON J ESSE W ANSLEBEN

Problem: Zusätzliche Tests hatten nämlich gezeigt, dass keine der in Frage kommenden makroökonomischen Variablen eine signifikante und stabile Relation zu der Entwicklung der Wechselkurse aufweisen konnte.14 Man sprach deshalb von nun an von einem exchange rate disconnect puzzle. Phase drei begann deshalb in den 1990ern mit der Erkenntnis, dass die Wechselkursökonomik in der Krise stecke. In ihrem Review-Artikel für das Hanbook of International Economics schreiben Jeffrey Frankel und Andrew Rose: »To repeat a central fact of life, there is remarkably little evidence that macroeconomic variables have consistent strong effects on floating exchange rates […]. Such negative findings have led the profession to a certain degree of pessimism vis-à-vis exchange rate research.«15

Noch eindrücklicher wird die Krise durch folgende ethnographische Anekdote dargestellt, die ein weiterer Wechselkursökonom seiner Abhandlung voranstellt: »Ten years ago, a friend of mine who trades spot foreign exchange for a large bank invited me to spend a few days at his side. At the time, I considered myself an expert, having written my thesis on exchange rates. I thought I had a handle on how it worked. I thought wrong. As I sat there, my friend traded furiously, all day long, racking up over $1 billion trades each day […]. Despite my believe that exchange rates depend on macroeconomics, only rarely was news of this type his primary concern. Most of the time my friend was reading the tea leaves that were, at least for me, not so clear. The pace was furious – a quote every five or ten seconds, a trade every minute or two, and continual decisions about what position to hold […]. It was clear my understanding was incomplete when he looked over in the midst of his fury and asked me, ›What should I do?‹ I laughed. Nervously.«16

14 Vgl. R.A. Meese: Currency Fluctuations in the Post-Bretton Woods Era, S. 117-134. 15 J.A. Frankel/A.K. Rose: Empirical Research on Nominal Exchange Rates, S. 1709. 16 R.K. Lyons: The microstructure approach to exchange rates, S. 1.

›ECONOMISTS IN THE W ILD ‹

| 265

Neben dem buchstäblichen Versagen der Theorie an der Praxis der Devisenmärkte bringt Richard Lyons Anekdote noch eine weitere Einsicht zum Ausdruck: Sofern Wechselkurse durch Händler im Devisenmarkt bestimmt werden, muss man anstatt makroökonomischer Variablen jene tea leaves zu lesen beginnen, die Händlern als Entscheidungsgrundlagen dienen. Damit würde sich die Wechselkursökonomik endgültig als Theorie spekulativer Finanzmärkte von der Makroökonomik abkoppeln. Doch andere Vertreter der Zunft wehren sich gegen diese Abkopplung. Roman Frydman und Michael Goldberg beispielsweise verweisen in ihrem 2007 veröffentlichten Werk Imperfect Knowledge Economics auf anekdotische und statistische Evidenzen, die zeigen, dass Marktteilnehmer nach wie vor makroökonomische Variablen, insbesondere aber Zentralbankentscheide, für die Kursbestimmung berücksichtigen.17 Das Scheitern von Vorhersagen liegt ihrer Ansicht nach vielmehr in der temporalen Instabilität der politisch-ökonomischen Rahmenbedingungen, der Marktentwicklungen selbst und der Erwartungsbildungen der Teilnehmer begründet. Ich habe also hier die Wechselkursökonomik vereinfachend dargestellt durch eine erste Phase nach Bretton Woods, in der relativ konsensuelle, Synthese-orientierte Theoriebemühungen betrieben wurden, eine zweite Phase, die das empirische Scheitern dieser Bemühungen markiert, und eine dritte Phase, in der einerseits eine Theoriekrise konstatiert wird, andererseits divergierende Reformversuche begonnen werden. Diese Rekonstruktion soll deutlich machen, dass die Bedingungen für einen performativen Effekt ökonomischer Theorie auf Praktiken in Devisenmärkten im wissenschaftlichen Feld selbst nicht gegeben sind. Der Grund hierfür ist das Scheitern der Modelle als ›Rahmen‹ für die Beobachtung und Untersuchung von Devisen. Einerseits scheitern die Modelle an dieser Rahmung aufgrund der empirischen Tests. Andererseits ist es gerade die Überschneidung von Makro- und Finanzökonomik, die zu Spannungen unterschiedlicher Epistemiken führt. Damit bleiben folgende Fragen durch die Ökonomik unbeantwortet: Welches Modell ist plausibel? Welche Rolle spielen makroökonomische Vari-

17 Vgl. R. Frydman/M.D. Goldberg: Imperfect Knowledge Economics.

266 | L EON J ESSE W ANSLEBEN

ablen für die Entwicklung von Wechselkursen? Ist Vorhersage überhaupt möglich? Die holzschnittartige Darstellung der Wechselkursökonomik als wissenschaftliches Feld sei damit entschuldigt, dass der eigentliche Gegenstand meiner Forschung die Wissensformen und -praktiken in den Märkten sind. Mir kommt es lediglich darauf an deutlich zu machen, dass die Ökonomik den Marktteilnehmern kein paradigmatisches Modell zur Verfügung stellt. Jedwede Anwendung von Modellen erfordert deshalb eine Auseinandersetzung mit ihren jeweiligen Insuffizienzen und theoretisch aufgeladenen Selektivitäten. Wir können deshalb davon ausgehen, dass Teilnehmer des Devisenmarktes diese Defizite durch Organisations- und Markt-spezifische Analysepraktiken kompensieren müssen.

ANALYSTEN

IN DEN

D EVISENMÄRKTEN

Speziell erforsche ich die Wissenspraktiken von Analysten auf den Devisenmärkten. Während Händler, Fondsmanager und andere Investoren Positionen in den Märkten eröffnen und schließen, sind Analysten professionelle Beobachter und Prognostiker der Märkte. Sie verfassen tägliche, wöchentliche und monatliche Berichte, geben Prognosen über Wechselkurse ab und beraten externe Kunden sowie Händler auf dem eigenen Handelsflur. Während Händler als Unternehmer auftreten, die zumindest teilweise in eigener Sache handeln, agieren Analysten in einem viel stärkeren Maße als dienstleistende Experten des Bankhauses, bei dem sie angestellt sind. Die Praxis der Analyse dieser Marktexperten weist, wie gezeigt werden soll, deutliche Differenzen zur wissenschaftlichen Ökonomik auf, auch wenn die meisten Währungsanalysten volkswirtschaftliche Studien absolviert haben. Erste mögliche Unterscheidungskriterien gibt Karin Knorr Cetina in ihrer Charakterisierung von financial analysis:18 Sie schlägt zum Einen vor, dass Analysten im Unterschied zu Ökonomen mit Informationswissen operieren, das heißt mit Wissen,

18 Vgl. K. Knorr Cetina: The Epistemics of Information. A Consumption Model, 1-31; K. Knorr Cetina: Financial Analysis, S. 1-53.

›ECONOMISTS IN THE W ILD ‹

| 267

das nur zu bestimmten Zeiten in bestimmten Situationen einen Unterschied zu machen erlaubt, das aber mit Benutzung entwertet wird. Zum Zweiten sind Knorr Cetina zufolge Informationen auf den Finanzmärkten Gegenstand von mehr oder weniger heftigen Marktreaktionen. Weil Analysten zur Bestimmung zukünftiger Kurse neue Informationen zu (möglichen) Marktreaktionen in Verhältnis setzen, entwickeln sie eine Sensorik für den affektiven Wert von Informationen. Dies unterscheidet die Epistemik von financial analysis deutlich von akademischen Epistemiken. Ich beziehe mich im Folgenden auf eigene Forschungen, die ich bei verschiedenen Banken und auf unterschiedlichen Handelsfluren durchgeführt habe. Meine Methoden sind qualitative Interviews und ethnographischen Beobachtungen. Selbstverständlich sind die beobachteten Praktiken der Währungsanalysten nicht einheitlich. So spielen Faktoren wie die Ausrichtung der Analysten auf die sell-side (Beratung externer Kunden) und buy-side (Beratung innerhalb der Bank oder Mandatsorientierung, etwa bei einem Fonds) eine entscheidende Rolle.19 Ebenso variieren Analystenpraktiken mit dem Status ihrer Bank: Analysten, die für prestigeträchtige Häuser arbeiten, haben Zugang zu exklusiven Informationen und beeinflussen mit ihren Meinungsäußerungen den Markt stärker als Analysten, die für ›kleine‹ Häuser arbeiten. Allerdings lässt sich trotz dieser Differenzierungen ein gemeinsames »epistemisches Profil« der Währungsanalyse entwickeln. Zur Entwicklung dieses Profils orientiere ich mich an zwei relativ deutlich unterscheidbaren Praxiskomplexen – Marktbeobachtung und Prognostik. Diese Aufgliederung enthält bereits eine wesentliche Aussage: Die Epistemik der Analysten gründet sich primär auf Marktbeobachtung und erst in einem nachgeordneten Sinn auf Prognostik.

19 Vgl. L. Wansleben: Financial Analysts.

268 | L EON J ESSE W ANSLEBEN

M ARKTBEOBACHTUNG Abbildung 2 zeigt den Handelsflur einer deutschen Bank, lokalisiert in Frankfurt. Der Saal, wie zu sehen ist, gliedert sich durch die Reihen von Arbeitsplätzen, die als Desks bezeichnet werden.20 Bestimmte Desks sind bestimmten Finanzinstrumenten zugeordnet; man spricht etwa vom Fixed Income oder Währungsdesk, an dem die jeweiligen Händler sitzen. An benachbarten Desks gesellen sich zu den Händlern die Sales-Leute, die Anfragen von Kunden entgegennehmen, sowie die Analysten. Diese Gruppierungen werden relevant, wenn jeden Morgen um acht Uhr alle für Währungen zuständigen Händler, SalesLeute und Analysten zwischen den desks auf dem Gang ein ca. fünfminütiges Meeting abhalten, in dem sich über tagesrelevante Themen ausgetauscht wird – vergleichbar etwa mit der Redaktionskonferenz einer Tageszeitung. Den sonstigen Arbeitstag sitzen Händler, SalesLeute und Analysten zumeist an ihren Arbeitsplätzen, die mit zwischen 3-6 neben- und übereinander angeordneten Bildschirmen, speziellen Tastaturen, Telefonboards, kleinen Bildschirmen für Videokonferenzen und ideosynkratischem Arbeitsgerät ausgestattet sind. Die Währungsanalysten beobachten auf ein bis zwei Bildschirmen – als terminals bezeichnet – Meldungen von Reuters und Bloomberg. Auf mindestens einem Bildschirm werden aktuelle Kursverläufe, zumeist Euro/Dollar, als Kurven oder Preisquotierungen dargestellt; Auf einem weiteren Bildschirm haben die Analysten die Publikationen geöffnet, an denen sie gerade arbeiten. Auch während dieser Bildschirm-Zeiten wird jedoch die räumliche Anordnung genutzt, um sich Informationen über den Arbeitsplatz zuzurufen und sich auszutauschen. Insbesondere die Währungsanalysten untereinander sind in ständiger Konversation, in der sich Koordinationen der zu absolvierenden Aufgaben, inhaltliche Diskussionen und informeller Chat (Urlaub, Sport etc.) abwechseln und überlagern. Oftmals verweisen Analysten in ihren Gesprächen auch auf Ereignisse, die sie gleichzeitig auf den Bildschirmen beobachten.

20 Vgl. D. Beunza/D. Stark: Tools of the Trade, S. 253-290.

›ECONOMISTS IN THE W ILD ‹

| 269

Abbildung 2. Ein Handelsflur

Quelle: Baumgarten/Cario-press/SZ-photo

Jedem Wissenschaftssoziologen wird bei dieser Beschreibung deutlich, wie stark sich die Praktiken der Währungsanalysten schon in Hinblick auf ihre räumliche Situierung von akademisch-ökonomischen Arbeitsweisen unterscheiden.21 Bei letzteren sollen räumliche Separierung und Stille zur Konzentration aufs Wesentliche beitragen; sie sollen ein Höchstmaß an zeitlicher, sachlicher sowie Kontrolle über epistemische Objekte ermöglichen. Warum streben die Währungsanalysten im Gegensatz zu ihren akademischen Kollegen nicht ein stilles, isoliertes Büro an, wohin sie alle wesentlichen Daten geliefert bekommen und auf dieser Grundlage methodisch kontrollierte Analysen vornehmen können? Warum operieren sie in dem beschriebenen Raum, der gefüllt ist mit Ablenkungspotentialen? Der Grund ist, dass sich Analysten partiell in den Markt begeben müssen, um diesen zu analysieren. Eine genauere Betrachtung der Analysepraktiken kann dies verdeutlichen: Der Markt, einschließlich seiner Umwelt aus ökonomischen, politischen und anderen Ereignissen spielt sich auf jenen Bildschirmen ab, vor denen die Analysten ihren Arbeitstag verbringen. Karin Knorr Cetina spricht deshalb von Devisenmärkten als skopischen Systemen (von scopein, griech. für Se-

21 Vgl. Y. Yonay/D. Breslau: Marketing Models, S. 345-386.

270 | L EON J ESSE W ANSLEBEN

hen), die koordiniert, zentriert und appräsentiert werden durch die technischen Infrastrukturen, vor allem Bildschirme, auf Handelsfluren.22 Wenn also Analysten früh Morgens in den Handelssaal kommen, um sich an ihren Bildschirmen über Ereignisse der Nacht zu informieren und bis spät abends an diesen Bildschirmen Kursentwicklungen, Datenveröffentlichungen, Nachrichten etc. verfolgen, dann begeben sie sich in ebenjene informationelle Realität, an der sich die Märkte selbst ausrichten. Ihre Arbeit besteht nun nicht darin, in den Markt zu intervenieren, sondern Relationen zwischen Marktentwicklungen und ökonomischen Sachverhalten herzustellen. Diese ökonomischen Sachverhalte bestehen aus Veröffentlichungen hochaggregierter und konventionalisierter Daten (Wachstums-, Inflations- und Arbeitslosenzahlen, Zinsentscheide), die über Bloomberg und Reuters durch das skopische System zirkulieren. Die Analysten versuchen durch Beobachtung dieser Datenveröffentlichungen zu eruieren, wie Marktteilnehmer Erwartungen bilden und revidieren. Sie stellen damit fragile, interpretative Zusammenhänge zwischen einer virtuell vermittelten ökonomischen Realität und einer durch Kurven und Preise appräsentierten Marktrealität dar. Dies gelingt den Analysten, weil Marktereignisse im Handelssaal auf involvierte und interessierte Teilnehmer, das heißt auf entsprechende Aufmerksamkeiten und Affekte, treffen.23 Zudem nutzen Analysten den Handelsflur als Raum verteilter Kognition. Durch räumliche Nachbarschaften werden ad-hoc Expertisenetzwerke ermöglicht, die zur Diskussion aktueller Fragen genutzt werden und somit Interpretationsspielräume eröffnen, die durch das skopische System nicht bereitgestellt werden können. Diese Interpretationsspielräume sind jedoch lediglich partielle Abkopplungen von aktuellem Geschehen, das sich sicht- und hörbar während der Diskussionen fortsetzt. So werden

22 Vgl. K. Knorr Cetina: From Pipes to Scopes, S. 7-23. 23 Dass gerade auch die unscharfe Wahrnehmung von Betriebsamkeit Bindungseffekte generieren kann, hat Urs Stäheli mithilfe des Begriffs des noise ausgeführt. Für spezifischen Bezug auf noise innerhalb eines Handelssaals, siehe U. Stäheli: Financial Noises: Inclusion and the Promise of Meaning, S. 244-256.

›ECONOMISTS IN THE W ILD ‹

| 271

viele der Diskussionen geführt, während die Blicke der Analysten auf die Bildschirme gerichtet bleiben. Der Schlüssel zur Situierung der Analysten im Handelssaal sind also die Praktiken der dauernden, involvierten Beobachtung und des Diskutierens, die der Synchronisation und Etablierung von Rekursion dienen. Dieser Fokus auf das gegenwärtige Geschehen steht deshalb im Zentrum, weil der Markt eine ›Zeitgemeinschaft‹ bildet, die sich ständig synchronisiert. Der Informationsfluss an den Bildschirmen und die Geschäftigkeit des Handelsflurs sind Medien dieser Synchronisation. Analysten partizipieren beobachtend und interpretierend an dieser Zeitgemeinschaft und vermitteln sie Kunden mithilfe möglichst zeitnaher Informationsdienstleistungen: Neben dem täglichen Bericht, der Abends vorbereitet und Morgens zwischen sieben und neun Uhr verschickt wird, kommentieren Analysten bestimmte Ereignisse wie Datenveröffentlichungen und Zentralbankentscheide laufend auf einem virtuellen Chat, zu dem Händler und Kundenbetreuer Zugang haben. Analysten versuchen durch diese Praktiken rekursive Schleifen zwischen Informationen und Marktreaktionen zu etablieren, die Auskunft über gegenwärtige ›Treiber‹ der Märkte geben. Ein Analyst formuliert es so: »Ein Großteil meiner Aufgabe ist, glaube ich, gar nicht so sehr prognostisch, sondern zu erklären, was ist denn überhaupt passiert im Markt. Weil das dann natürlich Informationen auch im prognostischen Sinne liefert, aber wir müssen erst einmal erklären, was passiert ist.«

P ROGNOSEPRAKTIKEN Es gibt in der Bank, in der ich den Großteil meiner ethnographischen Beobachtungen durchgeführt habe, mehrere Etagen über dem Handelssaal eine ökonomische Abteilung. Dort sitzt ein Ökonom, der Wechselkursprognosen für Zeiträume von mehreren Quartalen bis zu zwei Jahren berechnet, die er ca. monatlich aktualisiert. Das Modell, das er diesen Prognosen zugrunde legt, berücksichtigt Faktoren wie Produktivitäts- und Zinsdifferenzen, entspricht also grob den oben dargestellten Modellen, die makroökonomische Faktoren mit finanz-

272 | L EON J ESSE W ANSLEBEN

ökonomischen Variablen kombinieren. Der Volkswirt agiert also innerhalb eines ökonometrischen »Gestells«24 das einerseits durch die Modelle der Wechselkursökonomik, andererseits durch die Pragmatik der Spezifikation dieser Modelle (Verfügbarkeit von Daten, Vorhersagbarkeit der unabhängigen Variablen etc.) bestimmt ist. Von Interesse ist aber insbesondere, wie die Währungsanalysten auf dem Handelsflur mit Modellprognosen des Ökonomen umgehen und sie in ihre Analysepraktiken integrieren. Einer der Analysten beschreibt diese Integration wie folgt: »Was aus dem Modell rauskommt, wird nicht eins zu eins zu unserer Prognose, sondern wir fragen halt immer, was sagt uns das Modell, also, was sagt uns das Modell in dieser Situation [...]. Dann müssen wir halt qualitativ abschätzen, welcher Teil des Modells ist verwendbar, welcher Teil des Modells ist nicht verwendbar [...]. Also, die kurze Frist modellieren wir dann nicht formal nach. Und deshalb haben wir halt den Anpassungspfad an die Modellprognosen qualitativ festgelegt. Außerdem gibt es halt immer Einflussfaktoren, die momentan nicht so funktionieren, wie unter anderen Umständen, so dass wir dann auch händisch eingreifen.«

Drei wesentliche Merkmale des Umgangs mit Modellen fallen auf: Zunächst stellt der Analyst eine Distanz zwischen dem Modell und dem Marktgeschehen fest. Diese Distanz wird auch räumlich und sozial markiert, wenn der Währungsanalyst von »unseren Volkswirten da oben« spricht. In sachlicher Hinsicht reflektiert er diese Diskrepanz als Unterscheidung zwischen Modellprognose und Wirklichkeit. Man darf eben nicht einfach glauben, welche Zahlen die Volkswirte einem präsentieren, weil diese Prognosezahlen – den ökonometrischen Tests der Wechselkursökonomik entsprechend – zumeist daneben liegen. Zweitens erfolgt diese Feststellung der Differenz zwischen Modell und Beobachtungen mithilfe zeitlicher Situierung. Der Analyst spricht in dem obigen Zitat von Situation, Moment, Umständen etc., und bezeichnet damit Formen der Situierung, die nicht auf einzelne Variablen und Informationen reduziert werden können. Vielmehr erfolgt die-

24

M. Heidegger: Die Frage der Technik, S. 5-36.

›ECONOMISTS IN THE W ILD ‹

| 273

se Situierung multisensorisch, wie ein weiteres Zitat des Analysten dokumentiert: »Also, wir lesen uns das Research von anderen Leuten durch, wir reden mit den Kunden direkt oder über die Sales-Leute, wir hören, was die Händler sagen, und entwickeln dadurch, also versuchen ein Gespür zu entwickeln, was die relevanten Themen sind.«

Auf Basis dieser zeitlichen, multisensorischen Situierung erfolgt dann drittens eine selektive beziehungsweise ergänzende Nutzung der Modellprognose. Variablen des Modells werden missachtet, qualitative Faktoren ergänzt und die finale Zahl angepasst, und zwar nicht zuletzt, um sich von der Konkurrenz abzuheben. Wozu, so könnte man dann anders herum fragen, nutzen die Währungsanalysten überhaupt Modellprognosen? Meine Antwort lautet, dass die quantitative Modellprognose einerseits einen »Anker«25 bietet, um Abweichungen zu konstatieren; andererseits ist es gerade diese Diskrepanz von kurzfristig beobachteten, und langfristig modellierten Entwicklungen, die Geschichten erzeugt.26 Das Spannungsverhältnis zwischen der Zeitlichkeit der Prognose und der Zeitlichkeit der akuten Beobachtungen erzeugt narrative Potentiale über mögliche Fortsetzungen und Wendepunkte gegenwärtiger Marktentwicklungen.

25 A. Tversky/D. Kahneman: Judgement under Uncertainty, S. 1124-1131. 26 Ein typischer Fall wäre der folgende: Kurzfristig steigen die Kurse des Euro im Vergleich zum Dollar. Dollarbären können sich gegen Dollarbullen durchsetzen, weil die amerikanische Notenbank Inflationsbefürchtungen durch Geldexpansion nährt. Das Modell der ökonomischen Abteilung zeigt jedoch im Widerspruch dazu an, dass der Dollar im Vergleich zum Euro aufgrund höherer Produktivität der USA zum Jahresende steigen müsste. Aus diesem Spannungsverhältnis bauen die Währungsanalysten folgende Prognosegeschichte: Sobald die Dollarbären merken, dass der Dollar nicht inflationsgefährdet ist, werden ihnen die Argumente für einen schwächeren Dollar abhanden kommen. Dann werden sich die Argumente durchsetzen, die durch die Modellprognose geliefert werden.

274 | L EON J ESSE W ANSLEBEN

S CHLUSS Mein Beitrag sollte zur Untersuchung ökonomischen Wissens in Märkten anhand des Beispiels der Währungsanalysten beitragen. Ich habe zu argumentieren versucht, dass das Konzept der Performativität für den hier beschriebenen Fall nicht einschlägig ist. Abschließend soll dieses Argument durch eine genauere Lesart des Performatvitätskonzepts auf den Punkt gebracht werden. Michel Callon und Donald MacKenzie zufolge haben ökonomische Theorien und Modelle dann einen performativen Effekt, wenn es ihnen gelingt, ökonomische Praktiken von sozialen sowie sachlichen Verwicklungen zu lösen27 und stattdessen durch scharf begrenzte, kalkulative Rahmen zu konditionieren.28 In den 1970er Jahren wurden theoretisch plausible Wechselkursmodelle vorgeschlagen, die solche kalkulative Rahmen bereitzustellen beanspruchten. Doch es gelang einerseits aus dargestellten Gründen nicht, weitere akademische Zugriffe auf das Thema Wechselkurse mithilfe dieser Modelle zu konditionieren. Die Verwendung anekdotischer Evidenzen, also bewusst undisziplinierter Aneignungen ökonomischer Wirklichkeit in neueren theoretischen Abhandlungen (»dritte Phase«) dokumentiert dieses Scheitern. Andererseits verwenden Marktteilnehmer, wie dargestellt, Modelle in der Tat als Dekontextualisierungsinstrumente: So werden die multiplen Ereignisse auf den Bildschirmen und dem Handelssaal in der Prognoseabteilung der von mir untersuchten Bank durch Zeitreihen von einigen wenigen Variablen ersetzt. Doch anstatt auf der Innenseite des Modellrahmens zu operieren und Marktgeschehen mit den Augen des Modells zu beobachten, distanzieren sich die Analys-

27 Michel Callon spricht von Disentanglement, vgl. M. Callon: What does it mean to say that Economics is Performative?, S. 311-357. 28 Diese Schließung zwischen Theorie und Praxis (und damit die Auflösung der Unterscheidung) beschreibt Callon mithilfe sozio-technischer Agencements (Kalkulationsinstrumente, aggregierte Daten, räumliche, soziale Konfigurationen): »This means that there is nothing left outside agencements: there is no need for further explanation, because the construction of its meaning is part of an agencement […] It is the statements that determine the environments required for their survival«, ebd. S. 331.

›ECONOMISTS IN THE W ILD ‹

| 275

ten räumlich, zeitlich, sozial und sachlich von dem Modell und seinen Entwicklern. Sie benutzen das Modell als Anker und Fiktionsgenerator, das einerseits ein effektives Instrument zur Generierung prospektiven Sinns darstellt, andererseits durch Situierung in einen spezifischen, zeitlich kontingenten Zusammenhang relativiert werden muss. Gegenwart, konstituiert durch Bildschirmereignisse und Handelsfluratmosphäre, bleibt der Realitätsanker der Analysten. Doch genau diese Gegenwartsverankerung sorgt auch dafür, dass die Analysten kein Wissen im Sinne stabilisierter, akkumulierbarer Erkenntnisse aufbauen können. Das Wissen selbst ist dem Spiel der Märkte ausgesetzt.

L ITERATUR Beunza, Daniel/Stark, David: »Tools of the Trade: The Socio-Technology of Arbitrage in a Wall Street Trading Room«, in: T. J. Pinch/Richard Swedberg (Hg.): Living in a material world: economic sociology meets science and technology studies, Cambridge, Mass.: MIT Press 2008, S. 253-290. BIS: »Triennial Central Bank Survey Foreign Exchange«, in: Bank for International Settlements (Hg.), Basle 2010. Callon, Michel: »Introduction: the embeddedness of economic markets in economics«, in: Michel Callon (Hg.): The laws of the markets, Oxford: Blackwell 1998, S. 1-57. Callon, Michel: »What does it mean to say that Economics is Performative?«, in: Donald A. MacKenzie (Hg.): Do economists make markets? On the Perrformativity of Economics, Princeton, NJ u.a.: Princeton University Press 2007, S. 311-357. Calmfors, Lars/Wihlborg, Clas: »General Discussion: What have we learned? Where are the fundamental conflicts of opinion«, in: Scandinavian Journal of Economics 78 (1976), S. 386-412. Eichengreen, Barry J.: Globalizing capital. A history of the international monetary system, Princeton, N.J. u.a.: Princeton Univ. Press 2008. Frankel, Jeffrey A./Rose, Andrew K.: »Empirical Research on Nominal Exchange Rates«, in: Gene M. Grossman (Hg.): Handbook of

276 | L EON J ESSE W ANSLEBEN

international economics III, Amsterdam: North-Holland 1995, S. 1689-1729. Frydman, Roman/Goldberg Michael D.: Imperfect Knowledge Economics. Exchange Rates and Risk, Princeton, NJ et al.: Princeton University Press 2007. Heidegger, Martin: »Die Frage der Technik«, in: Friedrich-Wilhelm von Herrmann (Hg.): Martin Heidegger Gesamtausgabe Band 7: Vorträge und Aufsätze, Frankfurt a. M.: Vittorio Klostermann 2000[1953], S. 5-36. Knorr Cetina, Karin: »From Pipes to Scopes«, in: Distinktion 7 (2003), S. 7-23. Knorr Cetina, Karin: »Financial Analysis: Epistemic Profile of an Evaluative Science«, in: Charles Camic/Neil Gross/Michele Lamont (Hg.): Knowledge Making, Use and Evaluation in the Social Sciences, Chicago: University of Chicago Press 2010 forthcoming, S. 1-53. Knorr Cetina, Karin/Bruegger, Urs: »Global Microstructures: The Virtual Societies of Financial Markets«, in: American Journal of Sociology 107 (2002), S. 905-950. Levich, Richard M.: »Empirical Studies of Exchange Rates: Price Behavior, Rate Determination and Market Efficiency«, in: R. W. Jones/P. B. Kenen (Hg.): Handbook of international economics, Amsterdam u.a.: North-Holland 1985, S. 979-1040. Lyons, Richard K.: The microstructure approach to exchange rates, Cambridge, Mass. u.a.: MIT Press 2001. MacKenzie, Donald A.: »An engine, not a camera« How financial models shape markets, Cambridge, Mass. u.a.: MIT Press 2008. MacKenzie, Donald/Millo, Yuval: »Constructing a Market, Performing Theory: The Historical Sociology of a Financial Derivatives Exchange«, in: American Journal of Sociology 109 (2003), S. 107145. Meese, Richard A.: »Currency Fluctuations in the Post-Bretton Woods Era«, in: Journal of Economic Perspectives 4 (1990), S. 117-134. Meese, Richard A./Rogoff, Kenneth: »Empirical exchange rate models of the seventies: Do they fit out of sample?«, in: Journal of International Economics 14 (1983), S. 3-24.

›ECONOMISTS IN THE W ILD ‹

| 277

Stäheli, Urs: »Financial Noises: Inclusion and the Promise of Meaning«, in: Soziale Systeme 9 (2003), S. 244-256. Tversky, Amos/Kahneman, Daniel: »Judgment under Uncertainty: Heuristics and Biases«, in: Science 185 (1974), S. 1124-1131. Wansleben, Leon: »Financial Analysts«, in: Karin Knorr Cetina/Preda Alex (Hg.): Handbook of the Sociology of Finance, Oxford: Oxford University Press 2011 forthcoming. Yonay, Yuval/Breslau, Daniel: »Marketing Models: The Culture of Mathematical Economics«, in: Sociological Forum 21 (2006), S. 345-386.

Strahlende Landschaften Zur materiellen und photographischen Öffentlichkeit der amerikanischen Atombombentests1 L ARS N OWAK

Der John Wayne-Film THE CONQUEROR (USA 1956), in dem Wayne ausnahmsweise einmal keinen Cowboy, sondern Djingis Khan spielte, war ein unglückseliges Projekt: Einerseits galt er bereits kurze Zeit nach seinem Erscheinen als einer der schlechtesten Filme der 1950er Jahre; andererseits waren von seinen rund 220 Mitarbeitern Anfang der 1980er Jahre nicht weniger als 91 Personen an Krebs erkrankt und 46 Personen, darunter so bekannte Schauspieler wie Susan Hayward, Agnes Moorehead, Pedro Armendáriz und nicht zuletzt Wayne selbst, verstorben. Man hat diese ungewöhnliche Häufung von Krankheitsund Todesfällen auf den Umstand zurückgeführt, dass die Außendreharbeiten dieses Filmes in unmittelbarer Nachbarschaft des Nevada Proving Ground (NPG) stattgefunden hatten, wo die Atomic Energy Commission (AEC) etwa ein Jahr zuvor, nämlich am 19. Mai 1953, den Atombombentest Harry der Operation Upshot-Knothole abgehalten hatte, der den stärksten radioaktiven Fallout aller innerhalb der USA durchgeführten atmosphärischen Nukleartests verursachte.

1

Die Forschungen für diesen Aufsatz wurden durch ein Postpromotionsstipendium des Historisch-Kulturwissenschaftlichen Forschungszentrums Trier ermöglicht.

280 | L ARS NOWAK

Mit dieser Begegnung zwischen dem Medium Film und den oberirdischen Kernwaffentests der USA ist bereits grob der Untersuchungsgegenstand dieses Aufsatzes umrissen. Dabei erlauben es die Atomtests, dem Titel der vorliegenden Aufsatzsammlung – Jenseits des Labors – einen mehrfachen Sinn abzugewinnen: So wird zunächst ähnlich wie in den anderen Beiträgen der Sektion ›Wissenstransformationen‹ untersucht werden, welche Veränderungen das in den Atomwaffenlaboren generierte Wissen bei seiner Übertragung auf den öffentlichen Raum sowohl durch Selektionen und Modifikationen seitens der Vermittlungsinstanzen als auch durch die unterschiedlichen Reaktionen der Adressaten erfahren hat. Diese semiotische Verknüpfung von Innen und Außen werde ich aber außerdem in einen Bezug setzen zum physischen Ausstrahlen der durch die Testexplosionen bewirkten Destruktionen – allen voran der radioaktiven Kontaminationen – auf die Umgebung des Laborraumes. Und noch diesseits dieses doppelten Hinausgreifens über die Grenzen des Labors wird dessen eigene Verlagerung vom Innen- in den Außenraum zur Sprache kommen, mit der eine enorme Erweiterung der physischen Abmessungen wie auch der soziotechnischen Netzwerke (verstanden im Sinne der Aktor-Netzwerk-Theorie) einherging. Im Mittelpunkt dieser Überlegungen steht der Beitrag, den die Medien der Kinematographie und mehr noch der Photographie nicht nur zur Generierung, sondern auch zur Publizierung und Popularisierung des technisch-naturwissenschaftlichen Wissens über Nuklearexplosionen geleistet haben. Hierbei wird sich zeigen, dass die Photographie als von verschiedenen Akteuren genutztes und in verschiedenen Kontexten und Stilen auftretendes Mittel der Veröffentlichung keineswegs jene eindeutige Rolle gespielt hat, die ihr von der bisherigen Forschung oft zugeschrieben wurde, sondern von ähnlichen Ambivalenzen durchzogen war wie die öffentliche Wahrnehmung der Atombombe überhaupt.

P HYSISCHE E FFEKTE

IM

AU SS ENRAUM

Hatte Ernst Mach, einer der Ahnherren der ballistischen Photographie, noch Ende des 19. Jahrhunderts konstatiert, dass ballistische Experimente unter den kontrollierten Bedingungen eines Innenraumlaborato-

S TRAHLENDE L ANDSCHAFTEN

| 281

riums solchen auf offenen Schießplätzen mit ihren zahlreichen Störfaktoren vorzuziehen seien,2 so können Versuchszündungen, die der Entwicklung und Weiterentwicklung von Atombomben dienen, auf solche Überlegungen keine Rücksicht mehr nehmen. Denn auch wenn die Experimente zur Vor- und Nachbereitung von Nukleartests, wie etwa die chemische Analyse von nach den Explosionen entnommenen Stoffproben, in Innenraumlaboren Platz finden mögen, würde ein solcher architektonischer Rahmen durch die Atomdetonationen selbst, die aufgrund ihrer Abhängigkeit von einer kritischen Masse an radioaktivem Material ein bestimmtes Minimum nicht unterschreiten können, buchstäblich gesprengt. So wichen die USA bei den über 200 oberirdischen Atombombentests, die sie zwischen 1945 und 1962 durchführten, auf die Außenräume militärischer Sperrzonen aus, die teils in Wüsten-, teils in Seeregionen lagen: Nachdem bereits das erste dieser technischen Experimente, der Trinity-Test vom 16. Juli 1945, in der Alamogordo-Wüste von New Mexico stattgefunden hatte, wurden weitere Tests ab 1946 im Pazifik, und zwar vornehmlich auf dem Bikini- und dem Eniwetok-Atoll, ab 1951 auf dem NPG3 und im Jahre 1958 über dem Südatlantik4 abgehalten. Diese Testgelände waren um ein Vielfaches größer als diejenigen für konventionelle Versuchssprengungen, maß doch beispielsweise das Bikini-Atoll nicht weniger als 10 mal 20 Meilen und war von einer noch viel größeren Sicherheitszone umgeben, während der NPG bei seiner Einweihung eine Fläche von 350 Quadratmeilen bedeckte und bis 1967 sukzessive auf 1.350 Quadratmeilen vergrößert wurde.5 Angesichts solcher Zahlen erscheint die Bemerkung der beiden Nuklearwaffenexperten Edward Teller und Albert Latter, letztlich werde »the atomic explosion [...] always dwarfed by its setting«6, keineswegs als unangebracht.

2

Vgl. P. Berz: 08/15, S. 458f.

3

Im Jahre 1956 wurde dieses Testgelände in ›Nevada Test Site‹ umbenannt.

4

Hier wurden bei der Operation Argus drei Atombomben in ca. 300 Meilen Höhe, also im Weltraum, zur Explosion gebracht. Vgl. U.S. Department of Energy: Nuclear Tests, S. 12.

5

Vgl. A.C. Titus: Bombs, S. 36, 56.

6

E. Teller/A. Latter: Nuclear Future, S. 80.

282 | L ARS NOWAK

Die Wahl der genannten Orte wurde von den staatlichen Stellen zum einen mit ihrer geringen Produktivität,7 zum anderen mit ihrer Sicherheit begründet, die daraus resultiere, dass sie weit von den amerikanischen Metropolen oder überhaupt von den USA entfernt und nur dünn besiedelt seien.8 Doch obwohl insbesondere die in den Wüsten gelegenen Testgebiete den Eindruck erweckten, sie hätten einen Atomkrieg bereits hinter sich, wurden sie und ihre ursprünglichen Bewohner tatsächlich erst durch die Nukleartests massiven Zerstörungen unterworfen. Schon die Einrichtung des Testgeländes im Süden Nevadas nahm keinerlei Rücksicht auf die vorherige Nutzung dieses Territoriums durch die indianischen Stämme der Western Shoshone und der Southern Paiute, welche die Region zuvor zyklisch durchwandert und als Jagdgebiete sowie für ihre Versammlungsplätze und Kultstätten verwendet hatten.9 Das Innere der Testareale wurde zunächst zum Objekt diverser konstruktiver Eingriffe, wie etwa der Verteilung zahlloser Testobjekte im unmittelbaren Wirkungsbereich der Explosionen,10 zu denen neben Fahrzeugen, technische Geräten und künstlichen Wäldern auch Testhäuser gehörten, die das Innen- und Außenverhältnis üblicher Experimente invertierten: Ließen sich die Atomtests nicht mehr im Innern von Gebäuden durchführen, so schlossen sie stattdessen umgekehrt Gebäude ein. Die Testobjekte wurden dann aber der mechanisch-thermischen Zerstörung durch die Detonationen preisgegeben. So verteilte man etwa 1946 bei der Operation Crossroads, der ersten nach dem Krieg und im Pazifik abgehaltenen Testserie, nahezu 300 teils erbeutete japanische und deutsche, teils eigene amerikanische Kriegsschiffe und U-Boote um die Epizentren zweier Testdetonationen, die einige von ihnen so stark beschädigten, dass man sie anschließend vor Ort versenkte.

7

Vgl. P. Hales: Atomic Sublime, S. 20; V. Kuletz: Invisible Spaces, S. 250.

8

Vgl. A.C. Titus: Bombs, S. 56f.; P. Hales: Atomic Sublime, S. 18, 20; S. Kirsch: Watching, S. 232. Zu dieser Sicherheit schien auch beizutragen, dass die Testgebiete nach außen abgeschlossen waren: die Atolle und Inseln durch den Ozean, die Wüsten durch Berge.

9

Vgl. V. Kuletz: Invisible Spaces, S. 238, 241, 248ff.

10 Vgl. T. Vanderbilt: Survival City, S. 80ff.

S TRAHLENDE L ANDSCHAFTEN

| 283

Die mechanisch-thermische Zerstörungskraft der Bomben grub sich in die Landschaften aber auch unmittelbar ein. Denn so wie an den festgefahrenen Fronten des Ersten Weltkrieges der Dauerbeschuss mit konventionellen Waffen die dortigen Hügel abgetragen und im späteren Vietnamkrieg der Einsatz von Agent Orange den Urwald entlaubt hat, hinterließen die nuklearen Bomben, die man auf oder unmittelbar unter dem Erdboden des NPG zündete, dort Krater von mehreren Hundert Metern Durchmesser, während der am 1. November 1952 im Eniwetok-Atoll durchgeführte Test Ivy Mike zur Erprobung der ersten thermonuklearen Bombe die gesamte Insel Elugelab vaporisierte. In dem zwischen 1958 und 1975 verfolgten Plowshare Program, das die Brauchbarkeit von Atomdetonationen für zivile Zwecke wie den Bergbau oder das Graben von Tunneln und Kanälen prüfen sollte, haben die USA sogar versucht, sich diese Eingriffe in die Landschaft gezielt zunutze zu machen.11 Noch größere Schäden richtete die von den oberirdischen Testexplosionen freigesetzte Radioaktivität an. Zwar versuchte man, die radioaktive Kontamination aufgeworfenen Erdreiches dadurch zu verringern, dass man einen Teil der Bomben auf hohen Türmen oder sogar – von Flugzeugen abgeworfen, an Ballons hängend oder mit Raketen in die Höhe geschossen – in der Luft zündete. Auch wurde das Gelände des NPG unter anderem deshalb ausgewählt, weil man glaubte, die dortigen Wetterbedingungen seien derartig günstig und vorhersagbar, dass man die Fallout-Region auf einen Radius von 125 Meilen begrenzen könne.12 Tatsächlich aber hat die radioaktive Strahlung der amerikanischen Nukleartests nicht nur Schafherden in Utah und Fischbestände im Pazifik verseucht, sondern auch bei Menschen – wenngleich im Einzelfall nur schwer nachzuweisende – gesundheitliche Schäden hervorgerufen, die von der Strahlenkrankheit über Krebserkrankungen bis zu Mutationen des Erbguts reichten. Das betraf zunächst die zivilen Mitarbeiter der Tests selbst und die Soldaten, die an jenen Manövern teilnahmen, die bei einigen von ihnen durchgeführt wurden. Denn während ranghohe Militärs und Wissenschaftler durch spezielle Kleidung, ausreichende Sicherheitsabstände und rechtzeitige

11 Vgl. A.C. Titus: Bombs, S. 66f. 12 Vgl. ebd., S. 57; S. Kirsch: Watching, S. 233.

284 | L ARS NOWAK

Evakuierungen geschützt wurden, war dies bei einfachen Technikern und Rekruten oft nicht der Fall, wobei man Letztere zudem besonders früh besonders nah an das Epizentrum heranbrachte, um sie auf diese Weise für einen neuartigen, atomaren Krieg abzuhärten.13 Die radioaktive Verseuchung verbreitete sich aber auch weit über die Grenzen der Testgebiete hinaus. So gehörten zu den Strahlenopfern auch die Mikronesier, die auf den Nachbarinseln der pazifischen Testatolle siedelten oder dorthin erst evakuiert worden waren, wie die Bikinianer, die gemeinsam mit den ursprünglichen Bewohnern Rongeriks, Rongelaps und Utiriks durch den Fallout des Tests Castle Bravo vom 28. Februar 1954 geschädigt wurden.14 Auch die Bürger Japans, das bereits am Ende des Zweiten Weltkrieges zum Ziel zweier amerikanischer Atombombenabwürfe geworden war, wurden durch die im Pazifik abgehaltenen Nukleartests der USA erneut in Mitleidenschaft gezogen, weil der Fallout des Castle Bravo-Tests wie auch des Redwing ZuniTests vom 28. Mai 1956 auf japanischen Fischkuttern niederging, deren Besatzungen hierdurch schwere gesundheitliche Schäden erlitten. Nicht weniger betroffen war die amerikanische Bevölkerung, weil stetige Westwinde den Fallout der Nevada-Tests in den gesamten USA bis hin zur dicht besiedelten Ostküste verteilt haben. Da sich die Atomtestareale im Unterschied zu herkömmlichen Laboren nicht mehr von der Umwelt isolieren ließen und im Fall der Argus-Höhentests, die das gesamte Magnetfeld der Erde einbezogen, sogar »ko-extensiv mit dem Globus« wurden,15 entbehrten sie – wie Günther Anders bereits in den 1950er Jahren bemerkte – jenes spielerischen Charakters, den Experimente normalerweise besitzen; in ihnen fiel die Probe mit dem Ernstfall zusammen.16 Berücksichtigt man neben den oberirdischen Atomtests der USA auch diejenigen anderer früher Atommächte wie der UdSSR, Großbritanniens, Frankreichs und Chinas, so ergibt sich eine Gesamtmenge an emittierter Radioaktivität, die mit derjenigen eines nuklearen Weltkrieges durchaus vergleichbar ist. Wenn also Paul Virilio das atomare Wettrüsten – zu dem auch die

13 Vgl. A.C. Titus: Bombs, S. 40ff., 45, 62ff. 14 Vgl. ebd., S. 37, 47f.; S. Kirsch: Watching, S. 238. 15 G. Anders: Antiquiertheit, S. 260. 16 Vgl. ebd., S. 258ff.

S TRAHLENDE L ANDSCHAFTEN

| 285

experimentelle Erprobung der neu entwickelten Waffen gehörte – als unendliche Vorbereitung auf einen niemals eintretenden Krieg gedeutet hat,17 so ist dem entgegenzuhalten, dass der Dritte Weltkrieg durch die Atomtests nicht nur aufgeschoben, sondern zugleich in gewisser Weise antizipiert wurde. Denn radiologisch betrachtet, war der Kalte Krieg bereits ein heißer. Und erst mit der 1962 vollzogenen Verlegung ihrer Atombombentests unter die Erde kehrten die USA gewissermaßen zu den Innenraumlaboren der konventionellen Ballistik zurück, wodurch die Belastung der Umwelt allerdings keineswegs vollständig beseitigt, sondern lediglich verringert wurde, da auch bei vielen der unterirdischen Versuchszündungen Radioaktivität an die Oberfläche drang.18

W ISSENSCHAFTLICHE P HOTOGRAPHIE Den enormen physischen Ausdehnungen der nuklearen Waffenlabore entsprach die immense Größe der in ihnen errichteten und zugleich sie bedingenden soziotechnischen Netzwerke. So können die amerikanischen Atomtests als frühe und modellbildende Beispiele der modernen Großforschung gelten, weil an ihnen Hunderte und Tausende von Wissenschaftlern, Technikern, Soldaten, Versuchstieren, Testobjekten sowie Beobachtungs- und Messinstrumenten beteiligt waren. Unter Letzteren befanden sich aber auch zahlreiche Photo- und Filmkameras. Bereits das Manhattan Project schloss eine von dem Physiker Julian Mack geleitete Optics Engineering and High Speed Photography Group ein, die mit der photo- und kinematographischen Aufzeichnung diverser Experimente zur Entwicklung der später über Nagasaki abgeworfenen Plutoniumbombe betraut war. Dazu gehörte neben den Versuchsabwürfen des Bombengehäuses, den Versuchsimplosionen

17 Vgl. P. Virilio/S. Lotringer: Reiner Krieg, S. 93f., 97, 138f., 166. 18 Dabei wurden die Tests auch in einem geographischen Sinne nach Innen verlegt, da sie fortan allesamt auf dem Territorium der USA – wenngleich nicht nur in Nevada, sondern auch in New Mexico, Mississippi und Colorado sowie auf der zu Alaska gehörenden und ebenfalls im Pazifik gelegenen Insel Amchitka – stattfanden.

286 | L ARS NOWAK

des Zündmechanismus und der Sprengung von 108 Tonnen herkömmlichen TNTs zwecks Kalibrierung der Messinstrumente für den Trinity-Test auch Letzterer selbst. Der Techniker Berlyn Brixner, der für die meisten dieser Aufnahmen verantwortlich zeichnete, nahm anschließend 30 Jahre lang viele weitere Atombombentests der USA auf.19 Die amerikanischen Nachkriegstests wurden aber auch vom U.S. Army Signal Corps und mehr noch von der U.S. Air Force 1352nd Photographic Group aufgenommen, die von 1947 bis 1969 den Auftrag hatte, sämtliche dieser Tests zu dokumentieren und dabei mit der Firma EG&G des Stroboskopblitz-Erfinders Harold Edgerton kooperierte, der bereits seit den 1930er Jahren konventionelle Schüsse und Explosionen photographiert hatte. Wurden schon vom Trinity-Test rund 100.000 Einzelbilder belichtet, was dieses Ereignis damals zum meistphotographierten der Welt machte,20 so entstanden bei späteren Nukleartests nicht weniger gewaltige Mengen an photographischen Aufnahmen – Mengen, in denen die große Bedeutung zum Ausdruck kam, die man den Medien der Photo- und Kinematographie im Rahmen der Kernwaffentests beimaß. Tatsächlich betrachtete man die photographische Erfassung des Trinity-Tests schon zu jenem Zeitpunkt als eines seiner wichtigsten Ziele, als man Kenneth Bainbridge mit seiner Leitung beauftragte;21 ähnlich haben sich später Teller und Latter geäußert: »The really important results of a test consist in marks on photographic plates.«22 Deren Relevanz ging sogar so weit, dass sie Einfluss auf die Bestimmung der Testorte nahm. Denn so wie Brixners Einwände gegen das für den Trinity-Test zunächst ins Auge gefasste Malpais-Gebiet, dessen Lavaströme die Aufnahmen behindert hätten, nicht unwesentlich dazu beitrugen, dass die Wahl letztlich auf die Jordana del Muerto-Wüste fiel,23 waren die amerikanischen Atomtestgebiete generell außer durch ihre großen Extensionen, ihre vermeintlich periphere Lage und ihre geographische Abgeschlossenheit auch durch Flachheit, Kahlheit und

19 Vgl. F. Szasz: Life, S. 176. 20 Vgl. R. Fermi/E. Samra: Picturing, S. 148. 21 Vgl. A.C. Titus: Bombs, S. 11. 22 E. Teller/A. Latter: Nuclear Future, S. 80. 23 Vgl. F. Szasz: Life, S. 176.

STRAHLENDE L ANDSCHAFTEN

| 287

ein klares und sonniges Klima gekennzeichnet – alles Merkmale, die ihrer optischen und damit auch photographisch-filmischen Durchdringung förderlich waren. Abbildung 1: Atomtest Harry der Operation Upshot-Knothole. 0,00001 s nach Zündung. Rapatronic-Kamera von EG&G. Nevada Proving Ground, 19. Mai 1953.

Quelle: H. Edgerton/J. Killian: Flash, S. 55.

Dabei wurden die Kameras nicht nur auf andere Messgeräte gerichtet, um deren flüchtige Anzeigen, wie etwa die Kurven von Oszilloskopen, zu konservieren, sondern auch auf die Testobjekte und die Nukleardetonationen selbst, um die von diesen ausgehenden Druckund Hitzewellen sichtbar zu machen, die sich aufgrund ihrer exorbitanten Ausbreitungsgeschwindigkeiten und der extremen Helligkeit von Atomblitz und Feuerball dem unbewaffneten Auge fast vollständig entzogen. Voraussetzung für diese Wahrnehmungsprothetisierung war allerdings die Anwendung spezieller Rapidtechniken, welche die Erzeugung kürzester Belichtungsdauern, schnellster Belichtungsfolgen und genauester Belichtungsmomente gleichermaßen erlaubten; die entsprechenden Apparate wurden zum Teil erst eigens entwickelt. So konstruierte etwa Edgerton Ende der 1940er Jahre die so genannte Rapatronic-Kamera, die dank eines magneto-optischen, die Polarisationsebene des Lichtes drehenden Verschlusses Belichtungszeiten von bis zu 1/1.000.000 s erlaubte und mittels einer Photozelle durch den

288 | L ARS NOWAK

Atomblitz selbst ausgelöst wurde.24 Mit ihr photographierte man beispielsweise ein frühes Stadium der oben erwähnten Harry-Explosion, in dem diese noch nicht den Sprengturm zerstört hatte (Abb. 1).

ARKANISIERUNG , P UBLIZIERUNG , P OPULARISIERUNG Nun ist die physische Entgrenzung des Laborraumes beim Übergang von der konventionellen zur nuklearen Ballistik keineswegs mit seiner kommunikativen Öffnung gleichzusetzen. Letztlich nämlich waren die große Ausdehnung und isolierte Lage der Atomtestareale weniger der safety, dem gesundheitlichen Schutz der Bevölkerung, als der security, der Arkanisierung des hier produzierten Wissens, dienlich. So hielten die USA – abgesehen von einer an Japan gerichteten Warnung vor einem gewaltigen, aber unbestimmt gelassenen Militärschlag – das gesamte Manhattan Project anfangs streng geheim, was auch den Trinity-Test einschloss, um den man sogar Desinformationen streute, indem man ihn als versehentliche Explosion eines großen Munitionslagers ausgab. Auch einige spätere Atomtests, darunter die Pazifik-Serie Sandstone von 1948 und die 1951 durchgeführte Operation Ranger, die erste Testserie auf dem NPG, wurden zunächst nach außen abgeschirmt.25 Ebenso war die Entscheidung, ab 1951 alle nuklearen Tests von den Marshallinseln in das Gebiet der USA zurückzuverlegen und im Pazifik nur noch die späteren Thermonukleartests abzuhalten, nicht allein dadurch motiviert, dass man durch ein inländisches Testareal die hohen Transportkosten der Pazifiktests reduzieren könne.26 Vielmehr spielten auch Sicherheitserwägungen eine wichtige Rolle, denen zufolge ein inneramerikanisches Testgelände die Ge-

24 Vgl. H. Edgerton: Early States, S. 78; J. Elkins: Rapatronic Photographs, S. 76. 25 Vgl. A.C. Titus: Bombs, S. 45. 26 Vgl. ebd., S. 46, 55; S. Kirsch: Watching, S. 232.

S TRAHLENDE L ANDSCHAFTEN

| 289

heimhaltung gegenüber der UdSSR erleichtern würde;27 und diese Überlegungen sprachen ebenso für die Wahl eines Gebiets, das sich bereits im Besitz der Armee befand.28 Dennoch haben die amerikanischen Nukleartests nicht nur physisch, sondern auch semiotisch weit über die Grenzen der Testareale ausgestrahlt, da sie in bestimmten Formen durchaus veröffentlicht wurden: Obwohl man zum Trinity-Test ursprünglich nur einen einzigen Journalisten, den New York Times-Mitarbeiter William Laurence, zugelassen hatte, wurde Henry Smyths offizieller Abschlussbericht über das Manhattan Project bereits am 12. August 1945, also nur drei Tage nach dem zweiten Atombombenabwurf über Japan, in überarbeiteter Form zur Veröffentlichung freigegeben und noch im September in einer Auflage von 60.000 Stück gedruckt, die bereits am Ende des ersten Tages restlos ausverkauft war.29 Viele spätere Versuchsexplosionen führte man von vornherein unter den Augen der Öffentlichkeit durch: Nachdem die Pazifik-Operation Crossroads als großes Medienereignis inszeniert worden war, bei dem nicht weniger als 40.000 internationale Beobachter zugegen waren,30 eröffnete man am 22. April 1952 mit einer open house explosion, dem Test Charlie aus der Serie Tumbler-Snapper, einen News Nob auf dem NPG,31 auf den man fortan regelmäßig Reporter einlud, von denen sich einige zu regelrechten Stammgästen entwickelten.32 Natürlich dienten die Nachkriegstests nicht nur wissenschaftlichen, technischen und militärischen Zielen, sondern leisteten auch ihren Beitrag zur Abschreckungspolitik des Kalten Krieges. Doch erreichten diese Drohgebärden ihren Adressaten, die UdSSR, bereits dadurch, dass diese sich vom Stattfinden der amerikanischen Kernwaffentests durch eigene radiologische und seismische Messungen

27 Vgl. A.C. Titus: Bombs, S. 55. Die hieraus erwachsenden Gefahren für die Gesundheit der eigenen Bevölkerung nahm man dagegen offenbar in Kauf. 28 Vgl. S. Kirsch: Watching, S. 233. 29 Vgl. H. Smyth: Atomic Energy. 30 Vgl. A.C. Titus: Bombs, S. 38; J. O’Brian: Editing, S. 138f. 31 Vgl. S. Kirsch: Watching, S. 236; P. Kuran: Atomic Bomb, S. 112. 32 Vgl. A.C. Titus: Bombs, S. 95.

290 | L ARS NOWAK

überzeugte.33 Deshalb richtete sich die durch den amerikanischen Staat selbst betriebene Publizierung seiner Nukleartests an die eigene Bevölkerung, der gegenüber sie zugleich die Züge einer doppelten Popularisierung annahm: Zunächst kam es darauf an, die Tests, die immerhin eine besondere Sorte wissenschaftlicher Experimente darstellten, allgemein verständlich zu machen und damit ein gesellschaftliches Bedürfnis nach der Popularisierung von Wissen zu befriedigen, das in Krisenzeiten wie dem Kalten Krieg besonders stark ausgeprägt ist.34 Allerdings ging diese Popularisierung mit einer massiven Filterung einher. So diente beispielsweise die Einrichtung des News Nob auf dem NPG auch einer räumlichen Trennung der Journalisten von den Experten, welche versehentlich weiterhin geheim zu haltende Informationen hätten preisgeben können.35 Dazu gehörten insbesondere die einzelnen technischen Verfahren, an deren Stelle man die Aufmerksamkeit eher auf die Zielsetzungen der Atomtests zu lenken versuchte. Da diese hierdurch legitimiert werden sollten, schloss ihre Popularisierung auch das Bemühen ein, auf eine allgemeine Zustimmung hinzuwirken. Ein solches Werben um öffentliche Unterstützung tritt, wie Bruno Latour ausgerechnet am Beispiel des französischen Atomphysikers Frédéric Joliot ausgeführt hat, nicht sekundär zur Wissenschaftspraxis hinzu, sondern bildet einen ihrer essentiellen Bestandteile.36 Das gilt insbesondere für demokratische Gesellschaften wie die amerikanische, wobei der Umstand, dass die AEC ihre Öffentlichkeitsarbeit nach der Einrichtung des NPG intensivierte, darauf hindeutet, dass vor allem für jene Tests Verständnis zu wecken war, die in unmittelbarer Nachbarschaft zur amerikanischen Bevölkerung stattfanden.37 Grundsätzlich verfolgte die AEC A. Costandina Titus zufolge drei verschiedene Rechtfertigungsstrategien: Erstens sollte der Ausbau des amerikanischen Atomwaffenarsenals Schutz vor einer

33 Vgl. S. Kirsch: Watching, S. 237. 34 Vgl. C. Kretschmann: Wissenschaftspopularisierung, S. 84. 35 Vgl. S. Kirsch: Watching, S. 236. 36 Vgl. B. Latour: Pandora, S. 96ff. 37 Vgl. A.C. Titus: Bombs, S. 71; S. Kirsch: Watching, S. 230f., 235f.

S TRAHLENDE L ANDSCHAFTEN

| 291

kommunistischen Bedrohung bieten.38 Zweitens sollte durch die Nukleartests auch die friedliche Nutzung der Kernenergie vorangetrieben werden, wobei außer auf das Plowshare-Projekt auch auf Dwight D. Eisenhowers Atoms for Peace-Programm aus dem Jahre 1953 verwiesen wurde.39 Drittens schließlich wurde behauptet, die Atomtests würden bei strengsten Sicherheitsvorkehrungen durchgeführt, wobei man auch – und hier zielte die semiotische Veröffentlichung der Atomtests offensichtlich auf eine Verschleierung ihrer physischen Öffentlichkeit ab – die oben erwähnten radioaktiven Verseuchungen leugnete, indem man entweder deren Ausmaß herunterspielte oder ihre gesundheitsschädlichen Folgen bestritt.40 Erklärtes Ziel dieser Rhetorik der Notwendigkeit, Nützlichkeit und Harmlosigkeit war es, die Atombombe zu einem selbstverständlichen Bestandteil des amerikanischen Lebens zu machen.41 Tatsächlich gelang es der AEC nicht nur, die amerikanische Bevölkerung zu einer überwältigenden Unterstützung der atomaren Bewaffnung zu bewegen, sondern auch, diese fest in der amerikanischen Populärkultur zu verankern, was beispielsweise zeitgenössische Schlager mit Titeln wie »Atomic Cocktail« oder »Jesus Hits Like an Atom Bomb« belegen.42 Affirmiert wurden dabei auch die Atombombentests einschließlich derjenigen auf dem NPG, die gerade die lokale Presse als technische Höchstleistung feierte und gegen Kritik in Schutz nahm.43 Ebenso verstand es die Unterhaltungsindustrie von Las Vegas, das nur 65 Meilen entfernte Testgelände in eine touristische Attraktion zu verwandeln,

38 Vgl. A.C. Titus: Bombs, S. 71ff. Tatsächlich wurden sowohl die Einrichtung des NPG als auch die Entwicklung der amerikanischen Wasserstoffbombe durch den ersten sowjetischen Atombombentest im Jahre 1949 und den ein Jahr später ausgebrochenen Koreakrieg vorangetrieben. Vgl. ebd., S. 55, 71; S. Kirsch: Watching, S. 232. 39 Vgl. A.C. Titus: Bombs, S. 76ff. 40 Vgl. ebd., S. 80ff. Selbst wenn man einräumt, dass die Schädlichkeit der Radioaktivität damals weniger bekannt war als heute, ist darauf zu insistieren, dass hier unabschätzbare Risiken in Kauf genommen wurden. 41 Vgl. S. Kirsch: Watching, S. 231; J. O’Brian: Editing, S. 142. 42 Vgl. A.C. Titus: Bombs, S. 88f. 43 Vgl. ebd., S. 86f., 95ff.

292 | L ARS NOWAK

wenn etwa das hiesige Atomic View Motel allein durch seinen Namen darauf hinwies, dass die vom NPG aufsteigenden Pilzwolken schon von hier aus zu erkennen waren.44 Die AEC selbst ließ ab Mitte der 1950er Jahre an den öffentlichen Orten der Stadt die einzelnen Atomtests ankündigen und Landkarten mit noch besseren Aussichtspunkten verteilen.45 Dem standen allerdings auch Befürchtungen gegenüber, die sich seit dem Castle Bravo-Unfall nicht mehr nur auf einen atomaren Weltkrieg, sondern auch auf den radioaktiven Fallout der Nukleartests bezogen. Hier wurden die Tests, die vor einem solchen Krieg schützen sollten, selbst als eine Gefahr wahrgenommen. Zwar bezogen sich die Ängste vorrangig auf die Kernfusions-, weniger dagegen auf die Kernspaltungsbomben und nahmen bisweilen irrationale Züge an, wenn etwa darüber spekuliert wurde, ob Nukleardetonationen auch Erdbeben auslösen oder die Erde aus ihrer Umlaufbahn werfen könnten.46 Zugleich wurden die durchaus rationalen Warnungen vor dem radioaktiven Fallout, die bestimmte Politiker wie Adlai Stevenson, bestimmte Wissenschaftler wie Linus Pauling, bestimmte Zeitschriften wie The Nation und bestimmte Organisationen wie das Committee of Nuclear Information aussprachen, zunächst nur von einer kleinen intellektuellen Minderheit gehört.47 Doch war es letztlich die Gefährlichkeit dieses Fallouts, die 1962 zur Verbannung der amerikanischen Kernwaffentests unter die Erdoberfläche führte. Die gespaltene öffentliche Meinung schlug sich auch im kommerziellen amerikanischen Kino jener Zeit nieder. Dabei fanden sich beide Positionen zunächst in Produktionen wieder, die sich eines realistischen Stils bedienten. Hier standen sich etwa die Filme THE BEGINNING OR THE END? (USA 1946) und ON THE BEACH (USA 1959) gegenüber, von denen Ersterer die Erfinder der Atombombe als amerikanische Helden feierte, Letzterer jedoch vor der Auslöschung der

44 Vgl. ebd., S. 93f.; A.C. Titus: Mushroom Cloud, S. 108f. 45 Vgl. A.C. Titus: Bombs, S. 93f.; P. Hales: Atomic Sublime, S. 24; S. Kirsch: Watching, S. 239; J. O’Brian: Editing, S. 144. 46 Vgl. S. Weart: Nuclear Fear, S. 185ff. 47 Vgl. ebd., S. 199ff.; A.C. Titus: Bombs, S. 87, 98f.; P. Hales: Atomic Sublime, S. 13ff.; S. Kirsch: Watching, S. 242.

S TRAHLENDE L ANDSCHAFTEN

| 293

gesamten Menschheit durch einen Atomkrieg warnte. Die beiden gegensätzlichen Positionen konnten aber auch auf phantastische Weise artikuliert werden, wenn sich beispielsweise in THE ATOMIC KID (USA 1952) ein Uranschürfer in ein amerikanisches Atomtestgebiet verirrte und nach einer Versuchszündung körperliche Symptome entwickelte, die eher skurril als bedrohlich wirkten, um schließlich ausgerechnet durch die amerikanische Armee gerettet zu werden, während THEM! (USA 1954) als Ergebnis radioaktiver Verseuchungen durch einen in New Mexico abgehaltenen Nukleartest monströs vergrößerte Ameisen auftreten ließ.48

P OPULÄRE P HOTOGRAPHIE Die Publizierung der amerikanischen Nukleartests hinterließ jedoch nicht nur ihre Spuren im populären Kino, sondern bediente sich auch selbst der Medien der Photo- und Kinematographie. Denn obwohl diese zu den anderen bei den Tests zum Einsatz gebrachten Beobachtungs- und Messgeräten, wie oben angedeutet, in ein Verhältnis der Kooperation treten konnten, unterschieden sie sich von ihnen zugleich dadurch, dass sie sich nicht nur zu wissenschaftlichen, sondern auch zu vielen anderen Zwecken verwenden ließen. Wenn also Bilder generell ein wichtiges Mittel zur Popularisierung von Wissenschaft bilden,49 so galt dies auch für photographische und filmische Bilder von den amerikanischen Atomtests. Das betraf zunächst die szientifischen Aufnahmen selbst, von denen zwar einige aus Sicherheitsgründen bis zum heutigen Tage unter Verschluss liegen, andere jedoch schon früh – wenn auch oft nur in bereinigter Form – veröffentlicht wurden. So enthielt etwa Smyths Bericht über das Manhattan Project auch vier Photographien vom Trinity-Test.50 Und nachdem General Leslie Groves bereits unmittelbar nach der ersten Begutachtung der Filmaufnahmen von diesem Er-

48 Vgl. M. Strada: Nuclear Images, S. 186ff.; A.C. Titus: Bombs, S. 89ff., 172f.; S. Weart: Nuclear Fear, S. 191ff. 49 Vgl. B. Hüppauf/P. Weingart: Wissenschaftsbilder, S. 14. 50 Vgl. H. Smyth: Atomic Energy, Bildteil zwischen S. 138 und 139.

294 | L ARS NOWAK

eignis eine Vervielfältigung zum Zwecke eines »newsreel release« angeordnet hatte,51 wurde 1947 Macks Bericht Semi-Popular MotionPicture Record of the Trinity Explosion freigegeben,52 auf dessen Basis es dem britischen Physiker Geoffrey Taylor sogar gelang, die bei diesem Test freigesetzte Energie zu berechnen.53 Ähnliches galt für spätere Atomtests, wurde doch beispielsweise die oben reproduzierte Photographie vom Harry-Test ein Jahr nach ihrer Entstehung in anonymisierter Form in der zweiten Auflage von Edgertons populärwissenschaftlichem Buch flash! veröffentlicht,54 während die Zeitschrift Business Week eine Photoserie Edgertons von einem späteren Test, dem Test Dona Ana der Serie Hardtack II von 1958, sogar unter Angabe des Testnamens abdruckte (Abb. 2). Abbildung 2: Atomtest Dona Ana der Operation Hardtack II. 35 mm-Kamera von EG&G. Nevada Test Site, 16. Oktober 1958.

Quelle: Anonymus: Clocking, S. 129 (in veränderter Anordnung).

51 F. Szasz: Life, S. 178. 52 J. Mack: Motion-Picture Record. 53 G. Taylor: Formation. 54 Vgl. H. Edgerton/J. Killian: Flash, S. 55.

S TRAHLENDE L ANDSCHAFTEN

| 295

Darüber hinaus produzierten verschiedene amerikanische Regierungsstellen gezielt Photographien und Filme, die von vornherein ein nichtwissenschaftliches Publikum adressierten. So stellte die U.S. Air Force 1352nd Photographic Group, die in der Lookout Mountain Air Force Station in Hollywood stationiert war und zu deren Mitarbeitern Kameramänner und andere Techniker von kommerziellen Studios wie MGM oder RKO zählten, auch eine große Anzahl allgemein verständlicher Dokumentarfilme von den Atomtests her.55 Diese Filme dienten primär dem internen Gebrauch, nämlich der Instruktion von Soldaten56 und der Informierung von Mitgliedern der AEC, des Verteidigungsministeriums und des Kongresses. Ein Teil von ihnen gelangte aber auch in die allgemeine Öffentlichkeit. So wurde der Film OPERATION IVY (USA 1952) 17 Monate nach der in ihm dargestellten Testserie, nämlich im April 1954, zunächst in einer schwarz-weißen Fassung, dann auch in der farbigen Originalversion im amerikanischen Fernsehen ausgestrahlt, während man Filme von solchen Tests, die Belange des Zivilschutzes berührten und auch von anderen Stellen produziert wurden, in Schulen, Kirchen und anderen sozialen Einrichtungen vorführte.57 Ebenso lieferten die Spezialeinheiten der Armee Photographien von den Atomtests an die AEC und die Federal Civil Defense Administration (FCDA), die sie als Postkarten und Poster sowie in ihren illustrierten Broschüren verbreiteten.58 Anfangs erschienen sogar ganze Photobücher, und zwar nicht nur, wie John O’Brian suggeriert,59 von der Crossroads-Testserie,60 sondern auch von der zunächst arkanisierten Sandstone-Serie, deren Bildband von keinem Geringeren als Clarence White ediert wurde.61

55 Vgl. B. Mielke: Rhetoric. 56 Vgl. A.C. Titus: Ground Zero, S. 7. 57 Vgl. A.C. Titus: Mushroom Cloud, S. 106. Beispiele hierfür sind LET’S FACE IT (USA 1955), OPERATION CUE (USA 1955) und OPERATION DOORSTEP (USA 1953). 58 Vgl. J. O’Brian: Editing, S. 141; F. Szasz: Life, S. 180; A.C. Titus: Mushroom Cloud, S. 106. 59 Vgl. J. O’Brian: Editing, S. 139. 60 Vgl. Office of the Historian: Operation Crossroads. 61 Vgl. C. White: Operation Sandstone.

296 | L ARS NOWAK

Stellten die AEC und die FCDA ihr Bildmaterial auch Zeitschriften wie Life, Time oder Newsweek zur Verfügung, wofür das erstgenannte Journal umso empfänglicher war, als es nicht bloß bebildert, sondern geradezu auf Bilder zentriert war,62 so hielten die amerikanischen Massenmedien die Nukleartests auch in eigenen Photographien und Filmen fest. Das galt nicht nur für die Operation Crossroads, bei der die Anzahl der insgesamt aufgenommenen Bilder die der Aufnahmen vom Trinity-Test noch einmal um den Faktor 10 überbot und der Filmverbrauch mit rund 500 km Länge solche Ausmaße annahm, dass es kurzfristig zu einer Knappheit auf dem Rohfilmmarkt kam.63 Auch die open shots des NPG wurden von den anwesenden Reportern photographiert und gefilmt, wobei man einige Versuchsexplosionen, darunter bereits den Charlie-Test der Tumbler-Snapper-Serie, sogar in Echtzeit im Fernsehen übertrug. Wenn bereits die Bildpostkarten von den Atomtests vor allem von Touristen gekauft wurden,64 so hielten die Nevada-Tests schließlich auch Einzug in die touristische Amateurphotographie. Das lässt sich zumindest einem zeitgenössischen Zeitungsartikel über die touristische Attraktivität des NPG entnehmen, der seinen Lesern auch Ratschläge dazu gab, wie sich von den Aussichtungspunkten aus die besten Schnappschüsse von den Testexplosionen machen ließen.65

D EKONTEXTUALISIERTE ATOMPILZE , DESTRUKTIVE W IRKUNGEN , SOZIOTECHNISCHE V ORAUSSETZUNGEN Nun wird in der Forschungsliteratur regelmäßig behauptet, dass sich die öffentliche Atomtestphotographie, der sich dieser Essay in seinem weiteren Verlauf widmen wird, völlig auf den Atompilz konzentriert

62 Vgl. S. Kirsch: Watching, S. 234, 237. Wegen dieser besonderen Bedeutung von Bildern für Life werde ich im Folgenden einen besonderen Schwerpunkt auf diese Zeitschrift legen. 63 Vgl. B. Mielke: Rhetoric, S. 29; F. Szasz: Life, S. 179. 64 Vgl. J. O’Brian: Editing, S. 128. 65 Vgl. G. Hill: Watching; S. Kirsch: Watching, S. 240.

S TRAHLENDE L ANDSCHAFTEN

| 297

habe. So heißt es bei Scott Kirsch und O’Brian, dass die AEC ausschließlich Photographien von diesem Stadium der Testdetonationen herausgegeben habe.66 Eine ähnliche Fixierung will Kirsch auch bei den Photoreportagen über die Kernwaffentests entdeckt haben.67 Laut Titus zeigten viele Bildpostkarten von Las Vegas am Horizont ebenfalls eine Pilzwolke,68 so etwa eine Karte von der Fremont Street, die auch in der Life-Ausgabe vom 12. November 1951 als Bild der Woche veröffentlicht wurde.69 Und Vincent Leo schließlich vertritt die These, von der fraglichen Tendenz seien auch die Wasserstoffbomben nicht ausgenommen gewesen. So habe zwar der Text des Newsweek-Artikels »Between Yesterday and Doomsday« betont, inwiefern sich dieser Bombentypus von herkömmlichen Atombomben unterscheidet; doch die drei Photographien, die diesen Beitrag über den Ivy MikeTest illustrierten, hätten diesen wieder auf den mittlerweile vertrauten Atompilz in seinen verschiedenen Entwicklungsstadien reduziert.70 Damit sei die amerikanische Kultur der 1950er Jahre, so wieder Titus, nicht nur von der Atomenergie im Allgemeinen, sondern auch vom Atompilz im Besonderen durchdrungen worden.71 Wenn dieser aber bis heute das Stereotyp der Atombombe72 und damit die Ikone des atomaren Zeitalters73 bildet, so scheint es, als sei ihm dieser Status vor allem durch die Photographie verschafft worden.74 An dieser Rolle des Atompilzes hat offenbar auch die Umstellung von den ober- auf die unterirdischen Nukleartests wenig geändert. Denn obwohl mit dieser

66 Vgl. ebd., S. 236f.; J. O’Brian: Editing, S. 138f. 67 Vgl. S. Kirsch: Watching, S. 237, 240. 68 Vgl. A.C. Titus: Mushroom Cloud, S. 108. 69 Vgl. ebd., S. 106; A.C. Titus: Bombs, S. 94f.; Anonymus: Danger. 70 Vgl. V. Leo: Mushroom Cloud, S. 11; Anonymus: Yesterday. 71 Vgl. A.C. Titus: Mushroom Cloud, S. 107f. 72 Vgl. V. Leo: Mushroom Cloud, S. 6. Als solches bildete der Atompilz mindestens in der Zeit des amerikanischen Monopols auf die Atombombe zugleich ein Symbol für die militärische und politische Stärke der USA. Vgl. A.C. Titus: Mushroom Cloud, S. 102, 105f. 73 Vgl. A.C. Titus: Bombs, S. 88; P. Hales: Atomic Sublime, S. 5; S. Kirsch: Watching, S. 237. 74 Vgl. P. Bexte: Wolken, S. 135.

298 | L ARS NOWAK

Verlagerung die Produktion von Bildpostkarten atomarer Pilzwolken eingestellt wurde,75 was nicht unwesentlich dazu beigetragen haben dürfte, dass der Atompilz für zwei Jahrzehnte aus der amerikanischen Populärkultur verschwand,76 bildet die Pilzwolke auch heute noch ein piktorales und verbales Klischee, das sich auf Anhieb decodieren lässt.77 Abbildung 3: Pilzwolke des Atomtests Mike der Operation Ivy. Letzte Photographie einer dreiteiligen Serie in Schwarz-Weiß. Eniwetok-Atoll, 1. November 1952.

Quelle: Anonymus: Hydrogen Age, S. 29.

Die Forschungsbeiträge stimmen ferner in der Auffassung überein, dass die Konzentration der öffentlichen Nukleartestphotographien auf den Atompilz zu einer doppelten Dekontextualisierung und damit zu einer Reifizierung der Kernwaffentests geführt habe. So hat zum einen O’Brian behauptet, dass die Bildpostkarten von den Atomtests nicht nur deshalb »an unchanging spectacle of the bomb as nature« böten,78

75 Vgl. J. O’Brian: Editing, S. 140. 76 Vgl. A.C. Titus: Mushroom Cloud, S. 109. 77 Vgl. J. O’Brian: Editing, S. 140. 78 Ebd., S. 147.

S TRAHLENDE L ANDSCHAFTEN

| 299

weil sie die abgebildeten Explosionen in der Regel anonymisierten, sondern auch deshalb, weil sie niemals die vorbereitenden Tätigkeiten, wie das Entwerfen, Bauen und Auslösen der Bomben, zeigten.79 Zum anderen habe die Faszination durch den in die Atmosphäre aufsteigenden Atompilz, so Peter Hales, die am Boden hervorgerufenen Destruktionen in Vergessenheit geraten lassen.80 Das galt laut Titus insbesondere für die durch die Explosionen emittierte Radioaktivität,81 von der die AEC Kirsch zufolge durch die von ihr freigegebenen Photographien gezielt abzulenken versuchte, indem sie etwa auf die öffentliche Diskussion über die radioaktiven Verseuchungen infolge der Castle Bravo-Detonation mit der Publikation von spektakulären, aber bereits 17 Monate alten Photographien vom Ivy Mike-Test (und des Filmes OPERATION IVY) reagierte (Abb. 3).82 Folgt man dieser Beschreibung, so scheint der Atompilz nicht nur als stereotypes Symbol, sondern auch als ein Alltagsmythos im Sinne Roland Barthes’ fungiert zu haben, dessen »eigentliche[s] Prinzip« bekanntlich darin besteht, »Geschichte in Natur« zu verwandeln.83 Damit trat er einem anderen

79 Vgl. ebd., S. 141, 143. 80 Vgl. P. Hales: Atomic Sublime, S. 15f. 81 Vgl. A.C. Titus: Mushroom Cloud, S. 107, 109. 82 Vgl. S. Kirsch: Watching, S. 238, 243. Die Photographien ebenso wie Standbilder des Filmes erschienen unter anderem in Life. Vgl. Anonymus: Hydrogen Age; Anonymus: Color Photographs; Anonymus: Pictures. Dabei verstärkte der erste dieser Artikel den naturalisierenden Effekt der Atompilzphotographien durch einen Vergleich der Ivy Mike-Detonation mit Meteoriteneinschlägen. Vgl. Anonymus: Hydrogen Age, S. 32f. Übrigens hat Leo die Ausklammerung beider Kontexte auch an der photographischen Dokumentation des tatsächlichen Einsatzes amerikanischer Nuklearwaffen beobachtet: Die Soldaten, welche die Atombombenabwürfe über Hiroshima und Nagasaki photographierten, seien hierbei in der Weise durch die ihnen vorher präsentierten Photographien vom Trinity-Test beeinflusst worden, dass sie sich ebenfalls auf die Explosionswolken konzentriert, das Abwerfen der Bomben und die in den beiden Städten bewirkten Zerstörungen dagegen ausgespart hätten. Vgl. V. Leo: Mushroom Cloud, S. 6f. 83 R. Barthes: Mythen, S. 113.

300 | L ARS NOWAK

Mythos an die Seite, mit dem er ohnehin eng assoziiert war, nämlich der Formel ›E=mc2‹,84 mit der sich die bei einer Atomdetonation freigesetzte Energie aus einem Massendefekt erklären lässt. Da aber nichts »Waffen und Geschosse ungefährlicher erscheinen [lässt] als die Abwesenheit des Schützen und seines Opfers«, dürften die öffentlichen Atomtestphotographien in einem hohen Maße zur »Popularisierung militärischer Anliegen«85 beigetragen haben. Einmal aus ihren ursprünglichen Zusammenhängen herausgelöst, seien die nuklearen Testexplosionen laut Hales in andere, vertrautere Kontexte eingefügt und dadurch verharmlost worden. Das habe zunächst die Gestaltung der Photographien selbst betroffen, wenn beispielsweise Alan Jarlson, ein Reporter des in Las Vegas beheimateten Review-Journal, 1953 im Vordergrund einer Photographie von einem Atomtest auf dem NPG eine emblematische amerikanische Kleinfamilie platzierte, welche die Explosion von ihrem nahe gelegenen Grundstück aus bewunderte.86 Die Atomexplosionen seien aber auch dadurch domestiziert worden, dass ihre Photographien in den Zeitschriften unmittelbar neben Artikeln über Alltagsthemen und Anzeigen für Konsumartikel oder Versicherungen erschienen, wie in einem Editorial von Life selbst bemerkt wurde, das auf Bilder der Ivy MikeDetonation einging.87 Beispiele für solche banalisierenden Juxtapositionen lassen sich in der Tat leicht finden. So war etwa die zum Bild der Woche gekürte Photographie von der Pilzwolke über Las Vegas in einen Artikel über verschiedene in dieser Stadt lauernde ›Gefahren‹ integriert, zu denen auch solche harmlosen Ereignisse wie die Hochzeit der ehemaligen Hollywood-Schauspielerin Marion Davies gehörten.88 Die beiden Farbbilder des Ivy Mike-Tests, die Life in seiner Ausgabe vom 3. Mai 1954 veröffentlichte,89 traten wiederum in ein unfreiwillig komisches Verhältnis zu einer benachbarten Anzeige für Matratzen, die in ironischem Tonfall verschiedene Gründe für den

84 Vgl. ebd., S. 25, 117. 85 Starl: Kriegerische Geschäfte, S. 13. 86 Vgl. P. Hales: Atomic Sublime, S. 21. 87 Vgl. ebd., S. 25, 31. 88 Vgl. Anonymus: Danger. 89 Vgl. Anonymus: Pictures.

S TRAHLENDE L ANDSCHAFTEN

| 301

schlechten Schlaf vieler Amerikaner anführte, dabei aber die jüngsten H-Bomben-Tests überging. Die kulturwissenschaftliche Forschung hat aus diesen Befunden den Schluss gezogen, dass die öffentlichen Photographien von den amerikanischen Atomtests eben jene beiden Größen, welche die vorliegende Aufsatzsammlung aufeinander zu beziehen versucht, negiert hätten: Erstens, so hieß es bei Titus und Kirsch, hätten diese Bilder nicht einer Erweiterung des öffentlichen Wissens gedient, sondern einer Begrenzung der politischen Diskussion, die den Nukleartests eine allgemeine Akzeptanz sichern sollte.90 Demnach hätten nur die wissenschaftlichen Photographien der Sichtbarmachung von unsichtbaren Aspekten der Testexplosionen gedient, während der Zweck der populären Aufnahmen umgekehrt darin bestanden hätte, bestimmte ihrer sichtbaren Aspekte unsichtbar zu machen. Zweitens, fügte Kirsch hinzu, hätten die fraglichen Photographien insbesondere durch ihre Ablenkung von den radioaktiven Kontaminationen zu jener Verwandlung der Testareale von konkreten, landschaftlich verwurzelten und ökologisch verwundbaren Orten in abstrakte, rein experimentelle Räume beigetragen, auf welche die gesamte Öffentlichkeitsarbeit der AEC ausgerichtet gewesen sei.91 Allerdings wurde zugleich bemerkt, dass in dem Maße, wie Pilze sowohl genießbar als auch giftig sein könnten,92 auch der Atompilz im Laufe der Zeit verschiedene Bedeutungen angenommen habe.93 Diese Recodierungen hätten auch die Bewertung dieses visuellen Symbols affiziert, das die amerikanische Bevölkerung zwar zunächst in seinen Bann geschlagen habe,94 am Ende der Ära der oberirdischen Kernwaffentests jedoch nicht nur mit der Furcht vor einem möglichen nuklearen Weltkrieg, sondern auch mit dem umwelt- und gesundheitsschädlichen Fallout der Tests selbst assoziiert worden sei.95 Zu diesem Einstellungswandel könnte aber meines Erachtens auch die öffentliche

90 Vgl. A.C. Titus: Mushroom Cloud, S. 107; S. Kirsch: Watching, S. 246. 91 Vgl. ebd., S. 229. 92 Vgl. J. O’Brian: Editing, S. 133. 93 Vgl. V. Leo: Mushroom Cloud. 94 Vgl. S. Kirsch: Watching, S. 237. 95 Vgl. ebd., S. 230, 246.

302 | L ARS NOWAK

Atomtestphotographie selbst beigetragen haben. Denn obwohl das Motiv des Atompilzes tatsächlich nicht nur die Bildpostkarten, sondern auch weite Teile des Photojournalismus dominierte – exemplifiziert wird dies etwa durch zwei der in Life erschienenen Beiträge über die Operation Crossroads96 –, hielten die populären Aufnahmen auch frühere Stadien der Testexplosionen fest. So gab beispielsweise ein dritter von Life herausgebrachter Bildbericht über die genannte Testserie drei Photographien vom Feuerball der dortigen Able-Explosion wieder;97 und Bilder von atomaren Feuerbällen finden sich auch in anderen Artikeln dieser Zeitschrift einschließlich jener über den Ivy Mike-Test (Abb. 4).98 Abbildung 4: Feuerball des Atomtests Mike der Operation Ivy. Letzte Photographie einer dreiteiligen Serie in Farbe.

Quelle: Anonymus: Color Photographs, S. 23.

Ebenso konnte Life von der Ranger-Testserie nur im Fall der letzten, fünften Detonation einige Photographien eines Atompilzes präsentie-

96 Vgl. Anonymus: Atomic Bomb; Anonymus: Baker Day. 97 Vgl. Anonymus: Bomb Explodes. 98 Vgl. etwa Anonymus: Atomic Explosions; Anonymus: Bomb Over Nevada; Anonymus: Hydrogen Age; Anonymus: Color Photographs.

STRAHLENDE L ANDSCHAFTEN

| 303

ren,99 weil sich ein solcher bei den anderen Explosionen, wie mit Bedauern festgestellt wurde, offenbar nicht bildete. Deshalb wich man hier auf Photoserien von den Atomblitzen aus, wie sie aus mehreren Kilometern Entfernung vom NPG zu beobachten waren.100 Abbildung 5: Bombenkrater des Atomtests Mike der Operation Ivy. Vollständige Vaporisation der Insel Elugelab. Luftbildaufnahme.

Quelle: Anonymus: Hydrogen Age, S. 29.

Brachten schon die Feuerbälle die Destruktivität nuklearer Detonationen wesentlich deutlicher zum Ausdruck als das Klischee der Pilzwolke, so gingen einige Photoreportagen jener Zeit sogar auf die durch diese Explosionen angerichteten Zerstörungen selbst ein. Beispielsweise veröffentlichte Life nicht nur, wie Hales und Kirsch selbst bemerkt haben,101 schockierende Photographien, die am Boden befindliche Augenzeugen der Atombombenabwürfe auf Hiroshima und Nagasaki aufgenommen hatten.102 Wie Hales hinzufügte, berichtete

99 Vgl. Anonymus: A-Bomb Test. 100 Vgl. ebd.; Anonymus: Four States. 101 Vgl. P. Hales: Atomic Sublime, S. 24; S. Kirsch: Watching, S. 237. 102 Vgl. Anonymus: Uncensored.

304 | L ARS NOWAK

das Magazin mitunter in ähnlich düsteren Tönen über die Atomtests.103 So griff etwa der erste dortige Artikel über den Ivy Mike-Test auf das Stereotyp der Pilzwolke auch deshalb zurück, weil sich an ihm mit graphischen Mitteln der gewaltige Größenunterschied zwischen nuklearen und thermonuklearen Detonationen demonstrieren ließ.104 Diese Steigerung wurde auch durch Karten amerikanischer Städte unterstrichen, in welche die mechanischen und thermischen Wirkungsradien der Castle Bravo-Detonation eingezeichnet waren.105 Photographisch belegt wurden schließlich die von Atomexplosionen ausgehende Gefahr eines Feuersturms und der enorme Krater, den die Ivy MikeDetonation in das Eniwetok-Atoll gerissen hatte (Abb. 5).106 Nicht weniger deutlich wurden die Berichte über die beiden Zivilschutztests Doorstep und Cue vom 17. März 1953 und 5. Mai 1955, die neben Aufnahmen von den unheimlichen Schaufensterpuppen in den Testhäusern auch einschüchternde Photoserien vom sekundenschnellen Zerbersten dieser Gebäude enthielten.107 Auch die bei den Nukleartests freigesetzte Radioaktivität – ein Punkt, auf den abermals schon Hales hingewiesen hat108 – fand in Life durchaus Berücksichtigung. Das reichte von Bemerkungen über den von den Sandstone-Explosionen aufgewirbelten »radioactive dust«109 und die Kontamination des Testgebäudes beim Doorstep-Test110 über Hinweise auf die durch den Castle Bravo-Test freigesetzte Radioaktivität, die bis nach Montana und Massachusetts gelangt sei, und die enorme radioaktive Verseuchung, welche die gleichzeitige Zündung von 100 bis 200 vergleichbaren Wasserstoffbomben zur Folge hätte,111 bis zur Berichterstattung über die Verseuchung der wenig glücklichen Besatzung des

103 Vgl. P. Hales: Atomic Sublime, S. 24f. 104 Vgl. Anonymus: Hydrogen Age, S. 32. 105 Vgl. ebd., S. 30f. 106 Vgl. ebd., S. 32, 29. 107 Vgl. C. Murphy: Outcasts; Anonymus: A-Bomb vs. House; Anonymus: Close Up. 108 Vgl. P. Hales: Atomic Sublime, S. 24f. 109 Anonymus: Atomic Explosions, S. 74. 110 Vgl. Anonymus: A-Bomb vs. House, S. 22; C. Murphy: Outcasts, S. 24. 111 Vgl. Anonymus: Hydrogen Age, S. 25, 32.

S TRAHLENDE L ANDSCHAFTEN

| 305

japanischen Fischkutters Fünfter Glücklicher Drache durch den Fallout des Ivy Mike-Tests.112 Zwar hat Hales die vermeintliche Vernachlässigung der Radioaktivität in den Pressephotographien aus einer prinzipiellen Inadäquatheit des photographischen Mediums abzuleiten versucht,113 die wiederum Kirsch zufolge daraus resultieren soll, dass dieses nur Momente abbilden könne, die zum Zeitpunkt der Rezeption bereits vergangen seien, während die radioaktive Strahlung über lange, weit in die Zukunft reichende Zeiträume wirksam bleibe.114 Doch so wie der Beitrag »New Weapon for the GIs« erwähnte, dass die bei den Atomtests freigesetzte Radioaktivität auch durch in Erdlöcher gelegtes Filmmaterial gemessen werde,115 wurden Photographien, denen sich die radioaktiven Effekte der Testexplosionen entnehmen ließen, in anderen Life-Artikeln sogar reproduziert: Indirekte Hinweise auf diese Effekte gaben bereits Aufnahmen, die Farberscheinungen wie ein violettes Leuchten der Luft oder einen Grün- oder Blaustich zeigten, welche in den Begleittexten auf das Wirken radioaktiver Strahlung zurückgeführt wurden.116 Eine direktere Repräsentation der Radioaktivität lieferte eine Photographie, die ein Life-Reporter zwei Monate nach dem Trinity-Test vom Explosionsort mitgebracht hatte; hier war die lichtempfindliche Schicht unmittelbar durch die restliche Radioaktivität des Bombenkraters affiziert worden, die auf dem schwarzen Grund des Bildes weiße Flecken hinterlassen hatte.117 Und die

112 Vgl. D. Martin: First Casualties. 113 Vgl. P. Hales: Atomic Sublime, S. 28. 114 Vgl. S. Kirsch: Watching, S. 240, 245. 115 Vgl. Anonymus: New Weapon, S. 38. Daneben wurden einige Teilnehmer der Atomtests mit film badges ausgestattet, an deren Verfärbung sich ihre Strahlenbelastung ablesen ließ. Grundsätzlich kann man mit photographischen Mitteln neben der generellen Stärke und Verteilung radioaktiver Strahlung auch die Bewegungen einzelner Alpha- und BetaTeilchen nachweisen. Tatsächlich wurde die Radioaktivität sogar dadurch entdeckt, dass Henri Becquerel 1896 die Schwärzung photographischer Platten durch Uransalze bemerkte. 116 Anonymus: Color Photographs, S. 24; Anonymus: Close Up, S. 41f. 117 Vgl. Anonymus: Bomb Crater, S. 30. Übrigens lassen sich für solche Beschädigungen noch weitere Beispiele anführen. So kontaminierte die

306 | L ARS NOWAK

Reportage über die radioaktive Verseuchung des Kutters Fünfter Glücklicher Drache war mit einer Photographie illustriert, die durch kontaminiertes Haifischfleisch belichtet worden war.118 So wie das Nachher der nuklearen Versuchsexplosionen fand auch deren Vorher Eingang in die öffentliche Atomtestphotographie. Das gilt in gewisser Weise bereits für die Bildpostkarten. Denn wenn eine dieser Karten, die den Atompilz einer auf dem NPG gezündeten Bombe zeigte, die Aufschrift »Greetings from / LOS ALAMOS / New Mexico« trug,119 so mochte dies zwar in Bezug auf den Explosionsort in die Irre führen, spielte aber zugleich auf jenes Labor an, in dem die fragliche Bombe konstruiert worden war. Mehr als nur angedeutet, nämlich mit großer Ausführlichkeit dargestellt wurden die komplexen soziotechnischen Netzwerke der Nukleartests in den Photobüchern und einigen der Photoreportagen. Darin eingeschlossen waren auch die wissenschaftlichen Photo- und Filmaufnahmen, die etwa einer der Life-Artikel über die Crossroads-Serie ins Bild rückte, und der Einsatz der zahlreichen anderen Beobachtungs- und Messinstrumente, die beispielsweise der erste dortige Beitrag über den Ivy Mike-Test photographisch dokumentierte (Abb. 6).120 Zwar waren die verbalen Erläuterungen dieser Instrumente entweder spekulativ oder sogar regelrecht mystifizierend, wenn etwa eine Bildunterschrift vermutete, ein abgebildetes Gerät »may have been one of many devices which registered weapon’s heat« und eine andere Legende von »mysterious vessels« sprach, die »low-temperature tanks used to hold liquid hydrogen or helium« ähnelten.121 Doch gingen die in Life erscheinenden Reportagen zugleich auf die anderen öffentlichen Bilder von den Nukleartests

durch den Trinity-Test produzierte Radioaktivität auch Stroh, das man dann als Verpackungsmaterial für Röntgenfilme verwendete, die ebenfalls ruiniert wurden, während der Fallout der Operation Ranger die weit entfernten Lagerbestände von Eastman Kodak in Rochester in Mitleidenschaft zog. Vgl. R. Fermi/E. Samra: Picturing, S. 160; J. O’Brian: Editing, S. 142. 118 Vgl. D. Martin: First Casualties, S. 19. 119 J. O’Brian: Editing, S. 145. 120 Vgl. Anonymus: Atomic Bomb; Anonymus: Hydrogen Age, S. 26f. 121 Ebd., Hervorhebung getilgt.

STRAHLENDE L ANDSCHAFTEN

| 307

ein. So gaben die Artikel »5-4-3-2-1 and the Hydrogen Age is Upon Us« und »Color Photographs Add Vivid Reality to Nation’s Concept of H-Bomb« nicht nur Standbilder aus dem Film Operation Ivy wieder, sondern wiesen auch auf dessen Fernsehausstrahlung hin.122 Und auch über die landesweiten TV-Übertragungen der Tests Doorstep und Tumbler-Snapper Charlie wurde auf den Seiten von Life in Wort und Bild berichtet, wobei im zweiten Fall allerdings auch die technischen Störungen nicht unerwähnt blieben, welche den Genuss der Zuschauer nicht unerheblich beeinträchtigt hätten.123 Konnte die Photographie durch die Einbeziehung der Radioaktivität immerhin mit jenen Detektoren konkurrieren, mit deren Hilfe man dieses physikalische Phänomen bei den Kernwaffentests primär zu erfassen suchte, so erwies sie sich hier sogar als den anderen Medien überlegen – und zwar nicht nur deshalb, weil sie bisweilen zuverlässiger arbeitete, sondern auch deshalb, weil sie jene metareflexive Ebene einnahm, von der aus sie sowohl sich selbst als auch die anderen Medien ebenfalls in den Blick nahm. Abbildung 6: Messinstrumente des Atomtests Ivy Mike.

Quelle: Anonymus: Hydrogen Age, S. 27 (in veränderter Anordnung).

122 Vgl. ebd., S. 25; Anonymus: Color Photographs, S. 21. 123 Vgl. Anonymus: A-Bomb vs. House, S. 21; Anonymus: Open House, S. 38.

308 | L ARS NOWAK

S CHÖNE V ERSCHLEIERUNGEN ERHABENER E INSICHTEN Allerdings muss diese Aufwertung der populären Atomtestphotographie auf der ästhetischen – und damit letztlich auch auf der epistemischen – Ebene wieder relativiert werden. Und in diesem Zusammenhang sind die Ausführungen Hales’, mit deren Hilfe sich viele Einseitigkeiten der sonstigen Forschungsliteratur zu dieser Gattung der Photographie korrigieren ließen, ihrerseits infrage zu stellen. Hales’ primäres Anliegen besteht nämlich darin, den Begriff des Nuklear-Erhabenen, den Frances Ferguson mit Blick auf den Atomkrieg prägte,124 auch auf die Atomtests zu beziehen. Dabei stellt er zunächst fest, dass die Beschreibungen, die Augenzeugen des Trinity-Tests von der Detonation gaben, ebenso wie die späteren Berichte der auf dem News Nob des NPG versammelten Journalisten an die amerikanische Erhabenheitsästhetik des 19. Jahrhunderts angeknüpft hätten.125 Bei der Übertragung dieser Beobachtung von der Verbalsprache auf die Photographie vermischt Hales das Erhabene jedoch mit dem Schönen, das in der philosophischen Ästhetik häufig als sein Gegensatz gilt. So behauptet er, dass eine der Photographien, die in dem Life-Artikel »Close Up to the Blast« erschienen,126 durch ihre relative Dunkelheit, ihre Farbigkeit, ihre kompositorischen Korrespondenzen und den exakten Zeitpunkt ihrer Aufnahme darauf abgezielt habe, eine idealtypische Repräsentation des Atompilzes zu liefern, die diesen gleichzeitig dramatisierte und verschönerte.127 Und auch an anderen Stellen seiner Argumentation verknüpft Hales Ausdrücke wie »awe« und »terror« mit »beauty«.128 In der Schönheit geht aber Titus zufolge das Stereotyp des Atompilzes vollständig auf.129 Und auch O’Brian stellt die öffentlichen Atomtestphotographien zwar zunächst ebenfalls in die

124 Vgl. F. Ferguson: Nuclear Sublime. 125 Vgl. P. Hales: Atomic Sublime, S. 12f., 20f. 126 Vgl. Anonymus: Close Up. 127 Vgl. P. Hales: Atomic Sublime, S. 5ff. 128 Vgl. ebd., S. 10, 19, 25. 129 Vgl. A.C. Titus: Mushroom Cloud, S. 105.

S TRAHLENDE L ANDSCHAFTEN

| 309

amerikanische Tradition des Erhabenen,130 grenzt dann aber die Postkarten hiervon ab, um deren betont positive und heitere Stimmung als unfreiwillige Verkehrung des Tragischen in die Farce zu deuten.131 Tatsächlich präsentierten die öffentlichen Photographien die Nukleartests eher als schön denn als erhaben, während das letztere ästhetische Attribut vornehmlich zur Charakterisierung der dortigen wissenschaftlichen Photographie herangezogen werden kann, die bisweilen ebenfalls der Destruktivität der Versuchsexplosionen zum Opfer fiel. Das betraf neben den Kameras132 auch die Photomaterialien, wurden diese doch außer durch die von den Detonationen freigesetzte Radioaktivität auch durch ihre massiven Lichtemissionen beschädigt: Diese blendeten nicht nur menschliche Augen, sondern verursachten außerdem derartig starke Überbelichtungen, dass diverse Photographien solarisiert oder sogar zum Schmelzen gebracht, damit aber schon im Moment ihrer Produktion zugleich destruiert wurden. Das gilt vor allem für den Trinity-Test, bei dem noch keine empirischen Daten vorlagen, die theoretischen Berechnungen die zu erwartende Lichtmenge aber unterschätzten, so dass hier abgesehen von einer Amateuraufnahme des Technikers Jack Aeby keine einzige Farbphotographie gelang und auch viele Schwarz-Weiß-Emulsionen erhebliche Schäden davontrugen.133 Als Verkörperungen des Erhabenen134 können diese solarisierten Bilder aber deshalb gelten, weil sie ihre Referenten gleich zweifach negierten: zum einen im phototechnischen Sinne, da in ihnen gerade dort dunkle Flecken erschienen, wo das Explosionslicht am hellsten gewesen war, und zum anderen im philosophischen Sinne, da sie die Explosionen als undarstellbar darstellten.135

130 Vgl. J. O’Brian: Editing, S. 138. 131 Vgl. ebd., S. 143f. 132 Teller und Latter zufolge wurde sogar »[m]ost of the apparatus that produced the plates« durch die Explosionen zerstört. E. Teller/A. Latter: Nuclear Future, S. 80. 133 Vgl. J. O’Brian: Editing, S. 136. 134 Vgl. H. v. Amelunxen: Vorgeschichte, S. 36. 135 Durch diese paradoxe Formel hat zumindest Immanuel Kant das Erhabene zu bestimmen versucht. Vgl. I. Kant: Urteilskraft, S. 107, 138f., 147f.

310 | L ARS NOWAK

Abbildung 7: Atomtest Trinity. Solarisierte Photographie.

Quelle: H. Smyth: Atomic Energy, Bildteil zwischen S. 138 und 139.

In populären Veröffentlichungen erschienen von den beschädigten Photographien aber – wie bereits zu sehen war – lediglich solche, die auf radioaktive Weise affiziert worden waren, während die überbelichteten Aufnahmen allenfalls Eingang in den Smyth-Report fanden, in dem zwar zwei der vier Photographien vom Trinity-Test Solarisationen aufwiesen, der aber trotz seiner hohen Verkaufszahlen nur als semi-populär einzustufen ist (Abb. 7). An die im engeren Sinne populären Orte gelangten dagegen solche Bilder, die unter Anwendung von Maßnahmen entstanden waren, welche man zum Schutz gegen die exzessiven Überbelichtungen ergriffen hatte. Dazu gehörten etwa Filme, die mit dem XR-Material aufgenommen waren, das Charles Wyckoff, ein Mitarbeiter von EG&G, entwickelt hatte, um die extremen Helligkeitsschwankungen der Atomexplosionen in den Griff zu bekommen. Bei Aufnahmeserien führte nämlich eine Abstimmung der Belichtung auf die hellsten Detonationsphasen dazu, dass die Bilder während der späteren, dunkleren Phasen unterbelichtet wurden; und der XR-Film löste dieses Problem durch die Überlagerung von drei Emulsionen, die unterschiedliche Empfindlichkeiten besaßen.136 Einige Jahre nach dem Ende der oberirdischen Atomtests der USA brachte Life in einem Sonderheft zur Photographie einen Beitrag über diesen

136 Vgl. P. Kuran: Atomic Bomb, S. 56, 135.

S TRAHLENDE L ANDSCHAFTEN

| 311

Spezialfilm heraus, der auch durch einige Kader eines XR-Filmes von einem amerikanischen H-Bomben-Test bebildert war.137 Um aber die hohe optische Dichte des XR-Filmes, die aus der Überlagerung der drei Schichten resultierte, zu reduzieren, hatte Wyckoff diese farblich codiert und dabei der langsamen Schicht Zyan, der mittelschnellen Schicht Magenta und der schnellen Schicht Gelb zugeordnet. Obwohl hieraus die meisten späteren Farbfilme hervorgingen, waren diese Farben nicht realistisch, verfügten aber über eine große Intensität.138 Und so besaßen auch die in Life reproduzierten Filmkader eine intensive Farbigkeit, welche die populäre Atomtestphotographie im Ganzen kennzeichnete. Denn so wie viele der verbalen Berichte von den nuklearen Versuchsexplosionen deren ungewöhnliche Farben priesen, gehörte auch zur auf Schönheit abzielenden Ästhetik der öffentlichen Photographien das Bemühen, die Detonationen in feuerwerksartige Farbenspiele aufzulösen: Hatte bereits der New York Sunday Mirror den Anfang gemacht, indem er Aebys Farbphotographie des Trinity-Tests auf der Titelseite seiner Ausgabe vom 7. Oktober 1945 veröffentlichte,139 so erschienen später auch in Life viele Photographien der Nukleartests in Farbe, worauf manchmal, wie beispielsweise im Fall von »A-Bomb Test in Color« oder »Color Photographs Add Vivid Reality to Nation’s Concept of H-Bomb«, schon die Titel der Beiträge aufmerksam machten.140 Dagegen waren die wissenschaftlichen Bilder in der Regel entweder in den Falschfarben des XR-Filmes gehalten oder, wie etwa im Fall der in Smyths Bericht publizierten Aufnahmen, schwarz-weiß. Sicherlich trugen zu den spezifischen Ästhetiken der wissenschaftlichen und der populären Photographien von den amerikanischen Atomtests auch deren exotische Schauplätze bei. Interessanterweise hat Hales in diesem Zusammenhang Schönheit und Erhabenheit wieder voneinander getrennt, indem er Erstere den pazifischen Test-

137 Vgl. Anonymus: Slow-Fast Film. 138 Vgl. P. Kuran: Atomic Bomb, S. 57, 135. 139 Vgl. J. O’Brian: Editing, S. 136. 140 Anonymus: A-Bomb Test; Anonymus: Color Photographs.

312 | L ARS NOWAK

atollen,141 Letztere dem in der Wüste gelegenen NPG zugeordnet hat.142 Demgegenüber hat Tom Vanderbilt die beunruhigende Schönheit der öffentlichen Atomtestphotographien sowohl im Fall der Nevada- als auch in dem der Pazifiktests auf einen Einfluss der umgebenden Landschaften zurückgeführt.143 Tatsächlich aber war nicht Schönheit, sondern Erhabenheit jene ästhetische Qualität, die alle Testgebiete gleichermaßen umfasste, wenn auch in zwei Varianten, die laut Kants Theorie des Erhabenen voneinander zu unterscheiden sind.144 So schien sich die oben zitierte Bemerkung Tellers und Latters, die gewaltigen Testexplosionen hätten sich neben den noch viel gewaltigeren Testgeländen eher bescheiden ausgenommen, vor allem auf die hohen Berge und weiten Hochebenen des NPG zu beziehen, die als Inkarnationen des Mathematisch-Erhabenen betrachtet werden dürfen. Dagegen ist im Fall der Pazifikatolle daran zu erinnern, dass es sich bei diesen um die aus dem Meer ragenden Spitzen erloschener Vulkane handelte, weshalb sich unter ihrer schönen Oberfläche eine dynamisch-erhabene Tiefe verbarg. Damit fand weniger die fragwürdige Schönheit der populären Atomtestphotographien als vielmehr das ›Technisch-Erhabene‹145 der wissenschaftlichen Aufnahmen eine Entsprechung im Natur-Erhabenen der Testareale. Die Erhabenheit der szientifischen Bilder unterschied sich aber nicht nur darin von der Schönheit der populären Atompilzphotographien, dass es sich bei ihr statt um den Effekt einer kalkulierten Ästhetisierung um das Ergebnis unvorgesehener Unfälle handelte.146

141 Vgl. P. Hales: Atomic Sublime, S. 18ff. Hales bezog sich hier auf die zeitgenössische Berichterstattung über die Operation Crossroads. Dabei gab er allerdings zu bedenken, dass die Schönheit des Bikini-Atolls nicht nur auf die dortigen Explosionen abgefärbt, sondern auch die Zerstörung dieser geradezu paradiesischen Landschaft besonders deutlich vor Augen geführt haben dürfte. 142 Vgl. ebd., S. 20. 143 Vgl. T. Vanderbilt: Survival City, S. 75. 144 Vgl. I. Kant: Urteilskraft, S. 109f. 145 Vgl. L. Marx: Machine. 146 Allein die populären Filme von den Atomtests setzten die auch hier vorkommenden Überbelichtungen bisweilen bloß als simulierten Effekt ein,

S TRAHLENDE L ANDSCHAFTEN

| 313

Vielmehr lief der ästhetische Gegensatz zugleich auf eine epistemische Differenz hinaus. Denn während die Schönheit der Atompilzbilder nicht unwesentlich zum von diesen verbreiteten Unwissen beigetragen haben dürfte, eignete den Destruktionen der wissenschaftlichen Aufnahmen – ähnlich wie jenem Phänomen, das Latour in Abgrenzung vom Ikonoklasmus als ›Iconoclash‹ bezeichnet hat147 – zugleich ein konstruktives Moment. Trotz ihres technischen Scheiterns vermittelten diese Photographien nämlich ein eigenes, ästhetisches Wissen, das auf beredte Weise Zeugnis ablegte von den ungeheuren Energien, die Nukleardetonationen freizusetzen imstande sind. Zugleich jedoch ist noch einmal daran zu erinnern, dass sich die popularisierende Nukleartestphotographie nicht auf das Klischee des Atompilzes reduzieren lässt, sondern ebenso andere Aspekte der Versuchsexplosionen einbezog, zu denen überdies neben deren Folgen auch ihre Vorbereitungen gehörten. Und wenn die wissenschaftlichen Aufnahmen durch ihre Beschädigungen auf ihre eigene – fragile – Materialität verwiesen, so fand auch diese Selbstreflexivität in den photographischen Apparaten, welche die populären Bilder unter den Beobachtungsinstrumenten der Atomtests zeigten, eine Entsprechung – mit dem Unterschied jedoch, dass hier die formale und daher nur implizite in eine inhaltliche und explizite Autoreflexivität transformiert war.

B IBLIOGRAPHIE Amelunxen, Hubertus von: »Von der Vorgeschiche des Abschieds. Bilder zum Zustand des Kriegerischen in der Fotografie«, in: Fotogeschichte 43 (1992), S. 27-38. Anders, Günther: Die Antiquiertheit des Menschen. Bd. 1. Über die Seele im Zeitalter der zweiten industriellen Revolution, München: Beck 1985.

um eine Nukleardetonation in formelhafter Verkürzung zu signifizieren, und stellten damit dem von den populären Photographien geschaffenen Klischee des Atompilzes das Stereotyp des Atomblitzes an die Seite. 147 Vgl. B. Latour: Iconoclash, S. 8, 65.

314 | L ARS NOWAK

Anonymus: »New Mexico’s Atomic Bomb Crater«, in: Life vom 24. September 1945, S. 27-31. Anonymus: »Bikini’s Atomic Bomb«, in: Life vom 15. Juli 1946, S. 25-29. Anonymus: »The Bomb Explodes«, in: Life vom 22. Juli 1946, S. 32. Anonymus: »›Baker Day‹ at Bikini«, in: Life vom 12. August 1946, S. 30. Anonymus: »Biggest Atomic Explosions«, in: Life vom 12. September 1949, S. 74-75. Anonymus: »Atomic Tests Light Up Four States«, in: Life vom 12. Februar 1951, S. 25-27. Anonymus: »A-Bomb Test in Color«, in: Life vom 26. Februar 1951, S. 48-50. Anonymus: »Atomic Bomb Over Nevada«, in: Life vom 16. Juli 1951, S. 50. Anonymus: »Wherever You Look There’s Danger in Las Vegas«, in: Life vom 12. November 1951, S. 37. Anonymus: »New Weapon for the GIs«, in: Life vom 12. November 1951, S. 38-39. Anonymus: »An Atomic Open House«, in: Life vom 5. Mai 1952, S. 36-39. Anonymus: »When Atom Bomb Struck. Uncensored«, in: Life vom 29. September 1952, S. 19-25. Anonymus: »A-Bomb vs. House«, in: Life vom 30. März 1953, S. 2123. Anonymus: »5-4-3-2-1 and the Hydrogen Age is Upon Us«, in: Life vom 12. April 1954, S. 24-33. Anonymus: »Between Yesterday and Doomsday«, in: Newsweek vom 12. April 1954, S. 17. Anonymus: »Color Photographs Add Vivid Reality to Nation’s Concept of H-Bomb«, in: Life vom 19. April 1954, S. 21-25. Anonymus: »New ›Ivy‹ Pictures Show Fire and Ice«, in: Life vom 3. Mai 1954, S. 54. Anonymus: »Close Up to the Blast«, in: Life vom 30. Mai 1955, S. 39-42. Anonymus: »Clocking the Nuclear Bomb Tests«, in: Business Week vom 30. Juni 1962, S. 128-132.

S TRAHLENDE L ANDSCHAFTEN

| 315

Anonymus: »Slow-Fast Film Catches Both the Brightest and the Faintest Stages of a Nuclear Blast«, in: Life vom 23. Dezember 1966, S. 112-113. Barthes, Roland: Mythen des Alltags, Frankfurt a.M.: Suhrkamp 1993. Berz, Peter: 08/15. Ein Standard des 20. Jahrhunderts, München: Fink 2001. Bexte, Peter: »Wolken über Las Vegas«, in: Archiv für Mediengeschichte 5 (2005), S. 131-137. Edgerton, Harold E.: »Photography of Very Early States of Nuclear Explosions«, in: Journal of the Society of Motion Picture and Television Engineers LXVIII/2 (Februar 1959), S. 77-79. Edgerton, Harold E./Killian Jr., James R.: Flash! Seeing the Unseen by Ultra High-Speed Photography, Boston: Branford 1954. Elkins, James: »Harold Edgerton’s Rapatronic Photographs of Atomic Tests«, in: History of Photography XXVIII/1 (Frühling 2004), S. 74-81. Ferguson, Frances: »The Nuclear Sublime«, in: Diacritics XIV/2 (Sommer 1984), S. 4-10. Fermi, Rachel/Samra, Esther: Picturing the Bomb. Photographs from the Secret World of the Manhattan Project, New York: Harry N. Abrams 1995. Hales, Peter B.: »The Atomic Sublime«, in: American Studies XXXII/1 (Frühling 1991), S. 5-31. Hill, Gladwin: »Watching the Bombs Go Off«, in: New York Times vom 9. Juni 1957, S. 43. Hüppauf, Bernd/Weingart, Peter (Hg.): Frosch und Frankenstein. Bilder als Medium der Popularisierung von Wissenschaft, Bielefeld: transcript 2009. Hüppauf, Bernd/Weingart, Peter: »Wissenschaftsbilder – Bilder der Wissenschaft«, in: Hüppauf/Weingart, Frosch und Frankenstein 2009, S. 11-43. Kant, Immanuel: Kritik der Urteilskraft, Hamburg: Meiner 2001. Kirsch, Scott: »Watching the Bombs Go Off. Photography, Nuclear Landscapes, and Spectator Democracy«, in: Antipode XXIX/3 (Juli 1997), S. 227-255.

316 | L ARS NOWAK

Kretschmann, Carsten: »Wissenschaftspopularisierung – Ansätze und Konzepte«, in: Hüppauf/Weingart, Frosch und Frankenstein 2009, S. 79-89. Kuletz, Valerie: »Invisible Spaces, Violent Places. Cold War Nuclear and Militarized Landscapes«, in: Nancy Lee Peluso/Michael Watts (Hg.), Violent Environments, Ithaca/London: Cornell University Press 2001, S. 237-260. Kuran, Peter: How to Photograph an Atomic Bomb, Santa Clarita: VCE 2006. Latour, Bruno: Iconoclash oder Gibt es eine Welt jenseits des Bilderkrieges?, Berlin: Merve 2002. Latour, Bruno: Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a.M.: Suhrkamp 2002. Leo, Vincent: »The Mushroom Cloud Photograph. From Fact to Symbol«, in: Afterimage XIII/1-2 (Sommer 1985), S. 6-12. Mack, Julian E.: Semi-Popular Motion-Picture Record of the Trinity Explosion, Oak Ridge: Technical Information Division, Oak Ridge Directed Operations 1946. Martin, Dwight: »First Casualties of the H-Bomb«, in: Life vom 29. März 1954, S. 17-21. Marx, Leo: The Machine in the Garden. Technology and the Pastoral Idea in America, London: Oxford University Press 1979. Mielke, Bob: »Rhetoric and Ideology in the Nuclear Test Documentary«, in: Film Quarterly LVIII/3 (Frühling 2005), S. 28-37. Murphy, Charles J.V.: »Outcasts of Yucca Flat«, in: Life vom 30. März 1953, S. 24-25. O’Brian, John: »Editing Armageddon«, in: Mark B. Cheetham/Elizabeth Legge/Catherine M. Sousslaff (Hg.), Editing the Image. Strategies in the Production and Reception of the Visual, Toronto: University of Toronto Press 2008, S. 127-152. Office of the Historian, Joint Task Force One: Operation Crossroads. The Official Pictorial Record, New York: Wm. H. Wise 1946. Smyth, Henry DeWolf: Atomic Energy for Military Purposes. The Official Report on the Development of the Atomic Bomb Under the Auspices of the United States Government, 1940-1945, Princeton: Princeton University Press 1945.

S TRAHLENDE L ANDSCHAFTEN

| 317

Starl, Timm: »Die kriegerischen Geschäfte der Fotografie«, in: Fotogeschichte 43 (1992), S. 5-16. Strada, Michael J.: »Kaleidoscopic Nuclear Images of the Fifties«, in: Journal of Popular Culture XX/3 (Winter 1986), S. 179-197. Szasz, Ferenc M.: Larger Than Life. New Mexico in the Twentieth Century, Albuquerque: University of New Mexico Press 2006. Taylor, Geoffrey: »The Formation of a Blast Wave By a Very Intense Explosion. II. The Atomic Explosion of 1945«, in: Proceedings of the Royal Society of London. Series A, Mathematical and Physical Sciences 1065 (22. März 1950), S. 175-186. Teller, Edward/Latter, Albert L.: Our Nuclear Future... Facts, Dangers, and Opportunities, London: Secker & Warburg 1958. Titus, A. Costandina: »Back to Ground Zero. Old Footage Through New Lenses«, in: Journal of Popular Film and Television XI/1 (Frühling 1983), S. 2-11. Titus, A. Costandina: Bombs in the Backyard. Atomic Testing and American Politics, Reno/Las Vegas: University of Nevada Press 1986. Titus, A. Costandina: »The Mushroom Cloud as Kitsch«, in: Scott C. Zeman/Michael A. Amundson (Hg.), Atomic Culture. How We Learned to Stop Worrying and Love the Bomb, Boulder: University of Colorado Press 2004, S. 101-123. U.S. Department of Energy, Nevada Operations Office: United States Nuclear Tests. July 1945 Through September 1992, Springfield: U.S. Department of Commerce, National Technology Information Service 2000. Vanderbilt, Tom: Survival City. Adventures Among the Ruins of Atomic America, New York: Princeton Architectural Press 2002. Virilio, Paul/Lotringer, Sylvère: Der reine Krieg, Berlin: Merve 1984. Weart, Spencer R.: Nuclear Fear. A History of Images, Cambridge/ London: Harvard University Press 1988. White, Clarence H. (Hg.): Operation Sandstone. The Story of Joint Task Force Seven, Washington: Infantry Journal Press 1949.

318 | L ARS NOWAK

F ILMOGRAPHIE THE ATOMIC KID (USA 1952, Leslie H. Martinson) THE BEGINNING OR THE END? (USA 1946, Norman Taurog) THE CONQUEROR (USA 1956, Dick Powell) LET’S FACE IT (USA 1955, U.S. Airforce Lookout Mountain Laboratory Air Photographic & Charting Service) ON THE BEACH (USA 1959, Stanley Kramer) OPERATION CUE (USA 1955, Federal Civil Defense Administration) OPERATION DOORSTEP (USA 1953, Byron Incorporated) OPERATION IVY (USA 1952, U.S. Airforce Lookout Mountain Laboratory Air Photographic & Charting Service) THEM! (USA 1954, Gordon Douglas)

Autorinnen und Autoren

Bart, Rolfe, Dipl.-Des., studierte Visuelle Kommunikation, Design und Architektur u.a. an der Staatlichen Kunstakademie Düsseldorf, der Universität Wuppertal, der Universität der Künste Berlin und der University of the Arts London. Daran anknüpfend vollzog er ein Studium in Kultur- und Medienwissenschaft an der Humboldt-Universität zu Berlin. Er ist Mitglied im Landes-Exzellenzprojekt »Die Transformation wissenschaftlichen Wissens« am Institut für Bildtheorie sowie dem Zentrum für Wissenschaftstheorie und Wissenschaftsgeschichte der Universität Rostock. Rolfe Bart unterrichtet derzeit im Fachbereich Philosophie der Universität Rostock, im Fachbereich GrafikDesign/Buchkunst der Hochschule für Grafik und Buchkunst Leipzig sowie im Fachbereich Kunst und Design der Hochschule Luzern. Kontakt: [email protected] Christolova, Lena, Dr. phil., Studium der Germanistik und der Medienwissenschaft in Sofia und Konstanz, Promotion in Konstanz, Habilitationsprojekt »Fotogramm, Fotografie und Film«. 2011 erscheinen: »Zwischen den Chiffren von Regnault und der Taxidermie von Flaherty: Wissenschaftsanspruch und Massenkulturphänomene im ethnografischen Film zwischen 1895 und 1933«, in: Visuelle Kultur: Studien und Materialien, Bd. 5, hg. v. Ulrich Hägele und Irene Ziehe; »Digital Storytelling: zwischen Performance und Performanz«, in:

320 | J ENSEITS DES L ABORS

Aufbrüche/Kulturwissenschaften Bd. 4, hg. v. Fernando Clara und Peter Hanenberg, Königshausen & Neumann. Kontakt: [email protected] Haller, Lea, lic. phil., hat Sozial- und Wirtschaftsgeschichte, Volkskunde und deutsche Linguistik studiert und ist seit 2008 Doktorandin am Institut für Technikgeschichte der ETH Zürich. Sie arbeitet an einer Dissertation zur Geschichte des Cortisons. Ziel dieses Projekts ist es, die interdependente Genese biologischer Regulierungskonzepte, chemisch-pharmazeutischer Hormonforschung und medizinischer Therapie in der ersten Hälfte des 20. Jahrhunderts zu untersuchen. Kontakt: [email protected] Heinemann, Torsten, Dr. phil., wissenschaftlicher Mitarbeiter am Arbeitsschwerpunkt »Biotechnologie, Natur und Gesellschaft« der Goethe-Universität Frankfurt am Main. Forschungsschwerpunkte: Wissenschaftstheorie und -geschichte, Wissenschaftskommunikation, Kultursoziologie, biotechnologische Innovationsprozesse. Kontakt: [email protected] Hoof, Florian, M.A., wissenschaftlicher Mitarbeiter am Institut für Theater- Film und Medienwissenschaft der Goethe-Universität Frankfurt a.M., studierte Medienwissenschaft, Politikwissenschaft und Soziologie in Bochum, Sydney und Perth. Von 2007 bis 2010 Promotionsstipendiat der Studienstiftung des deutschen Volkes und von 2010 bis 2011 wissenschaftlicher Mitarbeiter am Institut für Medienwissenschaft der Ruhr-Universität Bochum. 2009 visiting scholar der Archives and Special Collection Purdue University, West Lafayette, USA und 2010 akademischer Gast am Institut für Geschichte am Lehrstuhl Technikgeschichte der ETH Zürich. Thema seiner Dissertation ist die Mediengeschichte der Unternehmensberatung und des frühen Wirtschafts- und Industriemanagements. Kontakt: [email protected] Jung, Eva-Maria, Dr. phil., Studium der Philosophie mit den Nebenfächern Mathematik und Physik in Freiburg, Rom und Berlin. Von 2005 bis 2009 wissenschaftliche Mitarbeiterin in dem von der VW-

A UTORINNEN UND A UTOREN

| 321

Stiftung geförderten Projekt »Wissen und Können« an den Universitäten Tübingen und Bochum. 2007 visiting student researcher an der University of California at Berkeley. 2009 Promotion in Bochum. Seit 2010 wissenschaftliche Mitarbeiterin am Philosophischen Seminar der Universität Münster und Geschäftsführerin des Zentrums für Wissenschaftstheorie. Forschungsschwerpunkte: Erkenntnis- und Wissenschaftstheorie, Philosophie des Geistes. Kontakt: [email protected] Müggenburg, Jan, M.A., ist wissenschaftlicher Mitarbeiter am Institut für Kultur und Ästhetik Digitaler Medien (ICAM) der Leuphana Universität Lüneburg. Er studierte Medienwissenschaft, Anglistik und Philosophie in Bochum und Perth. Von 2006 bis 2009 war er Fellow am Initiativkolleg »Naturwissenschaften im historischen Kontext« der Universität Wien und von 2009 bis 2010 wissenschaftlicher Assistent am Lehrstuhl für Erkenntnistheorie und Philosophie der Digitalen Medien am Institut für Philosophie der Universität Wien. Jan Müggenburg war visiting scholar am Department of Electrical and Computer Engineering der University of Illinois in Urbana-Champaign, USA und am Max-Planck-Institut für Wissenschaftsgeschichte in Berlin. Kontakt: [email protected] Nowak, Lars, Dr. phil., Medienwissenschaftler mit Schwerpunkten bei den visuellen Medien der Kinematographie, Photographie und Kartographie sowie der Wissens- und Wissenschaftsgeschichte. Promotion zum Thema Deformation und Transdifferenz: Freak Show, frühes Kino, Tod Browning an der Bauhaus-Universität Weimar. Derzeit DFG-Forschungsprojekt zum Thema Blitzkriege: Die Wissensräume der ballistischen Photo- und Kinematographie, 1860-1960 an der Universität Trier. Kontakt: [email protected] Salaschek, Ulrich, Dr. des., studierte Handel/E-Commerce, Sozialpsychologie/-anthropologie und Erziehungswissenschaft in Heidenheim, Bochum und Berlin. Er promovierte an der Fakultät für Philosophie und Erziehungswissenschaft der Ruhr-Universität Bochum als

322 | J ENSEITS DES L ABORS

Stipendiat der Ruhr-University Research School über die anthropologischen Folgen neurowissenschaftlicher bildgebender Forschung. Forschungs- und Interessenschwerpunkte: (Technik-)Anthropologie; Wissenschaftstheorie/-geschichte, insbesondere: Möglichkeiten und Voraussetzungen interdisziplinärer Forschung; Kommunikation. Kontakt: [email protected] Vehlken, Sebastian, Dr. des., wissenschaftlicher Mitarbeiter am ICAM Institut für Kultur und Ästhetik Digitaler Medien der Leuphana Universität Lüneburg. Von 2005 bis 2007 DFG-Stipendiat im Graduiertenkolleg Mediale Historiographien der Bauhaus-Universität Weimar und von 2007 bis 2010 Wissenschaftlicher Assistent am Lehrstuhl für Epistemologie und Philosophie Digitaler Medien des Instituts für Philosophie der Universität Wien. Seine Dissertation über eine Mediengeschichte der Schwarmforschung zwischen Biologie und Computersimulation beendete er am Kulturwissenschaftlichen Institut der Humboldt-Universität zu Berlin. Sie wird im Herbst 2011 erscheinen. Kontakt: [email protected] Wansleben, Leon Jesse, M.Sc., studierte Philosopie an der Universität Witten/Herdecke und Soziologie an der London School of Economics. In Konstanz promovierte er in Soziologie zur epistemischen Praxis von Finanzanalysten. Seit Ende 2010 ist Leon Wansleben wissenschaftlicher Mitarbeiter des Soziologischen Seminars der Universität Luzern. Seine Arbeitsschwerpunkte sind Wissens- und Wirtschaftssoziologie. Kontakt: [email protected] Zetti, Daniela, lic. phil., ist wissenschaftliche Mitarbeiterin an der Professur für Technikgeschichte, ETH Zürich. Forschungsschwerpunkte: Technik- und Zeitgeschichte; Computer, Rundfunk, Verwaltung. Laufende Projekte: Dissertation zu Produktionstechniken des Fernsehens in der BRD (1950-1980). Publikation, Herausgeberschaft: zusammen mit Gisela Hürlimann und Frédéric Joye-Cagnard: Gesteuerte Gesellschaft/Orienter la société. Logistik, Automatisierung und Computer in der Nachkriegszeit, traverse 3/2009. Kontakt: [email protected]

Science Studies Viola Balz Zwischen Wirkung und Erfahrung – eine Geschichte der Psychopharmaka Neuroleptika in der Bundesrepublik Deutschland, 1950-1980 2010, 580 Seiten, kart., zahlr. Abb., 36,80 €, ISBN 978-3-8376-1452-7

Jochen Hennig Bildpraxis Visuelle Strategien in der frühen Nanotechnologie September 2011, ca. 338 Seiten, kart., zahlr. z.T. farb. Abb., ca. 32,80 €, ISBN 978-3-8376-1083-3

Christian Kehrt, Peter Schüssler, Marc-Denis Weitze (Hg.) Neue Technologien in der Gesellschaft Akteure, Erwartungen, Kontroversen und Konjunkturen März 2011, 366 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-1573-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Sibylle Peters Der Vortrag als Performance Juli 2011, 250 Seiten, kart., 29,80 €, ISBN 978-3-8376-1774-0

Birgit Stammberger Monster und Freaks Eine Wissensgeschichte außergewöhnlicher Körper im 19. Jahrhundert Februar 2011, 344 Seiten, kart., 32,80 €, ISBN 978-3-8376-1607-1

Tristan Thielmann, Erhard Schüttpelz, Peter Gendolla (Hg.) Akteur-Medien-Theorie November 2011, ca. 800 Seiten, kart., zahlr. Abb., ca. 39,80 €, ISBN 978-3-8376-1020-8

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Holger Braun-Thürmann, Andreas Knie, Dagmar Simon Unternehmen Wissenschaft Ausgründungen als Grenzüberschreitungen akademischer Forschung 2010, 200 Seiten, kart., 24,80 €, ISBN 978-3-8376-1401-5

Susanne Burren Die Wissenskultur der Betriebswirtschaftslehre Aufstieg und Dilemma einer hybriden Disziplin 2010, 274 Seiten, kart., 28,80 €, ISBN 978-3-8376-1330-8

Christopher Coenen, Stefan Gammel, Reinhard Heil, Andreas Woyke (Hg.) Die Debatte über »Human Enhancement« Historische, philosophische und ethische Aspekte der technologischen Verbesserung des Menschen 2010, 334 Seiten, kart., 31,80 €, ISBN 978-3-8376-1290-5

Johannes Feichtinger Wissenschaft als reflexives Projekt Von Bolzano über Freud zu Kelsen: Österreichische Wissenschaftsgeschichte 1848-1938 2010, 636 Seiten, kart., 42,80 €, ISBN 978-3-8376-1523-4

Enrique Fernández Darraz, Gero Lenhardt, Robert D. Reisz, Manfred Stock Hochschulprivatisierung und akademische Freiheit Jenseits von Markt und Staat: Hochschulen in der Weltgesellschaft 2010, 200 Seiten, kart., 24,80 €, ISBN 978-3-8376-1612-5

Gabriele Gramelsberger Computerexperimente Zum Wandel der Wissenschaft im Zeitalter des Computers 2010, 316 Seiten, kart., 29,80 €, ISBN 978-3-89942-986-2

Thomas Kailer Vermessung des Verbrechers Die Kriminalbiologische Untersuchung in Bayern, 1923-1945 2010, 440 Seiten, kart., 35,80 €, ISBN 978-3-8376-1614-9

Jens Maesse Die vielen Stimmen des Bologna-Prozesses Zur diskursiven Logik eines bildungspolitischen Programms 2010, 286 Seiten, kart., 28,80 €, ISBN 978-3-8376-1322-3

Birgit Peuker Der Streit um die Agrar-Gentechnik Perspektiven der Akteur-Netzwerk-Theorie 2010, 370 Seiten, kart., 33,80 €, ISBN 978-3-8376-1502-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de