Zwischen Geist und Gehirn: Das Gedächtnis als Objekt der Lebenswissenschaften [1. Aufl.] 9783839421130

Das Gedächtnis hat sich von einem weichen Gegenstand philosophischer Reflexion in ein hartes, neurobiologisches Objekt v

184 11 1MB

German Pages 352 Year 2014

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Zwischen Geist und Gehirn: Das Gedächtnis als Objekt der Lebenswissenschaften [1. Aufl.]
 9783839421130

Table of contents :
Inhalt
Danksagung
Einleitung
Die Krankheiten
Fragestellung
Gliederung
Die Praxis der Theorie, die Theorie der Praxis. Theoretische und methodische Grundlagen
Vom Primat der Theorie zum Primat der Praxis
Repräsentieren: Theorien als Werkzeuge
Die Praxismangel
Methodische Schlussfolgerungen
Der vermessene Geist. Das Gedächtnis als biopsychologisches Konstrukt
Kulturen oder Plattformen?
Die Rolle der Psychologie
Fazit: Geist | Gehirn
Tiermodelle. Zwischen Theorie und Experiment, Labor und Klinik
»Vorstellungen von Wirklichkeit« – Modellierungspraktiken im Vergleich
Metamorphosen: Vom Labor in die Klinik und zurück
Epilog
Im Labor. Labyrinthe, Mäuse, Menschen
Der »Morris water maze«
Standards, oder: Wie kommt das Schiff in die Flasche?
Fazit: Lokale Universalität
Materialisierung der Seele. Anatomischer Denkstil und Hippokampus
Experimentelle Verwicklungen
Endophänotypen: Triangulation von Gedächtnis, Krankheit, Gehirn
Gedächtnispolitik
Fazit
Darstellen und Eingreifen im Zeitalter der Postgenomik
Der mechanistische Erklärungsstil
Außer Kontrolle? Postgenomische Umwälzungen
Pragmatik der Erklärung: Eine Brücke zwischen Theorie und Empirie
Fazit: Eine dialektische Geschichte
Schluss
Literatur

Citation preview

Christoph Kehl Zwischen Geist und Gehirn

Band 18

Editorial Die neuere empirische Wissenschaftsforschung hat sich seit den späten 1970er Jahren international zu einem der wichtigsten Forschungszweige im Schnittfeld von Wissenschaft, Technologie und Gesellschaft entwickelt. Durch die Zusammenführung kulturanthropologischer, soziologischer, sprachwissenschaftlicher und historischer Theorie- und Methodenrepertoires gelingen ihr detaillierte Analysen wissenschaftlicher Praxis und epistemischer Kulturen. Im Vordergrund steht dabei die Sichtbarmachung spezifischer Konfigurationen und ihrer epistemologischen sowie sozialen Konsequenzen – für gesellschaftliche Diskurse, aber auch das Alltagsleben. Jenseits einer reinen Dekonstruktion wird daher auch immer wieder der Dialog mit den beobachteten Feldern gesucht. Ziel dieser Reihe ist es, Wissenschaftler/-innen ein deutsch- und englischsprachiges Forum anzubieten, das • inter- und transdisziplinäre Wissensbestände in den Feldern Medizin und Lebenswissenschaften entwickelt und national sowie international präsent macht; • den Nachwuchs fördert, indem es ein neues Feld quer zu bestehenden disziplinären Strukturen eröffnet; • zur Tandembildung durch Ko-Autorschaften ermutigt und • damit vor allem die Zusammenarbeit mit Kollegen und Kolleginnen aus den Natur- und Technikwissenschaften unterstützt, kompetent begutachtet und kommentiert. Die Reihe wendet sich an Studierende und Wissenschaftler/-innen der empirischen Wissenschafts- und Sozialforschung sowie an Forscher/-innen aus den Naturwissenschaften und der Medizin. Die Reihe wird herausgegeben von Martin Döring und Jörg Niewöhner. Wissenschaftlicher Beirat: Regine Kollek (Universität Hamburg, GER), Brigitte Nerlich (University of Nottingham, GBR), Stefan Beck (Humboldt Universität, GER), John Law (University of Lancaster, GBR), Thomas Lemke (Universität Frankfurt, GER), Paul Martin (University of Nottingham, GBR), and Allan Young (McGill University Montreal, CAN).

Christoph Kehl (M.A., Dipl. Natw. ETH) ist wissenschaftlicher Mitarbeiter beim Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag.

Christoph Kehl

Zwischen Geist und Gehirn Das Gedächtnis als Objekt der Lebenswissenschaften

Angenommen als Dissertation an der Philosophischen Fakultät I der Humboldt-Universität zu Berlin 2011. Dekan: Prof. Michael Seadle, PhD Gutachterinnen/Gutachter: Prof. Dr. Stefan Beck, Prof. Dr. Regine Kollek Tag der Promotion: 21.10.2011

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2012 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Lektorat & Satz: Christoph Kehl Grafik: Georg Hauke Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-2113-6 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt Danksagung | 7 Einleitung | 9

Die Krankheiten | 12 Fragestellung | 17 Gliederung | 20 Die Praxis der Theorie, die Theorie der Praxis. Theoretische und methodische Grundlagen | 27

Vom Primat der Theorie zum Primat der Praxis | 29 Repräsentieren: Theorien als Werkzeuge | 45 Die Praxismangel | 51 Methodische Schlussfolgerungen | 59 Der vermessene Geist. Das Gedächtnis als biopsychologisches Konstrukt | 67

Kulturen oder Plattformen? | 70 Die Rolle der Psychologie | 77 Fazit: Geist | Gehirn | 96 Tiermodelle. Zwischen Theorie und Experiment, Labor und Klinik | 99

»Vorstellungen von Wirklichkeit« – Modellierungspraktiken im Vergleich | 103 Metamorphosen: Vom Labor in die Klinik und zurück | 126 Epilog | 143 Im Labor. Labyrinthe, Mäuse, Menschen | 147

Der »Morris water maze« | 150 Standards, oder: Wie kommt das Schiff in die Flasche? | 163 Fazit: Lokale Universalität | 177

Materialisierung der Seele. Anatomischer Denkstil und Hippokampus | 181

Experimentelle Verwicklungen | 184 Endophänotypen: Triangulation von Gedächtnis, Krankheit, Gehirn | 194 Gedächtnispolitik | 206 Fazit | 222 Darstellen und Eingreifen im Zeitalter der Postgenomik | 225

Der mechanistische Erklärungsstil | 229 Außer Kontrolle? Postgenomische Umwälzungen | 239 Pragmatik der Erklärung: Eine Brücke zwischen Theorie und Empirie | 270 Fazit: Eine dialektische Geschichte | 279 Schluss | 285 Literatur | 295

Danksagung

Bei dieser Arbeit handelt es sich um eine überarbeitete Version meiner Dissertation an der Philosophischen Fakultät I der Humboldt-Universität zu Berlin. Viele Personen haben mich während der Zeit des Forschens und Schreibens mit Hinweisen, Rat und Tat, und immer wieder mit Ermunterungen unterstützt. Ohne sie wäre dieses Buch nicht entstanden. Mein herzlicher Dank geht an Stefan Beck und Regine Kollek für die kompetente Betreuung und Begutachtung sowie an Jörg Niewöhner für viele wertvolle und umsichtige Kommentare. Lisa Hamacher danke ich für die geduldige und genaue Lektüre. Meine Arbeit profitierte von den vielen anregenden Diskussionen mit Katrin Amelang, Sven Bergmann, Alfons Bora, Anne Brüninghaus, Sascha Dickel, Martin Döring, Martina Franzen, Nils Heyen, Fabian Karsch, Michalis Kontopodis, Tom Mathar, Hazel Rosenstrauch, Marco Silvestric, Estrid Sørensen, Hürrem Tezcan-Güntekin, Uta Wagenmann, Anne-Kathrin Will und Ann-Katrin Zöckler. Ich danke dem Evangelischen Studienwerk Villigst für die Unterstützung durch ein Promotionsstipendium im Rahmen des Förderschwerpunktes »Biomedizin. Gesellschaftliche Deutung und soziale Praxis« und allen meinen Interviewpartnern für die Bereitschaft, sich auf dieses Projekt einzulassen. Vor allem aber bin ich meiner Familie für ihre liebevolle Unterstützung zu Dank verpflichtet: Meine Eltern haben dafür gesorgt, dass das Buch in dieser Form erscheinen kann, während meine Frau Indre Zetzsche unendlich Geduld mit mir hatte und mir in kritischen Phasen den Rücken freihielt. Meiner Tochter Mascha, die mir auf ihre Weise half, Abstand zu nehmen, widme ich dieses Buch.

Berlin, im Februar 2012

Christoph Kehl

Einleitung

Im Jahr 1906 präsentierte Alois Alzheimer auf der 37. Tagung Südwestdeutscher Irrenärzte Befunde, auf die er bei der Gehirnautopsie seiner 50-jährigen Patientin Auguste Deter gestoßen war. Auguste, die bis zu ihrem Tod an fortschreitender Desorientierung und aufs Schwerste »gestörter Merkfähigkeit« gelitten hatte, wies eine »eigentümliche Erkrankung der Hirnrinde« auf. Alzheimers Vortrag erregte laut Protokoll kein großes Aufsehen – zur damaligen Zeit wurden Psychiater1 noch als »Irrenärzte« bezeichnet, und Irrenärzte, die wie Alzheimer mit Mikroskopen hantierten, waren eine Ausnahme und nicht die Regel. Das auf Initiative von Kraepelin wenige Jahre später nach Alzheimer benannte Krankheitsbild verschwand für Jahrzehnte von der Bildfläche der Fachgemeinschaft. Die Irrenärzte der damaligen Zeit waren kurz darauf stattdessen mit einer Epidemie anderer Art beschäftigt. Während des Ersten Weltkriegs sammelten sich in den Lazaretten Tausende traumatisierter Soldaten, die aufgrund ihrer schrecklichen Erfahrungen unter seltsamen »Kriegsneurosen« litten – sie zitterten oder wiesen Lähmungserscheinungen auf. In dieser außerordentlichen Kriegssituation stand die Medizin unter staatlichem Druck, die Kampffähigkeit der Soldaten schnellstmöglich wieder herzustellen und Simulanten ausfindig zu machen. Für den Wiener Irrenarzt Siegmund Freud jedoch, der die »Mikroskopie der Psyche« (Hacking 2001: 252) begründet hatte, manifestierten sich in den Verhaltensauffälligkeiten »seelische Tiefenvorgänge« (Freud 1921), ausgelöst durch traumatische Erfahrungen. Seine Forschungen zu Hysterien und Neurosen fundierten ein Syndrom, das Jahrzehnte später als »Posttraumatic Stress Disorder« (PTSD) in die Diagnosehandbücher aufgenommen wurde.

1

Mit Nennung der männlichen Funktionsbezeichnung ist in diesem Buch, sofern nicht anders gekennzeichnet, immer auch die weibliche Form mitgemeint.

10 | ZWISCHEN GEIST UND G EHIRN

Auf den ersten Blick scheinen die beiden Krankheitsphänomene nichts miteinander gemein zu haben. Im einen Fall handelt es sich um eine neurologische Erkrankung des Gehirns, die zu einem völligen Verlust aller intellektuellen Fähigkeiten führt. Im zweiten Fall um eine Störung der Psyche, die als Folge schrecklicher Leidenserfahrungen auftritt. Nicht von ungefähr galten Freud und Alzheimers Förderer Kraepelin als die großen Antipoden der damals noch jungen Psychiatrie. Auf den zweiten Blick offenbart sich jedoch eine wichtige Schnittmenge: Beide Syndrome, so verschieden sie sind, gelten als Krankheiten des Gedächtnisses. Seit der Antike zieht die mysteriöse Fähigkeit, Ereignisse aus der Vergangenheit in der Vorstellung wachzurufen, Dichter und Schriftsteller, Kulturwissenschaftler und Mediziner, Juristen und Politiker in ihren Bann. Es heißt, sein reichhaltiges Erinnerungsvermögen sei das, was den Menschen erst zum Menschen macht und ihn von den Tieren abhebt. Jede Kulturepoche pflegt ihre typischen Erinnerungsrituale und prägt eigene Gedächtnismetaphern (vgl. Draaisma 2000). Hatten bis zur Renaissance und in die frühe Neuzeit hinein Philosophen und Rhetoriker/Mnemotechniker die Deutungshoheit inne, wurden ab der zweiten Hälfte des 19. Jahrhunderts Wissenschaftler tonangebend. Unabhängig voneinander begannen sich mehrere wissenschaftliche Strömungen (experimentelle Psychologie, Neurologie und Psychoanalyse) mit dem Erinnerungsvermögen und seinen Pathologien zu beschäftigen, um die zugrunde liegenden Prozesse zu entschlüsseln, zu kontrollieren und zu beeinflussen. Das Gedächtnis wandelte sich dabei in eine messbare neurobiologische Entität und gilt heute als zentraler Aspekt geistiger Fitness – beredtes Zeugnis legen davon die vielen Übungen zum ›Gehirnjogging‹ ab, mit denen man seine »Neuronen immer in Bewegung halten« könne. Die wissenschaftliche Auseinandersetzung mit dem Gedächtnis war von Beginn an eng an die Erforschung pathologischer oder gestörter Gedächtnisfunktionen gekoppelt. Die aktuelle Liste der Syndrome, bei denen Störungen des Gedächtnisses zur Symptomatik gehören, ist lang. Die Alzheimer-Demenz (AD) und die Posttraumatische Belastungsstörung stechen dabei heraus: zum einen, weil es sich hier um zwei prototypische Gedächtnispathologien handelt, die aufgrund ihrer historischen Wurzeln in einem paradigmatischen Gegensatz zueinander stehen; zum anderen, weil diese Diagnosen darüber hinaus wegen aktueller gesellschaftlicher Entwicklungen besonders im gesundheitspolitischen Fokus sind. Demenzen gelten als die große Gesundheitsherausforderung einer immer älter werdenden Bevölkerung, als »Epidemien des 21. Jahrhunderts«. Die Diagnose »PTSD« ist weniger in Seniorenheimen als vielmehr in Gerichtssälen und politischen Administrationen ein hochbrisantes Thema: Viele Menschen sind durch Kriegserfahrungen oder Missbrauch traumatisiert. Sie hoffen auf eine An-

E INLEITUNG |

11

erkennung ihres Leidens und auf die damit verbundene juristische und finanzielle Wiedergutmachung (vgl. Will 2009). Sowohl bei AD als auch bei PTSD handelt es sich um Zivilisationskrankheiten, um feinfühlige Seismografen für den Umgang unserer Gesellschaft mit ihren Widersprüchen und Abgründen. Die Biomedizin, die diese Störungen ganz oben auf ihre Forschungsagenda gesetzt hat, ist untrennbar in diese soziopolitischen Kontexte verstrickt. Viel Geld und Hoffnungen werden in die Forschung gesteckt. Die Theorien und Methoden, die dabei herauskommen, prägen die Lebenswirklichkeit und Vorstellungswelt vieler Menschen. Seit den 1990er Jahren, die von George Bush sen. zum »Jahrzehnt des Gehirns« ausgerufen wurden, lässt sich eine beispiellose Evolution der Forschungswerkzeuge beobachten, mit denen sich Individuen und ihre Gehirne abbilden, behandeln und verändern lassen. Dank ausgefeilter molekularbiologischer Methoden ist es heute möglich, bei genetisch veränderten Tiermodellen die molekulare Maschinerie subtil zu beeinflussen, um so Aufschlüsse über die genetischen Grundlagen von Gedächtnisprozessen zu erhalten. Und mithilfe der funktionellen Bildgebung kann dem menschlichen Gehirn, wie es heißt, »direkt bei der Arbeit« zugesehen werden, ohne dass komplizierte Eingriffe nötig wären. Die Entwicklung hin zu reduktionistischen, experimentellen sowie evidenzbasierten Methoden ist natürlich nicht auf das Feld der biomedizinischen Gedächtnisforschung beschränkt, sondern Teil einer umfassenderen Dynamik, welche die Medizin und Lebenswissenschaften erfasst hat – eine Entwicklung, deren Ursprünge bis in die 1950er Jahren zurückverfolgt werden können und die unter dem Schlagwort »Biomedikalisierung« gefasst wird (vgl. Cambrosio/Keating 2004). Diese Verschiebung hat jedoch im Bereich der Gedächtnisforschung eine besondere Brisanz. Wie die Debatten um den freien Willen oder »Neuro-Cognitive Enhancement« zeigen, wird in der Gesellschaft kontrovers über die Folgen der Biologisierung des Menschen und seiner psychischen Aspekte diskutiert. Die Entwicklung hat das Potenzial, das Selbstverständnis nicht nur von Individuen, sondern der ganzen Gesellschaft zu revolutionieren. Viel steht auf dem Spiel: Es geht um uns selbst, um die Frage, welches die angemessenen Kategorien sind, uns als Personen zu beschreiben. Dass dieser Kampf um Deutungshoheit auf einer wissenschaftlichen Ebene geführt wird, ist ein typisches Symptom unserer Zeit. Ian Hacking hat die faszinierende These aufgeworfen, dass die verstreuten Wissenschaften vom Gedächtnis »in der ganz bewussten Absicht geschaffen wurde[n], die Seele zu säkularisieren« (Hacking 2001: 12). Hier setzt meine Arbeit an. Auf der Basis von 22 qualitativen Experteninterviews2 gehe ich der Frage nach, wie die Wissenschaft 2

Ich gehe im ersten Kapitel vertieft auf die Methoden dieser Arbeit ein.

12 | ZWISCHEN GEIST UND G EHIRN

den kulturell aufgeladenen Gegenstand »Gedächtnis« dingfest zu machen versucht. Welche Verfahren und Werkzeuge werden eingesetzt, um das Phänomen in einen objektiven Gegenstand des Wissens und der Erkenntnis zu verwandeln? Welche »riskanten Verwicklungen« (Latour 2001) zwischen Geist und Gehirn, zwischen Natur und Kultur und zwischen Wissenschaft und Gesellschaft lassen sich beobachten? Mein Fokus liegt dabei auf den beiden Krankheitskategorien AD und PTSD, die in vielerlei Hinsicht exemplarisch für die biomedizinische Gedächtnisforschung sind: Sie befinden sich an den Schnittstellen von verschiedenen wissenschaftlichen Disziplinen, von Politik und Gesellschaft. Sie sind das Produkt von dynamischen Praktiken und Diskursen, in denen diese Schnittstellen neu verhandelt werden. Nicht zuletzt stehen sie aufgrund ihrer historischen Entstehungskontexte in einem für das Gedächtnisthema charakteristischen Gegensatz zueinander. Meine Absicht ist, über eine Gegenüberstellung dieser beiden (in sich weder abgeschlossenen noch homogenen) Felder die Vielfalt, aber auch die Konvergenzen biomedizinischer Forschungspraktiken zum Gedächtnis multiperspektivisch herauszuarbeiten.

D IE K RANKHEITEN 3 Die Alzheimer-Demenz ist eine neurodegenerative Erkrankung, die progressiv voranschreitet und zum völligen Verlust aller kognitiven, emotionalen und sozialen Fähigkeiten führt. Mit einem Anteil von ca. 65 Prozent ist sie die häufigste Demenzform. Auffallend in der biomedizinischen Verhandlung dieser Krankheit ist die Fixierung auf den Gedächtnisschwund, der im Krankheitskonzept verankert ist, aber auch im subjektiven Erleben der Patienten zum Ausdruck kommt. AD ist im Volksmund als Pathologie der Erinnerung, als das »große Vergessen« (stern 49/2007) bekannt, das Menschen bei lebendigem Leibe ihrer Persönlichkeit beraubt. Zwar lässt sich die Krankheit bislang erst nach dem Tod durch eine Hirnautopsie zweifelsfrei feststellen, als wichtigstes Diagnosekriterium ist dennoch sowohl im aktuellen »Diagnostic and Statistical Manual of Mental Disorders« (DSM) als auch im »International Classification of Diseases« (ICD), den beiden maßgeblichen Diagnosemanualen,4 eine fortschreitende Abnahme der

3

Dieser Abschnitt basiert im Wesentlichen auf Kehl 2008.

4

Das DSM wird von der »American Psychiatric Association«, der ICD von der WHO herausgegeben. Ich beziehe mich in dieser Arbeit hauptsächlich auf den USamerikanischen DSM. Vor allem, weil er sich für die Entwicklung der Krankheitska-

E INLEITUNG |

13

Gedächtnisleistung vermerkt.5 Im Zentrum der Diagnostik steht demnach die Bestimmung der Gedächtnisleistung, was meistens in sogenannten »Gedächtniskliniken« durchgeführt wird. Die Gedächtnisstörungen sind allerdings in den wenigsten Fällen so offensichtlich wie in dem viel zitierten Gespräch zwischen Alois Alzheimer und seiner Patientin Auguste Deter: »Wie heißen Sie? Auguste. Wie heißt Ihr Mann? Ich glaube Auguste.« Alois Alzheimer entdeckte mithilfe der Färbetechnik der Silberimprägnation zum ersten Mal die neuropathologischen Merkmale der Krankheit: die intrazellulären Neurofibrillenbündel (Tangles) und die extrazellulären senilen Plaques, die sich aus dem Beta-Amyloidpeptid (Amyloid-Beta) zusammensetzen. Diese Eiweißablagerungen breiten sich nach heutigem Kenntnisstand progressiv im Gehirn aus und führen zu den neurodegenerativen Prozessen, die sich im Endstadium als Demenz manifestieren. AD gilt heute als das Paradigma einer Gehirnstörung, die Geschichte des Krankheitskonzeptes verlief jedoch keineswegs geradlinig (vgl. Whitehouse et al. 2003; Ballenger 2006). Biologische Krankheitsmodelle setzten sich erst relativ spät durch, unter anderem deshalb, weil hirnpathologische Merkmale und klinische Symptome nicht eindeutig miteinander korreliert sind (Snowdon 2003). Erst in den 1980er Jahren, als die Struktur der krankheitstypischen Eiweißablagerungen molekularbiologisch entschlüsselt werden konnte, kam es zu dem bis heute anhaltenden Durchbruch der biologischen Perspektive. Die Molekularbiologie löste die Neuropathologie und die Neurochemie als die bestimmenden Disziplinen ab und es wurden die ersten transgenen Mausmodelle entwickelt, mit deren Hilfe die neuropathologischen Prozesse systegorien AD und besonders PTSD maßgeblicher war als der ICD. Aufgrund seiner klareren Kriterien hat sich der DSM vor allem im Forschungskontext international als Referenz durchgesetzt. Seit Erscheinen des DSM-III im Jahre 1980 wurde das Manual insgesamt dreimal revidiert: DSM-III-R (1989), DSM-IV (1994), DSM-IV-TR (2000). Die Ausgabe des DSM-5 ist für 2013 angekündigt (Stand: Ende 2010). 5

Die Diagnostik der Krankheit erfolgt im Rahmen einer Ausschlussdiagnose. Das heißt, es muss in umfangreichen Abklärungen ausgeschlossen werden, dass keine anderen neurologischen oder psychischen Erkrankungen vorliegen. Dabei kommen unter anderem bildgebende Verfahren, Blut- und Liquoruntersuchungen zum Einsatz. Konkret fordern die aktuellen Diagnosekriterien im DSM-IV-TR: (A) multiple kognitive Defizite, die (B) zu schweren Beeinträchtigungen im Alltag der Betroffenen führen sowie (C) progressiv voranschreiten. Die Gedächtnisdefizite dürfen (D) weder über andere neurologische oder Suchterkrankungen erklärbar sein, noch (E) exklusiv während eines Deliriums auftreten oder (F) auf eine andere psychiatrische Störung wie Schizophrenie oder Depression zurückgehen.

14 | ZWISCHEN GEIST UND G EHIRN

tematisch untersucht werden konnten. Dies hat zu einer dominanten Stellung von Tierexperimenten im Forschungskontext sowie einer Verengung auf endogene Krankheitsursachen geführt – vor allem die Plaques zählen seither zu den Drehund Angelpunkten der Krankheit. Entsprechend versucht die Alzheimerforschung, das demenzielle Vergessen vornehmlich auf einer molekularen Ebene zu erklären und zu therapieren. Heute ist das Bild einer Hirnkrankheit, die am erfolgreichsten mit experimentellen Methoden zu erforschen ist, fest etabliert. Noch bis in die 1960er Jahre unterschied die Medizin streng zwischen der Alzheimer’schen Krankheit einerseits (der »präsenilen Demenz«, an der wohl Auguste D. erkrankt war) und der »senilen Demenz« andererseits, die man als eine natürliche Folge des Alterungsprozesses auffasste (Maurer/Maurer 1998). Die intensiven molekularbiologischen Forschungen seit den 1980er Jahren legen zwar nahe, dass man es bei der erblichen Frühform und der sporadisch auftretenden Spätform, die erst bei über 60-Jährigen auftritt, mit ein und derselben Krankheitsentität zu tun hat (Mann et al. 1984). Dennoch ist die Abgrenzung Gegenstand laufender Debatten. Während man bei der seltenen Frühform genetische Faktoren mit hoher Penetranz kennt, liegen die Ursachen der Spätform weitgehend im Dunkeln. Inzwischen hat sich die Erkenntnis durchgesetzt, dass die Spätform zu den sogenannten multifaktoriellen Krankheiten gehört, deren Verlauf durch ein bislang nur rudimentär entschlüsseltes Zusammenspiel von genetischen Risikofaktoren und vielfältigen Umwelteinflüssen gesteuert wird. Zu den wichtigsten Risikofaktoren zählt das Alter: Das Erkrankungsrisiko verdoppelt sich etwa alle fünf Jahre (BMBF 2004), und man schätzt, dass sich durch die zunehmende Lebenserwartung die Zahl der Demenzpatienten in Deutschland von heute etwa 1,1 Millionen bis zum Jahr 2050 ungefähr verdoppeln wird (Schmidt 2009). Die Politik fördert den »Kampf gegen das Vergessen« (BMBF 2004) mit entsprechend großem Einsatz.6 Da bislang wirksame Behandlungsmöglichkeiten fehlen und die krankhaften Prozesse Jahrzehnte beginnen, bevor die ersten klinischen Symptome auftreten, stehen Fragen der Prävention, vor allem aber eine Verbesserung der Frühdiagnose im Forschungsmittelpunkt. Das Ziel ist, die fließenden Grenzen zwischen dem normalen Alterungsprozess und pathologischen Prozessen mit neuen Krankheitskonzepten und biomedizinischen Technologien klar festzulegen. 6

2009 wurde zum Beispiel in Bonn das »Deutsche Zentrum für Neurodegenerative Erkrankungen« gegründet. Als eines der 16 Helmholtz-Zentren »bündelt [es] bundesweit die wissenschaftliche Kompetenz auf dem Gebiet von Krankheiten wie Parkinson und Alzheimer«, vgl. http://www.helmholtz.de/helmholtz_zentren/zentrum/detailansicht/ deutsches_zentrum_fuer_neurodegenerative_erkrankungen_dzne/ (Stand: 7.2.2011).

E INLEITUNG |

15

Dreht sich die Forschungspraxis bei AD um hirnorganische Läsionen, so stehen bei der Posttraumatischen Belastungsstörung psychische Läsionen im Zentrum. Die Geschichte des Krankheitsbildes in seiner modernen Form begann in den 1970er Jahren. Damals entbrannte in den USA eine Diskussion um die Frage, wie mit den traumatisierten Vietnamveteranen und ihren psychischen Leiden umzugehen sei. Da keine offizielle Diagnose zur Verfügung stand, beschloss die »American Psychiatric Association« auf Druck der Veteranenverbände, eine Krankheitskategorie namens »Posttraumatic Stress Disorder« in die dritte Version des DSM aufzunehmen, das im Jahre 1980 erschien (American Psychiatric Association 1980).7 Die dort definierten Kriterien wurden in den folgenden Überarbeitungen des Manuals teilweise substanziell revidiert, was auf den bis heute umstrittenen Status der Krankheitsentität hindeutet (vgl. Rosen/Lilienfeld 2007). Nach der Definition muss PTSD durch ein akutes traumatisches Ereignis verursacht werden,8 das eine Angst- und Stressreaktion auslöst. Neben dem traumatischen Auslöser (Kriterium A), der in jedem Fall nachgewiesen werden muss, ordnen die Diagnosekriterien die Symptome in drei Cluster: Wiedererleben (Kriterium B) – in Form sich aufdrängender Bilder, Albträume etc. –, Vermeidungsverhalten (C) sowie erhöhte Reizbarkeit (D).9 Jeder dieser Symptomcluster beinhaltet insgesamt 17 Symptome, die keineswegs PTSD-spezifisch sind, sondern auch bei anderen Krankheiten wie Depressionen, Angststörungen etc. auftreten können.10 Erst die traumatische Erinnerung verleiht diesem heterogenen Symptomkomplex Kohärenz und Sinn und grenzt PTSD als Kategorie 7

Allan Young (1995) hat die Entstehungsgeschichte des Krankheitskonzepts detailliert

8

Natürlich unterliegt die Definition dessen, wann ein Ereignis schwer genug ist, um als

ethnografisch rekonstruiert. potenziell traumatisch zu gelten, einem weiten Interpretationsspielraum und damit einer gewissen Unschärfe. Im DSM-III war noch davon die Rede, dass der Stressor außerhalb normaler menschlicher Erfahrung liegen müsse, im DSM-IV wird die Bedrohung der physischen Integrität oder gar des Lebens – des eigenen oder das eines anderen – verlangt. Traumaforscher sehen diese Entwicklung durchaus kritisch, denn je nach Studie und zugrunde gelegter Traumadefinition gelten fast bis zu 90 Prozent der Bevölkerung als potenziell traumatisiert (vgl. McNally 2006). 9

Seit dem DSM-III-R müssen die Symptome zudem länger als einen Monat andauern (E) und seit dem DSM-IV gravierende Auswirkungen auf die Leistungsfähigkeit nach sich ziehen (F).

10 Um die Diagnose PTSD stellen zu können, muss aus jedem Cluster eine bestimmte Anzahl der Symptome vorliegen, sodass sich über tausend Symptomkonstellationen ergeben, die alle zur Diagnose führen können (Will 2009).

16 | ZWISCHEN GEIST UND G EHIRN

eindeutig von anderen Erkrankungen ab. Die Krankheit nimmt damit in den Diagnosehandbüchern eine auffällige Sonderstellung ein: Nicht die körperlichen Symptome, sondern die psychischen Ursachen sind das zentrale Definitionsmerkmal. Was die Plaques für die Alzheimer-Demenz sind, ist das traumatische Gedächtnis für PTSD: der ätiologische Dreh- und Angelpunkt der Störung. Der Traumabegriff hat eine wechselvolle Geschichte im Spannungsfeld von organischen und funktionellen Deutungsmustern (Fischer-Homberger 1999). Noch Mitte des 19. Jahrhunderts bezeichnete der Begriff ausschließlich eine physische Verletzung, eine Wunde also, und wurde dann gegen Ende des 19. Jahrhunderts – dem »Goldenen Zeitalter« der Gedächtnisforschung (Young 2000) – zu einer seelischen Verletzung umgedeutet. Die Diagnose PTSD kennt zahlreiche Vorläufer wie etwa die traumatische Hysterie, railway spine oder die Kriegsneurosen (shell shock) zur Zeit des Ersten Weltkriegs (vgl. Young/Rosen 2004), die alle im Kontext gesellschaftlicher Krisensituationen auftauchten. In der medizinischen Debatte darüber, wie solche Syndrome ätiologisch zu erklären sind, standen sich Ende des 19. Jahrhunderts bald zwei Lager gegenüber: Die einen plädierten für mikroskopische, unsichtbare organische Verletzungen, während andere wie der Hysterieforscher Charcot, vor allem aber dessen Schüler Janet und Freud, psychische Ursachen verantwortlich machten (vgl. Hacking 2001). Nach ihren einflussreichen psychodynamischen Theorien führt eine Traumatisierung zu innerpsychischen Konflikten, die gelöst werden, indem die traumatische Erinnerung vom Rest des Selbst abgespalten wird.11 Aufgrund dieser psychogenen Erklärungslogik orientierte sich die Psychiatrie bei der Erklärung und Behandlung posttraumatischer Krankheitsbilder hauptsächlich an psychotherapeutischen und psychoanalytischen Modell- und Therapieansätzen. Im Unterschied zu AD wurde den hirnphysiologischen Grundlagen der Traumatisierung im 20. Jahrhundert entsprechend wenig Beachtung geschenkt und experimentelle Verfahren hatten, bis vor Kurzem zumindest, nur einen geringen Einfluss auf die Krankheitskategorien. Dies ändert sich gerade deutlich. Die Traumaforschung zeigt ein wachsendes Interesse an den neurobiologischen Grundlagen der posttraumatischen Angstund Stressreaktion. Vor allem in Staaten wie den USA oder Israel, in denen 11 Freud und Janet postulierten aber unterschiedliche psychische Mechanismen: Während Freud von der aktiven Verdrängung ins Unbewusste ausging, war Janet von einer passiven Abspaltung oder Dissoziation überzeugt. Diese Differenzen fallen allerdings nur marginal ins Gewicht vor dem Hintergrund der Tatsache, dass in beiden Konzeptionen erstmals die Idee von Trauma als einer pathogenen Erinnerung zementiert wurde, die dem Selbst nicht mehr bewusst zugänglich ist.

E INLEITUNG |

17

PTSD aufgrund von Krieg und Terror riesige Gesundheitskosten verursacht, werden seit Jahren große Summen in die neurowissenschaftliche Grundlagenforschung investiert. Da sich die Präsenz der Krankheit in der deutschen Öffentlichkeit lange Zeit bescheidener ausnahm, hinkte die Entwicklung im Forschungsbereich hinterher. Die Bürgerkriege im damaligen Jugoslawien und die damit verbundene Flüchtlingswelle haben jedoch auch hierzulande zu einer Sensibilisierung für das Problem geführt und zu einer Intensivierung der Forschungsbemühungen (vgl. Will 2009). Ganz oben auf der internationalen Forschungsagenda steht das Rätsel, warum nur ein geringer Teil von traumatisierten Personen anschließend an einer PTSD erkrankt (Yehuda/LeDoux 2007). Man vermutet, dass biologische Risikofaktoren eine wichtige Rolle spielen, und sucht nach Mitteln, mit denen man medikamentös in den Krankheitsverlauf eingreifen kann. Da die zur Verfügung stehenden Tiermodelle umstritten sind, steht die Grundlagenforschung derzeit aber noch auf viel wackligeren Füßen als im Alzheimerbereich. Im Vergleich zu AD bildet PTSD ein wesentlich zerklüfteteres Forschungsfeld, in dem neben den aufstrebenden Bio-Experten auch PsyExperten maßgeblichen Einfluss haben.

F RAGESTELLUNG Die aktuellen Krankheitskategorien AD und PTSD spiegeln deutlich die Forschungsentwicklungen der letzten 25 Jahre wider. In diesen zweieinhalb Jahrzehnten waren bei beiden Pathologien sowohl die Diagnosekriterien als auch die ätiologischen Zusammenhänge oder geeignete therapeutische Maßnahmen Gegenstand heftiger wissenschaftlicher Kontroversen. Vor allem aufgrund der rasanten biotechnologischen Innovation ist es in den letzten Jahren zu einer immer stärkeren Diversifizierung der Forschungspraktiken gekommen. Die beiden Forschungsfelder sind unübersichtlich und fragmentiert, darüber hinaus befinden sie sich in ständiger Bewegung. Der Beobachter trifft auf ein Konglomerat ausdifferenzierter Forschungskontexte, die sich ihren Phänomenen – von den neuronalen Korrelaten bis hin zu komplexen psychischen Funktionen – auf unterschiedlichen Analyseebenen, mit je eigenen Methoden und Instrumentarien annähern. Ein Blick in die weitverzweigte und kaum überschaubare Literatur offenbart eine Pluralität der Definitionen, Konzepte und Konstrukte. Dass das Gedächtnis unlängst als eine »Konvergenzzone« zwischen den Disziplinen bezeichnet wurde (Markowitsch/Welzer 2006), macht deutlich, wie kleinteilig das Feld der Gedächtnisforschung inzwischen geworden ist.

18 | ZWISCHEN GEIST UND G EHIRN

Mit ihrem ebenso heterogenen wie dynamischen Charakter ist die biomedizinische Gedächtnisforschung für viele Bereiche der »Postgenomik« (vgl. Rheinberger/Müller-Wille 2009) paradigmatisch. Das Feld stellt insofern eine Fundgrube für medizinanthropologische, ethnografische und wissenschaftstheoretische Forschungsfragen dar. Unter Medizinanthropologen wie Joseph Dumit, Margaret Lock oder Allan Young und anderen gelten AD und PTSD als Diagnosen, deren medizinische Entwicklungen eine starke kulturelle Prägung aufweisen. Die Arbeiten dieser Wissenschaftler kreisen um die Frage, welche Wirklichkeiten biomedizinische Kategorien erzeugen und welche gesellschaftlichen und individuellen Vorstellungen von Normalität und Pathologie daraus resultieren. Ich werde in dieser Arbeit immer wieder auf medizinanthropologische Analyseraster zurückgreifen, um die Wechselwirkungen zwischen biomedizinischer Forschungspraxis und Gesellschaft zu thematisieren. Im Anschluss an Foucault werden beispielsweise machtanalytische Fragen virulent. Trotzdem ist dies im Kern keine medizinanthropologische Studie. Denn im Vordergrund steht nicht die kulturelle Dimension von Gesundheit und Krankheit, sondern die biomedizinische Forschungspraxis und ihre Dynamik. Das heißt, ich interessiere mich primär für die Werkzeuge und »Experimentalsysteme« (Rheinberger 2001), die in Laboren und Kliniken der Gedächtnisforschung zum Einsatz kommen. Und ich frage nach den »epistemischen Dingen« (Rheinberger 2001), die damit fabriziert werden. Es stellt sich die Frage, welche Theorien und Analysemodelle zur Verfügung stehen, um ein heterogenes Forschungsfeld wie dasjenige der Gedächtnisforschung zu untersuchen. Mit den Science and Technology Studies (STS) hat sich seit den 1970er Jahren im Bereich der Wissenschaftsforschung eine interdisziplinäre Forschungsrichtung herausgebildet, die sich das Studium technowissenschaftlicher Praxis auf ihre Fahnen geschrieben hat. STS-Forscher stützen sich unter anderem auf ethnografische Methoden, um etwa die »Fabrikation von Wissen« (Knorr-Cetina 1984) zu untersuchen. Dabei orientieren sie sich in der Regel gerade nicht, wie es soziologische und theoretische Wissenschaftsforscher vor ihnen getan hatten, an gültigen wissenschaftlichen Fakten. Vielmehr nehmen sie aus einer symmetrischen Perspektive die hybriden Praxisfelder in den Blick, die der Faktenproduktion zugrunde liegen (Beck 1997; Latour 1995; Rheinberger 2001). Symmetrisch wird diese Perspektive deshalb genannt, weil sie bislang leitende Dichotomien über Bord wirft, etwa zwischen Wahrheit und Falschheit, zwischen Subjekt und Objekt, zwischen Natur und Kultur, zwischen Wissenschaft und Gesellschaft. Der Fokus liegt darauf, empirisch nachzuzeichnen, was sich tut und wie es getan wird, ohne sich anhand vorgefasster Analysekategorien vorschnell auf bestimmte Wesenheiten einzugrenzen. Das Feld der STS grenzt

E INLEITUNG |

19

sich damit von anthropologischen Fragestellungen ab, die das Hauptaugenmerk traditionell auf die »symbolic realities« (Kleinman 1980: 43) gelegt und Körper, Krankheit und Kultur nicht in ihrer materiellen Dimension problematisiert haben (vgl. Beck 2008; Scheper-Hughes/Lock 1987). Für eine empirische Analyse der biomedizinischen Gedächtnisforschung, die in dieser Arbeit vorgenommen wird, ist dies ein fruchtbarer Blickwinkel. Denn es soll ja gerade untersucht werden, was es heißt, das Gedächtnis als wissenschaftlichen Gegenstand zu konstruieren: Welche natürlichen Dinge und kulturellen Artefakte tauchen in experimentellen Netzwerken auf? Wie wird die brisante Grenze zwischen Geist und Körper im Forschungsprozess gezogen? Dualistische Prämissen wie die cartesianische Unterscheidung zwischen Geist und Körper wären ein denkbar schlechter Ausgangspunkt dafür, da sie die hybriden soziotechnischen Gebilde, in deren Zusammenhang sich wissenschaftliche Objekte mit ihren Eigenschaften konstituieren, anhand vorbestimmter Gegensätze essenzialisieren. Mit anderen Worten, inwiefern das epistemische Objekt »Gedächtnis« eine psychische oder biologische Entität darstellt, bildet den Endpunkt und nicht den Ausgangspunkt der Analyse. Die STS bilden heute ein weit gefächertes und heterogenes Forschungsfeld, das sich aus teilweise konkurrierenden Analyseansätzen zusammensetzt. Wenn es einen gemeinsamen Berührungspunkt gibt, dann ist es die scharfe Abgrenzung von der klassischen, erkenntnistheoretisch ausgerichteten Wissenschaftsphilosophie. Wissenschaftstheoretiker in der Tradition von Carnap oder Popper haben im 20. Jahrhundert das Nachdenken über Wissenschaft lange Zeit bestimmt. Sie trennten die theoretische Begründung von Wissen fein säuberlich von seinem empirischen Entstehungskontext und hielten Letzteren für weitgehend irrelevant, um das Wesen von Wissenschaft zu fassen. Mit der Herausbildung der empirischen Wissenschaftsforschung ab Beginn der 1970er Jahre entsteht ein alternatives Bild, das den Akzent auf das Prozesshafte statt das Systemimmanente legt. Die praxiszentrierte Analysematrix der STS-Forschung bildet quasi den expliziten Gegenentwurf zu einem positivistischen, um zeitlose Prinzipien kreisenden Wissenschaftsverständnis. Das Schisma der Wissenschaftsforschung in empirisch-soziologisch und theoretisch-philosophisch ausgerichtete Forschungsprogramme wirkt bis heute nach, eine Entwicklung, die nicht unproblematisch ist. Der in vielerlei Hinsicht untypische Wissenschaftsphilosoph Ian Hacking etwa stimmt zwar darin überein, dass nicht »wie wir denken, sondern was wir tun, […] letztlich den Ausschlag« gibt (Hacking 1996a: 60). Diese »praktische Wende« (Rheinberger 2007a: 11) bedeutet für ihn jedoch nicht, dass Theorien obsolet würden, denn »Naturwissenschaft [ist] das Abenteuer der Verzahnung von Darstellung und Eingreifen«, so Hacking (1996a: 246). Seit die theoretische Physik

20 | ZWISCHEN GEIST UND G EHIRN

ihren Status als wissenschaftsphilosophische Leitwissenschaft verloren hat, beginnt sich die Wissenschaftstheorie verstärkt für dieses Abenteuer zu interessieren. Neben Hacking vertreten viele Philosophen inzwischen die Ansicht, dass ein enger Zusammenhang besteht zwischen dem Intervenieren und Experimentieren auf der einen Seite und der Theorieentwicklung auf der anderen Seite, also dem Schärfen und Abgrenzen von Begriffen, dem Aufstellen und Rechtfertigen von Kausalmodellen und -erklärungen. Auch verschiedene empirische Wissenschaftsforscher treiben ähnliche Fragen um – zentrale Konzepte wie epistemisches Ding (Rheinberger 2001), epistemische Praxis (Knorr-Cetina 2001) oder epistemische Kultur (Knorr-Cetina 1999) deuten darauf hin. Aus einer praxistheoretischen Perspektive wurde diese Schnittstelle aber bislang kaum systematisch thematisiert. Was das angeht, beschreite ich weitgehendes Neuland. Ich setze mich in den folgenden Kapiteln mit empirischen und theoretischen Analyseansätzen auseinander, um die grundlegende Programmatik zu entwickeln und plausibel zu machen. Mein generelles Forschungsinteresse geht damit über eine rein empirische Analyse hinaus, indem das Verständnis von wissenschaftlicher Praxis erweitert wird: Praxis setzt sich nach meiner Auffassung in konstitutiver Weise sowohl aus empirischen als auch aus theoretischen Elementen zusammen. Das Ziel ist, die Wechselwirkung zwischen materiellen und begrifflichen Bedingungen, unter denen biomedizinische Fakten über das Gedächtnis entstehen, differenziert zu untersuchen. Welche epistemischen Strategien verfolgen Gedächtnisforscher im Umgang mit ihrem Forschungsgegenstand, zum Beispiel beim Planen neuer Experimente? Wie wird erklärt und welchen Einfluss haben Instrumente und Materialitäten darauf? Wie viel Theorie tragen die Forschungswerkzeuge mit sich herum? Hinter diesen Fragen steckt das Anliegen, das lang anhaltende Schisma der Wissenschaftsforschung zu überbrücken, um eine fruchtbarere Auseinandersetzung mit der Forschungspraxis zu ermöglichen.

G LIEDERUNG Die vorliegende Arbeit untersucht zwei brisante Grenzzonen der biomedizinischen Gedächtnisforschung: Anhand der Alzheimer- und PTSD-Forschung analysiere ich erstens die empirische Struktur der biomedizinischen Praxis (zweites, viertes und fünftes Kapitel), die ihre besondere Tragweite vor dem Hintergrund der Schnittstelle zwischen Geist und Gehirn gewinnt. Im Rahmen dieser empirischen Untersuchung setze ich mich zweitens mit der Frage auseinander, wie theoretische und empirische Aspekte der biomedizinischen Forschungspraxis inter-

E INLEITUNG |

21

agieren und wie eine Praxisanalyse aussehen könnte, die diese Nahtstelle ernst nimmt (erstes, drittes und sechstes Kapitel). Es sei noch darauf hingewiesen, dass einige Ergebnisse der Studie bereits an anderer Stelle veröffentlicht wurden und hier in ergänzter und überarbeiteter Form abgedruckt werden.12 Das erste Kapitel »Die Praxis der Theorie, die Theorie der Praxis« rekonstruiert eine spezifische Entwicklungslinie der STS, die von dem wissenschaftssoziologischen Strong Programme zu poststrukturalistischen Akteur-NetzwerkAnsätzen führt. Es wird deutlich, wie sich empirische und epistemologische Stränge der Wissenschaftsforschung zunehmend auseinanderdividiert haben. Während die lange Zeit dominierende philosophische Wissenschaftstheorie dem Primat der Theorie nachhängt, entstehen mit der Ausdifferenzierung des STSFeldes praxistheoretische Perspektiven auf Wissenschaft, deren empiristisches Ethos in einigen Ansätzen auf die Spitze getrieben wird. Vor dem Hintergrund der fachinternen Auseinandersetzungen und aktueller Entwicklungen in der Philosophie lege ich meine Gründe dar, wieso ich diese ideologisch motivierte Ausgrenzung theoretischer Fragestellungen für problematisch halte. Mit Andrew Pickerings Praxismangel stelle ich einen pragmatistisch inspirierten Analyseansatz vor, der das Potenzial hat, diese beiden Aspekte der Wissenschaftspraxis im Rahmen einer posthumanistischen Praxisanalyse miteinander zu versöhnen. Welche Anforderungen erfüllt dieser Ansatz? Er charakterisiert theoretische Aspekte von Wissenschaft zum einen als einen essenziellen Bestandteil der Forschungskultur. Mit anderen Worten, die Produkte wissenschaftlicher Darstellungspraxis (Theorien) stehen für Pickering nicht außerhalb der kulturellen Praxis, indem sie etwa in einen Raum der Ideen verschoben werden, wo sie rein logischen, zeitlosen Prinzipien gehorchen. Zum anderen wird die Darstellungspraxis aber nicht einfach auf die empirische Praxis reduziert, weil nur durch die Anerkennung ihrer charakteristischen Merkmale ihr Einfluss auf das Handeln von menschlichen Akteuren geltend gemacht werden kann. Das Kapitel, das als Theoriekapitel konzipiert ist, schließt mit einer kurzen Methodendiskussion. Die Frage, wie eine solche integrative Analyse zwischen Theorie und Empirie methodisch umgesetzt werden kann, stellt sich umso mehr, als empirische und theoretische Traditionen der Wissenschaftsforschung auf völlig unterschiedliche Verfahren zurückgreifen. Das Schisma zwischen STS und Wissenschaftsphilosophie ist nicht zuletzt auch methodisch begründet. 12 So flossen Auszüge aus Kehl 2008 in die Einleitung (Abschnitt »Die Krankheiten«) und in das fünfte Kapitel ein (Teile der Abschnitte »Endophänotypen« und »Gedächtnispolitik«), Auszüge von Kehl/Mathar 2012 in das erste Kapitel (Teile des Abschnitts »Vom Primat der Theorie zum Primat der Praxis«).

22 | ZWISCHEN GEIST UND G EHIRN

Die Darlegung der Methoden dieser Studie leitet über zu dem eigentlichen Empirieteil der Arbeit, der mit dem zweiten Kapitel »Der vermessene Geist« beginnt. Mein Ausgangspunkt ist ein schlaglichtartiger (und keinesfalls erschöpfender) Überblick über einige Forschungsprogramme der biomedizinischen Gedächtnisforschung, der einen Eindruck von der Heterogenität und Diversität des Feldes vermitteln soll. Ich werde argumentieren, dass sich die Gedächtnisforschung schwerlich als eine homogene Forschungskultur charakterisieren lässt, sondern dass der von Cambrosio und Keating geprägte Begriff der »biomedizinischen Plattform« der Struktur des Feldes angemessener ist. Der Überblick soll gleichzeitig die starken Biomedikalisierungstendenzen verdeutlichen: Die meisten Forschungsprogramme der Gedächtnisforschung kreisen heute um das Gehirn, eine Entwicklung, die selbst die Psychologie erfasst hat. Was macht all diese heterogenen Neuro-Forschungsgebiete zu genuinen Gedächtnispraktiken? Dieser Frage gehe ich im zweiten Teil des Kapitels nach. Meine Antwort lautet, dass die Psychologie trotz Biologisierung wider Erwarten eine Schlüsselrolle spielt. Anhand einer historischen Genealogie psychologischer Gedächtniskonzepte lässt sich zeigen, wie der abstrakte Gegenstand »Gedächtnis« durch die daran gekoppelte Ausdifferenzierung psychometrischer Verfahren operationalisierbar gemacht wurde. Im Sinne eines Akteur-Netzwerk-Ansatzes argumentiere ich, dass diese Verfahren nichts weniger leisten als die »Translation« (Callon) des ephemeren Phänomens in ein messbares, klar definiertes und damit wissenschaftliches Objekt. Gedächtnistests fungieren als »Standardized Packages« (Fujimura), welche die Komplexität des Gegenstandes und des psychologischen Übersetzungsprozesses erfolgreich verhüllen. Die Biologisierung des Gedächtnisses baut auf diesem methodischen Fundament auf – die Methoden, Instrumente und Objekte, die Biomediziner dabei zum Einsatz bringen, stehen im Mittelpunkt der folgenden Kapitel. Das dritte Kapitel »Tiermodelle« beschäftigt sich mit denjenigen Lebewesen, die aus dem biomedizinischen Forschungsalltag nicht mehr wegzudenken sind. Modellorganismen bilden die fundamentalen Arbeitseinheiten der Grundlagenforschung, an denen pathogenetische Mechanismen, aber auch neue therapeutische und diagnostische Verfahren erforscht werden. Die Entwicklung von Tiermodellen findet in den beiden Feldern AD und PTSD unter konträren Rahmenbedingungen statt, die ich aus einer historischen Perspektive beleuchte. Ich argumentiere, dass Modellorganismen im Rahmen einer epistemischen Praxis entstehen, in der theoretische und empirische Aspekte interaktiv aufeinander bezogen sind: Wesentlich ist einerseits die theoretische ›Natur‹ von Modellen, die bestimmte (natürlich immer unvollständige und kulturell geprägte) Krankheitsvorstellungen repräsentieren, vor deren Hintergrund sie ihre Validität gewinnen;

E INLEITUNG |

23

Tiermodelle tragen aber nicht nur Theorien mit sich herum, sie fungieren vor allem als Forschungsinstrumente, sodass die theoretischen Vorstellungen in einem empirischen Umfeld problematisiert werden können. Diese Problematisierung kann nur in einem klinischen Kontext grundlegend geschehen, wie ich im zweiten Teil des Kapitels zeige. Ich greife auf Pickerings Konzept der Praxismangel zurück, um am Beispiel der Amyloid-Plattform im Bereich der Alzheimerforschung die dialektischen Verwicklungen zwischen mechanistischen Krankheitshypothesen, den korrespondierenden Tiermodellen und klinischen Plattformen zu analysieren. Aufgrund ihrer Scharnierfunktion zwischen Labor und Klinik wie auch zwischen Theorie und Experiment fungieren die Alzheimermodelle als Triebkräfte einer Dynamik, in deren Verlauf das Feld insgesamt in Bewegung gerät: Tiermodelle und klinische Verfahren ebenso wie die biomedizinischen Krankheitskategorien und Kausalhypothesen befinden sich in einem mangelartigen Prozess der Ko-Produktion. Die Konstruktion eines Tiermodells geschieht selbstverständlich nicht aus reinem Selbstzweck. Vielmehr bilden Tiermodelle Ressourcen, die im Rahmen von Experimenten aktiviert werden. Das Tierexperiment ist spätestens seit den 1980er Jahren, als die molekularbiologische Revolution die Herstellung von transgenen Mäusen möglich machte, der hauptsächliche Motor der Biologisierung von Gedächtnis. Im vierten Kapitel mit dem Titel »Im Labor« gehe ich im Detail auf die Frage ein, wie Gedächtnisfakten tierexperimentell produziert werden. Im Anschluss an die Thesen des zweiten Kapitels, das die grundlegende Bedeutung psychometrischer Verfahren aufgezeigt hat, arbeite ich anhand eines weitverbreiteten Testparadigmas, des »Morris water maze«, Parallelen und Unterschiede zu den Messverfahren heraus, die bei Menschen zur Anwendung kommen. Als besonderer Vorteil von Tierversuchen gilt, dass Eingriffe in biologische Prozesse unter hochgradig kontrollier- und standardisierbaren Bedingungen durchgeführt werden können. Heißt das also, dass die Erforschung von Gedächtnisfunktionen beim Tier unter objektiveren Bedingungen stattfindet als beim Menschen? Ich werde zeigen, dass das Gegenteil der Fall ist. Der wichtigste Grund dafür ist der, dass das epistemische Objekt »Gedächtnis« beim Tier, bei dem die Möglichkeit sprachlicher Verständigung wegfällt, im Rahmen einer reinen Verhaltensanalyse konstruiert werden muss. Das macht es äußerst schwierig, im Messprozess Fakten von Artefakten zu unterscheiden, und die rigide Standardisierung psychometrischer Verfahren wird zum Problem. Im Anschluss an Annemarie Mol werde ich zeigen, dass es sich beim »Morris water maze« (und vergleichbaren Verhaltensparadigmen) um »fluide« Apparaturen handelt – eine Eigenschaft, die sie von den blackboxierten, streng standardisierten Testverfahren unterscheidet, die beim Menschen angewendet werden. Darauf aufbauend arbeite

24 | ZWISCHEN GEIST UND G EHIRN

ich im zweiten Teil des Kapitels die Folgen der Fluiditätsthese für die tierexperimentelle Objektivierung des epistemischen Objekts »Gedächtnis« heraus, wobei ich mich auf aktuelle Entwicklungen im Feld beziehe. Der »Morris water maze« gilt als ein hippokampusabhängiges Testparadigma, so wie die meisten der in Tierversuchen eingesetzten Messverfahren. Der Hippokampus, ein kleines Hirnareal im limbischen System, hat sich in den letzten Jahrzehnten als eines der wichtigsten »Spielobjekte« der biomedizinischen Gedächtnisforschung etabliert. Das fünfte Kapitel »Materialisierung der Seele« setzt sich mit der Frage auseinander, welche Entwicklungslinien zu dieser engen Verbindung von Hippokampus und Gedächtnis geführt haben und welche forschungspraktischen Strukturen sie aufrechterhalten. Dazu beleuchte ich zum einen aus einem wissenschaftshistorischen Blickwinkel die Experimentalpraktiken, in denen sich die mannigfaltigen Verschränkungen zwischen Hippokampus und Gedächtnis herauskristallisiert haben. Anschließend thematisiere ich aktuelle biomedizinische Forschungsstrategien, die dazu eingesetzt werden, Gedächtnispathologien im Gehirn zu lokalisieren. Dass der Hippokampus auch bei der PTSD-Forschung in den Vordergrund drängt, wie sich zeigt, scheint auf fundamentale epistemische Umwälzungen hinzudeuten: Auch bei diesem traditionell psychologisch verstandenen Krankheitsbild beginnen anatomische Deutungsmuster offenbar zu dominieren, was weitreichende Konsequenzen für Vorstellungen von Normalität und Pathologie hat. Diesen sowie machtanalytischen Fragen wende ich mich im zweiten Teil des Kapitels zu, in dem Hackings Überlegungen zur Gedächtnispolitik im Zentrum stehen. Ich versuche plausibel zu machen, dass die Rolle des Hippokampus als Forschungsattraktor der Gedächtnisforschung erst verständlich wird vor dem Hintergrund einer spezifischen gedächtnispolitischen Konstellation: Heterogene Praktiken der Lokalisierung, in denen sich der Hippokampus als Wissensobjekt herauskristallisiert hat, verbinden sich mit psychologischen Konzepten und westlichen Identitätsvorstellungen. Durch die Verknüpfung dieser Elemente bietet sich zum ersten Mal die Chance, das Selbst an einer konkreten Stelle im Gehirn zu verorten und wissenschaftlich greifbar zu machen, was die auffällige Anziehungskraft dieser Hirnregion erklärbar macht. Das Ergebnis ist aber nicht etwa die Reduktion von Geist auf Gehirn, die Materialisierung des Ich, sondern vielmehr die symbolische Aufladung eines hybriden Objekts, dessen Bedeutung weit über den biomedizinischen Horizont hinausweist. Es folgt das sechste und letzte Kapitel »Darstellen und Eingreifen im Zeitalter der Postgenomik«, das gewissermaßen das Pendant zum dritten Kapitel bildet. Hier wie dort lote ich das Wechselspiel von Theorie und Praxis aus. Während jedoch im dritten Kapitel die theoretischen Dimensionen von Forschungs-

E INLEITUNG |

25

instrumenten im Fokus stehen, drehe ich im sechsten Kapitel die Blickrichtung um und rücke stattdessen die praktischen Implikationen von theoretischen Modellen in den Vordergrund. Mein Fokus liegt auf mechanistischen Kausalerklärungen, welche die biomedizinische Szene derzeit dominieren. Der Kausalitätsbegriff gehört seit jeher zu den Kardinalthemen der Wissenschaftstheorie, Philosophen haben ihn jedoch in der Regel auf einer rein theoretischen Ebene analysiert. Wie die wissenschaftstheoretische Analyse mechanistischer Kausalerklärungen zeigt, gewinnen bei diesem Erklärungsparadigma die pragmatischen Kontexte an Gewicht. Im zweiten Teil des Kapitels wende ich mich der biomedizinischen Praxis zu. Der Hintergrund meiner Praxisanalyse bildet das sogenannte »Zeitalter der Postgenomik« (Rheinberger/Müller-Wille 2009), in dem deterministische Krankheitsmodelle zunehmend problematisiert werden. Mechanistische Weltbilder, die auf Manipulation und Kontrolle ausgerichtet sind, scheinen durch postgenomische Entwicklungen ins Wanken zu kommen. Es entstehen neue interaktionistische Forschungsansätze, die soziale, psychische und biologische Phänomene komplex miteinander vernetzen und damit neue Bilder von Geist und Körper produzieren. Um diese großflächigen Verschiebungen und ihre theoretischen Implikationen zu analysieren, wende ich mich zwei maßgeblichen Forschungskontexten der Gedächtnisforschung zu: nämlich zum einen dem funktionellen Neuroimaging, einer Praxis, die praktisch ausschließlich auf den Humanbereich beschränkt ist und in der Eingriffe in das biologische Substrat kaum eine Rolle spielen; und zum anderen epigenetischen Forschungen der präklinischen Grundlagenforschung, die fundamental auf manipulativen Methoden beruhen. Ausgehend von der Analyse dieser beiden Praxisfelder gehe ich der Frage nach, wie Kausalitäten unter unterschiedlichen forschungspraktischen Bedingungen Gestalt annehmen und welche Krankheitsmodelle resultieren. Das Ziel ist, die vielfältigen Rahmenbedingungen des postgenomischen Zeitalters und ihre Verstrickungen symmetrisch in den Blick zu nehmen. Damit will ich ein integratives Bild der Forschungspraxis entwerfen, in dem sich die wissenschaftliche Dynamik an den Reibungszonen zwischen Theoriebildung und empirischer Praxis entfaltet.

Die Praxis der Theorie, die Theorie der Praxis Theoretische und methodische Grundlagen

Der Philosoph Hans Reichenbach (1891–1953), Hauptfigur des positivistischen Berliner Kreises, begründete in seinen Schriften eine Unterscheidung, die sich als folgenschwer erweisen sollte: Er trennte den Entstehungskontext von Wissen von seinem Begründungskontext. In »Experience and Prediction« rechtfertigte er diese Unterscheidung mit der »well-known difference between the thinkers way of finding this theorem and his way of presenting it before a public« (Reichenbach 2006: 6). Es ging Reichenbach darum, Fragen der Genese von wissenschaftlichem Wissen strikt von den Normen zu trennen, an denen seine Validität gemessen wird. Popper bemerkt dazu: The question how it happens that a new idea occurs to a man – whether it is a musical theme, a dramatic conflict, or a scientific theory – may be of great interest to empirical psychology; but it is irrelevant to the logical analysis of scientific knowledge. (Popper 1959: 31)

Es ist umstritten, welche Reichweite Reichenbach selber seiner Unterscheidung zugestand (vgl. Glymour/Eberhardt 2008), entscheidend sind jedoch die Folgen. Reichenbachs Dichotomie setzte sich schnell fest und bestimmte das wissenschaftsphilosophische Denken bis in die 1980er Jahre. Es etablierte sich ein wohlstrukturiertes Schema des wissenschaftlichen Erkenntnisprozesses, der sich in zwei streng abgesonderten Kontexten abspiele: In einem ersten Schritt entsteht Wissen (oder Theorien, Ideen, Aussagen) durch mehr oder weniger zufällige Einfälle und im Rahmen handwerklicher Tätigkeiten, durch empirische Prozesse also, die sich einer logischen Analyse entziehen. Diesen Vorgängen logisch und/oder zeitlich nachgeordnet erfolgt die Begründung des in den praktischen

28 | ZWISCHEN GEIST UND G EHIRN

Kontexten erzeugten Wissens mithilfe von rationalen Kriterien, die im Rahmen der Erkenntnislogik beurteilbar sind.1 Für die Bestimmung der Wahrheit einer Aussage ist nur der Begründungskontext und mithin die philosophische Analyse entscheidend, nicht jedoch der Entstehungskontext, so das philosophische Credo. Vor dem Hintergrund der reichenbachschen Kontext-Dichotomie haben sich empirisch und epistemologisch orientierte Analyseansätze der Wissenschaftsforschung bis heute weitgehend auseinanderdividiert. Auf der einen Seite gibt es die klassische Wissenschaftstheorie, die den Fokus auf die theoretischen Aspekte von Wissenschaft legt. Wissenschaft wird als Tätigkeitsfeld beschrieben, das zum primären Ziel hat, wahre Beschreibungen der Realität zu produzieren – und das sich an der epistemologischen Gültigkeit dieser Beschreibungen messen lassen muss. Auf der anderen Seite steht die empirische Wissenschaftsforschung. Inspiriert durch Thomas Kuhn, der die Dichotomie von Begründungs- und Entstehungskontext explizit kritisierte (Kuhn 1976), bildete sich mit den STS ab den 1970er Jahren ein Forschungsfeld heraus, das sich von den wissenschaftstheoretischen Fragestellungen radikal abgrenzte. Wie die Rede von einem Feld deutlich machen soll, handelt es sich um keine eigenständige Disziplin, sondern um eine Forschungsrichtung, die ganz unterschiedliche disziplinäre Einflüsse (Soziologie, Anthropologie, Ethnologie, aber auch Philosophie oder Wissenschaftsgeschichte) aufweist. Das verbindende Band liegt darin, dass man die wissenschaftlichen Produktionskontexte in den analytischen Fokus rückt, oft verbunden mit der Ansicht, dass »die Rationalität […] in der Wissenschaft von geringer Bedeutung« ist (Hacking 1996a: 38). Empirische Wissenschaftsforscher interessieren sich dafür, wie Fakten in unterschiedlichen Situationen gemacht werden und nicht, wie sie begründet und erklärt werden. In diesem Kapitel geht es mir darum, in einem ersten Schritt diese Ausdifferenzierung nachzuzeichnen. Ich konzentriere mich dabei auf eine spezifische Entwicklungslinie, die vom Strong Programme (SP) über die Akteur-NetzwerkTheorie (ANT) zur Post-ANT führt. Diese Entwicklungslinie wurde nicht nur deshalb gewählt, weil die ANT derzeit zu den meistdiskutierten Forschungsansätzen im Bereich der STS gehört, sondern vor allem auch deshalb, weil sich 1

Hoyningen-Huene weist darauf hin, dass es sich bei der Kontext-Dichotomie im Grunde genommen um eine Vielzahl miteinander vermischter Unterscheidungen handelt, zwischen denen in den philosophischen Debatten selten klar differenziert wurde (Hoyningen-Huene 2006). So wird die Dichotomie manchmal auf einer zeitlichen, manchmal auf einer logischen, manchmal auf einer methodologischen Ebene abgegrenzt. Aus Gründen der Vereinfachung sehe ich hier über diese Spezifizierungen hinweg.

D IE PRAXIS

DER

THEORIE |

29

dieser Forschungsansatz besonders prägnant von einem allzu theorielastigen Wissenschaftsverständnis abgrenzt. Er baut, wie sich herausstellen wird, auf einem radikal empiristischen Ethos auf, welches das begriffliche Produkt von Wissenschaft, das Wissen, für nahezu irrelevant erklärt und den Fokus auf die materiell-semiotischen Prozesse richtet, in denen sich Fakten konstituieren. Kurzum, das Primat der Theorie wird durch das Primat der Praxis ersetzt. Im zweiten Teil des Kapitels werde ich darlegen, wieso ich diese Alternative für falsch halte. Ich werde ein vielschichtigeres Wissenschaftsbild vorschlagen, das praxistheoretische und epistemologische Fragen nicht gegeneinander ausspielt. Im Kern geht es mir um eine Offenlegung der Wechselwirkungen zwischen theoretischen und empirischen Voraussetzungen, unter denen Wissenschaft gemacht wird. Mit Pickerings Praxismangel stelle ich einen Analyseansatz vor, der das Potenzial hat, diese integrative Aufgabe zu leisten und den Graben, den Reichenbach geöffnet hat, zu schließen. Das Kapitel verlässt zum Ende hin die Theoriedebatte und schließt mit einigen methodischen Überlegungen, in deren Rahmen ich auch die methodischen Werkzeuge dieser Studie vorstellen werde.

V OM P RIMAT

DER

T HEORIE

ZUM

P RIMAT

DER

P RAXIS 2

Bis zur Mitte des letzten Jahrhunderts wurde das Feld der Wissenschaftsforschung fast ausschließlich von Wissenschaftsphilosophen dominiert. Wissenschaftstheoretiker wie Popper oder Carnap beherrschten mit ihren Theorien vom Wesen von Wissenschaft die Szene. Obwohl sie in vielen zentralen Punkten unterschiedlicher Ansicht waren – Carnap vertrat ein induktives Verifikationskonzept, Popper ein deduktives Falsifikationskonzept –, teilten sie, wie die meisten Wissenschaftsphilosophen und -soziologen ihrer Zeit, zentrale ideologische Grundüberzeugungen (vgl. Hacking 1996a). Dazu gehörte, dass es so etwas wie eine einheitliche wissenschaftliche Methode gibt, die alle wissenschaftlichen Disziplinen miteinander verbindet. Sie waren zudem davon überzeugt, dass diese Methode den Erfolg von Wissenschaft gewährleistet und ihre besondere Nähe zur Wahrheit und Objektivität garantiert, die andere Tätigkeitsfelder nicht besitzen. Auch wenn, was natürlich immer wieder vorkommt, irregeleitete wissenschaftliche Theorien aufgestellt werden (ein immer wieder genanntes Beispiel in diesem Zusammenhang ist die Phlogiston-Theorie, mit der im 17. Jahrhundert

2

Einige Ergebnisse dieses Abschnitts wurden bereits in Kehl/Mathar 2012 veröffentlicht und werden hier in ergänzter und überarbeiteter Form abgedruckt.

30 | ZWISCHEN GEIST UND G EHIRN

Brennvorgänge erklärt wurden), so sei es nur eine Frage der Zeit, bis sich die wahren Theorien schließlich durchsetzen würden – so wie die PhlogistonTheorie schließlich von Lavoisier experimentell widerlegt und durch die Oxidationstheorie ersetzt wurde. Die wissenschaftliche Erkenntnis schreitet kumulativ voran, auch wenn es hin und wieder zu kurzzeitigen Rückschlägen in Form irrationaler Theorien und Überzeugungen kommen kann. Kurzum, wissenschaftliche Erkenntnis galt diesen Philosophen als das Paradebeispiel menschlicher Rationalität. Um eine theoriezentrierte Perspektive auf Wissenschaft zu rechtfertigen und das wissenschaftsphilosophische Territorium gegenüber der Soziologie und Psychologie abzusichern, beriefen sich Wissenschaftsphilosophen zentral auf Reichenbachs Kontext-Dichotomie (vgl. Popper 1959). Das heißt, ob Wissen wahr respektive gerechtfertigt ist, so wurde erklärt, ist eine Frage, die nichts mit den praktischen Kontexten zu tun hat, in denen es vorab entstanden ist. Für diese Frage sei vielmehr der Begründungskontext entscheidend, wo die logischen Prinzipien der Rationalität zur Anwendung kommen. Gemäß diesem Wissenschaftsverständnis erweist sich Wissenschaft als Angelegenheit der reinen Theorie mit der Aufgabe, eine Repräsentation einer von unserem Erkenntnisapparat unabhängigen Realität zu geben. Und die Beurteilung, ob dies gelungen ist, obliegt dem Epistemologen, der mittels logischer Analyse die internalen Beziehungen eines Wissenskorpus aufdeckt. Diesen erkenntnistheoretischen Auffassungen entsprechend wurde dem Entstehungskontext wissenschaftlicher Fakten, dem Hantieren mit Instrumenten im Labor, den vielfältigen sozialen und institutionellen Bedingungen der wissenschaftlichen Arbeit, keine große Bedeutung beigemessen. Natürlich wurde die Existenz dieses soziotechnischen Rahmens nicht bestritten, aber für die Erklärung des wissenschaftlichen Erkenntnisprozesses galt er als weitgehend irrelevant – zumindest solange kein Zweifel an der Objektivität der resultierenden Tatsachenbehauptungen aufkam. Popper et al. konzeptionalisierten Wissenschaft als eine Tätigkeit, die vor allem durch logisches Schlussfolgern charakterisiert ist. Die Rolle der Wissenschaftssoziologen jener Zeit entsprach diesem Bild. Sie untersuchten Wissenschaft als soziales System, die Formen ihrer Institutionalisierung, nicht jedoch den Produktionsprozess von Wissen selbst. Sie kamen dann ins Spiel, wenn es darum ging, die Entstehung einer fehlgeleiteten Theorie wie der PhlogistonTheorie zu erklären. Dazu deckten sie jene störenden Einflüsse (zum Beispiel eine politische Ideologie oder soziale Machtverhältnisse) auf, welche den Wissenschaftler vom richtigen, das heißt rationalen Weg abgebracht hatten. Diese sekundäre Rolle wurde von den Wissenschaftssoziologen jener Zeit weitgehend akzeptiert, wie Studien Mannheims und Mertons zeigen (Mannheim 1964; Mer-

D IE PRAXIS

DER

THEORIE |

31

ton 1968). Der Organisationssoziologe Merton beispielsweise, der als Gründungsvater der Sociology of Science gilt, orientierte sich bei der Frage, was wissenschaftlich ist, an formalen, philosophischen Modellen der Naturwissenschaft: Die wissenschaftliche Methode wurde also nicht wirklich hinterfragt (vgl. Merton 1973). Dies änderte sich zu Beginn der 1970er Jahre, als das Strong Programme (SP) ins Leben gerufen wurde. Es brach mit den dominanten philosophischen Ansätzen der Wissenschaftsforschung und legte den Grundstein für die empirische Wissenschaftsforschung heutigen Zuschnitts. Eine Soziologie des wissenschaftlichen Wissens: Das Strong Programme Das SP gehört zur sogenannten Sociology of Scientific Knowledge (SSK), einer Richtung der Soziologie, die die Entstehung und Verbreitung sowie die Organisationsprinzipien wissenschaftlichen Wissens untersucht.3 Wie die SSK im Allgemeinen so interessiert sich auch das SP primär für die Frage, welche Rolle soziale Faktoren wie etwa Interessen oder Autoritäten bei der Entstehung wissenschaftlicher Erkenntnis spielen. Das SP sticht heraus, weil sich seine Vertreter besonders pointiert von den damals vorherrschenden Richtungen der Wissenschaftsphilosophie und -soziologie abgrenzten, indem sie eine symmetrische Analyse jeglicher Form wissenschaftlichen Wissens propagierten – also sowohl den aktuell als wahr anerkannten Fakten wie auch solchen, die sich inzwischen als offensichtlich falsch herausgestellt haben. Mit dem Namen »Strong Programme« distanzierten sie sich bewusst von jenen wissenschaftssoziologischen Ansätzen, die nur die Entstehung ›falscher‹ wissenschaftlicher Fakten für einen Gegenstand soziologischer Analyse halten – dem sogenannten »Weak Programme« (Bloor 1991). Im Gegensatz dazu plädierten sie für eine radikale Rückbesinnung auf den soziokulturellen Kontext: Ihre zentrale These lautete, dass jede Art wissenschaftlicher Erkenntnis prinzipiell sozialen Einflüssen unterliegt. Soziale Faktoren müssen deshalb in jedem konkreten Einzelfall in Betracht gezo-

3

Die Wurzeln der SSK liegen in Großbritannien. Neben dem SP, das auch »Edinburgh School« genannt wird, weil es von einer Gruppe von Philosophen um Barry Barnes und David Bloor an der »Science Studies Unit« der Universität Edinburgh entwickelt wurde, entstanden in den 1970er Jahren andere einflussreiche Forschergruppen. Zu nennen ist beispielsweise die »Bath School« um Harry Collins, die an der University of Bath beheimatet war. Für einen hervorragenden Überblick über die Entwicklung dieses wissenschaftssoziologischen Programms vgl. Shapin 1995.

32 | ZWISCHEN GEIST UND G EHIRN

gen werden, um die wissenschaftliche Dynamik zu verstehen und zu erklären – das gilt auch für die rational geleitete Wissenschaft. Bloors Text »Knowledge and Social Imagery« von 1976 gilt als der programmatische Grundlagentext des SP (Bloor 1991). Scharf hat Bloor dort gegen die gängige Wissenschaftsauffassung der Zeit polemisiert und die zentralen Forderungen des SP in Form von vier knappen Grundsätzen auf den Punkt gebracht, die zusammengenommen den theoretischen Kern des SP bilden: • Das Prinzip der Kausalität besagt, dass wissenschaftliche Meinungen kausal

aus ihren Entstehungsbedingungen abgeleitet werden sollen. Dazu gehören wesentlich soziale Faktoren, aber nicht ausschließlich, da immer auch natürliche Einflüsse mitspielen. • Das Prinzip der Unparteilichkeit besagt, dass weder Wahrheit noch Falschheit, weder Rationalität noch Irrationalität, weder Erfolg noch Misserfolg den Soziologen in seiner Analyse beeinflussen sollten. Gelten Wissensbestände als gesichert und rational, sollte ihn das nicht davon abbringen, auch dort seinen soziologischen Analyseraster anzuwenden. • Das Symmetrieprinzip fordert methodische Neutralität in Bezug auf Wahrheit und Falschheit. Prinzipiell sind die gleichen Typen von Ursachen sowohl bei der Entwicklung wahren als auch falschen Wissens wirksam. Dahinter steckt die zentrale Grundannahme, dass wahre Überzeugungen keinen – wie von vielen Philosophen behauptet – besonderen Status genießen. Das heißt, die Grenze zwischen wahren und falschen Überzeugungen bildet selber einen wichtigen Gegenstand der soziologischen Untersuchung und sollte nicht unhinterfragt bleiben. Wie kommt es, dass einige Überzeugungen von der scientific community akzeptiert werden, andere nicht? Was auch immer der Status der zu untersuchenden Tatsache ist, der Soziologe arbeitet mit dem gleichen naturalistisch-kausalen Erklärungsschema. • Und schließlich verlangt der Grundsatz der Reflexivität, dass die eigenen Grundsätze auf sich selbst anzuwenden sind. Da das SP für sich in Anspruch nimmt, die Wissenschaft vom Wissen zu sein, darf es sich nicht über seine eigenen Prinzipien erheben und sollte insofern die eigenen Wissensbestände einer selbstkritischen Reflexion unterziehen. Wie diese vier Punkte deutlich machen, behandelt das SP wissenschaftliches Wissen als ein empirisches Phänomen: Als Wissen gilt das, was von einer bestimmten Expertengemeinschaft zu einem bestimmten Zeitpunkt als Wissen akzeptiert wird. Damit umgehen Bloor et al. die gängige philosophische Definition von Wissen als wahre, gerechtfertigte Meinung (Aristoteles), die auf dem Wahr-

D IE PRAXIS

DER

THEORIE |

33

heitsbegriff aufbaut und damit metaphysischen Ballast mit sich führt. Das SP nimmt für sich dann die Aufgabe in Anspruch, die Variation von Meinungen als natürliches Phänomen zu beschreiben – »[t]he sociology of knowledge focuses on the distribution of belief and the various factors which influence it« (Bloor 1991: 5) –, und zwar hat dies nach möglichst wissenschaftlichen Prinzipien zu geschehen. Das heißt, Anhänger des SP suchen nach Regularitäten, geben dafür kausale Erklärungen (Prinzip der Kausalität) und bauen darauf ihre Theorien auf – dieses Vorgehen ist unabhängig davon, ob es sich um erfolgreiches oder weniger erfolgreiches wissenschaftliches Wissen handelt (Symmetrieprinzip). Es wird deutlich, dass sich das SP aus einem starken anti-rationalistischen Impuls entwickelte, der von dem (paradoxerweise philosophischen) Anspruch getragen war, das hauptsächlich von Philosophen beanspruchte Feld der Wissenschaftsanalyse für die Soziologie zu reklamieren. Bloors Argumente sind im Wesentlichen gegen positivistische Wissenschaftsphilosophen gerichtet, die einen normativen Rationalitätsbegriff vertreten und davon überzeugt sind, dass sich das Wesen von Wissenschaft in der Befolgung abstrakter rationaler Prinzipien erschöpft. Das Ziel ist stattdessen »a naturalistic understanding of knowledge in which sociology plays a central role« (Bloor 1991, Vorwort zur 2. Auflage), also die Untersuchung wissenschaftlichen Wissens mit empirischen statt normativen Methoden und ohne unnötige metaphysische Vorannahmen zum Wahrheitsbegriff oder zur Rationalität (Prinzip der Unparteilichkeit). Praktiker der SSK haben solche theoretischen Grabenkämpfe allerdings schnell verlassen und sich der Frage zugewendet, wie sich eine starke Soziologie der Wissenschaft im Feld konkret umsetzen lässt.4 Die Bedeutung der damit eingeleiteten wissenschaftssoziologischen Wende für die Herausbildung der STS als Feld kann kaum genug betont werden. Die Vertreter des SP brachen auf aufsehenerregende Weise mit der damals fast ausschließlichen Fokussierung auf den Begründungskontext, rückten den sozialen Entstehungskontext in den Fokus und führten so jede Form von Wissenschaft einer empirisch-soziologischen Analyse zu. In ihrem Bild der Wissenschaft steht nicht der individuelle Denker im Vordergrund, sondern das soziale Kollektiv. Auch wenn sich heute kaum noch ein STS-Forscher dem SP in seiner ursprünglichen Form zurechnen lässt, so bildet das SSK heute immer noch eine wichtige Forschungsrichtung im Feld der STS, das sich jedoch im Laufe der Jahre stark 4

Als Beispiele für zwei wichtige empirische Studien sind zu nennen: Harry Collins’ (1975; 1981) Analyse der Verhandlung von Gravitationswellen und Steven Shapins und Simon Schaffers (1985) wissenschaftshistorische Untersuchung zur Kontroverse zwischen Hobbes und Boyle um Vakuumexperimente.

34 | ZWISCHEN GEIST UND G EHIRN

ausdifferenziert hat.5 Im Laufe der 1980er Jahre entwickelten sich neue Forschungsansätze, die sich oft kritisch mit den SP-Grundsätzen auseinandersetzten. Als scharfe Gegner des SP taten sich die Vertreter der Akteur-Netzwerk-Theorie (ANT) hervor: Bruno Latour, Michel Callon, John Law und andere. In hitzigen und teilweise bissig geführten Kontroversen stritten sie und Vertreter des SP um die methodische und theoretische Ausrichtung der empirischen Wissenschaftsforschung (vgl. Pickering 1992b). Es standen dabei nicht nur die soeben besprochenen vier Kernprinzipien des SP auf dem Spiel, sondern es wurden auch tief greifende epistemologische und ontologische Fragen aufgeworfen. Im Speziellen das Symmetrieprinzip, das als eine der zentralen Säulen des SP gilt, wird von den ANT infrage gestellt resp. neu interpretiert, und zwar auf eine Art und Weise, die zu einer radikalen Neubewertung des Verhältnisses von Theorie und Praxis führen wird. Generalisierte Symmetrie: Die Akteur-Netzwerk-Theorie und danach Die Bezeichnung ANT ist missverständlich gewählt. Denn streng genommen handelt es sich nicht um eine abstrakte Theorie, die sich propositional ausdrücken lässt, sondern um einen heterogenen Forschungsansatz.6 Dessen Grundsätze begannen sich in den frühen 1980er Jahren aus dem SP herauszukristallisieren, konkretisierten sich in den frühen 1990er Jahren zu dem, was heute als ANT bezeichnet wird, um sich anschließend graduell zur Post-ANT weiterzuentwickeln. Die methodischen und theoretischen Prämissen der ANT widerspiegeln sich kaleidoskopartig in einer Vielzahl disparater Studien. Zu den Schnittmengen gehört erstens und wenig erstaunlich die empirische Herangehensweise an Wissenschaft, deren Fakten nicht als Abbilder der Realität, sondern als Konstruktionen aufgefasst werden. Dies ist noch weitgehend im Einklang mit dem SP; im Unterschied zu diesem wird das empirische Ethos jedoch zweitens radikal weiterentwickelt, was sich in der Wahl der Methoden niederschlägt: Viele, wenn nicht gar die meisten der ANT-Studien basieren auf ethnografischen Methoden (vgl. Latour/Woolgar 1986), während die meisten der SP-Studien noch historisch ausgerichtet waren oder auf Interviewtechniken beruhten (vgl. Collins 1975; Shapin/Schaffer 1985). Auf einer theoretischen Ebene gehört drittens der Rekurs auf die Netzwerkmetapher zu den verbindenden Merkmalen von ANT-Studien. Die-

5

Zu einer der wenigen neueren SP-Studien vgl. Schyfter 2009.

6

John Law (2007) bevorzugt es deshalb, von material semiotics zu sprechen.

D IE PRAXIS

DER

THEORIE |

35

se Metapher verweist auf das relationale und antiessenzialistische Weltbild: Die Akteure und Gegenstände, die in der Wissenschaftspraxis auftauchen, können nicht abgekoppelt vom komplexen, soziotechnischen Gefüge betrachtet werden, in dem sie sich befinden. Und es sind folglich diese Gefüge oder Netzwerke und weniger die Gegenstände selber, die im Fokus stehen. Da es sich bei der ANT eben nicht um eine homogene Theorie, sondern ein Konglomerat aus empirischen Fallstudien handelt (Law 2007), ist zu empfehlen – was überhaupt für die gesamte empirische Wissenschaftsforschung gilt –, sich an konkreten Fallstudien zu orientieren. Eine der wegweisenden frühen ANTStudien stammt von Michel Callon.7 Die Geschichte, die Callon erzählt, spielt sich in der Bucht von St. Brieuc ab, in der traditionell Kammmuscheln gefischt werden. Als der Bestand im Laufe der 1970er Jahre durch Überfischung immer stärker abnahm, begannen sich Forscher mit der Meeresbiologie der Muscheln zu beschäftigen und wissenschaftliche Strategien zur Kontrolle des Bestandes und der »Domestikation« der Muscheln zu konzipieren. Sie versuchten, eine neue Technik zu etablieren, bei der die jungen Muschellarven in geschützten Kollektoren gezüchtet werden, bevor sie im Meer ausgesetzt werden. Mit anderen Worten: Sie entwickelten eine Wissenschaft der Kammmuscheln. Auf Initiative der Meeresbiologen entstand eine neue (fragile) Ordnung, in der verschiedene Akteure »domestiziert«, das heißt in neue Beziehungen (Akteur-Netzwerke) gebracht und folglich neu definiert wurden. Die Wissenschaftler hatten dabei eine machtvolle Position inne, da sie die Rollen zuwiesen und die Kompetenz erwarben, für die anderen Akteure zu sprechen. Callon hat einen »neuen Ansatz zur Untersuchung von Machtverhältnissen« skizziert, den er »Soziologie der Übersetzung« genannt hat (Callon 2006: 134). Die Metapher der Übersetzung respektive Translation ist neben der des Netzwerks ein weiterer wichtiger begrifflicher Eckpfeiler der ANT. Während Netzwerke Stabilität verheißen, soll mit dem Translationskonzept darauf hingewiesen werden, dass Realität primär »als ein Prozess zu verstehen« ist (Callon 2006: 151): Übersetzung ist ein Mechanismus, durch den die soziale und die natürliche Welt fortschreitend Form annehmen. Das Resultat ist eine Situation, in der bestimmte Entitäten andere kontrollieren. Will man verstehen, was die Soziologen Machtbeziehungen nennen, 7

Viele inzwischen ›klassische‹ Texte der ANT sind in Belliger/Krieger 2006 abgedruckt. Das Handbuch bietet einen schönen Überblick über die empirische Arbeit von ANT-Forschern. Für eine sozialanthropologische Perspektive auf das Feld der STS im Allgemeinen und ANT im Speziellen vgl. Beck et al. 2012.

36 | ZWISCHEN GEIST UND G EHIRN

muss man den Weg beschreiben, durch den Akteure definiert, assoziiert und gleichzeitig verpflichtet werden, ihren Allianzen treu zu bleiben. (Callon 2006: 170)

Translation beschreibt somit weniger einen herkömmlichen sprachlichen Übersetzungsprozess, sondern ist mehr im Sinne von Verschiebung zu verstehen: Das heißt, die Erzeugung neuer physischer und sozialer Realitäten, die sich als mehr oder wenige stabile Netzwerke beschreiben lassen.8 Um ihre Erkenntnisse einem größeren Publikum zu präsentieren, transformierten die Wissenschaftler in Callons Studie die Kammmuscheln »in Larven, die Larven in Zahlen, die Zahlen in Tabellen und Kurven, die leicht zu transportierende, reproduzierbare und zu verbreitende Papierblätter darstellen« (Callon 2006: 163).9 Diese Papierblätter repräsentierten die neue Wirklichkeit und verhüllten durch ihre fixierte Form die schwierigen Produktionsprozesse, die dahinter steckten. So entstand ab den frühen 1970er Jahren nach und nach ein Beziehungsnetzwerk zwischen verschiedenen menschlichen und nicht-menschlichen Akteuren (Fischern, Forschern, aber auch Kammmuscheln und anderen Meeresbewohnern), bis alles in einer Nachtund-Nebel-Aktion dramatisch endete: Eines Nachts stürmten Fischer die geschützten Gebiete und zerstörten die Infrastrukturen, mit denen die Muscheln gezüchtet worden waren. Aus einer Akteur-Netzwerk-Perspektive zeigen sich Callon zufolge vier Momente10: erstens die Problematisierung der einzelnen Akteure durch die Meeresbiologen, die ein »Set von Akteuren« und gleichzeitig deren Identitäten (Ziele, Neigungen) definierten; zweitens die Stabilisierung der zuvor definierten Identitäten (wiederum durch die Meeresbiologen), um sie für die gemeinsame Sache zu gewinnen (Interessement); drittens das Enrolment: die Eingliederung der Akteure in das Netzwerk, »in dem ein Set von zueinander in Beziehung ste8

Der Verweis Callons auf die Machtstrukturen, die sich daraus ergeben, legt die Verwandtschaft der ANT mit Foucaults Poststrukturalismus offen. Die Akteur-Netzwerke können, so John Law, im Grunde als eine empirische und mikrosoziologische Version von Foucaults materiell-diskursiven Formationen interpretiert werden (Law 2007).

9

In ihrer berühmten Laborethnografie »Laboratory Life« haben Latour und Woolgar diesen Translationsprozess als die technische Herstellung von Inskriptionen analysiert. Flüchtige materielle Phänomene werden mithilfe von Inskriptionswerkzeugen in stabile wissenschaftliche Kategorien übersetzt. Das Endprodukt, die wissenschaftlichen Zahlen, Tabellen und Graphen, repräsentieren die materiellen Phänomene – der komplexe und kontingente Produktionsprozess, der ihnen zugrunde liegt, wird unsichtbar gemacht (Latour/Woolgar 1986).

10 Für eine ausführliche Darstellung dieser Subprozesse vgl. Mathar 2012.

D IE PRAXIS

DER

THEORIE |

37

henden Rollen definiert und Akteuren zugeteilt wird, die sie akzeptieren« (Callon 2006: 156); und viertens der Prozess der Mobilisierung, wobei die Akteure in wissenschaftliche Graphen und Zahlen transformiert und damit ›mobil‹ gemacht werden. Zusammengenommen lässt sich sagen, dass der Erfolg respektive Misserfolg dieses Projektes vor allem von der Bildung von Allianzen mit den unterschiedlichen Akteuren abhing, deren Identitäten, Ziele und Interessen auf die Ziele der Wissenschaftler ausgerichtet werden mussten. Es brauchte die Zustimmung der Fischer, die die Befischung der Bucht radikal umstellen mussten, um den Erfolg des Projekts zu sichern. Die Netze durften nicht in der Nähe der Kollektoren ausgeworfen und die jungen Muscheln erst ab einer gewissen Größe gefangen werden. Auch die wissenschaftlichen Kollegen waren erst noch vom wissenschaftlichen Sinn des neuen Verfahrens zu überzeugen. Die »schwierigsten und längsten Verhandlungen« jedoch, schreibt Callon, hatten die Wissenschaftler mit den Kammmuscheln zu führen (Callon 2006: 156). Sie mussten dazu gebracht werden, sich in den neuen Kollektoren zu verankern, und hatten dort zu gedeihen – davon hing alles andere ab. Das Vokabular, das Callon zur Beschreibung dieses Prozesses benutzt, ist aufschlussreich: Wenn die Kammmuscheln in Rollen eingebunden sein sollen, müssen sie zuerst bereit sein, sich selbst in den Kollektoren zu verankern. Aber diese Verankerung ist nicht leicht zu erreichen. […] Wie in einem Märchen gibt es viele feindliche Kräfte, die versuchen, das Projekt der Forscher zu durchkreuzen, indem sie die Larven umleiten, bevor sie eingefangen werden. […] Mit den Kammmuscheln zu verhandeln heißt, zuerst mit den Strömungen zu verhandeln […]. (Callon 2006: 156)

In diesem Zitat kommt das generalisierte Symmetrieprinzip der ANT zum Ausdruck. Menschliche und nicht-menschliche Entitäten werden analytisch vollkommen gleichbehandelt, was sich in dem anthropozentrischen Vokabular manifestiert, in dem Kammmuscheln oder Meeresströmungen beschrieben werden. War das Symmetrieprinzip von Bloor noch auf die Wahrheit und Falschheit von Aussagen beschränkt, so geht dies den Vertretern der ANT nicht weit genug. Der Grund ist, dass es bestehende ontologische Dichotomien – etwa zwischen der Natur und dem Sozialen, zwischen Subjekt und Objekt – reproduziert, anstatt sie zu hinterfragen. Die Argumente gleichen hier in der Stoßrichtung fast aufs Haar denjenigen des SP in Bezug auf Wahrheit und Falschheit, gehen aber einen gewichtigen Schritt weiter: Wissenschaftssoziologen sollen nicht vorschnell soziale und natürliche Entitäten postulieren – ebenso wie sie sich nicht von der Wahrheit und Falschheit von Aussagen beeinflussen lassen sollten –, sondern es gehört zu ihren wesentlichen Aufgaben, die Ko-Konstruktion dieser ontologischen Katego-

38 | ZWISCHEN GEIST UND G EHIRN

rien im Wissenschaftsprozess kritisch zu beleuchten. Die Identifikation von Subjekten und Objekten, von natürlichen und sozialen Entitäten im Feld sollte also nicht der Ausgangspunkt der Analyse sein, sondern ihr Endpunkt. Dem SP werfen die ANT-Vertreter vor, durch den zu einseitigen Rekurs auf den sozialen Kontext – insbesondere die Interessen der involvierten Forscher – im Grunde genommen asymmetrische Erklärungen zu propagieren, die zu ausschließlich auf das Soziale ausgerichtet sind und die Rolle von Materialitäten im Forschungsprozess vernachlässigen. Nur folgerichtig fordert Latour, der sich selber als Anthropologen bezeichnet, denn auch: »One more turn after the social turn!« (Latour 1999b) Die Zuweisung von Handlungsträgerschaft an Kammmuscheln oder sogar Meeresströmungen, sogenannte Aktanten, gehört sicherlich zu den radikalsten und kontroversesten Aspekten der ANT. ANT-Forscher sind dafür von verschiedener Seite und aus verschiedenen Gründen teilweise heftig kritisiert worden (vgl. zum Beispiel Collins/Yearley 1992; Bloor 1999a; Pickering 1995; Murdoch 2001; Knorr-Cetina 1991). Die generalisierte Symmetrie erweist sich besonders für das Verhältnis von Theorie und Praxis als folgenreich, wie ich weiter unten zeigen werde. Ich werde dort auch einige der Argumente gegen die generalisierte Symmetrie diskutieren. Aus Sicht der ANT ist diese Perspektive jedoch nur konsequent. Eine relationale und prozessuale Analyse des Forschungsprozesses scheint mit einem intentionalen, am Subjekt ausgerichteten Handlungskonzept nicht vereinbar. Menschliche Handlungen spielen sich immer im Rahmen von soziotechnischen Handlungszusammenhängen ab; Handlungsträgerschaft ist zwangsläufig »verteilt« auf mehrere Akteure – sogenannte »Hybrid Akteure« (Latour 1998: 35) –, da jedes Element in diesem Gefüge die möglichen Aktivitäten der anderen Elemente einschränkt und bedingt. Ich habe weiter oben betont, dass sich die ANT von Beginn an als ein heterogener, sich dynamisch entwickelnder Forschungsansatz präsentiert hat und nicht als ein Dogma. Dies bedeutet, dass der Ansatz selber von seinen wichtigen Exponenten beständig reflektiert und weiterentwickelt wurde. Die Tatsache, dass die ANT in den frühen 1990er Jahren eine gewisse theoretische und empirische Kohärenz erreicht und sich zu einem der dominierenden STS-Ansätze entwickelt hatte, stimulierte auch eine kritische Auseinandersetzung mit ihren zentralen Prämissen. Einige Autoren, insbesondere Vertreter der pragmatistischen Wissenschaftsforschung, kritisierten den Fokus der ANT auf einzelne zentrale Akteure – im Falle von Callons Studie etwa die drei Meeresbiologen – und unterstellten ihr einen managerial bias, der dazu führe, dass die Rolle der anderen beteiligten Akteure und Aktanten zu wenig beachtet werde (vgl. Star/Griesemer 1989; Bowker 1993; Fujimura 1992). Andere bemängelten die zentrale Stellung der Netzwerk-

D IE PRAXIS

DER

THEORIE |

39

metapher, die Stabilität, Ordnung und Singularität verheißt, was aber vielen empirischen Situationen nicht angemessen sei (vgl. de Laet/Mol 2000). Vor dem Hintergrund dieser Debatten bildeten sich um die Jahrtausendwende herum die Konturen eines neuen Ansatzes heraus, der sogenannten Post-ANT oder AfterANT (Hassard/Law 1999). Die wichtigsten Vertreter der Post-ANT – etwa Annemarie Mol oder John Law – standen zwar in der Tradition der ANT oder gehörten gar zu ihren Gründungsmitgliedern, strebten jedoch eine Neuausrichtung an, die in Richtung einer radikal empirischen und performanzorientierten Forschungsperspektive weist. Die zentralen Schlagworte der Post-ANT – Performanz (statt Repräsentation), Fluidität (statt Netzwerk) und Multiplizität (statt Pluralität oder Singularität) – bringen das zentrale Credo zum Ausdruck, dass Realitäten genauso vielfältig und fluide sind wie die Praxiskontexte, in denen sie gemacht respektive performiert werden (vgl. Sørensen 2012). Sie sind darüber hinaus abhängig von ihrer beständigen Aktualisierung (enactement) in diesen Kontexten. Dieser praxiografische11 Ansatz beinhaltet einerseits eine leise Abgrenzung vom Konstruktionskonzept, auf das sich viele STS-Ansätze (in der einen oder anderen Form) stützen; denn Konstruktionen wie Akteur-Netzwerke sind auf ein Leben nach dem eigentlichen Konstruktionsprozess angelegt (Mol 2000). Andererseits folgt daraus eine zunehmende Ontologisierung der Fragestellungen. »[W]hat is being done and what, in doing so, is reality in practice made to be?«, lautet etwa eine typische Frage (Mol 2002: 160). Es ist wiederum hilfreich, diese Themen kurz anhand einer konkreten Studie zu erörtern, wobei ich diesmal auf eine einflussreiche Forschungsarbeit von Annemarie Mol zurückgreife, einer der profiliertesten Vertreterinnen der Post-ANT. In ihrem Buch »The Body Multiple« hat Mol praxiografisch untersucht, wie die Krankheit Arteriosklerose, eine chronische Verkalkung und Verdickung der Arterien, in einer niederländischen Klinik diagnostiziert und therapiert wird (Mol 2002). Mol ist verschiedenen Praktiken an verschiedenen Orten der Klinik gefolgt. Sie beobachtete, dass die Krankheit dabei in ganz unterschiedlichen Versionen auftritt, abhängig von den jeweiligen Methodenrepertoires, mit denen sie hergestellt wird: In der Pathologie offenbart sich Arteriosklerose als verdickte Gefäßwand, sichtbar gemacht anhand kleiner Gefäßproben und mithilfe eines Mikroskops; in der Radiografie zeigt sie sich als charakteristisches Röntgenbild; in der Ambulanz entpuppt sie sich als typische Patientenerzählung, die von Geh11 Mol und andere haben ihre Methode als »Praxiografie« bezeichnet, um zu verdeutlichen, dass das methodische Augenmerk – im Unterschied zur Ethnografie – nicht auf der Kultur (ethnos), sondern der Praxis liegt (vgl. Mol 2002; Knecht 2012).

40 | ZWISCHEN GEIST UND G EHIRN

schwierigkeiten und Schmerzen in den Beinen handelt. Alle diese unterschiedlichen praktischen Kontexte schaffen eigene Ordnungen, die zueinander weitgehend inkompatibel sind. Mols zentrale Pointe lautet: Arteriosklerose ist weder eine Krankheit – wie der realistische Wissenschaftsphilosoph sagen würde –, die medizinisch unterschiedlich interpretiert wird, noch ist sie im Sinne der ANT ein zusammenhängendes Akteur-Netzwerk. Arteriosklerose ist mehr als eine Krankheit, sie ist multipel: If we no longer presume »disease« to be a universal object hidden under the body’s skin, but make the praxiographic shift to studying bodies and diseases while they are being enacted in daily hospital practices, multiplication follows. In practice a disease, atherosclerosis, is no longer one. Followed while being enacted atherosclerosis multiplies – for practices are many. (Mol 2002: 84)

Das Zitat illustriert den »ontological turn«12, der mit Mols Praxiografie verbunden ist: Realitäten/Körper/Krankheiten/Objekte werden in Praktiken hergestellt. Sie sind ebenso multipel und fluide wie die Herstellungsprozesse, in denen sie gemacht werden. Damit ist eine Radikalisierung der empirischen und ontologischen Perspektive verbunden sowie eine Abgrenzung von der ANT, die mit den Begriffen des Netzwerks, der Blackbox und des »immutable mobile«13 (Latour 1987) auf singuläre Ordnungen mit einem eindeutig identifizierbaren Zentrum abzielt (vgl. Sørensen 2012). Mol und die anderen Vertreter der Post-ANT haben in ihren diversen Studien zu zeigen versucht, dass solche singulären Ordnungen eher die Ausnahme als die Regel sind. Die Realitäten, auf die man in der Praxis trifft, sind in vielen Fällen komplexer, verfügen über mehr als ein Zentrum, sind instabil und fluide.14 12 In den letzten Jahren widmeten sich mehrere Workshops der Frage, ob im Feld der STS eine ontologische Wende festzustellen sei. Der erste dieser Workshops fand am 25. Juni 2008 unter dem Titel »A Turn To Ontology in STS?« an der Saïd Business School, University of Oxford, statt. 13 Der Begriff des immutable mobile stammt von Bruno Latour und bezeichnet »objects which have the properties of being mobile but also immutable, presentable, readable and combinable with one another« (Latour 1986: 6 [Herv. i.O.]). 14 Neben Multiplizität ist Fluidität ein anderer Schlüsselbegriff der Post-ANT, der im weiteren Verlauf der Arbeit noch eine Rolle spielen wird (siehe viertes Kapitel). Während die Multiplizität auf die Vielzahl der Akteur-Netzwerke anspielt, verweist Fluidität auf ihre Wandelbarkeit. Wie etwa Annemarie Mol und Marianne de Laet (2000) veranschaulicht haben, gibt es technologische Objekte, die erstaunlich variabel sind.

D IE PRAXIS

DER

THEORIE |

41

Mol weist jedoch auch darauf hin, dass diese multiplen Ordnungen in dem Dienstleistungskomplex Krankenhaus, der die klar definierte Aufgabe hat, Patienten zu heilen, nicht immer völlig unabhängig voneinander existieren können. Ein wichtiger Aspekt des Klinikalltags besteht vielmehr darin, die verschiedenen Versionen der Krankheit zu koordinieren und zu einer singulären Realität zu vereinen; etwa, wenn das amputierte Bein eines Patienten von Pathologen untersucht wird, um die Diagnose zu bestätigen. Die verschiedenen Versionen von Arteriosklerose sind miteinander verbunden und deshalb nicht fragmentiert: »But the ontology that comes with equating what is with what is done is not of a pluralist kind. The manyfoldedness of objects enacted does not imply their fragmentation. Although atherosclerosis in the hospital comes in different versions, these somehow hang together.« (Mol 2002: 84) Für Mol impliziert dies jedoch keine Abkehr von einer praxiografischen Forschungsperspektive. Denn ob diese Koordinationsarbeit erfolgreich ist, so Mol, ist wiederum eine praktische Frage, die von Einzelfall zu Einzelfall neu zu beantworten ist. Die Integration der »manyfoldedness of objects« geschieht also nicht auf der Ebene der Darstellung, sondern auf der Ebene des Tuns. Zwischenfazit: Die praktische Wende Die verschiedenen Analyseansätze aus dem Bereich der STS, die ich kurz vorgestellt habe, treffen sich zwar in ihrer einhelligen Kritik am wissenschaftsphilosophischen Theorieprimat und an der philosophischen Interpretation der KontextDichotomie, die dieses fundiert. Ihre Epistemologien und Methodologien differieren jedoch stark. Trotz ihres Anspruchs, eine neue Wissenssoziologie zu etablieren, sind die SP-Gründungsmitglieder keine Soziologen, sondern Wissenschaftsphilosophen. Das schlägt sich auch im rationalen Argumentationsstil nieder, der etwa Bloors Grundlagentext durchzieht: Es finden sich kaum empirische, wissenschaftshistorische Beispiele, dafür bezieht Bloor bei abstrakten Themen wie »Wahrheit«, »Relativismus«, »Empirismus« etc. detailliert Stellung. Es wird deutlich, dass er sich gegen ein spezifisch westliches RationalitätsThe Zimbabwe Bush Pump ist so ein Objekt. Ihre Mechanik ist erstaunlich flexibel, ihre Bauteile sind austauschbar. Im dörflich geprägten Simbabwe verändert sie beständig ihre Form, aber gerade dies, so die Autorinnen, garantiert ihren Erfolg. Das Fluiditätskonzept untergräbt ebenso wie der Verweis auf die Multiplizität den Sinn der Netzwerkmetapher, die zwar nicht völlig diskreditiert, jedoch zu einem Spezialfall unter vielen möglichen Ordnungen degradiert wird (vgl. Law/Mol 2001; Sørensen 2012).

42 | ZWISCHEN GEIST UND G EHIRN

verständnis wendet, dem auch sein Denken teilweise verhaftet ist. Die ANT hingegen stehen am Beginn eines revolutionären Umsturzes, der ein radikal empiristisches Wissenschaftsverständnis etabliert, in dem die Kontext-Unterscheidung völlig dekonstruiert wird. Das Resultat sind Forschungsansätze, die den Akzent nicht mehr auf das Wissen, sondern die Praxis legen (vgl. Pickering 1992a).15 Die fundamentalen epistemologischen Differenzen zwischen SP und (Post)ANT lassen sich anhand einer Debatte illustrieren, die zu Beginn der 1990er Jahre von Vertretern der beiden STS-Schulen ausgefochten wurde und die als Chicken-Debatte bekannt geworden ist (Collins/Yearley 1992).16 Die jeweiligen Argumente sind aufschlussreich und machen die Schlüsselpositionen klar. Aufschlussreich ist aber auch der Ton der Auseinandersetzung – wie die Polemik und Schärfe andeutet, steht einiges auf dem Spiel. Harry Collins und Steve Yearley, die Vertreter des SP, machten den Auftakt: Sie haben sich in ihrem Text kritisch mit dem radikalen Symmetrieprinzip der ANT auseinandergesetzt, das sie nur dem Namen nach für radikal, in der Sache aber für konservativ halten. Der entscheidende Punkt sei, so Collins und Yearley, dass mit der generalisierten Symmetrie die Expertenautorität wieder völlig dem Wissenschaftler anheimfällt. Warum? Weil der empirische Wissenschaftsforscher nicht hinter die Expertenmeinungen zurück kann, um sich etwa der Ko-Produktion natürlicher und sozialer Gegenstände anzunähern. Ein Beispiel: Wie kann der Wissenschaftsforscher die Materialität von Kammmuscheln studieren, ohne sich dabei auf das stützen 15 Diese Entwicklung zeichnet sich bereits in »Laboratory Life« ab (Latour/Woolgar 1986). Latour/Woolgar untersuchten auf der Basis von teilnehmender Beobachtung die Forschungspraxis im »Salk Institute«, um die Konstruktion von Fakten – in diesem speziellen Fall drehten sie sich um das Hormon TRF(H) – nachzuvollziehen. Eine ihrer Thesen lautete: Die Realität steht nicht am Ausgangspunkt wissenschaftlicher Aktivität, sondern bildet vielmehr deren Endpunkt. Sie ist das Resultat eines Konstruktionsprozesses, in dem Materialien mittels technischer Prozeduren und durch Verhandlungen ›verhärtet‹ und in Fakten transformiert werden. Interessant an dieser Pionierarbeit ist, dass die beiden Wissenschaftsforscher die strikte Trennung zwischen technischen und sozialen Faktoren des Produktionsprozesses überwunden haben, dabei aber immer noch wesentlich auf Wissen fokussieren. 16 Die Texte sind in demselben Band veröffentlicht worden (Pickering 1992b). Der etwas seltsam anmutende Name der Debatte rührt daher, dass Collins/Yearley in ihrem Beitrag auf das sogenannte »game of chicken« rekurrieren (»dashing across the road in front of speeding cars«), das sie nun epistemologisch umdeuten. Einige Jahre später fochten Bloor und Latour eine ähnliche Debatte im Journal »Studies in the History and Philosophy of Science« aus (Latour 1999a; Bloor 1999a, 1999b).

D IE PRAXIS

DER

THEORIE |

43

zu müssen, was in den meeresbiologischen Lehrbüchern steht resp. von Meeresbiologen behauptet wird? Einem naturwissenschaftlich ungeschulten Sozialwissenschaftler ist es unmöglich, Naturphänomene wie das Verhalten von Kammmuscheln selber zu ›befragen‹. Er ist ja kein Experte auf diesem Gebiet. Er ist jedoch Experte dafür, wie der Expertenkonsens von den sozialen Bedingungen abhängt, unter denen er sich herausgebildet hat. Sein Beitrag kann deshalb sinnvollerweise nur darin bestehen, die externalen Bedingungen aufzudecken, die zur Variation dieser Expertenmeinungen beitragen. Dieses Dilemma führt nach Meinung von Collins/Yearley also letztendlich wieder dazu, dass man wissenschaftliche Lehrmeinungen für bare Münze nehmen muss und nicht mehr hinterfragen kann, wenn man die generalisierte Symmetrie der ANT ernst nimmt. Den SPVertretern zufolge fällt die ANT hinter die Errungenschaften des SP zurück, wenn sie eines der Verdienste des SP, nämlich die Autorität im Bereich der Wissenschaftsanalyse an den empirischen Sozialforscher übertragen zu haben, wieder infrage stellt. Fällt das Soziale als ontologische Kategorie, so erscheint auch die von Bloor et al. hart erkämpfte soziologische Wende als obsolet. Anders formuliert: Soziale Praktiken lassen sich nur untersuchen, wenn man an den gängigen soziologischen Kategorien festhält (vgl. Bloor 1999a). Die Argumentation zeigt, dass die epistemologische Konzeption des SP starke Parallelen zu der Reichenbachs aufweist, der Sätze zu Papier brachte, die auch von Bloor stammen könnten: »Every theory of knowledge must start from knowledge as a given sociological fact. […] We shall call the first task of epistemology its descriptive task – the task of giving a description of knowledge as it really is. It follows, then, that epistemology in this respect forms a part of sociology.« (Reichenbach 2006: 3) Sowohl Bloor als auch Reichenbach haben den Analysefokus primär auf die Meinungen und Überzeugungen eines Wissenschaftlerkollektivs gerichtet, beide haben an der prinzipiellen Unterscheidung zwischen internalen und externalen Faktoren von Wissen festgehalten. Zwar bevorzugen sie dabei diametral entgegengesetzte Erklärungsmuster: Das naturalistisch ausgerichtete SP hält die externalen Faktoren für grundlegender (Ursachen), die rationalistische Wissenschaftsphilosophie hingegen die internalen Faktoren, den logischen Raum der Begründung (Normen). Sie stimmen jedoch darin überein, dass das wissenschaftliche Subjekt mit seinen geistigen Einstellungen und sozialen Beziehungen der Dreh- und Angelpunkt der Analyse darstellt. Denn es sind sozial organisierte Wissenschaftler, die etwas wissen. Den in den Forschungsprozess involvierten Objekten kommt in diesem Schema nur eine untergeordnete Rolle zu. Von verschiedener Seite wurde deshalb der Vorwurf laut, dass das SP das »repräsentationale Idiom« der klassischen Wissenschaftsphilosophie und damit die Kontext-Dichotomie noch nicht überwunden habe

44 | ZWISCHEN GEIST UND G EHIRN

(vgl. Pickering 1992a; Rouse 1996). Bloor gesteht in der 1991 erschienenen zweiten Auflage seines Hauptwerks selber zu: The shortcomings of the views developed here are, no doubt, legion. The one that I feel most keenly is that, whilst I have stressed the materialist character of the sociological approach, still the materialism tends to be passive rather than active. […] without doubt, it represents knowledge as theory rather than practice. (Bloor 1991: 158)

Die ANT und die von ihr ausgelöste praxistheoretische Wende brechen grundlegend mit diesen Ordnungen. Die generalisierte Symmetrie spielt sich nicht mehr auf einer epistemologischen Ebene ab, wie das noch beim Symmetrieprinzip des SP der Fall ist, das auf die Symmetrie zwischen unterschiedlichen Typen von Meinungen (wahr/falsch) abzielt. Es hat vielmehr eine ontologische Stoßrichtung, indem es die Dichotomien der Moderne – sei es zwischen Subjekt und Objekt oder zwischen Natur und Kultur – zugunsten einer konsequent antiessenzialistischen und relationalen Perspektive aufgibt (vgl. Latour 1995). Besonders konsequent wird dieser Schritt in der Post-ANT vollzogen: Ontologien sind nicht in einer von uns unabhängigen Realität verankert, um dann in wissenschaftlichen Beschreibungen abgebildet zu werden – Ontologien werden in der Praxis gemacht. Es liegt auf der Hand, dass in einer praxiografischen Weltanschauung auch eine strikte Differenzierung zwischen theoretischen und empirischpraktischen Forschungskontexten in letzter Konsequenz keinen Sinn mehr ergibt, denn »theory is embedded and extended in empirical practice and practice itself is necessarily theoretical« (Law 2007: 2). Während das Zitat einen gleichberechtigten Rang von theoretischen und empirisch-praktischen Fragestellungen von Wissenschaft suggeriert, geht es den Vertretern der ANT und Post-ANT in Wahrheit um Radikaleres: Das repräsentationale Idiom soll konsequent durch ein performatives ersetzt werden. Und zwar betrifft dies nicht nur die Analyse der empirischen Praxis, sondern auch die Analyse von wissenschaftlichen Repräsentationen. In ihrer Antwort auf Collins’/Yearleys obige Argumente verweisen Latour und Callon (1992) auf die Semiotik, welche die Grenzen zwischen den Dingen und Zeichen verwischt und damit auch die Grenzen zwischen den Kategorien, die uns von Wissenschaftlern aufgedrängt werden (vgl. auch Pickering 1995). Wissenschaftliche Texte und Darstellungen werden in einer materiell-semiotischen Perspektive nicht mehr im Hinblick auf ihre Semantik hinterfragt, als Träger von Bedeutung, sondern als »Inskriptionen« (Latour/Woolgar 1986), als eine »potenziell endlose Folge von Darstellungen«, eine »Kette von Objekt-Transformationen, die sowohl Dinge als

D IE PRAXIS

DER

THEORIE |

45

auch Zeichen sind« (Rheinberger 2001: 112).17 Materie und Zeichen sind unauflösbar miteinander verquickt: Materie ist immer auch symbolisch, Symbole haben immer auch eine materielle Basis. Letztlich fällt so die für die Epistemologie so grundlegende Differenz zwischen den Dingen ›da draußen‹ und den Zeichen ›da drin‹ in sich zusammen. Als materiell-semiotische Einheiten sind Texte keine Darstellungen ›von etwas‹, also Abbildungen, sondern es sind Darstellungen ›als etwas‹, deren performative Rolle im Vordergrund steht (vgl. Rheinberger 2001).18 Der Umsturz ist damit vollbracht: Der theoretische Begründungskontext ist eliminiert, »translating it into a set of empirically grounded-practices« (Law 2007: 2). Für die Epistemologie bleibt dann nichts mehr zu tun. Bereits Mitte der 1980er Jahre erklärten Latour/Woolgar diese selbst ernannte Königsdisziplin für obsolet: »[T]he particular branch of philosophy – epistemology – which holds that the only source of knowledge are ideas of reason intrinsic to the mind, is an area whose total extinction is overdue.« (Latour/Woolgar 1986: 280) Im nächsten Abschnitt werde ich argumentieren, dass es auch vor dem Hintergrund der praktischen Wende gute Gründe gibt, am repräsentationalen Idiom festzuhalten.

R EPRÄSENTIEREN : T HEORIEN

ALS

W ERKZEUGE

Reichenbachs Kontext-Dichotomie hat auch in der Philosophie viel von ihrem Stellenwert verloren und war auch nie ganz unumstritten. Wurde noch in den 1960er und 1970er Jahren heftig darüber debattiert, verlor man irgendwann das Interesse an der fruchtlosen Auseinandersetzung (Hoyningen-Huene 1987). Die empirische Wissenschaftsforschung hat wohl maßgeblich dazu beigetragen: Es gehört zu ihren wichtigen Errungenschaften, durch einen genauen Blick auf den wissenschaftlichen Alltag die Dekonstruktion von idealisierenden Ordnungsmus-

17 Vgl. dazu exemplarisch das Kapitel »Circulating Reference« in Latour 1999 sowie den von Lynch und Woolgar (1990) herausgegebenen Sammelband zum Thema »Representation in Scientific Practice«, in dem hauptsächlich Wissenschaftssoziologen vertreten sind. Die dort versammelten Texte machen deutlich, dass die meisten der Autoren unter Repräsentationen nichts anderes als Inskriptionen, also das Resultat eines Inskriptionsvorgangs verstehen. Passend dazu hat Lynch einige Jahre später einen Text mit dem Titel »Representation is Overrated« geschrieben (Lynch 1994). 18 Zu der semiotischen Inspiration von ANT und Post-ANT vgl. Høstaker 2005, Law 2007. Neben der ANT vertritt auch Haraway (1997) eine materiell-semiotische Perspektive.

46 | ZWISCHEN GEIST UND G EHIRN

tern des Forschungsprozesses vorangetrieben zu haben. STS-Forscher begaben sich als teilnehmende Beobachter in wissenschaftliche Labore, um zu beschreiben, wie Wissenschaftler Experimente durchführen und mit Instrumenten hantieren, neue Experimente planen (was sich über Monate oder sogar Jahre hinziehen kann), Daten auswerten, Artikel schreiben und zur Publikation aufbereiten, mit Kollegen in der Kaffeeküche oder bei Konferenzen diskutieren (vgl. KnorrCetina 1999; Latour/Woolgar 1986; Knorr-Cetina 1991). Jeder Versuch, diese Tätigkeiten in ein bestimmtes Ordnungsschema zu pressen, erscheint künstlich. Das Hantieren mit Instrumenten, das Produzieren und Interpretieren von Daten und die Entwicklung und Rechtfertigung theoretischer Hypothesen sind eng miteinander verflochtene Prozesse, die sich schwerlich in zwei scharf abgetrennte Kontexte einteilen lassen: in einen, in dem ausschließlich die Gesetze der Empirie vorherrschen, und in einen anderen, in dem nur die Regeln der Logik gelten. Hacking geht sogar so weit zu behaupten: »Das Akzeptieren und Ablehnen von Theorien ist ein recht nebensächlicher Teil der Wissenschaft. Es gibt kaum jemanden, der sich jemals mit dieser Aufgabe befasst.« (Hacking 1996a: 38) Die ANT ist ein Kulminationspunkt einer neuen Richtung der Wissenschaftsforschung, die traditionelle Dichotomien über Bord geworfen hat. Der Ansatz hat sich als äußerst fruchtbar erwiesen, um das empirische Dickicht der wissenschaftlichen Praxis – die Fabrikation von Fakten, die vielschichtige Rolle soziotechnischer Faktoren – zu untersuchen. Ich werde mir in den folgenden Kapiteln diese analytische Perspektive immer wieder zunutze machen. Für problematisch halte ich allerdings die Ausgrenzung theoretischer Aspekte der Wissenschaftspraxis, die besonders in der Post-ANT zutage tritt. Als Reaktion auf das wissenschaftsphilosophische Primat der Theorie wurde der Spieß umgedreht, die theoretischen Aspekte von Wissenschaft vollständig in der empirischen Praxis aufgelöst, was Annemarie Mol so auf den Punkt bringt: »I will present knowing not as a faculty of the human mind, but as an activity of the human body and the instruments it puts to use.« (Mol 2000: 82) Diese Sichtweise ist nach meinem Eindruck hauptsächlich ideologisch begründet. Das heißt, sie folgt nicht zwingend aus einer Praxiografie, die ja vor allem als empirischer Analyseansatz entworfen ist. Das Bild, das Mol damit zeichnet, ist ebenso einseitig wie das, was Reichenbach skizziert hat. Wird dort Theorie als praxisfremd dargestellt, so haben wir hier eine weitgehend atheoretische Praxis vor uns. Theorien respektive Repräsentationen erweisen sich bestenfalls als ein der Praxis nachgeordnetes Epiphänomen.19 In ihrer Radikalität halte ich diese Ansicht für überzogen. Wissen19 Mol scheint Naturwissenschaftlern nicht im gleichen Maße zuzugestehen, was sie für ihre eigene Arbeit in Anspruch nimmt, nämlich einen umfangreichen »theoretischen

D IE PRAXIS

DER

THEORIE |

47

schaftliche Theorien sind nicht nur Teil des wissenschaftlichen Alltags, sondern sie spielen dort durchaus eine wirkmächtige Rolle.20 Diesen wichtigen Umstand kann man sich unter anderem anhand von Überlegungen des unorthodoxen Wissenschaftsphilosophen Ian Hacking klar machen. Er hält den Menschen für »ein darstellendes Wesen. Ich spreche nicht vom Homo Faber, sondern vom Homo Depictor. Der Mensch verfertigt Darstellungen« (Hacking 1996a: 223). Die Pointe von Hackings Darstellungsbegriff besteht darin, dass er den Zusammenhang zwischen Darstellungen und dem Dargestellten auf den Kopf stellt. Zuerst kommt das Verfertigen von Darstellungen, und erst als ein Begriff zweiter Ordnung entwickelt sich dann die Realität als das, worauf sich diese Darstellungen beziehen. Hacking beschreibt das Darstellen somit als eine Praxis, die sich nicht in einem übergeordneten Zweck erfüllt (zum Beispiel die Wirklichkeit abbilden). Interessant sind Hackings Überlegungen bezüglich der instrumentellen Wirkungsmacht von Darstellungen, die er vor allem am Beispiel medizinischer Klassifikationen dargelegt hat. In mehreren Arbeiten (1996b; 2001; 1999b) hat er sich mit der »Dynamik der Beziehungen zwischen den Menschen, von denen es ein Wissen gibt, dem Wissen über sie und den Wissenden« beschäftigt (Hacking 2001: 13). Auf eine bestimmte Weise bezeichnet respektive klassifiziert zu werden, eröffnet Patienten neue Selbst- und Weltverständnisse, die Hacking an anderer Stelle als »making up people« bezeichnet hat (Hacking 1999a). Dies schlägt sich unter Umständen in veränderten Verhaltensweisen nieder, die wiederum »Modifizierungen der sie betreffenden Klassifikationen und Erkenntnisse« notwendig machen können. So entspinnen sich »Loopingeffekte«

Subtext« (Mol 2002), der eine eigenständige Lektüre wert ist. In anderen Bereichen der Sozialwissenschaft wurde die Frage nach dem Zusammenhang von Theorie und Empirie ernster genommen, wovon Forschungsansätze der qualitativen Sozialforschung wie die grounded theory Zeugnis ablegen (vgl. Strübing 2004; siehe auch die Methodendiskussion am Ende dieses Kapitels). 20 Die Begriffe »Theorie« und »Repräsentation« haben viele Bedeutungen und sind entsprechend schwammig, was hier nicht ausreichend thematisiert werden kann. Unter einer Theorie verstehe ich »mehr oder weniger formalisierte Aussagesysteme, welche die Deutungs- und Erklärungsperspektiven einzelner Disziplinen bündeln« (Böschen 2009: 107). Als Repräsentation im philosophischen Sinne bezeichnet man gemeinhin die zeichen- oder bildhafte Bezugnahme auf etwas. In einem realistischen Weltbild werden wissenschaftliche Theorien als eine besonders elaborierte Form der Repräsentation der Wirklichkeit aufgefasst.

48 | ZWISCHEN GEIST UND G EHIRN

(Hacking 1999b: 166) zwischen Repräsentation und Repräsentiertem.21 Darstellungen im Sinne Hackings sind also etwas Öffentliches und vor allem etwas, das »in hohem Maße wirksam« ist (Hacking 1999b: 165). Was er für den Spezialfall medizinischer Kategorien herausgearbeitet hat, kann meines Erachtens für jede Art von Darstellungspraxis verallgemeinert werden: Darstellungen haben einen Einfluss darauf, wie Menschen die Welt und ihre Rolle darin sehen und folglich, wie sie sich verhalten. Auch wenn Hacking, soweit mir bekannt ist, für die konstruktivistischen und anti-realistischen Anliegen des Akteur-Netzwerk-Ansatzes durchaus Sympathien hegt (vgl. etwa Hacking 1988, 1999b), lassen sich aus seinen Überlegungen zwei zentrale Kritikpunkte gegen die ANT ableiten: Der erste richtet sich gegen die generalisierte Symmetrie, der zweite gegen die Dominanz des performativen Idioms, das vor allem in der Post-ANT starkgemacht wird. Zum ersten Punkt: Was spricht gegen die generalisierte Symmetrie? Stimmt man mit Hacking überein, so zeigen Darstellungen konkrete Wirkungen, weil es Lebewesen gibt, die empfänglich für ihre Semantik sind. Hacking hält es deshalb für zentral, eine grundlegende ontologische Unterscheidung beizubehalten: nämlich zwischen Entitäten, die auf die Art und Weise, wie sie dargestellt werden, reagieren (sogenannte »interaktive Arten«), und solchen Entitäten, die das nicht tun (»indifferente Arten«; Hacking 1999b). Zur ersten Gruppe gehören menschliche Wesen, die über sprachliches Bewusstsein verfügen, das notwendig ist, um die Darstellungen anderer zu verstehen. Zur zweiten Gruppe gehören nicht-menschliche Wesen wie Kammmuscheln oder Quarks, denen man zwar mit etwas Wohlwollen Handlungsfähigkeit unterstellen kann, die sich aber in ihren ›Handlungsmustern‹ nicht davon beeinflussen lassen können, wie Menschen über sie sprechen und schreiben. Das ist, natürlich, ein direkter Angriff gegen die generalisierte Symmetrie der ANT, die besagt, dass solche ontologischen Differenzen erst in dynamischen Akteur-Netzwerken konstruiert werden, also nicht grundlegend gegeben sind (vgl. Murdoch 2001). Damit komme ich zum zweiten Punkt, der Dominanz des performativen Idioms, die Mol folgendermaßen begründet: In a world of meaning nobody is in touch with the reality of diseases, everybody »merely« interprets them. There are different interpretations around, and »the disease« – forever unknown – is nowhere to be found. The disease recedes behind the interpretations. In a world 21 Hackings Verständnis des making up people ist natürlich wesentlich komplexer, als hier dargestellt wird. Es spielt sich nicht nur auf einer konzeptionellen Ebene ab, sondern umfasst auch institutionelle Strukturen und materielle Praktiken (vgl. Hacking 2004).

D IE PRAXIS

DER

THEORIE |

49

of meaning alone, words are related to the places from where they are spoken. Whatever it is they are spoken about fades away. (Mol 2002: 11f.)

Mol macht hier einen unüberbrückbaren Gegensatz zwischen Interpretation und Realität (respektive zwischen Repräsentation und Repräsentiertem, Sprache und der Welt der Dinge, res cogitans und res extensa) auf: Demgemäß haben wir es auf der sprachlichen Ebene bloß mit einer Pluralität konkurrierender Interpretationen zu tun, mit Perspektiven, die nicht mit der Wirklichkeit der Dinge in Berührung kommen. Deren Wirklichkeit manifestiere sich nicht in unseren Beschreibungen, sondern in unseren Handlungen, so das praxiografische Credo. Damit kommt Mol den Grundüberzeugungen traditioneller Epistemologen erstaunlich nahe, welche eine sogenannte »Zuschauertheorie der Erkenntnis«22 (Hacking 1996a: 219) vertreten, die STS-Forscher doch eigentlich vehement ablehnen. Auch in Mols Bemerkung drückt sich die Überzeugung aus, dass zwischen Darstellung und Welt ein mysteriöser Gegensatz bestehe. Während Erkenntnistheoretiker dies zum Anlass genommen haben, sich darüber den Kopf zu zerbrechen, wie res cogitans und res extensa in Einklang zu bringen seien (vgl. Rorty 1981), dreht Mol den Spieß um: Sie erklärt die Welt der Bedeutungen (respektive der Sprache, des ›bloßen‹ Denkens etc.) für obsolet und wendet sich ausschließlich den handgreiflichen Dingen, der materiellen Praxis zu – das epistemologische Bild bleibt jedoch in seinen Grundzügen das Gleiche. Verschiedene Philosophen – beginnend mit Wittgenstein bis hin zu Neopragmatisten wie Rorty (1986) und Davidson (1986) – haben eine überzeugende alternative epistemologische Vision entworfen. Sie teilen Latours und Mols Abneigung gegen all die Dualismen und erkenntnistheoretischen Fragestellungen, mit denen sich die Philosophen seit der Antike beschäftigt haben. Und sie kämpfen wie diese gegen eine sogenannte Korrespondenztheorie der Wahrheit, nach der Sätze dann wahr sind, wenn sie – quasi als »Spiegel der Natur« (Rorty 1981) – die Welt abbilden. Aber anstatt die Welt der sprachlichen Bedeutung hinter sich zu lassen, skizzieren sie eine »performative view of language« (Barinaga 2009), demgemäß die Welt der Bedeutungen und die Welt der Dinge unauflösbar und auf eine unproblematische Weise miteinander verwoben sind. Nach ihrer Auffassung gibt es keine prinzipiell problematische Distanz mehr zwischen Welt 22 »Ein großer Teil der neueren Wissenschaftsphilosophie entspricht geradezu gewissen Erkenntnistheorien des siebzehnten Jahrhunderts. Indem wir uns ausschließlich mit der Erkenntnis als Darstellung der beschäftigen, fragen wir uns, wie es uns je gelingen kann, den Darstellungen zu entrinnen und uns an der Welt festzuhaken.« (Hacking 1996a: 219)

50 | ZWISCHEN GEIST UND G EHIRN

und Sprache, denn sprachliche Bedeutung erwächst erst im Rahmen einer offenen sozialen Praxis, die sich durch ihren Weltbezug auszeichnet – und nicht etwa, um das stereotype Bild zu bemühen, indem ein solitärer Denker im Lehnstuhl einen besonderen mentalen Kontakt zu einer nicht-menschlichen Realität aufbaut. Sprachliche Bedeutung ist also aufs Engste mit der Welt und unseren Aktivitäten in ihr verwoben, was die Dichotomie zwischen Sprache und Welt, zwischen Denken und Handeln entmystifiziert, an der die traditionellen Epistemologen – und auch Mol et al. – festzuhalten scheinen. Nun gelten aber gerade die von mir in Anschlag gebrachten Philosophen als scharfe Kritiker der Idee der Repräsentation und als wesentlich mitverantwortlich für die sogenannte »Krise der Repräsentation« (Sandkühler 2002). Die Vorstellung, dass Repräsentationen als nachgeordnetes Abbild einer vorgeordneten Wirklichkeit aufzufassen sind, ist zweifelsohne nicht mit den soeben präsentierten pragmatistischen und instrumentalistischen Auffassungen vereinbar. Neben diesem klassischen Repräsentationsbegriff gibt es jedoch auch einen schwachen und völlig unproblematischen Sinn von Repräsentation, wie er etwa von Hacking vertreten wird. Für Hacking sind Darstellungen keine Abbilder, sondern Bilder und als solche »die erste der Schöpfungen des Menschen« (Hacking 1996a: 229). Das heißt: Erst kommt die Praxis des Darstellens, bevor die Produkte dieser Praxis – zu denen Hacking nicht nur sprachliche Gegenstände, sondern auch physische Objekte (Bilder, Skulpturen etc.) zählt – einen Wirklichkeitsstatus zugewiesen bekommen. Aus dem »repräsentationalen Idiom« folgt also nicht, dass wir in eine in philosophischer Hinsicht längst obsolete Abbildtheorie von Sprache zurückfallen müssen. Sprache ist kein Medium, das mit einer von uns unabhängigen Realität korrespondiert. Ebenso wenig stehen die Praktiken des Repräsentierens und Intervenierens in einem unüberbrückbaren Gegensatz (Ibarra/Mormann 2006). Verschiedene Philosophen verweisen auf den Werkzeugcharakter wissenschaftlicher Repräsentationen, Werkzeuge, die konkrete Spuren in der physischen Welt hinterlassen (Suárez/Cartwright 2008; Cartwright et al. 1995; Keller 1992): [S]cientific theories represent in order to intervene […]. And the world in which they aim to intervene is, first and foremost, the world of material (that is, physical) reality. For this reason, I prefer to call them tools. […] Such theories, or stories, are invented, crafted, or constructed by human subjects, interacting both with other human subjects and with nonhuman subjects/objects. (Keller 1992: 73)

Gemäß dieser Auffassung stehen Theorien nicht mehr außerhalb von Zeit und Raum, sondern sind kulturelle Produkte, entstanden in einer spezifischen histori-

D IE PRAXIS

DER

THEORIE |

51

schen Situation und eng verflochten mit der empirischen Wissenschaftspraxis – Produkte allerdings, die dennoch bestimmten internen Logiken und Regeln gehorchen und also nicht beliebig sind (Sandkühler 2002). Das Resultat der Annäherung zwischen einem Idiom der Performanz und einem der Repräsentation ist ein Bild von Wissenschaft, das eine engere Verflechtung zwischen Praktiken des Darstellens und Praktiken des Eingreifens propagiert. Beschreibungen der Welt verändern die Art und Weise, wie Menschen (zum Beispiel Wissenschaftler oder Patienten) bestimmte Ausschnitte der Wirklichkeit wahrnehmen, und eröffnen ihnen dadurch neue Optionen, sich zu dieser Wirklichkeit zu verhalten und in sie einzugreifen. Wären Darstellungen bloße Epiphänomene, blieben die von Hacking beschriebenen Loopingeffekte – und im Speziellen sein Konzept der interaktiven Arten – völlig unverständlich. Man braucht das repräsentationale Idiom, um die zentralen Charakteristika und die Wirkmächtigkeit von Theorien zu erfassen, ebenso wie man das performative Idiom braucht, um die Aktivitäten menschlicher Körper und ihre Interaktionen mit Instrumenten adäquat zu beschreiben. Oder umgekehrt formuliert: Wesentliche Merkmale von epistemischen Praktiken – damit meine ich diejenigen Praktiken, die Bedeutungssysteme hervorbringen und modifizieren –, lassen sich nicht rein performativ »as an activity of the human body and the instruments it puts to use« (Mol 2000: 82) beschreiben. Eine solche rein auf Performanz fokussierte Analyse bekommt die darstellenden Aspekte dieser Praktiken nicht in den Blick.

D IE P RAXISMANGEL Wie der letzte Abschnitt gezeigt hat, gibt es gute Gründe, die Wirkmächtigkeit von Theorien ernst zu nehmen. Dies gilt speziell für die Lebenswissenschaften, wo – wie Keller bemerkt – theoretische und experimentelle Praktiken eng miteinander verwoben sind (Keller 2000). Die klassischen wissenschaftstheoretischen Dichotomien lassen sich in diesem Wissenschaftsbereich viel schwieriger aufrechterhalten als in der mathematisch geprägten Physik, die in einen theoretischen und einen angewandten Fachbereich geschieden ist (vgl. Galison 1999). Das Ziel muss sein, das dynamische Wechselspiel von Eingreifen und Darstellen als unterschiedliche Aspekte der Wissenschaftspraxis in den Blick zu bekommen, ohne entweder Experiment und Theorie durch einen tiefen Graben voneinander zu trennen oder den Graben im Rahmen einer generalisierten symmetrischen Analyse komplett zuzuschütten. Im Hinblick auf das Verhältnis zwischen

52 | ZWISCHEN GEIST UND G EHIRN

Theorie und Empirie erweist sich das Symmetrieprinzip der ANT als fundamental asymmetrisch. In der postpositivistischen Philosophietradition, die mit den einflussreichen Arbeiten von Thomas Kuhn oder Paul Feyerabend einsetzt (Rouse 1996), wurden die alten Dichotomien zunehmend aufgelöst.23 In den frühen 1980er Jahren begann eine Gruppe physikalisch geschulter Wissenschaftsphilosophen um Ian Hacking und Peter Galison, sich eingehend mit der experimentellen Praxis der Physik zu beschäftigen.24 Diese Philosophen kamen zum Schluss, dass Experimente ein von der Theorie weitgehend unabhängiges Eigenleben führen. Furore machten besonders Hackings Arbeiten. Sein Entitätenrealismus basiert auf der Idee, dass diejenigen Entitäten real sind, die sich im Experiment als instrumentalisierbar erweisen (Hacking 1996a). Dabei verlor er die einflussreiche Rolle der Darstellungen trotzdem nicht aus dem Blick (siehe oben). Das Bild der experimentellen Praxis, das er zeichnet, ist das einer wechselseitigen und dynamischen Abstimmung unterschiedlicher Elemente (Hacking 1992a): Dazu gehören Ideen, Apparaturen, Theorien zur Funktionsweise dieser Apparaturen, Hypothesen, Daten etc. Das Resultat sind sich selber stabilisierende Konstellationen, »experimental microworlds« (Rouse 1996: 128), in der empirische und theoretische Elemente eng miteinander verwoben, aber – und das ist die Pointe – dennoch nicht aufeinander reduzierbar sind. Denn erst in ihrem Zusammenspiel entwickelt sich die »self-vindicating structure«, die Hacking (1992a) zufolge den experimentellen Prozess austariert.25 Inzwischen beschäftigt sich eine große Anzahl 23 Der Einfachheit halber gehe ich über die Tatsache hinweg, dass sich die Entwicklung der Philosophie in Kontinentaleuropa und der angloamerikanischen Welt weitgehend separiert vollzog. Ein positivistisches Wissenschaftsbild war vor allem in der analytischen Philosophietradition der USA und Großbritannien verankert, während europäische Denker wie Bachelard oder Foucault andere Wege einschlugen (vgl. Rheinberger 2005). 24 Als wichtige Vertreter des sogenannten »New Experimentalism« (Ackermann 1989) sind Ian Hacking, Peter Galison, Andrew Pickering und Allan Franklin zu nennen. 25 Das Austarieren von »types of theory«, »types of analysis« und »types of instruments« ist nach Hacking ein wesentlicher Faktor, der zur Stabilität der Laborwissenschaften beiträgt (Hacking 1992a). Da Laborphänomene in einem artifiziellen Kontext hergestellt würden, seien sie empirisch unterdeterminiert. Das heißt, durch Finetuning auf materieller oder theoretischer Ebene lassen sich eine bestehende Experimentalpraxis und die mit ihr verknüpften Theorien lange aufrechterhalten, auch wenn die experimentellen Daten nicht in das bestehende Puzzle passen. Das Gleichgewicht, das durch eine »self-vindicating structure« im Labor erzeugt wird, hat man sich jedoch als

D IE PRAXIS

DER

THEORIE |

53

von Philosophen mit dem »Abenteuer der Verzahnung von Darstellen und Eingreifen« (Hacking 1996a: 246). Ich werde im sechsten Kapitel mit der »new mechanistic philosophy of science«26 einen aktuellen wissenschaftsphilosophischen Ansatz diskutieren, der sich sensibilisiert zeigt gegenüber der experimentellen Praxis und dem dynamischen Zusammenhang zwischen Praktiken des Eingreifens einerseits und des Darstellens andererseits (vgl. Bechtel/Abrahamsen 2005). Dieser philosophische Perspektivenwechsel wurde nicht zuletzt dadurch ausgelöst, dass die Wissenschaftsphilosophie ihre Romanze mit der Idealwissenschaft Physik beendete und sich anderen, mehr praxisorientierten Wissenschaftsformen wie den Lebenswissenschaften anzunähern begann. Das Resultat, so Bechtel, »may not suit a general philosophical temperament. We offer no universal procedures, no single method for science. We see no invariant pattern. Scientific disciplines evolve under different constraints with differing histories«27 (Bechtel/Richardson 1993: 244). Doch selbst ›aufgeklärte‹ Wissenschaftsphilosophen wie Bechtel, die sich offener gegenüber der Praxis und den materiellen Grundlagen des Forschungsprozesses zeigen, pflegen immer noch einen theoretischen und keinen praxistheoretischen Ansatz. Es gehöre zur »standard procedure« der Wissenschaftsphilosophie, so Griesemer (1992), sich auf die Theorien, Behauptungen oder Erklärungsmodelle zu konzentrieren. Auch wenn die Materialitäten und Forschungspraktiken einbezogen würden, so nur, um retrospektiv nachzuzeichnen, »how actions led to a claim’s having a certain epistemic status« (Griesemer 1992: 51). Indem sie von bereits definierten und festgelegten Praxisfeldern ausgehen, mangelt es gängigen philosophischen Analysen an einem Gespür für die komplexe Offenheit des Forschungsprozesses, das STS-Arbeiten mit ihrem Schwerpunkt auf den empirisch-materiellen Konstellationen aufweisen. Diese haben jedoch im Gegenzug die Tendenz, die Wirkmächtigkeit von theoretischen Elementen zu ignorieren. Ich schließe mich Griesemer an, der für ein Interpretationsmodell von Wissenschaft plädiert hat, das die emergente Ko-Konstruktion von »claims, jobs, oszillierend vorzustellen. Wie Moser bemerkt hat, gleicht Laborarbeit eher einem »micro-biological puzzle-solving« (Moser 2008: 101) als einem kumulativen Erkenntnisprozess. Neue Fragestellungen erfordern neue experimentelle Arrangements. Mit anderen Worten: »›tools‹, ›jobs‹, and the ›rightness‹ of the tools for the jobs« (Clarke et al. 1992: 5) müssen immer wieder neu aufeinander eingespielt werden, abhängig vom Forschungsprozess und den Problemen, die es zu lösen gilt. 26 Vgl. http://mechanism.ucsd.edu/~bill/ (Stand: 7.2.2011). 27 Richard Rorty (1991) brachte das mit den folgenden Worten kurz und knapp auf den Punkt: »Natural science [is not] a natural kind.«

54 | ZWISCHEN GEIST UND G EHIRN

tools, materials, techniques, instruments, and people […] in an ongoing process« (Griesemer 1992: 52) in den Blick bekommt. Welche Anforderungen sollte ein solcher Ansatz erfüllen? Er sollte theoretische Aspekte von Wissenschaft als einen Teil der Forschungskultur oder Forschungspraxis charakterisieren, der eng mit anderen Dimensionen dieser Praxis verknüpft ist. Mit anderen Worten, wissenschaftliches Wissen steht nicht außerhalb der Praxis, in einem Raum der Ideen, wo es rein logischen, zeitlosen Prinzipien gehorcht. Im Gegenzug sollte die Darstellungswirklichkeit aber nicht mit der Eingreifwirklichkeit der empirischen Praxis gleichgesetzt werden, weil nur durch die Anerkennung der Eigenständigkeit der Praxisdimensionen auch ihr komplexes Wechselspiel in einem offenen Ko-Konstruktionsprozess geltend gemacht werden kann. Der Zusammenhang lässt sich mit Peter Galison veranschaulichen (vgl. Abbildung 1). Anhand instrumenteller, experimenteller und theoretischer Subkulturen der Physik hat Galison ein Bild von deren Entwicklungszusammenhang skizziert, das jeder Subkultur ein Eigenleben (»partial autonomy«, Galison 1999: 143) zugesteht, keiner das Primat vor den anderen zuweist, sie aber dennoch kontingent aufeinander bezogen sieht. Im Unterschied zu Galison jedoch, der diese Domänen als soziale Welten voneinander abgrenzt und über eine trading zone miteinander in Kontakt bringt, möchte ich dieses Schema auf unterschiedliche Dimensionen der Forschungspraxis übertragen. Instrument₁ Theory₁ Experiment₁

Instrument₂ Theory₂ Experiment₂

Instrument₃

Theory₃ Experiment₃

Time

Abbildung 1: »Intercalated periodization«: Der Zusammenhang von theoretischer, experimenteller und instrumenteller Praxis (nach Galison 1999) Es gibt einen STS-Analyseansatz, der einer solchen Vision des Forschungsprozesses ziemlich nahe kommt. Andrew Pickering, ein in Exeter lehrender Wissenschaftsforscher, hat mit der Praxismangel eine pragmatistische Sicht auf die Wissenschaft entwickelt, in der Wissenschaftspraxis als emergenter Prozess charakterisiert wird, als ein offener Modellierungsprozess (»open-ended modelling«), der sich zwischen einer sozialen, theoretischen und materiellen Sphäre

D IE PRAXIS

DER

THEORIE |

55

abspielt.28 Die Metapher »Mangel« soll auf die verwickelte Dialektik hinweisen, die »unvorhersehbaren Transformationen« (Pickering 2007: 28), die typisch für die Wissenschaftspraxis sind.29 Konzepte und andere theoretische Entitäten sind Teil dieses Wechselspiels, gerade weil Pickering ihnen eine distinkte Rolle zugesteht: [W]e can recognize here an impure, posthuman dynamic in the extension of culture, in which the the human realm of conceptual structures is important, as is the nonhuman realm of material agency, but in which neither can be regarded as a controlling center of the action. How concepts are to be extended is not determinded within those concepts, but in relation to other concepts and material performances, which again contain no blueprint for their own extension […]. (Pickering 1995: 93)

Pickering hat seine ehrgeizige Vision des Forschungsprozesses anhand von mehreren empirischen Fallbeispielen entwickelt. Eines davon ist die für die Teilchenphysik wegweisende Konstruktion einer Blasenkammer durch Donald Glaser in den 1950er Jahren, eine Erfindung, für die Glaser 1960 mit dem Nobelpreis belohnt wurde. Ab Mitte des letzten Jahrhunderts gehörte diese Apparatur, die sogenannte strange particles sichtbar macht, zum Grundrepertoire der Elementarteilchenphysik. Bis es allerdings dazu kam, musste Glaser viele praktische Hindernisse – Pickering nennt sie Widerstände, »das Auftreten einer Blockierung auf dem Weg zu einem Ziel« (Pickering 2007: 32) – aus dem Weg räumen. Glasers erste Prototypen, für die er die Nebelkammer zum Vorbild nahm, funktionierten nicht wie gewünscht. Pickering hat hierfür materielle Wirkungsmächte verantwortlich gemacht. Die unerwarteten Fehlfunktionen zwangen Glaser dazu, sein Modell immer wieder in unvorhersehbarer Weise anzupassen, bis Anfang der 1950er Jahre endlich ein funktionsfähiger Prototyp gefunden war. Auf dem Weg dahin war nicht nur die technische Form der Blasenkammer selbst substan28 Pickering hat seinen Ansatz als pragmatistischen Realismus charakterisiert. Die Parallelen zu Deweys Rekonstruktion des Forschungsprozesses sind offensichtlich (Dewey 2008; vgl. auch Strübing 2008). 29 Rheinberger (1999) bezweifelt jedoch die Adäquatheit der Metapher, und ich bin geneigt, ihm zuzustimmen: Denn die inzwischen kaum noch gebräuchliche Apparatur dient dazu, einen unordentlichen Haufen frisch gewaschener Wäsche zu entwässern und zu glätten – also in einen ordentlicheren Zustand zu überführen. Solche zweckorientierten Transformationen hatte Pickering jedoch nicht im Sinn. Pickering weist selber darauf hin, dass die Metapher ihre »Prägnanz« verliert, wenn man sie »zu sehr strapaziert« (Pickering 2007: 28).

56 | ZWISCHEN GEIST UND G EHIRN

ziell modifiziert worden, sondern auch Glasers ursprüngliche Pläne hatten sich im Rahmen einer »Dialektik von Widerstand und Anpassung« (Pickering 2007: 27) grundlegend verändert. Damit ist die Geschichte, die Pickering rekonstruiert hat, aber noch nicht zu Ende: Glasers Detektor wurde von mehreren Arbeitsgruppen (eine davon wurde von Glaser selber geleitet) unabhängig voneinander weiterentwickelt und zwischen verschiedenen sozialen (Klein- und Großforschung) und begrifflichen Dimensionen der Elementarteilchenphysik ›gemangelt‹. Die soziale Struktur der experimentellen Elementarteilchenphysik nahm dabei – die Idee sollte klar geworden sein – selber neue Formen an. Dieser »Tanz der Wirkungsmacht« (Pickering 2007: 63), der Menschen, Dinge, aber auch soziale und konzeptionelle Strukturen involviert, bildet die Kernidee der Praxismangel. Der Anspruch, dieses endlose dialektische »Spiel von Widerstand und Anpassung« (Pickering 2007: 29) einzufangen, macht die praxistheoretische Ausrichtung der Praxismangel deutlich. Nichts erweist sich als stabil, alle Elemente befinden sich in einem beständigen, reziproken Prozess der Transformation: »[S]owohl das Menschliche als auch das Nicht-Menschliche gelten darin als ergebnisoffen werdend, wobei sie in einem wesenhaft zeitlichen ›Tanz der Wirkungsmacht‹ (dance of agency) emergente Formen annehmen.« (Pickering 2007: 63) Pickering hat seinen Ansatz als eine Art »Weltanschauung« bezeichnet (Pickering 2007: 28). Seine ehrgeizige »ontologische Sicht der Welt und unserer Stellung in ihr« (Pickering 2007: 63) weist viele offensichtliche Parallelen zur ANT auf. Auch Pickering strebt »Echtzeit-Erklärungen« (Pickering 2007: 25) des Forschungsprozesses an. Und ebenso grenzt er sich von den humanistischen Erklärungsmodellen der klassischen Soziologie ab, die sich praktisch ausschließlich am Menschen und seinen Interessen ausrichten. Für Pickering bilden menschliche Interessen und soziale Strukturen nicht der Dreh- und Angelpunkt der Analyse. Denn sie sind nicht unabhängig von den Dingen und ihrer Wirkungsmacht zu begreifen, mit denen sie in der Praxis vertrackt verwoben sind. Diese Dezentrierung des Menschlichen ist der Grund, wieso er seinen Ansatz als »posthumanistisch« (Pickering 2007: 20) bezeichnet hat.30 Entscheidend ist jedoch, dass dem Menschen bei Pickering eine Sonderrolle zukommt, die in der materiell-semiotisch begründeten Symmetrie des ANT nicht vorgesehen ist. Wie Hacking so gesteht auch Pickering den Menschen die Fähigkeit zu, sich in die

30 Das positivistische Weltbild, das viele Naturwissenschaftler und Philosophen vertreten, bezeichnet Pickering entsprechend als antihumanistisch, da es das menschliche Subjekt aus den Erklärungen »tilgt« (Pickering 2007: 20).

D IE PRAXIS

DER

THEORIE |

57

Zukunft zu entwerfen, Ziele zu entwickeln und diese Ziele zu reflektieren. Kurzum, sie haben Handlungspotenzial und nicht nur Wirkungsmacht: Für mich ist entscheidend, dass wir Menschen auf eine besondere Weise in der Zeit leben. Wir konstruieren Ziele, die sich auf gegenwärtig nicht existierende zukünftige Zustände beziehen, und versuchen dann, diese herbeizuführen. Ich kann keinen Grund sehen anzunehmen, dass DNA-Doppelhelixe oder Fernsehgeräte ihre Existenz auf diese Weise organisieren – und warum sollten sie auch? (Pickering 2007: 27)

Mit der Anerkennung der menschlichen Intentionalität hat Pickering das epistemische Subjekt wieder ins Spiel gebracht und den Grundstein für ein vielschichtiges Bild des Forschungsprozesses gelegt, das theoretische und empirische Elemente zusammenführt. Er sieht Wissenschaft einerseits als ein wesentlich von menschlichen Zielen und Interessen strukturierten Prozess und schafft damit den Raum für menschliche Bedeutungswelten: »Die für die Mangel relevanten Widerstände sind stets innerhalb eines Raums menschlicher Zwecke, Ziele und Pläne situiert.« (Pickering 2007: 50) Auf der anderen Seite sieht er diesen immateriellen Raum als in steter Veränderung begriffen, und zwar auf eine Art und Weise, die zwangsläufig über ihn hinausweist. Im Unterschied zu den herkömmlichen soziologischen Ansätzen stehen Interessen also nicht außerhalb der Praxis, gewissermaßen als unbewegte Beweger, sondern sie sind im Werden begriffen und dabei auf konstitutive Weise mit der materiellen Wirkungsmacht verknüpft. So gelingt es Pickering, der Frage, wie Fakten konstruiert werden, neue Gesichtspunkte abzugewinnen. Anhand eines weiteren historischen Fallbeispiels, der Suche nach Quarks, hat er gezeigt, wie wissenschaftliches Wissen, Fakten oder auch Theorien erst durch die gleichberechtigte Interaktion diverser Elemente der Forschungspraxis Gestalt annehmen. Der italienische Physiker Morpurgo, dessen Forschung im Zentrum von Pickerings Fallstudie steht, startete mit einer Apparatur (dem magnetic levitation electrometer, MLE), mit einem Interpretationsmodell der Funktionsweise des MLE sowie dem damaligen Theoriestand bezüglich Quarks. Als er in seinen Experimenten auf materielle Widerstände stieß – die experimentellen Daten entsprachen nicht seinen Erwartungen –, begann er, die materiellen und begrifflichen Ressourcen seiner Praxis neu aufeinander einzustellen. Hier kommt die theoretische Arbeit als eine eigene Form der Praxis ins Spiel. Es gehört zum Wesensmerkmal dieser Praxis, dass sie nicht nur Dinge und Menschen involviert, sondern auch begriffliche und theoretische Elemente, denen Pickering eine spezifische Widerständigkeit zuweist, »involving its own nontrivial mangling« (Pickering 1995: 81). Begriffssysteme lassen sich nicht in beliebiger Weise anpas-

58 | ZWISCHEN GEIST UND G EHIRN

sen, sondern man trifft gemäß Pickering auf eine disziplinär begründete Form des Widerstands, die er »disciplinary agency« genannt hat: »It is, I shall say, the agency of a discipline – elementary algebra, for example – that leads us through a series of manipulations within an established conceptual system.« (Pickering 1995: 115) In der disciplinary agency spiegeln sich die Normen wider, die unter anderem den Gebrauch eines Symbols und die Arbeit an Theoriegebäuden bestimmen und einschränken.31 Zwischen diesen verschiedenen Sphären spielt sich die wissenschaftliche Dynamik ab. Wissenschaftler streben danach, so Pickering, Assoziationen zwischen den materiellen und den unterschiedlichen begrifflichen Strukturen (Modell des Apparats, Modell von Quarks) herzustellen, sodass die Wirkungsmacht des Materiellen durch ihre Theorien quasi sinnvoll aufgefangen wird. Analog zu Hacking (1992a) zielt Pickering auf die »interactive stabilization« (Pickering 1989: 284) von instrumenteller und begrifflicher Praxis: The basic image, then, is one of empirical scientific practice as the open-ended extension of material and conceptual culture, in which specific trajectories come to be marked out and stabilized by the achievements of associations between these elements which, as it were, transmute material performances into facts. (Pickering 1995: 91)

Weder die empirische Praxis mit ihrer Abhängigkeit von diversen Materialien noch die diversen Darstellungspraktiken, die epistemologischen Normen unterworfen sind, haben also Priorität. Dennoch handelt es sich um distinkte Dimensionen der wissenschaftlichen Praxis, die jeweils eigene Formen von Wirkungsmacht aufweisen. Fakten entstehen und vergehen Pickering zufolge durch das Assoziieren dieser Sphären. Auf der Suche nach Stabilität und Ordnung halten Wissenschaftler diesen Mangelprozess am Laufen, sie bestimmen jedoch nicht seinen Verlauf. In einem mühevollen Prozess mag es ihnen gelingen, die sozialen, materiellen und begrifflichen Wirkungsmächte miteinander in Einklang zu bringen, eine Ordnung, die aber nie endgültig sein kann. Alles ist im Fluss: Soziale Strukturen, Forschungsabsichten und theoretische Ideen nehmen an diesem endlosen Tanz der Wirkungsmächte teil.

31 Pickering scheint sich in diesem Punkt wie Bloor (2002) an Wittgenstein anzulehnen, der die begriffliche Praxis zu einem Regelfolgen erklärte (Collin 2011). In diesem Rahmen hat auch die klassische Erkenntnistheorie ihren Platz, wenn der auch nicht außerhalb des Geschehens liegt. Ihr Forschungsfeld bildet die disciplinary agency, die disziplinär verankerten Normen und Regeln, die jedoch – wie jede andere Praxis auch – der historischen Wandelbarkeit unterliegen.

D IE PRAXIS

DER

THEORIE |

59

Zum Schluss möchte ich noch auf einige Kritikpunkte eingehen, die an Pickering vor allem von einer soziologischen Warte aus herangetragen wurden. So gesteht etwa Strübing (2005) der Praxismangel zu, dichte Beschreibungen der materiellen Widerständigkeit zu ermöglichen, er bemängelt aber die fehlende »Problematisierung von Sozialität« (Strübing 2005: 319). In die gleiche Richtung geht Grit Laudels und Jochen Gläsers (2004) Kritik: Das Analysevokabular von Widerstand und Anpassung sei zu abstrakt, um insbesondere natürliche Prozesse mit soziologischen Theorien zu verbinden. Diese Punkte sind sicherlich berechtigt. Als ausgebildeter Physiker ist Pickering nicht so stark in der Soziologie verankert wie viele andere Wissenschaftssoziologen. Dies wird auch bei seinem Analyseansatz spürbar. Zwar bezieht er soziale Strukturen in seine Perspektive mit ein, sie bleiben der Geschichte, die er erzählt, aber eher äußerlich. Sein Fokus ist, daran besteht kein Zweifel, individuumzentriert. Die Kritik der oben erwähnten Wissenschaftssoziologen macht jedoch eines ganz deutlich: Es gibt keinen Ansatz, der alle Aspekte von Wissenschaft in den Blick bekäme oder alle Forschungsinteressen gleichermaßen abzudecken vermöchte. Gläser und Laudel, die dem Neuen Institutionalismus zuzurechnen sind, haben mit den sogenannten »epistemic conditions« einen Alternativvorschlag vorgelegt, der eine soziologische Analyse mit nicht-sozialen Faktoren versöhnen soll (Laudel/Gläser 2004). Aber »there is a prize to pay […]«, wie sie schreiben (Laudel/Gläser 2004: 33). Ihr Ansatz sei zwar besser geeignet, um verschiedene Forschungssituationen miteinander zu vergleichen, scheitere aber bei einem Echtzeitverständnis der Wissenschaftspraxis – also gerade bei dem, was Pickering vornehmlich im Sinn hat. Das führt noch einmal den instrumentellen Charakter von Theorien vor Augen, die man gemäß seinen Plänen und Absichten wohlüberlegt auswählen sollte. Dies gilt auch für diese Studie, deren Forschungsinteresse sich auf eine praxistheoretische Analyse der Wissensproduktion richtet, wohingegen die – selbstverständlich relevante – Ebene von institutionellen Allianzen, Förderstrukturen nicht vertieft untersucht wird. Vor diesem Hintergrund bietet sich die Praxismangel als ein geeignetes Analyseinstrument an und man kann über ihre Schwächen wohlwollender hinwegsehen.

M ETHODISCHE S CHLUSSFOLGERUNGEN Die Praxismangel propagiert eine »ontologische Sicht der Welt und unserer Stellung in ihr«, in der »sowohl das Menschliche als auch das Nicht-Menschliche […] als ergebnisoffen werdend [gelten]« (Pickering 2007: 63). Der Ansatz offeriert ein allgemeines Interpretationsschema für die menschliche Praxis, das je-

60 | ZWISCHEN GEIST UND G EHIRN

doch auf alle möglichen »loci of agency« (Pickering 1995: 247) erweitert werden könne. Pickerings Vorschlag, die Praxismangel als eine generalisierte »Theory of Everything« zu verstehen, wurde von vielen Kommentatoren skeptisch gesehen (Gingras 1997; Rheinberger 1999) und braucht uns hier nicht weiter zu kümmern. Viel interessanter sind die methodischen Fragen, die die Mangel aufwirft, und die sich aus der angestrebten Synthese sozialer, theoretischer und empirischer Aspekte der Praxis ergeben. Pickering geht auf diesen Punkt nur am Rande ein. Er sieht zwei mögliche Strategien, wie eine synthetische Analyse der Wissenschaftspraxis erreicht werden könnte: Zum einen im Rahmen eines multidisziplinären Eklektizismus, der die traditionellen disziplinären Orientierungen grundsätzlich beibehält, »a summation of disciplinary products« (Pickering 1995: 216);32 zum anderen im Rahmen einer »more thoroughgoing synthesis« (Pickering 1995: 216), welche die disziplinäre Fraktionierung der Wissenschaftsforschung zu überwinden sucht. Für Pickering geht die Mangel einen gewichtigen Schritt in Richtung eines solchen »antidisziplinären« Ansatzes, »in which the microdisciplinary fractures in and around science studies are more or less erased« (Pickering 1995: 216). Die Praxismangel sei darauf ausgelegt, so Pickering, die auseinanderdividierten disziplinären Ansätze unter einem gemeinsamen Analysedach zu vereinen, das posthumanistisch, performativ und historistisch angelegt ist. Pickerings Vision kann nicht ganz überzeugen. Wenn selbst die wissenschaftliche Praxis hochgradig fragmentiert ist und sich immer stärker ausdifferenziert, wieso sollte das für die Begleitforschung nicht gelten? Gerade Pickerings Praxismangel macht ja darauf aufmerksam, dass die Forschungspraxis weder von präfixierten Formen noch von festen Strukturen geprägt ist. Dieser »supercyborg« (Pickering 1995: 145) hat viele Facetten, die alle im Fluss sind, und die Vorstellung, dass es möglich sein soll, ihn aus einer Warte zu begreifen, erscheint mir nicht plausibel. Ich sehe also keine Notwendigkeit, dass die einzelnen Disziplinen ihre methodischen Standpunkte völlig aufgeben, was nicht heißen soll, dass sie ideologisch daran festhalten. Anders als Pickering will ich insbesondere das repräsentationale Idiom nicht völlig eliminieren. Wer sich für Theorien interessiert, und sei es aus einer praktischen Perspektive, sollte meines Erachtens den Sinn für das Theoretische an ihnen beibehalten. Ich bin optimistischer als Pickering, dass es den Disziplinen der Wissenschaftsforschung gelingt, 32 Vgl. etwa die Vorschläge der Philosophin Mitchell (2008) und des Psychiaters Kendler (2005b), die beide eine Art integrativen Pluralismus verfolgen, der »rather than building large theoretical structures, […] establishes small ›local‹ integrations across levels of analysis« (Kendler 2005b: 437).

D IE PRAXIS

DER

THEORIE |

61

»the abysses that yawn between and around them« (Pickering 1995: 214) zumindest lokal, im Rahmen konkreter Kooperationen, zu überwinden. Meine Präferenz geht also in Richtung eines multidisziplinären Eklektizismus, der die Stärken der disziplinären Spezialisierungen immer wieder sinnvoll auslotet, statt sie in einer diffusen Gesamtperspektive zu nivellieren – was zu der Frage führt, welche Daten in der vorliegenden Studie erhoben und wie sie analysiert wurden. Seit Latours und Woolgars (1986) Studie zum Laborleben des »Salk Institute« bilden ethnografische Methoden den methodologischen Dreh- und Angelpunkt der empirischen Wissenschaftsforschung. Der ethnografische Blick auf Mikro-Praktiken hat sich als hervorragend dafür geeignet erwiesen, die lokalen Produktionskontexte von Wissen mit ihren materiellen Sachzwängen und sozialen Handlungszwängen zu beleuchten. Eine Feldforschung »follows objects while they are being enacted in practice« (Mol 2002: 152), um die in den Forschungsprozess involvierten Materialitäten, die Handlungsroutinen sowie das implizite Wissen möglichst dicht zu beschreiben. Der Import ethnografischer Methoden in die Wissenschaftsforschung erfolgte im Rahmen der oben beschriebenen Abgrenzung von herkömmlichen wissenschaftssoziologischen und wissenschaftsphilosophischen Analysemethoden, die sich entweder auf die Begründungs- oder die sozialen Kontexte von Wissen einschränkten. Die Methode der Praxiografie, so Mol, beinhalte »a shift from asking how scientists represent to asking how they intervene« (Mol 2002: 152). In dieser Arbeit geht es mir jedoch gerade darum, die Programmatik einer symmetrischen Analyse zu entwickeln, welche die dynamischen Wechselwirkungen zwischen diesen Aspekten der Wissenschaftspraxis in den Blick bekommt. Dafür hätte es nicht ausgereicht, die Aktivitäten von Forschern ethnografisch zu beschreiben. Feldforschungen sind nicht besonders hilfreich dabei, Forschungslogiken und disziplinäre Denkzwänge zu erhellen, deren praktische Relevanz meist erst in längerfristigen Zeiträumen erkennbar wird. Um den theoretischen Intentionen und epistemologischen Prämissen der Forscher auf die Spur zu kommen, ist es darüber hinaus notwendig, »Deutungswissen« (Bogner/Menz 2001) zu erheben. Erst damit betritt man »das Feld der Ideen und Ideologien, der fragmentarischen, inkonsistenten Sinnentwürfe und Erklärungsmuster« (Bogner/Menz 2001: 484). Deshalb habe ich in dieser Arbeit auf eine Feldforschung im engeren Sinne verzichtet und mich für das qualitative Experteninterview als Forschungsmethode entschieden. Ich möchte betonen, dass dieser Verzicht nicht als prinzipielles Plädoyer gegen ethnografische Methoden misszuverstehen ist, sondern allein aus forschungspragmatischen Gründen erfolgte. Denn selbstverständlich wären ergänzende ethnografische Forschungen im Sinne der Programmatik wünschenswert

62 | ZWISCHEN GEIST UND G EHIRN

gewesen, um die Nahtstelle zwischen der Ebene der Intervention und der Ebene der Repräsentation stärker praxistheoretisch zu problematisieren. Sie hätten auch dabei helfen können, Ex-post-Rationalisierungen in Interviews aufzudecken. Aber angesichts der Vielschichtigkeit und Dynamik der Felder hätte eine allzu kleinteilige Analyse von Forschungsalltagen vermutlich zu weit geführt und den Rahmen dieser komparativen Analyse gesprengt. Um einen tieferen Einblick in die Produktionskontexte zu bekommen, legte ich dafür bei den Interviews besonderen Wert auf Fragen zum konkreten Arbeitsumfeld und zu den Handlungskontexten, also dem, was Bogner und Menz als »Prozesswissen« und »technisches Wissen« definiert haben. Auch die Methodenteile der Forschungsliteratur erwiesen sich in dieser Hinsicht als eine wertvolle, wenn auch kritisch zu begutachtende Ressource. Falls möglich, führte ich die Interviews zudem an den Arbeitsorten meiner Gesprächspartner und verband sie mit einer Laborbegehung. Insgesamt führte ich so 22 Gespräche mit international renommierten Gedächtnisforschern von jeweils etwa einer Stunde Dauer. Das Experteninterview wurde als eine eigenständige Methode der Wissenschafts- und Technikforschung in den letzten Jahren verstärkt methodologisch reflektiert (vgl. Bogner/Menz 2001; Laudel/Gläser 2007). Gemäß Bogner und Menz gewinnt es seine Relevanz durch die Tatsache, dass Expertenwissen »in besonderem Ausmaß praxiswirksam wird« (Bogner/Menz 2001: 486). In der jüngeren Methodendiskussion grenzt man sich insbesondere vom »archäologischen Modell« (Bogner/Menz 2001: 488) ab, nach dem das Expertenwissen als Wissensschatz »in Reinform […] ans Tageslicht befördert« (Bogner/Menz 2001: 487) werden soll. Stattdessen wird auf das komplexe soziale Interaktionsgeschehen hingewiesen, das dieser Interviewform zugrunde liegt. Expertenwissen kristallisiere sich erst in einem Verfahren heraus, das konstitutiv durch spezifische Interaktionssituationen zwischen Experte und Interviewer geprägt sei. Eine erfolgreiche Expertenbefragung setzt demgemäß nicht nur eine intensive Vorbereitung voraus, die in meinem Fall durch das Studium der einschlägigen Fachliteratur sowie den regelmäßigen Besuch von Fachtagungen erfolgte, sondern hängt auch von der Konstruktion einer gemeinsamen Sprache (eines »ad-hoc pidgins«, Laudel/Gläser 2007) sowie den dynamischen Rollenzuschreibungen33 während der Interviewsituation ab. Dies macht deutlich, dass das Experteninterview als sozialwissenschaftliche Forschungsmethode auf einem iterativen Prozess der Da33 Der Interviewer kann gemäß Bogners und Menz’ (2001) Typologie als Ko-Experte, als Laie, als Autorität, als Komplize oder als potenzieller Kritiker erscheinen. Jede dieser Rolle ist mit einer bestimmten Interaktionssituation verbunden, die je nach Erkenntnisinteresse strategisch genutzt werden kann.

D IE PRAXIS

DER

THEORIE |

63

tenproduktion aufbaut, in dem der Interviewer nicht nur sein Fachwissen, sondern auch seine Frage- und Interaktionsstrategie immer wieder neu bewerten sollte, um erfolgreich zu sein. Ich habe dem methodisch Rechnung zu tragen versucht, indem ich meine insgesamt 22 Interviews in zwei Phasen durchführte. Die erste Interviewphase bestand aus sieben sogenannten »explorativen Interviews« (Bogner/Menz 2001: 479), durch die ich mir einen Überblick über das unübersichtliche Feld verschaffte, unterschiedliche Frage- und Interaktionsstrategien erprobte sowie erste Hypothesen generierte. Bei der Auswahl der Experten stand eine thematisch möglichst breite Herangehensweise im Vordergrund, um den Fokus nicht vorschnell einzuengen. Die daran anschließende »theoriegenerierende Interviewphase« (Bogner/Menz 2001: 480) hatte zum Ziel, die im Rahmen der explorativen Interviews aufgeworfenen Fragen und Themen zu konkretisieren und zu vertiefen. Theoriegenerierend werden diese Interviews genannt, weil sie auf die »kommunikative Erschließung und die analytische Rekonstruktion der ›subjektiven Dimension‹ des Expertenwissens« (Bogner/Menz 2001: 480) abzielen. Das heißt, die erhobenen Daten stehen nicht als oberflächliche Informationen für sich, sondern werden einem vertieften Auswertungsprozess unterzogen, in dem das »Deutungswissen« der Experten herausgeschält werden soll. Für mein Vorgehen ergaben sich dadurch in methodischer Hinsicht einige wichtige Änderungen im Vergleich zur explorativen Phase: Bei der Auswahl meiner Interviewpartner achtete ich erstens darauf, beide Gedächtnispathologien (AD & PTSD) sowie disziplinäre Perspektiven (Psychologie, Molekularbiologie, Neurophysiologie etc.) in etwa gleichmäßig zu berücksichtigen. Aufgrund der großen Diversität des Feldes schränkte ich meinen Forschungsfokus zweitens auf die experimentelle Gedächtnisforschung ein, eine thematische Fokussierung, die sich während der explorativen Interviews herauskristallisierte. Da die politischen und ökonomischen Rahmenbedingungen der Forschung international stark unterschiedlich sind, habe ich mich zudem auf Forschungszentren aus Deutschland und der Schweiz konzentriert, um die Datenanalyse nicht weiter zu erschweren.34 Zu guter Letzt entwickelte ich vorab einen Fragekatalog, der mir eine strukturier-

34 Die Ergebnisse sollten dennoch in wichtigen Aspekten generalisierbar sein, denn die Grundlagenforschung erweist sich hinsichtlich der Methodologien und Epistemologien international als stark vernetzt.

64 | ZWISCHEN GEIST UND G EHIRN

te, aber dennoch flexible Interviewführung ermöglichte, was mir insbesondere die anschließende qualitative Auswertung erleichtern sollte.35 Bei der Auswertung der transkribierten Interviews lehnte ich mich grob an die von Strauss und Glaser entworfene Analysemethode der grounded theory an (Strübing 2004; Strauss/Corbin 1996).36 Es handelt sich dabei um ein standardisiertes Analyseverfahren – um eine »Praktik, um die in den Daten schlummernde Theorie zu entdecken« (Legewie 1995), so Strauss wörtlich –, das flexibel an eigene Forschungsbedürfnisse angepasst werden kann. Im Zentrum steht das systematische Codieren zentraler Interviewpassagen, das in mehreren Schritten37 erfolgt und für das ich ein speziell dafür entwickeltes Programm verwendete, den sogenannten »TAMS Analyzer«.38 Den Vorschlägen von Strauss und Corbin (1996) folgend, wählte ich meine Gesprächspartner während der theoriegenerierenden Interviewphase theoretisch geleitet aus, das heißt nach Kriterien, die ich vor dem Hintergrund der laufenden Auswertung ständig reflektierte. Aus diesem Grunde hatte ich mir zwar eine umfangreiche Liste mit potenziellen Interviewpartnern zurechtgelegt, plante die Interviews jedoch relativ kurzfristig, um flexibel auf neu aufgeworfene Fragen und neue inhaltliche Erkenntnisse reagieren zu 35 Der Fragekatalog umfasste Fragen nach dem konkreten Ablauf eines Gedächtnisexperimentes, der Relevanz der experimentellen Praxis für Krankheitskonzepte sowie nach dem forschungspolitischen und sozialen Kontext der Forschung. 36 Strauss und Glaser, die beiden Väter der in den 1960er Jahren begründeten Methode, haben ab den 1970er Jahren voneinander abweichende Verfahren entwickelt. Während bei Glaser die Codes induktiv aus dem Feld gewonnen werden sollen, hebt Strauss die Bedeutung des theoretischen Vorwissens hervor (vgl. Strübing 2004). Bei meiner Vorgehensweise orientierte ich mich an Strauss’ Methode, allerdings ohne den Anspruch, sie eins zu eins umzusetzen, was aufgrund des Studiendesigns auch gar nicht sinnvoll gewesen wäre: Während bei der grounded theory soziale Phänomene im Vordergrund stehen, lag mein Fokus auf der epistemischen Praxis, die neben sozialen auch andere Faktoren mit einschließt (vgl. Laudel/Gläser 2007). 37 Strauss und Corbin (1996) entwickelten drei Codierungsschritte: Erstens werden die zentralen Phänomene mittels des offenen Codierens grob kategorisiert, Kategorien, die dann im zweiten Schritt durch das axiale Codieren systematisch in fundamentalere Analysekategorien zusammengefasst werden. Zum Schluss werden die axialen Codes zu einer Kernkategorie verschmolzen, was Strauss und Corbin selektives Codieren genannt haben. 38 TAMS steht für »Text Analysis Markup System«. Das Programm wurde von Matthew Weinstein für Apple OS X entwickelt und ist im Netz frei erhältlich unter http://tam sys.sourceforge.net/ (Stand: 7.2.2011).

D IE PRAXIS

DER

THEORIE |

65

können. Durch den ständigen Vergleich des empirischen Materials sowie den zirkulären Wechsel zwischen Materialanalyse und Datengenerierung arbeitete ich in mehreren Schritten die relevanten Analysekategorien heraus. Zusätzlich zur Codierung der einzelnen Interviews fasste ich jedes Gespräch ausführlich zusammen, formulierte in sogenannten Memos offene Fragen und stellte Bezüge zwischen den Interviews her. Durch die prozesshafte Verdichtung und Interpretation des Materials kristallisierten sich so nach und nach die zentralen Themen und Thesen der Arbeit heraus. Die Forschungsmethode »Experteninterview« hat sich in meinem Fall auch deshalb bewährt, weil sie es mir ermöglichte, die verschiedenen zeitlichen Skalen der Wissenschaftspraxis in den Blick zu nehmen. Fragen zur Mikrostruktur – also zu experimentellen Routinen und Abläufen etc. – lassen sich während eines Interviews problemlos mit Fragen zur historischen Entwicklung des Fachs – zur Genese von fundamentalen Konzepten und Paradigmen – kombinieren. In den letzten Jahren ist das Interesse an wissenschaftshistorischen Studien in den philosophischen Provinzen der Wissenschaftsforschung stark angestiegen.39 Der Historisierung der Epistemologie respektive der Ontologie liegt die Erkenntnis zugrunde, dass »collective human knowledge [is] a historical process, and that, while preserving some classic epistemological questions, discards others and raises new ones« (Kitcher 2009: 195; vgl. Rheinberger 2007a oder Hacking 2004). Diese Erkenntnis und die damit verbundene Abkehr von zeitlosen universalen Erkenntnisprinzipien gehen, wie oben gesehen, mit einer wachsenden philosophischen Sensibilität für die praktischen Kontexte von Wissen einher. Die Transformation epistemologischer Normen und begrifflicher Strukturen gerät jedoch in einer »real-time understanding of practice« (Pickering 1995: 3) selten in den Blick. Umbrüche auf dieser Ebene zeigen sich in der Regel erst aus einem historischen Blickwinkel. Praxiografie und Historiografie schließen sich demzufolge nicht aus, sondern bilden komplementäre Methoden, um unterschiedliche Zeitdimensionen der Praxis mit den jeweils dominierenden Wirkungsmächten zu beleuchten – aufgrund ihrer Skaleninvarianz bildet die Mangel in jedem Fall das geeignete Interpretationsschema, unabhängig davon, welchen Zeitausschnitt man analysiert (vgl. Pickering 1995: 234). Im folgenden Kapitel werde ich mir die historische Perspektive in Verbindung mit ANT-Konzepten zunutze machen, um die Genealogie psychologischer Methoden und Konzepte nachzuvollziehen, die dem epistemischen Objekt »Gedächtnis« bis heute seine wesentlichen Konturen verleihen. 39 Aber nicht nur dort: Auch viele empirische Wissenschaftsforscher stützen sich auf historische Fallstudien, vgl. zum Beispiel Pickering 1999, Shapin/Schaffer 1985.

Der vermessene Geist Das Gedächtnis als biopsychologisches Konstrukt

Die biomedizinische Gedächtnisforschung kann als eine der zentralen Arenen bezeichnet werden, wo die Grenzziehungen zwischen Geist und Körper ausgelotet werden. In einem berühmten Aufsatz mit dem provozierenden Titel »Psychotherapie und die einzelne Synapse«, erschienen 1979, thematisierte Eric Kandel, der wohl berühmteste Gedächtnisforscher unserer Zeit, die Beziehung zwischen den biologischen und psychologischen Wissenschaften (Kandel 2006). Er bemängelte die Aufspaltung psychiatrischer Störungen in funktionelle (etwa PTSD) und organische (etwa AD), eine Separierung, die noch auf das 19. Jahrhundert zurückgehe. Sie laufe auf eine künstliche Trennung zwischen Geist und Gehirn respektive Psychologie/Psychoanalyse und Neurobiologie bei der Diagnose und Therapie dieser Krankheiten hinaus, die durch neuere neurobiologische Erkenntnisse nicht gestützt sei, so Kandel. Stattdessen gelte in jedem Fall: »Was wir als unseren Geist verstehen, ist ein Ausdruck der Funktionsweise unseres Gehirns.« (Kandel 2006: 65) Bemerkenswerterweise stützte er seine Thesen mehrheitlich auf seine eigenen, von einem reduktionistischen Paradigma geleiteten Forschungen zu einfachsten Lernvorgängen bei der Meeresschnecke Aplysia ab – einem Haufen Schleim, wie seine Kritiker meinten. Was Kandel Ende der 1970er Jahre forderte – nämlich die neurobiologische Fundierung nicht nur von Krankheiten wie AD, sondern auch von komplexen psychologischen Syndromen wie PTSD –, scheint heute weitgehend Realität geworden. Ein Blick in die Labore und Kliniken der biomedizinischen Gedächtnisforschung legt nahe, dass sich das Schisma zwischen Neurobiologie und Psychologie tatsächlich aufgelöst hat – und zwar zugunsten einer fast schon konkurrenzlos anmutenden Dominanz biologischer Forschungsprogramme, in denen sich das Gehirn als das grundlegende »epistemische Objekt« (Rheinberger 2001) erweist. Die Biomedikalisierungstendenzen und die damit verbundene »NeuroIdeologie« (Rose 2011) manifestieren sich in methodisch-technologischen, kon-

68 | ZWISCHEN GEIST UND G EHIRN

zeptionellen und institutionellen Verschiebungen, die auch innerhalb der Fachdisziplin Psychologie sichtbar werden.1 Psychologie, Psychiatrie und Psychoanalyse – die sogenannten »Psy-Disziplinen« (Rose 1996) –, scheinen ihre historisch begründete Deutungshoheit über das Gedächtnis zu verlieren, und es fällt auf, dass die Psy-Experten zunehmend in den Chor der Biologisierung einstimmen.2 Es sei, so der Psychologe Matthias Brand, »eine Tatsache, dass jeder psychische Vorgang ein Hirnkorrelat hat« (Interview Brand). Welche Schlussfolgerungen auch immer daraus gezogen werden, insgesamt lässt sich eine sich beschleunigende Entwicklung diagnostizieren, in deren Verlauf das »psychologische Selbst« (Rose 1996) durch den »Homo cerebralis« (Hagner 2008) verdrängt wird. Biomedikalisierung heißt aber nicht Homogenisierung. Das Feld der biomedizinischen Gedächtnisforschung hat sich in den letzten Jahren immer stärker verästelt, wie ein Blick in die weit gefächerte Fachliteratur deutlich macht. Ohne psychoanalytische und kulturwissenschaftliche Forschungen überhaupt zu berücksichtigen, haben etwa Roediger und Wertsch mehr als zehn verschiedene Forschungsfelder ausgemacht, »[which] begin with different starting assumptions, use different paradigms and examine different issues« (Roediger/Wertsch 2008: 10). Auf ihrer Liste erscheinen unter anderem Verhaltensbiologie, Elektrophysiologie, Molekularbiologie, Neurobiologie, Systembiologie, Kognitive Neurowissenschaften, Neuropsychologie, Kognitive Psychologie, Klinische Psychologie, Psychiatrie und die Künstliche Intelligenzforschung. Alle diese vielfältigen Forschungsbereiche sind in sich selber wieder heterogen strukturiert. Nehmen wir als ein Beispiel die tierexperimentelle Forschung: Die meisten Arbeitsgruppen arbeiten mit Mäusen als Labortieren, aber es gibt auch solche, die sich auf Ratten spezialisiert haben, während andere Meeresschnecken, Würmer, Fliegen, Bienen, Affen oder Fische bevorzugen … auch diese Liste ließe sich noch verlängern. Es liegt auf der Hand, dass diese unterschiedlichen Spezies aufgrund ihrer biologischen Merkmale und Verhaltensweisen spezialisierte experimentelle Routinen, Paradigmen und Konzepte erforderlich machen. Das Resultat sind teilweise konkurrierende, teilweise überlappende, teilweise aber auch völlig ge1

Die Gründung einer Abteilung für »Molekulare Psychologie« an der Fakultät für Psychologie der Universität Basel ist nur ein Beispiel dafür.

2

Die Psychologie ist eine sehr heterogene Disziplin. Während sich in Deutschland Psychologen oft als Geisteswissenschaftler in Freud’scher Tradition verstehen, zählen sie in den USA und England zu den Naturwissenschaften. Wenn ich in diesem Kapitel von den Psychologen spreche, beziehe ich mich auf diese zweite Gruppe, die auch in Deutschland immer einflussreicher wird.

D ER

VERMESSENE

G EIST |

69

trennt voneinander operierende tierexperimentelle Forschungsprogramme, die sich um ihre idiosynkratischen »Experimentalsysteme« (Rheinberger 2001) und epistemischen Objekte gruppieren. Angesichts dieser babylonischen Vielfalt erscheint es problematisch, überhaupt von dem Gedächtnis als einem singulären Gegenstand zu sprechen: The concept of memory is used by scholars in many different disciplines and in a multitude of senses. On the one hand, interest and excitement about memory can provide a unifying theme, as exemplified in this journal, but on the other hand, the bewildering diversity of uses of the term may lead to miscommunication and frustration. Scholars from different disciplines may use the term memory (and related concepts) in quite different senses. (Roediger/Wertsch 2008: 9)

Angesichts dieser Sprachverwirrungen, die ihre Entsprechung wie oben gesehen auf einer praktischen Ebene finden, diskutiere ich im ersten Teil des Kapitels verschiedene Vorschläge, wie sich solch heterogen strukturierte Forschungsfelder angemessen analysieren lassen. Ich werde argumentieren, dass sich die biomedizinische Gedächtnisforschung schwerlich als »epistemische Kultur« im Sinne Knorr-Cetinas beschreiben lässt. Stattdessen werde ich mit den Begriffen »biomedizinische Plattform«, »Experimentalsystem« und »epistemisches Objekt« alternative Analysewerkzeuge ins Spiel bringen, die meines Erachtens besser geeignet sind, um die zerklüftete Forschungslandschaft und ihre materiellen und epistemischen Dimensionen zu problematisieren. Im zweiten Teil des Kapitels gehe ich der Frage nach, was die oben erwähnten heterogenen Forschungsfelder eigentlich zu genuinen Gedächtnispraktiken macht. Anders gefragt, welches sind die verbindenden Konzepte, Methoden und Objekte der verschiedenen Forschungsbereiche, welche die Rede von einem Forschungsfeld dennoch sinnvoll erscheinen lassen? Meine These lautet, dass psychologische Methoden eine Schlüsselrolle spielen, was angesichts der oben festgestellten Biomedikalisierungstendenzen paradox erscheinen mag. Wie ich jedoch zeigen werde, sind gerade die biologischen Wissenschaften auf psychometrische Verfahren angewiesen, da erst diese dem epistemischen Objekt »Gedächtnis« seine klaren Konturen verleihen. Meine Argumentation stützt sich zum einen auf eine historischepistemologische Analyse der psychologischen Gedächtnisforschung, zum anderen auf Konzepte der Akteur-Netzwerk-Theorie und verwandter Ansätze, mit denen ich die Funktion psychologischer Methoden bei der Hervorbringung von Gedächtnisfakten analysiere. Die Rolle der Psychologie besteht darin, so meine These, den ephemeren Gegenstand »Gedächtnis« in »Standardized Packages«

70 | ZWISCHEN GEIST UND G EHIRN

(Fujimura 1992) zu übersetzen und damit messbar, definierbar und objektivierbar zu machen.

K ULTUREN

ODER

P LATTFORMEN ?

Die Philosophen des Wiener Kreises träumten Anfang des 20. Jahrhunderts den Traum der Einheitswissenschaft, eine Vision, die höchstens noch von einem historischen Interesse ist. Nicht zuletzt unter dem Einfluss der empirischen Wissenschaftsforschung, welche die Produktionsbedingungen von Wissenschaft in den Vordergrund gerückt hat, sind in den letzten Jahren und Jahrzehnten die meisten Philosophen zu der Einsicht gelangt, dass die »Disunity of Science« (Galison/Stump 1996) eher die Regel als die Ausnahme ist. Die Wissenschaften bilden keine Einheit, weder in methodischer noch in theoretischer Hinsicht. Die oben skizzierte Diversität der Gedächtnisforschung spiegelt diesen Umstand, wirft jedoch gleichzeitig die Frage auf, anhand welcher Analyseeinheiten solche heterogen strukturierten Felder fruchtbar zu fassen sind. Ein neuerer und im Zusammenhang dieser Arbeit besonders interessanter Vorschlag stammt von der Soziologin Karin Knorr-Cetina, die das Forschungsfeld der Laborstudien mitbegründet hat (vgl. Knorr-Cetina 1984, 1991). KnorrCetina hat in einer ehrgeizigen Studie zum ersten Mal zwei weit auseinanderliegende Wissenschaftsbereiche ethnografisch erforscht und miteinander kontrastiert, um daran die »Fragmentierung zeitgenössischer Wissensprozesse« (KnorrCetina 2002: 13) ebenso wie die unterschiedlichen »Strategien und Prinzipien, die auf die Erzeugung von Wahrheit« (Knorr-Cetina 2002: 11) gerichtet sind, zu untersuchen. Sie hat die These vertreten, dass es sich bei der Teilchenphysik und der Molekularbiologie, den von ihr verglichenen Feldern, um zwei unterschiedliche Wissenskulturen handelt. Als Wissenskultur hat sie dabei »diejenigen Praktiken, Mechanismen, Prinzipien« definiert, die »in einem Wissensgebiet bestimmen, wie wir wissen, was wir wissen« (Knorr-Cetina 2002: 11 [Herv. i.O.]).3 Knorr-Cetina geht es um eine Praxisperspektive, insofern sie sich an der »Konstruktion von Maschinerien, durch die Erkenntnis konstruiert wird« (Knorr-Cetina 2002: 13) interessiert zeigt. Indem sie Kultur und Praxis in einen Zusammenhang

3

Das vergleichbare Konzept der »Experimentalkultur« stammt von Rheinberger. Er versteht darunter die »Gesamtheit der vielgestaltigen epistemischen, technischen, institutionellen und sozialen Ressourcen, die der Experimentalpraxis ihre Gestalt geben« (Rheinberger 2001: 152).

D ER

VERMESSENE

G EIST |

71

stellt, will sie einerseits die Aufmerksamkeit auf die Pluralität von Wissenschaft lenken, gleichzeitig aber auch den performativ verstandenen Praxisbegriff für eine symbolische Bedeutungsdimension sensibilisieren. Auch Theorien, Entitäten und ihre Definitionen, Klassifikationssysteme etc. sind für sie wichtige Merkmale »kollektiver Handlungsketten« (Knorr-Cetina 2002: 21), die bei gängigen Praxisansätzen schnell durch das Analyseraster fallen. Wissenskulturen sind demzufolge nicht mit disziplinären Strukturen identisch (obwohl sie es prinzipiell sein könnten) – als Disziplinen übergreifende Ordnungseinheiten sollen sie den Blick auf das »gesamte Gewebe technischer, sozialer und theoretischer Elemente« (Knorr-Cetina 2002: 13) lenken und dieses sichtbar machen. Vor dem Hintergrund der Fragestellung dieser Studie, die das Verhältnis von Theorie und Empirie ausloten will, ist das ein fruchtbarer Ansatz, könnte man meinen. Als analytisches Konzept erweist sich der Kulturbegriff allerdings aus vielerlei Gründen als problematisch. Er ist theoretisch schillernd und allzu breit angelegt, sodass auch aus den anthropologischen Reihen, in denen der Begriff eine fundamentale Bedeutung erlangt hat, seit den 1980er Jahren verstärkt kritische Stimmen zu vernehmen sind (vgl. Roepstorff/Bubandt 2003). Ob eine stärker praxisorientierte Deutung, wie sie Knorr-Cetina anstrebt, diese Schwächen ausgleichen kann, ist schwierig zu beurteilen.4 Ich werde im Folgenden argumentieren, dass sich der Begriff der »Wissenskultur« für die biomedizinische Gedächtnisforschung nicht sinnvoll nutzen lässt, zumindest, wenn man eine praxistheoretische Analyse anstrebt. Bei diesem heterogenen und dynamischen Unterfangen, das sich auf mehreren Ebenen abspielt, das eine ungeheure Vielfalt von Verfahren und Technologien einschließt, liegen die maßgeblichen Struktureinheiten quer zu kulturellen Ordnungslogiken. Klarer wird dies, wenn man sich KnorrCetinas eingehend diskutierte Wissenskulturen vor Augen führt. Da wäre zum einen die Teilchenphysik, die sich – wie Knorr-Cetina festgestellt hat – auf eine Erkenntnisstrategie abstützt, die von »Zeichenprozessen in sehr viel stärkerem Umfang dominiert [wird], als dies in anderen Experimentalwissenschaften […] der Fall ist« (Knorr-Cetina 2002: 61). Der Erkenntnisprozess beginnt bei dieser Wissenskultur bei den maschinell generierten Zeichen, die anschließend prozessiert und auf die »unterliegenden Kausalereignisse« befragt werden (KnorrCetina 2002: 61). Die Situation stellt sich in der molekularbiologischen Forschungskultur gerade umgekehrt dar. Hier basieren die »experimentellen Aktivitäten […] auf Interventionen in materiale Prozesse und Substanzen« (Knorr4

Pickering hat Praxis »as the work of cultural extension« (Pickering 1995: 3) definiert. Kultur und Praxis stehen demnach in einem komplementären Verhältnis, was auf mögliche Schwierigkeiten hindeutet, Kultur als Praxis zu deuten.

72 | ZWISCHEN GEIST UND G EHIRN

Cetina 2002: 62), deren Ergebnisse ebenfalls mit Inskriptionswerkzeugen aufgezeichnet werden. Molekularbiologische Forschungen hantieren aber nicht im gleichen Sinne mit Zeichen, wie das die Teilchenphysik tut: Ihr Fokus richtet sich auf konkrete Objekte, die sie in hermetisch abgeriegelten Laboratorien experimentell bearbeiten. Zeichen bilden das »Endprodukt experimenteller Prozessierketten« und nicht ihren Startpunkt (Knorr-Cetina 2002: 62). Was lässt sich nun daraus für die Gedächtnisforschung ableiten? In der Tat trifft man in diesem Feld auf beide Formen der Wissensproduktion. Die Erkenntnismaschinerien in den Laboratorien der kognitiven Neurowissenschaften, in denen bildgebende Verfahren eine wichtige Rolle spielen, erinnern stark an die der Teilchenphysik. Die Forschung hängt von komplexen physikalischen Apparaturen ab und die Arbeitsgruppen umfassen mehr Mitarbeiter, als das beim molekularbiologischen »Klein-Forschungsstil« üblich ist, in dem »individualisierte Einheiten als Strukturform« dominieren (Knorr-Cetina 2002). Es gibt Biomediziner, die sich bewusst gegen diesen Bereich entschieden haben, weil sie »ungern von vielen Mitarbeitern abhänge[n]«, so der Neurologe Christoph Ploner. Die Arbeit im kleinen Team sei bei »Läsionsstudien viel einfacher möglich als bei bildgebenden Verfahren« (Interview Ploner). Als wichtigste Parallele zur Teilchenphysik jedoch lässt sich festhalten, dass hier wie dort symbolische Repräsentationen das hauptsächliche Forschungsmaterial bilden. Daten aus fMRTStudien verfügen über eine ganz »andere ästhetische und sinnliche Dimension«, sagt Christoph Ploner, »wenn bei einem kognitiven Paradigma plötzlich ein bestimmtes Hirnareal aufleuchtet« (Interview Ploner). Im tierexperimentellen ›Gedächtnislabor‹ hingegen, wo die meisten Läsionsexperimente durchgeführt werden, dominiert eine Wissenskultur, die offensichtliche Parallelen zu der molekularbiologischen aufweist. Die meisten der (kleinteiligen) Arbeitsgruppen im Bereich der präklinischen Gedächtnisforschung stützen sich zentral auf das molekularbiologische Methodenarsenal ab. Gearbeitet wird in der Regel mit Mausmodellen, die Manipulationen auf einer genetischen Ebene ermöglichen. Schaut man jedoch genauer hin, wäre es dennoch zu kurz gegriffen, würde man das Gedächtnislabor als eine homogene epistemische Kultur bezeichnen. Labore im Bereich der Gedächtnisforschung zeichnen sich durch ihre hochgradig interdisziplinäre Zusammensetzung aus. Neben den Molekularbiologen arbeiten dort Chemiker, es gibt Elektrophysiologen, die sich die Physiologie auf zellulärer Ebene anschauen, es gibt Verhaltensbiologen und es gibt Bioinformatiker, die mathematische Ansätze verfolgen. Die disziplinäre Herkunft ist jedoch noch nicht einmal der entscheidende Punkt. Den größeren Unterschied mache, so Andreas Lüthi vom Friedrich Miescher Institut in Basel, »ob Forscher über eine Invivo-Spezialisierung verfügen und mit lebenden Tieren arbeiten, oder sich mehr

D ER

VERMESSENE

G EIST |

73

auf einer zellulären Ebene mit einzelnen Nervenzellen und der Kommunikation zwischen einzelnen Nervenzellen befassen« (Interview Lüthi). Zwar werden in den meisten Laboren interdisziplinäre Kompetenzen bewusst gefördert, etwa durch regelmäßige Meetings und Vorträge, mit dem Ziel, diese »verschiedenen Spezialisierungen miteinander in Verbindung zu bringen« (Interview Lüthi) – aus solchen Brückenschlägen ergibt sich jedoch keine einheitliche epistemische Strategie: Viele Molekularbiologen verstehen fast nichts von Elektrophysiologie, wenn sie Ströme sehen und Potenziale, schalten sie ab. Und umgekehrt haben auch Elektrophysiologen sehr wenig Ahnung von Biochemie und Molekularbiologie, sodass das schon zwei Disziplinen sind, die über Jahre getrennt waren. Es gibt relativ wenige, die sich in beiden Disziplinen einigermaßen vernünftig auskennen. Geht man noch weiter zum Verhalten, dann kommt noch ein weiteres eigenständiges Feld hinzu. (Interview Kuhl)

Es ist ein konstitutives Charakteristikum solcher Labore, dass sie kaleidoskopartig die unterschiedlichen Forschungsansätze bündeln, ohne sie zu einer Wissenskultur zu verschmelzen. Experimente werden meist in kleine Teilprojekte aufgeteilt, die dann im Prinzip von einer Person durchgeführt werden können. Wahrscheinlich wäre es auch gar nicht von Vorteil, diese kaleidoskopische Fragmentierung zu überwinden. Denn wie weiß man, dass ein biologischer Prozess tatsächlich etwas mit Gedächtnis oder Lernen zu tun hat? Da diese Phänomene auf einer funktionellen und nicht auf einer rein materiellen Ebene definiert sind, reicht die Fokussierung auf Moleküle und Synapsen nicht aus. Wie sich im weiteren Verlauf der Arbeit genauer zeigen wird, kristallisiert sich das Gedächtnis als epistemisches Objekt vielmehr erst im Rahmen einer produktiven Differenz verschiedener Methoden und Perspektiven heraus, die auf unterschiedlichen Analyseebenen operieren. Diese Überlegungen machen den Begriff der Wissenskultur selbstverständlich nicht obsolet, der von Knorr-Cetina fruchtbar eingesetzt wurde, um die epistemischen Unterschiede zwischen weit auseinanderliegenden Forschungsfeldern zu beschreiben. Aber für ein so ausdifferenziertes und sich dynamisch verschiebendes Feld wie dasjenige der biomedizinischen Gedächtnisforschung verliert er viel von seiner analytischen Durchschlagskraft – zu unterschiedlich sind die involvierten Wissensmaschinerien, die teilweise auf engstem Raum zum Einsatz kommen. Der Hinweis, dass auch Kulturen keine homogene Einheit bilden, sondern in sich wiederum vielfältig strukturiert sind und teilweise überlappen, wie teilweise argumentiert wird (Sandkühler 2009), ist zwar richtig, nur weckt dies grundlegende Zweifel an dem Erklärungswert des Konzeptes. In verschiedener

74 | ZWISCHEN GEIST UND G EHIRN

Hinsicht für vielversprechender halte ich die analytischen Werkzeuge »biomedizinische Plattform« (Keating/Cambrosio 2000, 2003; Cambrosio et al. 2009), »Experimentalsystem«5 und »epistemisches Objekt« (Rheinberger 2001), alles eng miteinander verwandte Begriffe, mit denen sich das »hypercomplex network of the modern empirical sciences« (Rheinberger 1997: 246) entwirren lässt. So wurde etwa das Plattform-Konzept von Keating und Cambrosio explizit als Gegenentwurf zu kultursoziologischen und interaktionistischen Ansätzen entworfen, die auf einer »Theorie sozialer Welten« (Strauss 1978) aufbauen oder ihr nahe stehen. Bei Plattformen handelt es sich per definitionem um zentrale Organisationseinheiten biomedizinischer Aktivität, auf denen sich unterschiedliche Akteure treffen, ohne jedoch damit eine soziale Einheit zu bilden. Es wird also die Idee verworfen, dass sich die biomedizinische Praxis zwischen Expertengruppen abspielt, die unabhängig von den Infrastrukturen, auf die sie sich stützen, definierbar sind.6 Stattdessen entwerfen Keating/Cambrosio ein Bild biomedizinischer Dynamik, das materielle und soziale Einheiten gleichberechtigt einbezieht. Wie sich am Beispiel des Gedächtnislabors illustrieren lässt, ist gerade diese interaktive Heterogenität ein konstitutives Merkmal der Gedächtnisforschung: Unlike traditional craftsmanship, however, contemporary biomedicine does not have a stable division of labor corresponding to an unproblematic partition of the object of work (i.e., in biomedicine’s case, the human body). Nor can arbitrary divisions be freely established in order to secure a distinct, independent domain of professional expertise. The 5

Auf die Experimentalsysteme der biomedizinischen Gedächtnisforschung gehe ich im dritten Kapitel ein.

6

Susan Leigh Star und Geoffrey Bowker haben in mehreren Texten die These vertreten, dass bestimmte »communities of practice« (darunter verstehen sie soziale Welten) und spezifische Infrastrukturen konvergieren, das bedeutet, sich in einem wechselseitigen Prozess der Ko-Produktion befinden (Star/Ruhleder 2000; Star/Bowker/Neumann 2003; Bowker/Star 2005). Unter anderem am Beispiel des ICD als eines transnationalen Klassifikationssystems gehen sie der Frage nach, wie sich Informationssysteme und soziale Welten graduell aneinander anpassen und über FeedbackProzesse wechselseitig konstituieren: »In a sense, information artifacts and communities of practice are fitted to each other and even come to define one another over time.« (Star et al. 2003: 244) Eine solche Aussage setzt voraus, dass ein Kollektiv unabhängig von den Infrastrukturen, auf die es sich abstützt, definiert und bestimmt werden kann, eine Auffassung, von der sich Keating/Cambrosio mit dem Plattformkonzept dezidiert abgrenzen.

D ER

VERMESSENE

G EIST |

75

dominant relational pattern is not one of diverging, competing segments (although this is also part of the story) but, rather, one of consultation and mutual dependency. Such interdependency patterns, we would submit, are platform-dependent, rather than groupdependent. (Keating/Cambrosio 2000: 342)

Plattformen zeichnen sich also gerade nicht durch eine kultursoziologisch fassbare Identität aus, sondern verfügen über eine heterogene Struktur. Die Bedeutung sozialer Einheiten wird herabgestuft, um so einen neuen Blick auf die flexiblen materiell-diskursiven Gefüge zu werfen, die Aktivitäten von Wissenschaftlern unterschiedlichster Provenienz koordinieren. Als »material and discursive arrangements, or sets of instruments and programs, that, as timely constructs, coordinate practices« (Keating/Cambrosio 2000: 386), legen sie dennoch in gewissem Sinne einen strukturellen Rahmen fest. Plattformen koordinieren Praktiken, die sich um epistemische Objekte und Experimentalsysteme gebildet haben. Sie enthalten als wesentliche Elemente einerseits das technologische Equipment, das zur Manipulation und Repräsentation dieser Entitäten notwenig ist, sowie zusätzlich die Programme, Normen und Standards, welche diese Entitäten definieren und ihren praktischen Gebrauch regulieren. Solche soziotechnischen Netzwerke sind in mehrfacher Hinsicht hybriden Charakters: Sie übersteigen die Grenzen hochgradig ausdifferenzierter communities of practice (etwa zwischen Labor und Klinik) sowie zwischen dem Normalen und dem Pathologischen – Grenzüberschreitungen, die Keating und Cambrosio zufolge charakteristisch für die moderne Biomedizin sind (vgl. Cambrosio/Keating 2004). Plattformen, Experimentalsysteme und epistemische Objekte passen mit ihrer »irreduziblen Verschwommenheit« (Rheinberger 2001: 24) besser zur dynamischen und fragmentierten Situation der Gedächtnisforschung als die homogenisierende Rede von Kulturen. Diese Konzepte verweisen auf den Forschungsprozess, auf die Ebene der Praxis, ohne dabei den Sinn für wichtige Organisationseinheiten wie das Gedächtnislabor zu verlieren, die sich an der Schnittstelle von verschiedenen Disziplinen konstituieren; sie weiten den Fokus über einzelne Expertenkontexte hinaus und sensibilisieren für die »›investments‹ in form, i.e. of material, technical and institutional interventions – such as the definition of norms, standards, administrative categories […]« (Cambrosio et al. 2009: 504). Mit diesen begrifflichen Werkzeugen lässt sich die Forschungslandschaft zumindest bis zu einem gewissen Grad strukturieren, ohne sie zu homogenisieren oder ihre Dynamik zu stabilisieren. Der Blick auf die verstreuten Plattformen und Experimentalsysteme der biomedizinischen Gedächtnisforschung wirft die Frage auf, welches die verbindenden Methoden, Konzepte und Objekte sind. Konkret gefragt: Was macht eine

76 | ZWISCHEN GEIST UND G EHIRN

biomedizinische Plattform (respektive ein Experimentalsystem) zu einer biomedizinischen Gedächtnis-Plattform? Oberflächlich gesehen wäre es naheliegend, wenn im Zuge von Medikalisierung und Biologisierung auch das psychologische Methodenarsenal an Bedeutung verlöre. Doch ich möchte plausibel machen, dass gerade das Gegenteil der Fall ist. Die Psychologie und ihre spezifischen Methoden treten zwar in den Hintergrund, bedeutungsloser werden sie dadurch keineswegs. Ein genauerer Blick zeigt, dass psychologische Verfahren einen integralen Bestandteil biomedizinischer Gedächtnisplattformen bilden. Der Neurobiologe Carsten Wotjak, Leiter einer präklinischen Arbeitsgruppe am MPI für Psychiatrie in München,7 hält Psychologen aus folgendem Grund für unverzichtbar: Ich schätze an ihnen sehr, dass sie gut rechnen können und Statistik beherrschen. Das können sie weitaus besser als die Biologen, weil sie das natürlich von der Pike auf lernen. Wir machen das gut. Aber die Psychologen sind besser geschult. (Interview Wotjak)

Für Wotjak setzt die Durchführung von Tierexperimenten konzeptionelle und methodische Kompetenzen voraus, über die entsprechend geschulte Psychologen in besonderer Weise verfügen. Aus diesem Grund beschäftigt er in seiner Arbeitsgruppe gerne Mitarbeiter, die einen psychologischen Hintergrund haben. Auch der Humangenetiker Andreas Papassotiropoulos,8 Leiter der Abteilung für Molekulare Psychologie an der Universität Basel, betont die wichtige Rolle der Psychologie. Für ihn bilden psychologische Konstrukte den zentralen Anknüpfungspunkt seiner Arbeit, zumindest wenn sie »ein fassbares neuronales Korrelat haben« (Interview Papassotiropoulos). Er sagt: »Manchmal sehen sich die Psychologen durch den Einzug der Biologie gefährdet. Das ist Unsinn. Eigentlich sind sie wichtiger denn je […].« Papassotiropoulos fügt hinzu: Genetik, und das sage ich immer auch meinen Studenten, Genetik steht und fällt mit dem Phänotyp. Sie können alles mit allem korrelieren. Alles steckt im Phänotyp, und da müs7

Carsten Wotjak entwickelt Tiermodelle für komplexe psychische Syndrome wie

8

Papassotiropoulos erforscht in erster Linie die genetischen Grundlagen des gesunden

PTSD. Auf seine Forschungsarbeit gehe ich im dritten Kapitel im Detail ein. menschlichen Gedächtnisses. Zur Anwendung kommen dabei humangenetische Verfahren. Aufsehen erregte eine von ihm zusammen mit Dominique de Quervain durchgeführte Assoziationsstudie, in der ein Zusammenhang zwischen Varianten des Gens »Kibra« und der menschlichen Gedächtnisleistung nachgewiesen wurde (Papassotiropoulos et al. 2006). Es handelt sich um eine der ersten Studien, die sich mit den molekulargenetischen Grundlagen des gesunden menschlichen Gedächtnisses beschäftigte.

D ER

VERMESSENE

G EIST |

77

sen sie einfach möglichst so gut gemessen haben, dass sie sich sicher sind, dass sie das Konstrukt richtig erfasst haben. […] Man untersucht oft die Biologie, und die molekularen Maschinerien, aber letztlich ist es der Phänotyp, der wichtig ist, nicht nur die Genetik. (Interview Papassotiropoulos)

Solche Aussagen weisen darauf hin, dass die Bedeutung von Psychologen für Wissenschaftler vom Schlage Papassotiropoulos’ oder Wotjaks darin liegen könnte, ihnen möglichst standardisierte Verfahren an die Hand zu geben, mit denen Gedächtnis operationalisierbar gemacht wird. In diesem Sinne sind Psychologen – vor allem aber ihre elaborierten Methoden – »wichtiger denn je, um uns zu helfen, die Merkmale möglichst gut zu bestimmen« (Interview Papassotiropoulos). Im nächsten Abschnitt untersuche ich die praktische Bedeutung dieser Aussage, indem ich aus einem historisch-epistemologischen Blickwinkel die Rolle der Psychologie im Feld der Gedächtnisforschung beleuchte.

D IE R OLLE

DER

P SYCHOLOGIE

Psychometrische Verfahren9 sind in der Gedächtnisforschung allgegenwärtig und in der Grundlagenforschung ebenso unverzichtbar wie im klinischen Bereich. Auf Gedächtnistests trifft man in sogenannten Gedächtniskliniken oder Gedächtnissprechstunden, in denen sie zur diagnostischen Abklärung von Menschen mit Gedächtnisstörungen eingesetzt werden. In den Laboren zirkulieren sie in unterschiedlichen Formen, um etwa die Auswirkungen experimenteller Läsionen auf die Lernleistung von Versuchstieren zu bewerten. Es handelt sich jeweils um hoch differenzierte Messverfahren, die je nach Anwendungskontext spezialisiert sind. Ein klinisch-neuropsychologischer Standardtest ist der »Wechsler Memory Scale« (Wechsler/Stone 1945). 1945 entwickelt, liegt er inzwischen in der vierten Version vor. Erfasst werden in 13 Untertests verschiedene Gedächtnisfunktionen, vom figuralen bis zum verbalen Gedächtnis. Andere Tests – etwa das Gedächtnissakkadenparadigma – setzen bereits viel neurologisches Hintergrundwissen zur Funktionsweise des visuellen Systems und komplexe technische Verfahren voraus (Ploner et al. 1999). Solche Tests kommen deshalb nur in spezialisierten Laboratorien mit ganz spezifischen Fragestellungen zur Anwendung. Ein wiederum speziell auf die Bedürfnisse der experimentellen Tierforschung abge-

9

Dazu zählen sowohl Gedächtnistests beim Menschen als auch Verhaltensparadigmen, die in Tierversuchen eingesetzt werden.

78 | ZWISCHEN GEIST UND G EHIRN

stimmtes Paradigma ist der Schwimmnavigationstest, mit dem das räumliche Gedächtnis bei Nagern erfasst wird (siehe viertes Kapitel; Morris 1984). Alle diese Messmethoden sind auf die spezifischen Bedürfnisse und Anforderungen ihrer Probanden eingestellt; es liegt auf der Hand, dass ein Test, der bei ADPatienten im fortgeschrittenen Krankheitsstadium zum Einsatz kommt, anders aufgebaut sein muss als ein Test, mit dem man die Gedächtnisleistung von Mäusen zu bestimmen versucht. Es gibt also viele unterschiedliche Gedächtnistests. Sie alle haben jedoch, so verschieden in Aufbau und Ablauf sie auch sind, das gemeinsame Ziel, das Gedächtnis als psychologisches Wissensobjekt abzugrenzen, zu definieren und zu vermessen. Sie alle basieren auf der Hoffnung, »dass man kognitive Funktionen genauso quantifizieren kann wie zum Beispiel die Filtrationsrate der Niere oder die Pumpleistung des Herzens« (Interview Ploner).10 Die »objektive Quantifizierung« von Gedächtnis, die hier angesprochen wird, bildet einen Eckpfeiler der modernen Gedächtnisforschung. Zwar gilt dies nicht für ›weiche‹ Forschungszweige wie etwa die Psychoanalyse, die auf qualitative Methoden setzen, aber auf jeden Fall für ›harte‹, experimentell orientierte Forschungen. Papassotiropoulos’ humangenetisches Forschungsprogramm, in dem er Variabilitäten im Genotyp mit Variabilitäten im Phänotyp zu korrelieren versucht, hängt von der Verfügbarkeit genauer quantitativer Daten zur Gedächtnisleistung ab (siehe oben). Auch Carsten Wotjak, der tierexperimentell arbeitet, ist darauf angewiesen, dass er die Lernleistung seiner Versuchstiere möglichst exakt evaluieren kann. Messinstrumentarien, mit denen Gedächtnis als numerischer Gegenstand fassbar wird, bilden insofern integrale Bestandteile insbesondere biologisch ausgerichteter Gedächtnispraktiken. Dieses psychologische Methodenarsenal, das heute fest etabliert ist, hat jedoch eine verwickelte Vorgeschichte, die im folgenden Abschnitt thematisiert wird. Translationen: Die Konstruktion des objektiven Gedächtnisses Danziger hat in seiner historischen Studie zur Emergenz der Psychologie darauf aufmerksam gemacht, dass quantitative Methoden von den Psychologen des 19. 10 Christoph Ploner ist als Oberarzt an der Berliner Charité tätig. Sein Forschungsgebiet bilden unter anderem »die neuronalen Mechanismen, die für die Selektion und das Gedächtnis visuell-räumlicher Informationen verantwortlich sind« (vgl. http://neurolo gie.med-network.de/forschung/arbeitsgruppen/okulomotorik.html, Stand: 8.2.2011). Er arbeitet mittels Läsionsstudien und dem bereits erwähnten Gedächtnissakkadenparadigma, das ich weiter unten kurz skizzieren werde.

D ER

VERMESSENE

G EIST |

79

Jahrhunderts in erster Linie als identitätsbildendes Merkmal entwickelt wurden, um die Wissenschaftlichkeit und Objektivität des jungen Faches sicherzustellen: »Quantification seemed to mark psychology as one of the exact sciences and to distinguish it sharply from such questionable pursuits as philosophy and spiritualism, with which it had been popularly associated.« (Danziger 1990: 147) Auch für Nikolas Rose (1996; 1988) spielen ›harte‹ Technologien historisch eine entscheidende Rolle. Gemäß seiner an Foucault angelehnten Argumentation war die Herausbildung der Psy-Disziplinen im 19. Jahrhundert verbunden mit der Disziplinierung/Regulierung von Personen, ihrer Unterwerfung unter bestimmte experimentelle und statistische Wahrheitsregimes. Es entwickelten sich nicht nur neue Arten, über Individualität und Subjektivität zu sprechen, sondern auch zuvor unbekannte Methoden, mit deren Hilfe Individuen und ihre Psyche messbar, quantifizierbar und objektivierbar gemacht wurden. Gleichzeitig entstanden neue Institutionen wie das psychologische Labor, in denen die neuen Techniken erprobt und weiterentwickelt wurden. Verschiedene Wissenschaftsforscher stimmen somit darin überein, dass die zweite Hälfte des 19. Jahrhunderts als eine kritische Zeitphase einzustufen ist, in der sich psychologische Konzeptionen und Technologien entwickelten, deren Einfluss noch heute wirksam ist (vgl. auch Hacking 2001). Damals wurde das methodische Fundament der heutigen psychometrischen Verfahren gelegt und das Gedächtnis verwandelte sich von einem Objekt philosophischer Reflexion in einen wissenschaftlichen Gegenstand. Es wurde kalkulierbar und messbar gemacht. Das genuin Psychologische an den neuen Messverfahren bestand darin, dass Individualität und Subjektivität nicht mehr über körperliche Merkmale erfasst wurden, ein Ansatz, der im 19. Jahrhundert als Schädelkunde oder Phrenologie in der Hochblüte stand (vgl. Gould 1988). Dabei musste allerdings eine Lösung für das Problem gefunden werden, wie es möglich ist »to impose a numerical form on psychological attributes« (Danziger 1990: 136). Für das Gedächtnis beschäftigte sich Hermann Ebbinghaus (1850–1909) als Erster eingehend mit dieser Frage und entwickelte die methodologischen Grundprinzipien »that remain the prototype for memory research« (Lockhart 2000: 45). Ebbinghaus sah die Aufgabe der psychologischen Gedächtnisforschung darin, allgemeine Gesetze über ihren Gegenstand zu ermitteln, also im Grunde genommen nicht anders als Chemiker oder Physiker verfahren. Seinen revolutionären Lösungsansatz, der auf Jahren einsamer Forschungsarbeit beruhte, hat er in »Über das Gedächtnis« (1885) dargelegt. Ebbinghaus schuf eine streng experimentelle Prozedur, anstatt sich, wie zuvor üblich, autobiografischen Erlebnissen zu widmen. Er fokussierte strikt auf objektiv feststellbare Lernleistungen und blendete das mentale, subjektive Erleben komplett aus (Danziger 1990). In endlosen Selbstversuchen legte er

80 | ZWISCHEN GEIST UND G EHIRN

sich Reihen von sinnlosen Silben vor, memorierte sie und versuchte sich nach einer gewissen Zeit daran zu erinnern, um sich schließlich die Erfolgsquote zu notieren. So gelang es ihm, seine Gedächtnisleistung so objektiv wie nur möglich zu bestimmen. Sowohl das Stimulusmaterial – die Gesamtanzahl der Silben –, als auch seine Gedächtnisleistung – die Anzahl der erinnerten Silben –, wiesen eine eindeutig quantitative Struktur auf. Durch die Variation des Stimulusmaterials oder der Testbedingungen suchte er nach allgemeinen Regularitäten, psychologischen Gesetzen des Erinnerns und Vergessens.11 Ebbinghaus’ Paradigmenwechsel war bahnbrechend. Seine methodologischen Prinzipien lassen sich auch bei modernen, elaborierten Testverfahren wiederfinden, zum Beispiel dem bereits erwähnten Gedächtnissakkaden-Paradigma, das in okulomotorischen Laboren eingesetzt wird. Auch dieses hochmoderne Verfahren besteht aus drei Phasen, nämlich Encodierung, Speicherung und Abruf (Finke 2005; vgl. Abbildung 2): • Der Proband sitzt vor einem Bildschirm in einem völlig abgedunkelten Raum.

Er hat einen zentralen Lichtpunkt zu fixieren, der auf dem Bildschirm erscheint, in der Regel ist das ein roter Punkt. Währenddessen leuchtet irgendwo auf dem Bildschirm ein Stimulus auf, den der Proband im Gesichtsfeld wahrnimmt (Encodierung). • Sobald der Stimulus verschwindet, beginnt die sogenannte Gedächtnisphase. Die Versuchsperson fixiert weiterhin den zentralen Lichtpunkt, behält aber die Position des Stimulus möglichst genau in Erinnerung (Speicherung). • Sobald der zentrale Lichtpunkt erlischt, ist die Versuchsperson instruiert, aus der Erinnerung mit größtmöglicher Präzision die Stelle zu fixieren, an der vorhin der Stimulus erschienen ist (Abruf). Die Augenbewegung wird mittels komplizierter technischer Verfahren aufgezeichnet und der Grad der Übereinstimmung als ein Maß für das räumliche Arbeitsgedächtnis bestimmt.12

11 Ebbinghaus’ Vergessenskurve, die den Anteil vergessener Inhalte pro Zeit angibt, ist das wohl bekannteste Beispiel für eine solche gesetzmäßige Beziehung. Heute weiß man, dass dieses Gesetz nur für den Spezialfall des verbalen Lernens gilt, mit dem sich Ebbinghaus ausschließlich beschäftigte, aber nicht für die vielen anderen Gedächtnisinhalte (Roediger 2008). 12 Diese Schlussfolgerungen setzen voraus, dass die Versuchsperson nicht unter Wahrnehmungs- oder Sehstörungen leidet, was natürlich abgeklärt werden muss. In neurologischen Laboren wird untersucht, inwieweit dieses Paradigma selektiv für bestimmte Hirnregionen ist (Ploner et al. 1999, 2000, 2005). Im Fokus steht besonders der me-

D ER

F

VERMESSENE

G EIST |

81

S

Abbildung 2: Das Gedächtnissakkadenparadigma (nach Finke 2005) Die Parallelen zu Ebbinghaus’ Testlogik sind offensichtlich. Als abhängige Messvariable wird ein präzise quantifizierbares Verhalten ermittelt (die Augenbewegung des Probanden), während der Stimulus (die unabhängige Variable), der diese Aktivität auslöst, vom Experimentator beliebig kontrollierbar ist und ebenfalls eine numerische Struktur aufweist.13 Solcherart psychometrische Verfahren machen das Gedächtnis als quantifizierbare Lernleistung fassbar. Nikolas Rose hat mit dem Schlagwort »calculable individual« (Rose 1992: 358) darauf hingewiesen, dass mit diesen Prozeduren nicht nur das Gedächtnis berechenbar, kalkulierbar, wissenschaftlich gemacht wird, sondern ebenso das einzelne Subjekt. Die impliziten Normen und Prämissen der Wissenspraxis materialisieren sich im Individuum selbst, indem versucht wird, nur genau die Merkmale sichtbar zu machen, die im Rahmen der Testlogik vorgesehen sind: »The test forms a realization system which enables the properties of the theory to be embodied in the actions of the subject.« (Rose 1988: 194) Daraus folgt im Umkehrschluss: Wo auch immer diese Techniken zur Anwendung kommen, sei es im Labor oder in der Gedächtnissprechstunde, das Ergebnis ist nur dann aussagekräftig, wenn es gelingt, die Versuchspersonen im Rahmen einer artifiziellen Situation zu disziplinieren. Ebbinghaus’ Selbstversuche sind dafür ein besonders sinnfälliges Beispiel. Wie Hartmann bemerkt, fanden seine Experimente unter »beinahe klösterlich strengen Maßnahmen [statt] […],

diale Temporallappen, eine Hirnregion, die bei Demenzen früh von den degenerativen Prozessen betroffen ist (siehe fünftes Kapitel). 13 Basierend auf dieser grundlegenden Methodologie wurden unzählige Testtypen entworfen, die sich im Hinblick auf die Encodierungs- oder Abrufbedingungen, die verwendeten Materialien etc. unterscheiden. Zum Beispiel können die Probanden entweder explizit gefragt werden, welche der vorliegenden Elemente sie wiedererkennen (Wiedererkennungstest), oder sie werden aufgefordert, die Elemente aus der Erinnerung wiederzugeben (Abruftest). Für einen Überblick vgl. Lockhart 2000.

82 | ZWISCHEN GEIST UND G EHIRN

um möglichst gleichbleibende Versuchsumstände zu gewährleisten« (Hartmann 1994: 109). Ebbinghaus lernte seine Silben nach einem exakten Schema, das er folgendermaßen beschreibt: Durchlesen und Hersagen geschahen stets mit gleichförmiger Geschwindigkeit, nämlich im Takt von 150 Schlägen auf die Minute. Zur Regelung derselben wurde ursprünglich ein entfernt aufgestelltes Metronom mit Schlagwerk benutzt; sehr bald aber, viel einfacher und weniger störend für die Aufmerksamkeit, das Ticken einer Taschenuhr. Die Echappementsvorrichtung der meisten Taschenuhren pendelt nämlich 300 mal in der Minute. […] Nach Erlernung jeder Einzelreihe wurde eine Pause von 15 Sekunden gemacht und zur Aufzeichnung des Resultats benutzt. Dann wurde unmittelbar zu einer folgenden Reihe desselben Versuchs fortgeschritten. (Ebbinghaus 1885, § 13. Herstellung möglichst konstanter Versuchsumstände)

Was Ebbinghaus hier ausführt, ist eine operationale Definition von Gedächtnis. Das heißt, ein zu definierendes Konstrukt wird an konkrete experimentelle Operationen gekoppelt, die festlegen, wie es empirisch zu verifizieren ist.14 Operationale Definitionen sind wissenschaftlich zwar umstritten (vgl. Feest 2005), haben aber gerade in der Psychologie einen hohen Stellenwert. »In der Regel verstehen wir unter Gedächtnisleistung das, was ein Gedächtnistest misst«, so die Neuropsychologin Lena Jelinek (Interview Jelinek).15 Einen entscheidenden Vorteil dieser Praxis bringt der berühmte Gedächtnisforscher Endel Tulving salopp auf den Punkt, wenn er schreibt, dass »[o]perational definitions are totally objective, and scientists are supposed to love objectivity. If someone does disagree with your operational definition, you simply turn off your hearing aid« (Tulving 2007: 44). Nur konsequent ist, dass dann auch die durchaus berechtigte Frage, »inwieweit ich mit einem Test das [messe], was ich messen will« (Interview Jelinek), nicht mehr wahrgenommen wird. Aus einer ANT-Perspektive lassen sich operationale Definitionen als ein Translationsprozess fassen, durch den Komplexität reduziert und Subjektivität in Objektivität transformiert wird (Roepstorff 2002). Als »Translation« hat Callon (1999) die Verschiebung einer offenen Kontroverse in ein stabiles sozio14 Vor vielen Jahren umschrieb der Physiker Percy Bridgman die Pointe solcher Festlegungen dahin gehend, dass »we mean by a concept nothing more than a set of operations; the concept is synonymous with the corresponding set of operations« (Bridgman 1961: 35). 15 Jelinek rekurriert auf den berühmten Ausspruch des Psychologen Edwin Boring, der meinte, dass »Intelligence is what the tests test« (Boring 1923).

D ER

VERMESSENE

G EIST |

83

technisches Netzwerk bezeichnet, das die Wurzeln seiner eigenen Kontingenz verhüllt (vgl. erstes Kapitel). Das Resultat ist die Transformation von Gedächtnis in ein messbares, klar definiertes und damit wissenschaftliches Objekt. Gedächtnistests können in diesem Sinne als Mini-Laboratorien »for the inscription of difference« bezeichnet werden: als flexibel einsetzbare Standardverfahren, in deren Rahmen Gedächtnis »thinkable«, »visible«, »inscribable« und »assessable« gemacht wird (Rose 1988: 194). Das Gedächtnis, ein vielschichtiges, mit kulturellen Vorstellungen aus Jahrhunderten aufgeladenes Phänomen, wird auf die Größe von Protokollbögen und Tabellen geschrumpft, die bestenfalls sogar in einem kleinen, handlichen Testkoffer Platz finden. Neben der hier angesprochenen Komplexitätsreduktion will ich noch eine weitere wichtige Funktion von operationalen Definitionen hervorheben. Aufgrund ihrer hybriden methodisch-theoretischen Struktur bilden sie ein stabiles »Standardized Package« (Fujimura 1992), das unterschiedliche Forschungskontexte miteinander verbindet und das fragmentierte Feld damit zusammenhält, ja es erst zu einem Feld macht. Am Beispiel der frühen amerikanischen Krebsforschung hat die Soziologin Joan Fujimura aufgezeigt, wie weder theoretische Festlegungen noch methodische Standardisierungen allein, sondern erst die Kombination dieser beiden Aspekte in einem standardisierten »Package« einem Forschungszweig wie der »oncogene theory« zum Durchbruch verhalf. Solche materiell-diskursiven Forschungswerkzeuge »define a conceptual and technical work space […] in ways which further restrict and define each object« (Fujimura 1992: 176). Gemäß Fujimura soll das Package-Konzept sowohl das Translationskonzept der ANT als auch Stars und Griesemers Grenzobjektkonzept (Star/Griesemer 1989) sinnvoll weiterentwickeln, die sie entweder zu einseitig auf die Stabilisierung von Fakten (ANT) oder die Interaktion von Akteuren aus unterschiedlichen sozialen Welten (Star/Griesemer) fokussiert sieht (vgl. Strübing 2005). Das Package-Konzept habe den Vorteil, so Fujimura, besser erklären zu können, wie Fakten in komplexen, heterogen strukturierten Feldern stabilisiert werden: The combination of the abstract, general oncogene theory and the specific, standardized technologies […] allowed other researchers with ongoing enterprises to locally concretize the abstraction in different practices to construct new problems; and the routinization allowed the ideas to move to new sites and be inserted into existing routines with manageable reorganization. (Fujimura 1992: 179)

Indem Gedächtnistests theoretische Ideen an klar definierte, mehr oder weniger standardisierte experimentelle Routinen koppeln, fungieren sie als eine Art »in-

84 | ZWISCHEN GEIST UND G EHIRN

terface«, und das heißt: »[T]he means by which interaction or communication is effected at the places ›where people meet‹ […].« (Fujimura 1992: 170) Ein Beispiel dafür ist das Paradigma der Angstkonditionierung, das – ursprünglich aus der Psychologie stammend – inzwischen in vielen Kontexten der Gedächtnisforschung etabliert ist, und zwar sowohl im klinischen Bereich als auch in der Grundlagenforschung (Blechert et al. 2007; LeDoux 2000). Das Potenzial dieses Werkzeugs, Wissenschaftler aus unterschiedlichen Kontexten miteinander zu verbinden, illustriert das folgende Zitat. Es stammt von der klinischen Psychologin und Traumaexpertin Tanja Michael, die damals, zur Zeit des Gesprächs, zusammen mit dem Humangenetiker Andreas Papassotiropoulos an der Fakultät für Psychologie der Universität Basel beschäftigt war: Ich und Herr Papassotiropoulos führen eine gemeinsame Studie durch, die gerade jetzt anläuft. Es geht um die Konditionierbarkeit, ob es da eine genetische Grundlage gibt. Andreas Papassotiropoulos ist vor Ort, sonst wäre ich nie darauf gekommen, eine Genetikstudie zu machen. Er wusste bislang wenig von diesen ganzen Konditionierungstheorien, die sind ihm kaum bekannt, man kann nicht alles lesen, aber er weiß natürlich, wie man so etwas genetisch analysiert. Ich habe ihm gesagt, es gibt diese Befunde, dass [Konditionierbarkeit] zum Teil genetisch vererbt ist, aber dass man halt nicht weiß wie. Und so hat man sich dann getroffen. (Interview Michael)

Obwohl Michaels und Papassotiropoulos’ Forschungsinteressen weit auseinanderliegen, haben sie zu einer gemeinsamen Studie zusammengefunden. Wichtig war nicht nur die räumliche Nähe. Als Forschungskatalysator wirkte auch das Angstkonditionierungsparadigma, das die für »Standardized Packages« charakteristische Bündelung von Theorien und Methoden aufweist. Es ist in einen theoretischen Kontext eingebettet, den Michael als Psychologin im Unterschied zu Papassotiropoulos genau kennt. Vor allem aber sind an diesen Theoriekorpus klar definierte, mehr oder weniger standardisierte Routinen gekoppelt, die es Papassotiropoulos dennoch erlauben, seine eigenen Arbeitsinteressen an dieses theoretische Gebiet anzubinden.16 Neurowissenschaftlern, die in erster Linie an der Biologie des Gedächtnisses interessiert sind, sich aber nicht um methodischkonzeptionelle Detailfragen kümmern wollen, geben Gedächtnistests flexible Routinen an die Hand. Diese Routinen sind flexibel insofern, als sie wegen der Abstraktheit der theoretischen Festlegungen relativ einfach an unterschiedliche 16 Mit den theoretischen und methodischen Aspekten dieses Paradigmas, das im Bereich der PTSD-Forschung von großer Bedeutung ist, beschäftige ich mich im dritten Kapitel.

D ER

VERMESSENE

G EIST |

85

Arbeits- und Forschungskontexte adaptierbar sind; gleichzeitig jedoch sind die daran gekoppelten Verfahren so standardisiert, dass mit diesen Instrumenten alte Problemstellungen auf neue Weise bearbeitet werden können. Aus diesem Grund hat Fujimura »Packages« auch als »gray boxes« bezeichnet und sie damit Latours Blackboxes gegenübergestellt: Während Blackboxes auf das Verborgene hindeuten, also das, was gerade nicht diskutiert wird, verweisen gray boxes auf das Machbare, das »less ill-structured, less ambiguous, and less amorphous« ist (Fujimura 1992: 169). Das erklärt, warum Gedächtnistests einen vielseitigen Anknüpfungspunkt für Forschungsprogramme aus dem Bereich der biologischen Wissenschaften bilden. Sie erlauben die Entwicklung und Bearbeitung neuer Fragestellungen, ohne die Stabilität und Integrität der bestehenden Forschungsprogramme zu riskieren. Psychometrische Verfahren bilden, mit anderen Worten, eine Schlüsseltechnologie der Gedächtnisforschung, welche die diversen Forschungsplattformen und Experimentalsysteme in einen gemeinsamen theoretischen und methodischen Horizont stellt, ohne diesen Horizont allzu strikt festzulegen. Wie viele? Vom Gedächtnis zu den Gedächtnissystemen Der letzte Abschnitt hat gezeigt, wie das Gedächtnis – ein diffuses, von soziokulturellen Einflüssen und vielfältigen Metaphern geprägtes Phänomen – als stabiles Wissenschaftsobjekt konstruiert wurde. Psy-Wissenschaftler haben diesen Gegenstand mithilfe experimenteller Prozeduren in etwas übersetzt, was zahlenmäßig repräsentiert und (möglicherweise) gesetzmäßig erklärt werden kann. Ihre Forschungsbemühungen spielen sich nicht nur auf der Ebene beobachtbarer Daten ab, sondern um diese Daten überhaupt zu generieren, müssen umfassende Maßnahmen ergriffen werden: Unter der Datenoberfläche entspinnt sich ein weit gespanntes soziotechnisches Netzwerk zwischen verschiedenen Akteuren, Artefakten, Prozeduren etc. Die psychologischen Errungenschaften bilden bis heute das Rückgrat der quantitativ ausgerichteten Gedächtnisforschung. Aber sind grundlegende Zweifel an der wissenschaftlichen Objektivität des Gegenstandes Gedächtnis nicht durchaus angebracht? Jeder weiß aus eigener Erfahrung, wie trügerisch Erinnerungen sind und wie stark die Gedächtnisleistung von vielfältigen Einflüssen abhängt. Dass sich »the complex, interactive nature of memory phenomena« (Roediger 2008: 225) tatsächlich nur schwer bändigen lässt, wurden sich die Psychologen ab den 1960er Jahren zunehmend bewusst. Immer wieder stießen sie auf Messanomalien, die sie dazu zwangen, Konzepte und Methoden anzupassen. Heute gibt es auf die Frage, was Gedächtnis ist und was man darunter zu verstehen hat, viele methodische und theoretische Zugänge, die mehr

86 | ZWISCHEN GEIST UND G EHIRN

denn je auf das Gehirn fokussieren. Den Prozess der Ausdifferenzierung und die Veränderung für die psychologische Praxis, die er bewirkte, will ich in diesem Abschnitt diskutieren. Die reifizierende Rede vom Gedächtnis suggeriert, dass man es hier mit einem gegenständlichen wissenschaftlichen Objekt zu tun hat. Als »techniques for the disciplining of human difference« (Rose 1988: 187) sind psychometrische Verfahren jedoch in erster Linie mit dem biopolitischen Management von Subjekten befasst. Sie geben Informationen darüber, wie die Leistung des Einzelnen vor dem Hintergrund einer statistisch ermittelten Norm zu beurteilen ist, wie das folgende Zitat pointiert verdeutlicht: »Wenn unsere Abteilung bei einer Person die Gedächtnisleistung testen soll, dann verwenden wir dazu Standardgedächtnistests. Zu jedem dieser Gedächtnistests existieren Normwerte und wir wissen dann, zum Beispiel wenn jemand nur drei von zwölf Worten behält, dass das außerhalb der Norm ist.« (Interview Jelinek) Dieses »managing of difference« (Rose 1988) beruht gerade nicht auf der Erfassung physiologischer Merkmale, sondern experimentelle und statistische Methoden werden auf Verhaltensphänomene angewendet. Dass die Objekte der Forschung nun aber Subjekte sind und keine leblosen Objekte, bringt spezifische Probleme mit sich: Einige Personen haben durch ihre Biografie einen Vorteil bei der Lösung bestimmter Testaufgaben erworben, was das Messergebnis verfälschen und im klinischen Bereich zu falsch positiven oder falsch negativen Diagnosen führen kann. So schneidet »der Buchhalter [beim Merken von Zahlen] halt besser ab als derjenige, der sein Leben lang nicht mit Zahlen gearbeitet hat« (Interview Riepe). Ein Test, der Gedächtnis zu messen vorgibt, erfasst in solchen Fällen ganz andere Kompetenzen – in dem Buchhalter-Beispiel nämlich die Fähigkeit, mit Zahlen umzugehen. Dazu kommt, dass Individuen sich den Testanordnungen willentlich oder unwillentlich widersetzen können. Einige sind während des Tests unkonzentriert, etwa weil sie schlecht geschlafen haben. Andere sind wenig motiviert, einen Test überhaupt durchzuführen. Wieder andere fühlen sich durch die Testsituation unter psychischen Druck gesetzt. Lena Jelinek zieht daraus die folgenden methodischen Schlussfolgerungen: Die Leistung einer Person in einem Gedächtnistest ergibt sich nicht nur aus der reinen Gedächtnisleistung. Nein, man muss sich aus meiner Sicht auch andere Faktoren, zum Beispiel die Konzentrationsleistung anschauen. Wenn jemand sich gar nicht konzentrieren kann, kann schwer die Gedächtnisleistung überprüft werden. […] In unseren Studien versuchen wir daher, zumindest ein Konzentrationsmaß zu erheben und das mit zu berücksichtigen. (Interview Jelinek)

D ER

VERMESSENE

G EIST |

87

Eine andere Möglichkeit, auf diese Herausforderung zu reagieren, besteht darin, die Testprotokolle so anzupassen, dass etwa der Einfluss von Konzentration und Motivation sich statistisch herausfiltern lässt.17 Doch solche Verfahrenstricks sind nur bis zu einem gewissen Grad erfolgreich und lösen nicht das grundlegende Problem, dass »es [insgesamt] wohl Tausende von Faktoren [sind], die die Gedächtnisleistung mitbestimmen und somit zur inter- und auch intraindividuellen Variabilität der Gedächtnisleistung beitragen« (Interview de Quervain). Einflussreiche Psychologen zeigen sich inzwischen davon überzeugt, dass Testergebnisse so kontextsensitiv sind, dass sie sich nicht verallgemeinern lassen. Mittels Gedächtnistests erhobene Daten sind nicht nur abhängig von den myriaden, teilweise unbekannten Bedingungen, unter denen die Tests durchgeführt wurden, sondern auch von den Probanden (Alter, Ausbildung, ihrer psychischen und physischen Konstitution etc.) oder dem verwendeten Paradigma (vgl. Jenkins 1979).18 Auf diesen Umstand hat etwa der Psychologe Henry L. Roediger III (2008) hingewiesen, ein prominenter Vertreter seines Fachs. Sein aufschlussreicher und detaillierter Review-Artikel mit dem Titel »The Relativity of Remembering« bietet einen aufschlussreichen Einblick in die Methodologie der psychologischen Gedächtnisforschung. Seine These: Allgemeingültige Gesetze des Erinnerns und Vergessens seien bislang nicht entdeckt worden und es werde sie wahrscheinlich niemals geben. Bisher hätten sich noch zu jeder scheinbaren Regularität Ausnahmen finden lassen. Relativ zu konkreten Testparadigmen und zu konkreten Testbedingungen seien Generalisierungen zulässig, aber nicht darüber hinaus. Sein Fazit lautet: No principles emerge that hold across various types of memory test, subject populations, retention intervals, instructional strategies, and so on. […] the great truth of the first 120

17 Papassotiropoulos schildert folgendes Vorgehen: »Wir führten diesen Test durch und sagten den Probanden, sie bekommen dreißig Wörter, ein Wort pro Sekunde, das ist sehr schnell […], mit der Aufgabe, sie sofort danach wiederzugeben. Das wurde auch so gemacht. Motivation, Konzentration, und andere Merkmale, die nicht direkt mit dem Gedächtnis assoziiert sind, müssten sich in dieser ersten Phase manifestieren. Fünf Minuten später, überraschend, fragten wir, was waren die Wörter? Dann kommt der eigentliche Gedächtnistest. [...] Also Gene, die nur spezifisch korreliert sind mit dieser ersten Phase, fünf Minuten später aber nicht, sind nicht direkt gedächtnisrelevant.« (Interview Papassotiropoulos) 18 Wie sich im vierten Kapitel zeigen wird, verschärfen sich diese Probleme im Tierversuch noch weiter.

88 | ZWISCHEN GEIST UND G EHIRN

years of the empirical study of human memory is captured in the phrase »it depends«. (Roediger 2008: 228)

Was Roediger hier in Zweifel zieht, ist nichts weniger, als dass es sich beim Gedächtnis um ein psychologisches Objekt handelt, über das es universale Wahrheiten zu gewinnen gibt. Vor dem Hintergrund, dass genau dies aber die Absicht vieler experimenteller Psychologen seit Ebbinghaus war, birgt die These einige Sprengkraft. Zur Begründung verweist Roediger unter anderem auf zwei aneinander gekoppelte Entwicklungen, die ab den 1960er Jahren einsetzen und die er für dramatischen Ausmaßes hält: erstens »the proliferation of different methods of testing memory« und zweitens »the explosion of different kinds of memory that have been postulated« (Roediger 2008: 235). War Ebbinghaus noch felsenfest davon überzeugt, dass das Gedächtnis ein singuläres, scharf umgrenztes und gesetzmäßig erklärbares Objekt sei, so setzte damals eine bemerkenswerte Entwicklung ein, durch die das epistemische Objekt »Gedächtnis« von der Bildfläche verschwand und durch sich konstant ausdifferenzierende Gedächtnissysteme ersetzt wurde – »a coat of many colours« (Danziger 2008: 156).19 Der hauptsächliche Impetus dieser »cognitive revolution« (Lockhart 2000: 46) bildete die psychologische Erforschung von Personen mit Hirnläsionen, bei denen seltsame Messanomalien auftraten, die nicht in die bestehenden Erklärungsschemata passten. Einer dieser Fälle war derjenige des berühmten Patienten H.M. Henry Gustav Molaison, so sein Name, litt an starken epileptischen Anfällen, woraufhin ihm 1953, im Alter von 27 Jahren, beidseitig große Teile des mittleren Schläfenlappens entfernt wurden. Nach der Operation war er zwar weitgehend anfallsfrei. Jedoch trat eine schwere anterograde Amnesie auf, das heißt, er vergaß Erlebnisse nach kurzer Zeit wieder, konnte sich jedoch gut an Ereignisse erinnern, die ein bis zwei Jahre vor der Operation lagen (Scoville/Milner 1957; Milner et al. 1968).20 Die Psychologin Brenda Milner, die H.M.’s Anomalie mit immer wieder neuen Tests und Verfahren untersuchte, machte eine weitere interessante Beobachtung: H.M. erinnerte sich nach Übungen, in denen bestimmte Bewegungsabläufe mit ihm eingeübt worden waren, 19 Was die experimentelle Psychologie erst spät im 20. Jahrhundert realisierte, nämlich dass die menschliche Erinnerung verschiedenartig ist, wurde von Philosophen wie Henri Bergson und anderen bereits viel früher postuliert, auch wenn ihre Überlegungen natürlich weniger auf einer empirischen Ebene angesiedelt waren (vgl. Danziger 2008). 20 Über die tatsächliche Reichweite seiner retrograden Amnesie gibt es unterschiedliche Angaben (vgl. Corkin 2002).

D ER

VERMESSENE

G EIST |

89

zwar nicht mehr daran, diese Übungen jemals durchgeführt zu haben, bei den Bewegungsabläufen selber ließ sich jedoch ein deutlicher Lerneffekt beobachten. Dies deutete erstmals darauf hin, dass das Gedächtnis weder in zeitlicher noch in inhaltlicher Hinsicht (Art der verarbeiteten Information) eine Einheit bildet. Andere Fälle kamen hinzu. Roediger hebt in diesem Zusammenhang die Forschungen der Psychologen Weiskrantz und Warrington heraus. Sie stellten 1970 zu ihrem großen Erstaunen fest, dass schwere Amnestiker bei bestimmten Gedächtnistests nicht schlechter abschnitten als gesunde Kontrollpersonen (Warrington/Weiskrantz 1970). Dies galt offenbar auch für das Lernen fragmentierter Wörter und Bilder, die von den ansonsten amnestischen Probanden über Tage und Wochen wiedererkannt wurden. Die Erkenntnis, dass »amnesic subjects are not so forgetful as was once thought« (Warrington/Weiskrantz 1970: 628), ließen Zweifel daran aufkommen, ob es sich beim Gedächtnis wirklich um ein psychologisch klar konturiertes Objekt handelt, wie man bislang gedacht hatte. Warrington und Weiskrantz hielten zwar trotz der auffälligen Messanomalien in ihren Studien noch an der psychologischen Einheit des Gedächtnisses fest (Roediger 2008), andere zogen daraus aber den Schluss, dass das Gedächtnis in mannigfaltige Subsysteme zerfällt (vgl. Abbildung 3). Durch einen verbreiterten Fokus (autobiografisches Gedächtnis etc.) sowie Hand in Hand mit der Verfeinerung und weiteren Entwicklung von Gedächtnistests explodierte in den 1980er Jahren die Anzahl sogenannter Gedächtnissysteme (Tulving 1985, 1995; Schacter/Tulving 1994; Schacter et al. 2000). Zuerst kam es zur Postulierung dualer Taxonomien, die an Bewusstsein gebundene Gedächtnisformen (explizites Gedächtnis) von unbewusst ablaufenden Erinnerungsvorgängen trennten (implizites Gedächtnis).21 Die 80er und 90er Jahre des letzten Jahrhunderts erlebten eine Blüte von Studien zum impliziten Gedächtnis, was zu einer weiteren Differenzierung von Tests und Gedächtnistaxonomien führte (Roediger 1990). Heute fest etabliert ist das von Endel Tulving ausgearbeitete Klassifikationsschema, das eine hierarchische Differenzierung der dualen Systematik in fünf separate Systeme vornimmt (Tulving 1995).22 21 Von Squire (1996) stammt die Unterscheidung deklarativer und nicht-deklarativer Gedächtnisinhalte, die sich besonders im tierexperimentellen Bereich durchgesetzt hat. Im klinischen Bereich hat hingegen Schacters (1987) Abgrenzung von expliziten und impliziten Gedächtnisformen mehr Verbreitung gefunden. 22 Tulving nimmt eine hierarchische Unterteilung des deklarativen Gedächtnisses in das grundlegende semantische und das höher stehende episodische Gedächtnis vor: Ersteres ist das Speichersystem für das gesamte, objektiv gültige Tatsachenwissen, im episodischen Gedächtnis hingegen sind die persönlichen, vor allem emotional relevanten

90 | ZWISCHEN GEIST UND G EHIRN

Long-Term Memory

Nondeclarave (Implicit)

Declarave (Explicit)

Procedural (Skills and Habits)

Facts

Priming

Events

Hippocampus

Striatum

Neocortex

Simple Classical Condioning

Emoonal Responses

Skeletal Musculature

Amygdala

Cerebellum

Nonassociave Learning

Reflex Pathways

Abbildung 3: Die Ausdifferenzierung des Langzeitgedächtnisses mit den korrespondierenden Hirnsystemen (nach Squire/Zola 1996) Die Idee separater Gedächtnissysteme ist nicht ganz unumstritten. Es gibt Psychologen wie Roediger (2002), die den Ausdruck »kind of memory« bevorzugen. Andere bestreiten den Erklärungswert solcher Systeme und propagieren im Gegenzug prozessorientierte Modelle (vgl. Glenberg 1997; Bechtel 2001; McKoon et al. 1986). Dennoch ruft heute die Behauptung, das Gedächtnis bestehe aus voneinander abgrenzbaren ›Modulen‹, die durch unterschiedliche Tests erfasst würden, im Allgemeinen kein Erstaunen mehr hervor (vgl. Tulving 2002): »Es gibt verschiedene Arten von Gedächtnis« (Interview Papassotiropoulos), und »die Gedächtnisverfahren dienen dann dazu, […] die einzelnen angenommenen Gedächtnisleistungen möglichst objektiv quantifizieren zu können« (Interview Brand). Die theoretische Pluralisierung von Gedächtnis ist unauflösbar an die korrespondierende Vervielfältigung von Testverfahren gekoppelt. Wie die Philosophin

Erlebnisse der eigenen Biografie gespeichert, die sich als besonders anfällig gegenüber psychischen und physischen Verletzungen erwiesen haben (siehe fünftes Kapitel).

D ER

VERMESSENE

G EIST |

91

Uljiana Feest überzeugend argumentiert hat, lässt sich an diesem Ausdifferenzierungsprozess illustrieren, wie »concepts as tools« fungieren (Feest 2010). Möglich sei dies, da psychologische Gedächtniskonzepte seit Ebbinghaus operational definiert sind, das heißt an konkrete Verifikationsbedingungen geknüpft. Sie können deshalb experimentell auf die Probe gestellt werden, wodurch sich ein mangelartiger Ausdifferenzierungsprozess entspinnt: Die einzelnen Konstrukte und ihre experimentellen Operationalisierungen werden interaktiv revidiert, aber gleichzeitig geraten auch die neuropsychologischen Theorien in Bewegung. Die zugrunde liegende Logik ist die folgende: Wenn zwei Tests, von denen man annimmt, dass sie das gleiche Gedächtniskonstrukt herausgreifen, bei einem Subjekt trotz identischer Testbedingungen zu funktionalen Dissoziationen23 führen, stellt sich die Frage, ob es sich hier gar nicht um dasselbe Konstrukt handelt (vgl. Roediger 1990). Dieser Punkt kann nur im Rahmen neuer Experimente aufgeklärt werden, die mit anderen Probanden (zum Beispiel amnestischen Patienten), unter anderen Testbedingungen oder mit anderen Testparadigmen durchgeführt werden.24 Feest notiert, dass »there is no a priori way of predicting the effects of changing ideas about the nature of a phenomenon« (Feest 2010: 187). Die Schlussfolgerung, dass das Phänomen gar nicht existiere, sei eine ebenso plausible wissenschaftliche Reaktion wie die Revision dessen zentraler Merkmale. Diese dialektische Dynamik wird hauptsächlich von Psychologen am Laufen gehalten, sie bleibt aber nicht auf die psychologische Ebene beschränkt. Schon früh kam die neuronale Ebene ins Spiel, eine Entwicklung, die bereits mit H.M. einsetzte. Sein Fall ermöglichte es zum ersten Mal, die psychologischen Auswirkungen von einigermaßen klar umgrenzten hirnorganischen Läsionen eingehend zu untersuchen – ein für die weitere Entwicklung der Gedächtnisforschung ungeheuer wichtiger Moment. Gedächtnissysteme begannen sich damit von »heuristic devices« in »natural kinds« zu verwandeln (Danziger 2008: 174). Die Psychologisierung von Gedächtnis seit dem 19. Jahrhundert hat auf diese Weise zu einer Multiplizierung von (scheinbar) klar voneinander abgegrenzten »organized structures« (Tulving 2002: 6) geführt, die zunehmend biologisch fundiert werden konnten.25 Anders als »metaphysische Erklärungen wie die Seele oder der Geist 23 Eine funktionale Dissoziation bedeutet, dass die Performanz des Subjekts bei den beiden Tests voneinander abweicht. 24 Vgl. Graf/Schacter 1985 für eine konkrete Studie, in der dieses Verfahren angewendet wurde. 25 Gedächtnissysteme sind jedoch nicht mit »a particular kind of memory task, or a particular kind of performance measure in a task, or a particular kind of stored information […]« gleichzusetzen, wie Tulving bemerkt (2005: 9). All dies sind wichtige

92 | ZWISCHEN GEIST UND G EHIRN

oder andere unfassbare Definitionen, die nicht untersuchbar sind«, handle es sich beim Gedächtnis, so die verbreitete wissenschaftliche Auffassung, »ganz klar um psychologisch fassbare Verhaltensweisen, die alle, aber wirklich alle, ein biologisches Korrelat haben« (Interview Papassotiropoulos). Diese Entwicklung scheint noch nicht abgeschlossen zu sein: In einer Festschrift zu Ehren Henry Roedigers geht Tulving, ein ebenso berühmter Gedächtnisforscher wie Roediger selber, der Frage auf den Grund, wie viele Gedächtnisarten es denn nun wirklich gibt (Tulving 2007). Seine Antwort: 256.26 Die Liste, die am Ende des Textes steht, führt tatsächlich 256 Konzepte auf, von A wie »abnormal« bis W wie »working«. Allerdings ist das alles nicht ganz ernst gemeint und als Persiflage auf die Zahlen-Gläubigkeit vieler Psychologen zu verstehen – »[…] just a convenient placeholder symbol for something like the expression ›many more than anyone who has not spent hours in deep thought about […] is likely to come up with when asked about the number of kinds of memory.‹« (Tulving 2007: 46) In einem anderen Text, der bereits in den 80er Jahren erschienen ist, zieht Tulving die diesmal ernst gemeinte Schlussfolgerung, »Gedächtnis« sei wie »Fortbewegung« ein viel zu breit angelegter Überbegriff für eine Vielzahl völlig unterschiedlicher Phänomene (Tulving 1983). Auffällig ist, dass trotz dieser kritischen Entwicklung das Objektivitätsethos der Gedächtnisforschung nicht grundlegend erschüttert zu sein scheint, eher im Gegenteil. Psychologische Methoden und Konzepte bilden eine zentrale Stütze des Feldes, wie oben gesehen. Matthias Brand zeigt sich »fest davon überzeugt«, »dass wir uns bei der Einteilung von Gedächtnissystemen nicht an einer künstlichen Taxonomie orientieren« (Interview Brand). Zwar hat sich das Gedächtnis als ein konkretes, singuläres psychologisches Objekt im Laufe der Jahre verflüchtigt. Doch die Hoffnung bleibt, auch wenn »Gedächtnis […] nicht gleich Gedächtnis [ist]« (Interview Brand), auch wenn es das eine Gedächtnis nicht gibt, dass sich doch immerhin die vielen Gedächtnisse quantifizieren und klar voneinander abgrenzen lassen. Auch Roediger, der sich zwar von der »inherent complexity« seiner Wissenschaft beeindruckt zeigt, meint sozusagen im gleichen Atemzug: »The field has a strong scientific base.« (Roediger 2008: 247)

Aspekte von Gedächtnissystemen, die jedoch theoretisch wesentlich reichhaltiger sind und zum Beispiel auch neuronale Aspekte beinhalten. 26 1972 ging er noch von einer Zahl von circa 50 aus (Tulving 1972). Die Gedächtnisarten haben sich also in 35 Jahren mehr als verfünffacht.

D ER

VERMESSENE

G EIST |

93

Der methodologische Imperativ Allerdings stellt sich die Frage, worin das wissenschaftliche Fundament eigentlich besteht. Dass es in der Biologie nicht zu finden ist, gehört zu den wesentlichen Erkenntnissen dieses Kapitels. Denn die biologische Fundierung von Gedächtnis »depend[s] crucially on the judicious selection of tasks for the subject to perform, and those tasks are the fruit of decades of behavioral research« (Lockhart 2000: 45). Trotz der Fluidität der psychologischen Kategorien und Methoden kann die Antwort also nur lauten: Das wissenschaftliche Fundament kann nirgendwo anders liegen als in der Psychologie selber. Und das Problem scheint nur auf der methodischen Ebene lösbar, insofern als Messverfahren und Messkonstrukt, wie wir gesehen haben, zumindest teilweise ko-produziert sind. Gleich an seine obige Bemerkung zur Realität der Taxonomien fügt Brand in diesem Sinne hinzu: Die entscheidende Frage sei, ob man »geeignete Testverfahren entwickeln [kann], die die unterschiedlichen Systeme, die man theoretisch annimmt, gut abbilden können« (Interview Brand). Ob ein psychologisches Konstrukt valide erhoben wurde, ob die Messung tatsächlich das misst, was sie zu messen vorgibt, ist eine der Kernfragen, der sich jedes Testverfahren stellen muss. Wenn sich diese Frage nicht eindeutig beantworten lässt, droht nicht nur das psychologische, sondern auch das biologische Fundament der Gedächtnisforschung in sich zusammenzubrechen. In der Psychologie gibt es mit der Testtheorie einen Teilbereich, der sich mit genau solchen Fragen auseinandersetzt. Die Testtheorie entwickelt statistische Verfahren, anhand derer sich die inhaltliche Relevanz eines Messverfahren und die statistische Signifikanz ihrer Ergebnisse beurteilen lassen. Zu den wichtigsten Gütekriterien zählen die Konstruktvalidität (als Maß für die Gültigkeit, das heißt, sind die theoretischen Konstrukte angemessen operationalisiert?), die Reliabilität (als Maß für die Zuverlässigkeit oder Messgenauigkeit des Verfahrens) sowie die Objektivität, die angibt, wie stark ein Messergebnis vom Versuchsleiter oder den Testbedingungen abhängt (Cook/Beckman 2006). Während anhand der Reliabilität (wie auch der Objektivität) die Qualität des Messverfahrens bestimmt wird, soll die Konstruktvalidität angeben, inwiefern tatsächlich das gemessen wird, was gemessen werden soll (Cronbach/Meehl 1955). Sie ist im Zusammenhang dieses Kapitels die wichtigste Größe, denn mit ihr kommt eine theoretisch-konzeptionelle Ebene ins Spiel, welche die rein methodisch-technische Ebene ergänzt, auf die Reliabilität und Objektivität abzielen. Die Frage nach der Konstruktvalidität wirft eine entscheidende, wenn nicht die entscheidende Frage auf: Was misst ein Test überhaupt? Und greifen zwei Tests die gleichen oder unterschiedliche theoretische Merkmale heraus? Ist die Konstruktvalidität eines

94 | ZWISCHEN GEIST UND G EHIRN

Tests nicht erfüllt, so kann dies zweierlei bedeuten:27 entweder, dass grundlegende Zweifel am Konstrukt selber und den daraus abgeleiteten Hypothesen angebracht sind. Oder aber, dass bei der Bestimmung der unabhängigen und abhängigen Variablen, also der Operationalisierung, Fehler gemacht wurden. Ohne detaillierte Kenntnisse der theoretischen Annahmen und der relevanten Konzepte lässt sich die Konstruktvalidität also schwerlich beurteilen. Im Unterschied zur Messgenauigkeit und Objektivität, die verhältnismäßig einfach quantitativ zu bestimmen sind durch die mehrfache Wiederholung des Tests, wirft die Ermittlung der Konstruktvalidität eines Tests heiklere Fragen auf. Als Methode der Wahl zur Ermittlung der Konstruktvalidität hat sich in der Praxis die Faktorenanalyse etabliert. Dieses mathematische Verfahren wurde zu Beginn des 20. Jahrhunderts von dem Psychologen Charles Spearman entwickelt, der damit zeigen wollte, dass verschiedene Intelligenztests von einem »allgemeinen Intelligenzfaktor« bestimmt sind (Spearman 1914). Es ist hier nicht der Platz, um auf die technischen Details dieser komplexen statistischen Prozedur vertieft einzugehen. In aller Kürze kann das Vorgehen folgendermaßen zusammengefasst werden:28 Das Ziel besteht darin, ein komplexes System, bestehend aus vielen empirischen Variablen, so zu bündeln, dass voneinander unabhängige Faktoren resultieren (Gould 1988). Diese Faktoren bilden dann die relevanten Dimensionen des Systems, die begrifflich oder sogar biologisch interpretiert werden können. Ob solche Vereinfachungen zulässig sind respektive, wie die Dimensionen zu deuten sind, muss dann von Fall zu Fall entschieden werden und setzt wiederum empirisches und theoretisches Wissen voraus. Bei Gedächtnistests und anderen psychometrischen Verfahren ist es seit Langem gängige Praxis, die Validität psychologischer Konstrukte zu definieren und zu testen, indem von hohen Korrelationen zwischen Testvariablen auf ähnliche Konstrukte geschlossen wird (Delis et al. 2003). Dieses Vorgehen, wie die Faktorenanalyse insgesamt, ist jedoch immer wieder kritisiert worden – in seiner bekannten Kritik von Intelligenztests hat Gould von einem Fehlschluss der Verdinglichung gesprochen (Gould 1988). In diesem Zusammenhang besonders aufschlussreich ist eine von Delis et al. durchgeführte Studie mit dem bezeichnenden Titel »The Myth of Testing Construct Validity using Factor Analysis« (Delis et al. 2003). In zwei groß angelegten Experimenten konnten die Wissenschaftler zeigen, dass Tests, die zweifelsohne unterschiedliche Gedächtnisvariablen herausgreifen, faktorenanalytisch nur eine Dimension abbilden. Würde also die Konstruktvalidität 27 http://www.stangl-taller.at/testexperiment/testguetekriterien.html (Stand: 23.1.2012). 28 Für eine ausführlichere und lesbare Einführung sei Gould 1988 empfohlen, obwohl dessen Darstellung nicht unumstritten ist (vgl. Carroll 1995).

D ER

VERMESSENE

G EIST |

95

dieser beiden Testverfahren mithilfe der Faktorananalyse validiert, käme man zum Ergebnis, dass beide Testverfahren das gleiche Konstrukt herausgreifen – was sie aber offensichtlich nicht tun. Die Autoren stellen fest: »These procedures have been regarded as fundamental methods of test construction for so many decades that psychologists continue to embrace and practice them frequently, often without questioning their assumptions or validity.« (Delis et al. 2003: 936) Es sei nicht zulässig, so Delis et al., von hohen Korrelationen auf begriffliche Zusammenhänge zu schließen, genauso wie es nicht zulässig sei, statistische Korrelationen und Verursachung gleichzusetzen. Mir geht es selbstverständlich nicht darum, den Sinn und Zweck der Faktorenanalyse grundsätzlich infrage zu stellen oder ihre Nützlichkeit für psychologische Fragestellungen. Welche Folgerungen aus Delis’ Studie zu ziehen sind, wurde offen debattiert (Larrabee 2003; Bowden 2004). Vor dem Hintergrund, dass ein Messverfahren mit der Konstruktvalidität steht und fällt, ist die Studie von Delis et al. dennoch bemerkenswert. Sie bestätigt nicht nur, was bereits oben ersichtlich wurde, nämlich dass die Operationalisierung komplexer psychologischer Konstrukte alles andere als trivial ist. Sie macht zudem die Schlüsselrolle quantitativer Verfahren im psychologischen Methodenarsenal deutlich. Wie Danziger (1990) in seiner historischen Studie herausgearbeitet hat, haben sich statistische Verfahren früh schon als eine Kernkompetenz der Psychologie etabliert. Das ging – zumindest im angelsächsischen Bereich – mit der Tendenz einher, die disziplinäre Identität in der Kenntnis und Weiterentwicklung der entsprechenden quantitativen Methoden zu suchen. Danziger hat von einem »methodologischen Imperativ« (Danziger 1990: 147) gesprochen, der die Bandbreite psychologischer Hypothesen auf diejenigen eingrenzte, die statistisch bearbeitbar waren. Der Wert psychologischer Theorien wurde allein an statistischen Verfahren gemessen, oder anders formuliert, statistische Realitäten wurden mit psychologischen verwechselt. Die Beobachtung, dass die Konstruktvalidität vornehmlich quantitativ erhoben wird, ist ein Fingerzeig in diese Richtung. Für den Bereich der Gedächtnisforschung liegen die Vorteile statistischer Verfahren auf der Hand: Angesichts der begrifflichen Unschärfen stabilisieren sie nicht nur den fragilen Gegenstand, sondern tragen auch dazu bei, die Methoden und damit die Disziplin insgesamt zu verwissenschaftlichen. Nicht nur das Gedächtnis (genauer: einzelne Gedächtnissysteme) wird in eine quantitative Form überführt, sondern auch das Messverfahren selber wird anhand einiger weniger Maße charakterisiert, die viele Komplexitäten verhüllen und Stabilität garantieren. Die Quintessenz lautet: Die meisten der heute im Feld zirkulierenden psychometrischen Verfahren manifestieren einen zweifachen Übersetzungsprozess. Einerseits wird in ihrem Rahmen Gedächtnis operational definiert und

96 | ZWISCHEN GEIST UND G EHIRN

quantifiziert. Darüber hinaus sind diese Inskriptionswerkzeuge selber Gegenstand eines Translationsprozesses, der sie in eine standardisierte gray box, charakterisiert durch einige wenige Kennzahlen, verwandelt. In der Praxis können die Anwender von Gedächtnistests auf eine Vielzahl von bereits validierten und normierten Testverfahren zurückgreifen, die von Verlagen wie Hogrefe angeboten werden: Es wäre ein Unding, wenn man sich für jede einzelne Gedächtnisdomäne einen Test ausdenken müsste. Davon würde ich dringend abraten, weil die Gütekriterien nicht geklärt sind. Das heißt, man muss Tests nehmen, die standardisiert sind, die veröffentlicht sind, wo man sozusagen die Gütekriterien nachschlagen kann und die im günstigsten Fall auch gut sind. (Interview Brand)

Selbst jemand, der über keine tieferen psychologischen Methodenkenntnisse verfügt, sieht sich so in die Lage versetzt, ein für seine Zwecke geeignetes Verfahren auszuwählen. Dies macht plausibel, so meine Schlussthese, wie es möglich ist, dass trotz der vielfältigen Schwierigkeiten, Gedächtnis zu definieren und zu operationalisieren – Schwierigkeiten, die durchaus auch von einzelnen Experten diskutiert werden –, die quantitative, objektive und wissenschaftliche Natur von Gedächtnis in der biomedizinischen Praxis dennoch erstaunlich selten hinterfragt wird.

F AZIT : G EIST | G EHIRN Ohne die Psychologisierung von Gedächtnis, die im 19. Jahrhundert mit Ebbinghaus einsetzte, wäre die Biologisierung dieses Objektes kaum vorstellbar. Es sind Psychologen, welche die Techniken entwickelten, die das Gedächtnis zu etwas Messbarem, kurzum: etwas wissenschaftlich Greifbarem machten, über das es positives Wissen zu gewinnen gibt. Ihre Methoden und Begriffe, die sich in psychometrischen Verfahren bündeln und im Feld zirkulieren, bilden auch heute noch das zentrale Fundament der biomedizinischen Gedächtnisforschung – auch wenn die Anwendung und Proliferation der Methoden nicht mehr ausschließlich in den Händen der Psychologen selber liegt. So schreibt auch Kandel: Wenn es jedoch um geistige Funktionen geht, haben Biologen eine Richtschnur dringend nötig. An diesem Punkt kann die Psychiatrie ihre Gegendisziplin an die Hand nehmen und einen besonders wertvollen Beitrag zur Neurobiologie leisten. Psychologie und Psychiatrie können die geistigen Funktionen erhellen und abgrenzen, die von der Biologie untersucht

D ER

VERMESSENE

G EIST |

97

werden müssen, wenn wir ein sinnvolles und differenziertes Verständnis der Biologie des menschlichen Geistes erreichen wollen. (Kandel 2006: 41/42)

Dass die zentrale methodische und begriffliche Relevanz der Psychologie (Begriffe, Methoden, Statistik) durch ihre institutionelle und inhaltliche Marginalisierung konterkariert wird, hat seinen Grund teilweise in Entwicklungen, die innerhalb der Disziplin selber zu finden sind. Wie gesehen, hat die Konstruktion des objektiven Gedächtnisses paradoxerweise eine Dynamik in Gang gesetzt, an deren Ende die Dekonstruktion des Gegenstandes selber steht: Angesichts einer kaum noch überschaubaren Vielzahl theoretischer Bausteine, gekoppelt an ihre spezifischen Messmethoden, ist eine einheitliche psychologische Theorie des Gedächtnisses in weite Ferne gerückt. In Anbetracht der verwirrenden Vielzahl von Gedächtnissystemen – eine Konsequenz der psychologischen Objektivierung des Gegenstandes –, stellt sich für viele experimentelle Psychologen die Frage von Neuem, was diese unterschiedlichen ›Gedächtnisse‹ miteinander verbindet und ob man es hier mit bloßen »Produkt[en] der Einbildung« zu tun hat (Tulving 2006). Sicher ist: Den Realitätsbeweis – das heißt die Verwandlung von Gedächtniskonstrukten in »natural kinds« – kann die Psychologie allein nicht leisten (vgl. Feest 2003). Spätestens seit Kandel die biologischen Grundlagen einfacher Lernprinzipien bei der Meeresschnecke erforschte, wird in den Neurowissenschaften das Ziel verfolgt, das Gedächtnis und seine grundlegenden Funktionsprinzipien neuronal zu fundieren. Eine der Prämisse, auf der diese Hoffnung beruht, lautet, dass »jeder psychische Vorgang ein Hirnkorrelat hat« (Interview Brand). Die Auflösung des Dualismus von Geist und Gehirn respektive von funktionellen und organischen Störungen, die Kandel propagiert hat, wird inzwischen auch von den meisten experimentellen Psychologen geteilt. Tulving – der ›Vater‹ des episodischen Gedächtnisses – sieht sein einstmals rein hypothetisches Konzept dank neurobiologischer Methoden inzwischen verifiziert: »[I]t now has become a concept that has a home, even if still a hidden one, in the brain. It is thereby a part of the objective reality.« (Tulving 2002: 19) Die biologischen Disziplinen versprechen, psychologische Konstrukte auf ihre neuronalen Korrelate zu reduzieren, Korrelate, so grundlegend, dass sie selbst bei so primitiven Spezies wie Fliegen, Würmern, Schnecken oder Nagern zu finden sind (vgl. de Quervain/Papassotiropoulos 2006). Es geht um nichts weniger als darum, das zelluläre Alphabet des Lernens und Gedächtnisses zu entschlüsseln, »Bausteine, die man auch wiederfindet bei komplexeren Formen des Lernens« (Interview Kuhl). Das Ziel ist, so den fragmentierten psychologischen Gegenstand auf der Basis einiger weniger biologischer Grundprinzipien zu reifizieren. Die Aussicht,

98 | ZWISCHEN GEIST UND G EHIRN

dass ihre schwierigen Konzepte eben nicht bloß »a category in an abstract organizational scheme« bleiben, sondern Teil der »biological reality« sind (Tulving 2002: 11), macht verständlich, dass sich so viele Psychologen in den Dienst dieses Projektes stellen. Wie sich in diesem Kapitel gezeigt hat, beschädigt das nicht die große Bedeutung der Psychologie, welche erst die Methoden entwickelt hat, die der Biologisierung von Gedächtnis Bahn gebrochen haben. So betrachtet sind Psychologisierung und Biologisierung aufeinander bezogene Entwicklungen, zwei Kehrseiten eines einzigen Projektes, das zum Ziel hat, das Gedächtnis als ein Wissensobjekt zu formen. Und auch wenn die Psychologie institutionell und inhaltlich im Zuge dieser Entwicklung an Gewicht verliert, sich zu einer reinen methodischen Hilfswissenschaft der Neurodisziplinen zu entwickeln scheint, bildet sie hintergründig eine der wesentlichen Triebkräfte dieser Entwicklung. In den folgenden Kapiteln geht es darum, diese hybride Dynamik weiter auszubuchstabieren. Die Odyssee wird immer tiefer ins Gehirn führen, beginnt aber zunächst einmal bei den Tiermodellen, ohne die es keine biomedizinische Forschung im herkömmlichen Sinne gäbe.

Tiermodelle Zwischen Theorie und Experiment, Labor und Klinik

Tiermodelle sind aus dem biomedizinischen Forschungsalltag nicht mehr wegzudenken. Sie bilden die fundamentalen Arbeitseinheiten der Grundlagenforschung, an denen pathogenetische Mechanismen, aber auch neue therapeutische und diagnostische Verfahren erforscht werden (vgl. Fields/Johnston 2005). Das berühmteste Labortier der Gedächtnisforschung ist wohl die Meeresschnecke Aplysia, an der Kandel unter anderem die Forschungen vornahm, die ihm im Jahre 2000 den Nobelpreis einbrachten (vgl. Kandel 2008). Neben anderen mehr oder weniger exotischen Spezies bevölkern aber vor allem Ratten und in erster Linie die gemeine Hausmaus die Laboratorien der Gedächtnisforscher. Plomin bezeichnete die Maus bereits 1990 als »the most widely used animal in behavioral genetics research« (Plomin et al. 1990: 263). Seit mehr als hundert Jahren unter quasi-industriellen Bedingungen gezüchtet, gibt es inzwischen mehrere Hundert Inzucht-Mausstämme (Wotjak 2004). In ihrer wissenschaftshistorischen Studie zur Standardisierung von Labormäusen hat Karen Rader (2004) die These vertreten, dass der Erfolg der Maus als Labortier damit zusammenhänge, dass sie ideal zwischen den gegensätzlichen Sphären vermittelt, zwischen denen sich die moderne Laborwissenschaft abspielt: nämlich zwischen Mensch und Tier einerseits und zwischen Natur und Kultur andererseits. Die Genetik hat wesentlich zu der Überbrückung dieser Dichotomien beigetragen. Mit der Entschlüsselung des genetischen Codes konnten, wie Amann argumentiert hat, die »Merkmale und Funktionen, die zusammen Phänotypen bilden, […] in die einheitliche Sprache, das einheitliche Alphabet der Gene [aufgelöst werden]« (Amann 1994: 266). Die auf der Ebene des Phänotyps so offensichtlichen Unterschiede zwischen den Arten erscheinen auf der Ebene des universalen Gencodes in einem neuen Licht. Jacques Monods und François Jacobs berühmte Bemerkung, dass »anything found to be true of E. coli must also be true of elephants« (Monod/Jacob 1961: 393), ist vor diesem Hinter-

100 | ZWISCHEN GEIST UND GEHIRN

grund zu verstehen. Die Behauptung, dass Mäuse »uns genetisch ja schon sehr ähnlich« (Interview Kuhl) seien, gehört in der Tat zu den fundamentalen (aber nicht unumstrittenen, vgl. Church et al. 2009) Prämissen der biomedizinischen Grundlagenforschung. Aufgrund »its mammalian heritage and its neuroanatomical, physiological, and genetic closeness to humans« (Greenspan 1995: 557) seien Mäuse prädestinierte Modellorganismen, so die Überzeugung der meisten Grundlagenforscher. Mäuse (und ebenso Ratten) erscheinen in genetischer Hinsicht fast wie wir, sehen aber so anders aus, dass die ethischen und moralischen Hürden klein bleiben.1 Auch die Grenze zwischen Natur und Kultur verschwimmt zunehmend, wie die von Donna Haraway (1997) untersuchte OncoMouse beispielhaft verdeutlicht.2 Aufgrund der beeindruckenden gentechnologischen Innovationen der letzten Jahrzehnte ist die genetische Kontrolle nicht nur auf die Inzucht beschränkt, sondern hat die Rekombination von DNA und die gezielte Manipulation des Mausgenoms an embryonalen Stammzellen möglich gemacht (vgl. Rheinberger 1995; Manis 2007). Die Herstellung von Knock-out- oder Knock-in-Mäusen gehört heute zu den biomedizinischen Routineverfahren und hat die Möglichkeiten, Lebewesen nach bestimmten Vorstellungen zu designen, radikal erweitert. Sowohl die eigentliche Herstellung von Modellorganismen als auch anschließend die Erzeugung experimenteller Daten beruhen auf hochtechnologischen Verfahren. Gen-Mäuse im Speziellen – das gilt aber für die meisten Tiermodelle – lassen sich insofern als »Technofakte« (Amann 1994) charakterisieren oder, in Rheinbergers Jargon ausgedrückt, als »technische Dinge« (Rheinberger 2001).3 1

Es gibt weitere Gründe, die für die Maus als Labortier sprechen: Mäuse vermehren sich schnell und sind, was die Haltungsbedingungen angeht, wenig anspruchsvoll. Sie lassen sich deshalb gut züchten. Zur Geschichte der Maus als Labortier vgl. Ginsburg 1992, Rader 2004.

2

Die Onkomaus, eine genetisch modifizierte Maus, die Anfang der 1980er Jahre zu Krebsforschungszwecken hergestellt wurde, gehört zu den ersten patentierten Lebewesen überhaupt. Das Patent liegt bei der Firma DuPont. Die feministische Wissenschaftsforscherin Donna Haraway (1997) hat die Geschichte dieses »Cyborgs«, der sich zwischen Laborbank und Patentbüro bewegt, nachgezeichnet.

3

Während epistemische Dinge Rheinberger zufolge das verkörpern, was man noch nicht weiß – ihnen eigen ist eine typische Verschwommenheit und Unklarheit, die sich erst im Verlaufe des Experimentierens auflöst –, weisen technische Dinge eine charakteristische Bestimmtheit auf. In vielen Fällen sind sie nichts anderes als ehemals epistemische Dinge, die im Laufe des Forschungsprozesses stabilisiert wurden und somit zum Bestandteil wissenschaftlicher Routinen werden konnten: »Technische Gegen-

T IERMODELLE |

101

Sie sind nicht so reguliert und standardisiert wie die restliche technologische Infrastruktur eines Labors, haben sich also eine gewisse Natürlichkeit bewahrt, sind aber als Lebewesen gleichzeitig so artifiziell, dass sie als routinemäßige Forschungswerkzeuge dienen können. Die Allgegenwärtigkeit von Tiermodellen belegt Rheinbergers Diktum, dass der Forschungsprozess in der Biologie mit der Wahl eines geeigneten Experimentalsystems beginnt: »Um ein Problem zu analysieren, ist der Biologe gezwungen, seine Aufmerksamkeit auf einen Ausschnitt der Realität zu richten, auf ein Stück Wirklichkeit, das er willkürlich aussondert, um gewisse Parameter zu definieren.« (Rheinberger 2001: 19) Die Forschungsdynamik produktiv in Gang zu halten, hat Rheinberger als den eigentlichen Zweck eines Experimentalsystems bestimmt. Experimentalsysteme neigen dazu, ihre Rahmenbedingungen zu transzendieren, Differenzen zu erzeugen, Überraschungen zu generieren. Zwischen Experimentalsystemen und Tiermodellen gibt es jedoch einen kleinen, aber entscheidenden Unterschied. Tiermodelle werden in der Regel nicht willkürlich ausgesondert, »um gewisse Parameter zu definieren«. Vielmehr handelt es sich um Experimentalsysteme, die planvoll dazu auserkoren wurden, ein »Stück Wirklichkeit« zu repräsentieren. In ihrem wissenschaftstheoretischen Buch über physikalische und ökonomische Modelle haben Mary Morgan und Margaret Morrison darauf hingewiesen, dass »models typically represent either some aspect of the world, or some aspect of our theories about the world, or both at once« (Morgan/Morrison 1999: 11). Über diese theoretische Dimension verfügen nicht nur formale Modelle, die in der Wissenschaftstheorie besonders eingehend diskutiert wurden, sondern auch die materiellen, handgreiflichen Modelle der Biomedizin.4 Um abzuschätzen, »wie gut ein Tiermodell sogar eine komplexe psychische Störung abbilden kann« (Interview Wotjak), wurden in den 1980er Jahren mehrere Validitätskriterien definiert (Willner 1984): • Mit der Vorhersage-Gültigkeit (predictive validity) wird erfasst, inwiefern ein

Modell therapeutisch wirksame pharmakologische Interventionen von therapeutisch unwirksamen korrekt trennt und eine Vorhersage über potenzielle stände haben mindestens die Zwecke zu erfüllen, für die sie gebaut worden sind; sie sind in erster Linie Maschinen, die Antworten geben sollen. Ein epistemisches Objekt ist in erster Linie eines, das Fragen aufwirft.« (Rheinberger 2001: 29) 4

Der Modellbegriff verfügt über eine lange wissenschaftstheoretische Vorgeschichte und ist entsprechend vielschichtig. Die kursierenden Begriffsdefinitionen sind hauptsächlich an der Physik orientiert, vgl. Morgan/Morrison 1999, Suárez/Cartwright 2008, Cartwright et al. 1995, Hacking 1996a.

102 | ZWISCHEN GEIST UND GEHIRN

Wirkstoffe erlaubt; ein Depressionsmodell verfügt demzufolge nur dann über eine hohe predicitve validity, wenn es auf die bekannten Antidepressiva anspricht. • Die Konstruktvalidität (construct validity) gibt an, inwiefern das Modell einem theoretischen Konstrukt entspricht; das heißt, ein Modellorganismus sollte die anerkannten mechanistischen Prozesse korrekt modellieren. • Die Augenscheinvalidität (face validity) fordert, dass ein Modell möglichst genau die klinische Symptomatik abbildet, die beim Menschen zu beobachten ist. Diese Kriterien machen die empirisch-theoretische Doppelrolle von Tiermodellen deutlich. Tiermodelle sollen etwas repräsentieren, zu dessen Konkretisierung sie wesentlich beitragen. Ihre Abbildfunktion ist demnach nicht in einem herkömmlichen Sinne zu verstehen. Tiermodelle sind nicht sprachlich, sondern materiell strukturiert. Was sie repräsentieren, geben sie folglich erst in der beständigen, handgreiflichen Interaktion preis. Sie sind, mit anderen Worten, selber Teil der Wirklichkeit, auf die sie sich beziehen, was sie aber gerade zu so wertvollen Forschungswerkzeugen macht. Mit Tiermodellen ist es möglich, Wirklichkeitsvorstellungen in einem artifiziellen Rahmen, unter kontrollierten Bedingungen und losgelöst vom natürlichen Kontext experimentell zu erproben. Dies findet allerdings unter dem Vorbehalt statt, dass es »nie gelingen [wird], komplexe psychiatrische Störungen im Tiermodell zu haben. Insofern müssen wir immer sagen: What is it good for?« (Interview Wotjak). Die Modellbildung ist also zwangsläufig »innerhalb eines Raumes menschlicher Zwecke, Ziele und Pläne situiert« und Tiermodelle können demzufolge als »unreine menschliche/materielle Hybride« bezeichnet werden (Pickering 2007: 50). In diesem Kapitel will ich am Beispiel der Trauma- und Demenzforschung die dialektische Dynamik beleuchten, die mit der Entwicklung biomedizinischer Tiermodelle verbunden ist. Dass in diesen beiden Forschungsfeldern aus historischen Gründen unterschiedliche theoretische und empirische Rahmenbedingungen vorherrschen, verspricht den Kontrast besonders aufschlussreich zu machen. Das Kapitel besteht aus zwei Teilen. Erstens kontrastiere ich die Modellierung der beiden Krankheiten AD und PTSD aus einem historischen Blickwinkel. Wie sich zeigen wird, sind in beiden Fällen empirische und theoretische Aspekte der Praxis unauflösbar miteinander verwoben, wobei die Schwerpunktsetzungen die Differenzen zwischen den beiden Forschungsfeldern reflektieren. Im zweiten Teil wende ich mich der Alzheimerforschung zu, um den anwendungsorientierten Charakter der Modellorganismen unter die Lupe zu nehmen. Krankheitsmodelle sollen ja möglichst zur Entwicklung neuer therapeutischer und diagnosti-

T IERMODELLE |

103

scher Verfahren beitragen, wodurch sie eine Bedeutung bekommen, die weit über die engen Grenzen der Forschungslaboratorien hinausreicht. Wie sich am Beispiel der Alzheimermodelle demonstrieren lässt, verwandeln sie sich dabei von Modellen von etwas in Modelle für etwas, beginnen also quasi, selber Modell zu stehen und Krankheitsvorstellungen zu prägen. Aber erst durch diese Metamorphose können die Prämissen, die sie verkörpern, grundlegend problematisiert werden. Im Bereich der Alzheimerforschung deutet sich aufgrund dieser »Dialektik von Widerstand und Anpassung« (Pickering) eine tief greifende epistemische Verschiebung der Forschungskultur an, was auf die Modelle selber zurückschlägt, die diese Entwicklung erst angestoßen haben.

»V ORSTELLUNGEN VON W IRKLICHKEIT « – M ODELLIERUNGSPRAKTIKEN IM V ERGLEICH Die Entwicklung von Tiermodellen findet in den beiden Feldern AD und PTSD unter unterschiedlichen, nicht zuletzt historisch begründeten Rahmenbedingungen statt. Seit Alois Alzheimer zu Beginn des 20. Jahrhunderts die senilen Plaques und die Neurofibrillenbündel (Tangles) entdeckte, ist die Verhandlung von AD von neurologischen Kategorien geprägt – mit Ausnahme eines kurzen psychoanalytischen Intermezzos in den 1950er Jahren (Whitehouse et al. 2003; Lock 2008). Diese dominante Rahmung von AD als Hirnkrankheit hat seit jeher die experimentelle Untersuchung der Krankheit im Tier nahe gelegt. Erst beschränkte man sich notgedrungen auf die Untersuchung alter Ratten, Affen, Schweine oder Bären (Fisher/Hanin 1986; Hollander/Mos 1986), um schließlich, als die neuen molekularbiologischen Techniken zur Verfügung standen und erste Kandidatengene bekannt waren, auf transgene Mausmodelle umzuschwenken. Die Verankerung von AD als eine molekulargenetische Erkrankung war damit bis auf Weiteres vollzogen. Während »bei der Alzheimer-Demenz […] niemand auf die Idee [käme], psychologische oder psychoanalytische Theorien zu postulieren, ist [das] ganz anders bei der PTSD« (Interview Heuser). Zentrale Krankheitskategorien wie der Traumabegriff sind psychologischen Ursprungs. Auch heute, 30 Jahre nach offizieller Einführung der Diagnose »PTSD« im DSM-III und intensiver biomedizinischer Forschung, sind »so gut wie keine biologischen Konstrukte« bekannt (Interview Wotjak). Die genetischen Grundlagen der Krankheit liegen weitgehend im Dunkeln, wobei Experten darüber im Unklaren sind, wie ausgeprägt die erbliche Komponente ist (Yehuda/Bierer 2009; Broekman et al. 2007). Diagnostisch gilt PTSD darüber hinaus als ein diffuses Krankheitsbild, der heterogene Symp-

104 | ZWISCHEN GEIST UND GEHIRN

tomkomplex bildet ein fließendes Kontinuum mit anderen psychiatrischen Erkrankungen. Laut Andreas Papassotiropoulos ist es deshalb schwieriger, die Posttraumatische Belastungsstörung als Krankheitsentität zu definieren als die Alzheimer’sche Demenz. Sie müssen einen Kriterienkatalog ausfüllen, und dann, wenn so und so viele Kriterien von so und so vielen erfüllt sind, dann ist es PTSD. Im Prinzip sind das aber Klassifikationssysteme, die nichts mit der Biologie zu tun haben müssen. Und das Genom ist kein DSM-IV oder ICD 10, das Genom interessiert sich nicht dafür, ob irgendwelche Kollegen irgendwann sagten, die Depression gehört schon zu den Hauptkriterien oder vielleicht doch nicht. (Interview Papassotiropoulos)

Es gehört zu den primären Zielen der Biomedizin, die biologischen Prozesse zu entschlüsseln, um die Krankheitsentität in dem von Papassotiropoulos beschriebenen Sinne zu objektivieren. Tatsächlich wird nach Ansicht von Carsten Wotjak im Bereich PTSD »viel auf diesem Gebiet […] zwischen den tierexperimentell arbeitenden Gruppen ausgeforscht« (Interview Wotjak). Dies ist jedoch größtenteils aus der Not geboren, denn die Suche nach den neuronalen Grundlagen von PTSD gestaltet sich im Humanbereich äußerst schwierig. Da Traumatisierungen unvorhersehbare Ereignisse darstellen und die Diagnose »PTSD« oft erst lange danach erfolgt, ist es praktisch unmöglich, longitudinale Studien durchzuführen. Dazu kommt, dass klinische Studien bei PTSD besonders strengen ethischen Richtlinien unterliegen. Modellorganismen stellen also praktisch der einzig gangbare Weg zur Biologisierung der Erkrankung dar. In diesem Zusammenhang ist interessant zu beobachten, dass die historisch verankerten Kategorien und Deutungsmuster der präklinischen Forschung im Wege stehen. Beim Gedanken an ›traumatisierte Mäuse‹ kommen selbst viele biologisch ausgerichtete Psychiater ins Grübeln: »Aber wenn man dann andere Merkmale [anschaut] wie die Posttraumatische Belastungsstörung, […] da muss ich sagen, ich bin überhaupt nicht überzeugt. Da ist bei mir das Ende meines Glaubens an Modell erreicht […].« (Interview Papassotiropoulos; vgl. auch Abbott 2007) Festzustellen ist also, dass sich in beiden Bereichen eine gegenläufige Entwicklungsdynamik abspielt, welche die vorherrschenden Kategorien und Deutungsmuster zu zementieren scheint. Während im Fall von AD das Rad der Biologisierung durch die Entwicklung von Modellorganismen immer schneller dreht, wird es im Fall von PTSD durch die vorherrschenden psychologischen Kategorien deutlich ausgebremst – obwohl es doch aus Sicht der Biomedizin gerade hier umso nötiger wäre, es zum Laufen zu bringen. Das folgende Zitat resümiert noch einmal den allgemeinen Hintergrund der Zusammenhänge, die ich im Folgenden im Detail analysiere:

T IERMODELLE |

105

Modern biologists find themselves in a situation highly reminiscent of the well-known joke about the man who was looking for his lost wallet under a lamppost at night. When asked whether he was sure whether this was where he had in fact lost his wallet, the man replied, »No, but this is where the light is«. (Weber 2001: 232)

Alzheimer-Demenz: Verknöcherte Theorien In den 1960er und 1970er Jahren war die Alzheimer-Arena noch hauptsächlich systemisch-organisch ausgerichtet. Das dominierende Erklärungsmodell war die cholinerge Hypothese, die auf der Beobachtung basierte, dass ältere Menschen und AD-Patienten Störungen im Haushalt des Neurotransmitters Acetylcholin aufweisen (Bartus et al. 1982). Man vermutete, dass die demenziellen Symptome, insbesondere der Gedächtnisverlust, auf eine Dysfunktion des cholinergen Neurotransmittersystems zurückzuführen und die relevanten Veränderungen damit auf einer organischen Ebene lokalisiert sind (Francis et al. 1999; Perry 1986). Die genauen Krankheitsursachen lagen im Dunkeln und waren Gegenstand vieler Spekulationen. Die Vermutungen reichten von Aluminiumvergiftung über eine Viruserkrankung bis hin zu einem beschleunigten Alterungsprozess (vgl. Hardy 2006). Als Krankheitsmodelle verwendete man Tiere, die bereits ein hohes Alter erreicht hatten, oder man brachte den Acetylcholinhaushalt von jüngeren Labortieren mithilfe von neurochemischen Eingriffen gezielt aus dem Gleichgewicht (Gallagher/Colombo 1995). Auch heute noch setzen die meisten pharmakotherapeutischen Ansätze (zum Beispiel Donepezil etc.) direkt am cholinergen System an. Die Wirksamkeit dieser Medikamente wurde in Studien bestätigt, wenn auch der Effekt nur gering zu sein scheint (Winblad et al. 2006). Die Hypothese wurde bislang also nicht direkt widerlegt, dennoch ist sie weitgehend aus dem Blickfeld der Alzheimerforschung geraten. Verantwortlich dafür war eine großflächige epistemische Verschiebung der Forschungspraktiken auf die molekulare Ebene und in Richtung endogener Krankheitsursachen, die in den 1980er Jahren einsetzte und in den 1990er Jahren in der Entwicklung genetisch veränderter Mausmodelle kulminierte: Die Herstellung von sogenannten transgenen Mäusen, die molekularbiologisch so verändert werden, dass sie Amyloid exprimieren, war der eigentliche Durchbruch für die Alzheimer’sche Erkrankung. (Interview Heuser)

Doch diese Mausmodelle fielen selbstverständlich nicht vom Himmel, sie hatten eine lange Vorgeschichte, die ich im Folgenden rekonstruieren werde. Meine These lautet: Bei diesen Tiermodellen handelt es sich um Theoriemodelle, da sie

106 | ZWISCHEN GEIST UND GEHIRN

im Wesentlichen die Prämissen eines bestimmten Kausalmodells – der AmyloidKaskaden-Hypothese – verknöchert haben. Entstanden aus der klinischen Forschungspraxis heraus, entwickelte sich dieses ätiologische Modell zum »explanatory tool« (Craver 2003), mit dem Tiermodelle geplant und plausibilisiert werden konnten. Kausalmodell und Tiermodell entwickelten von da an eine symbiotische Beziehung, die wesentlich zu ihrer beider Erfolg beigetragen hat. In den frühen 1990er Jahren erschienen in den einschlägigen Fachzeitschriften einige kurze wissenschaftliche Aufsätze des Molekularbiologen John Hardy, die als die Geburtsstunde der Amyloid-Kaskaden-Hypothese bezeichnet werden können (Hardy/Allsop 1991; Hardy/Higgins 1992; Selkoe 1991). In diesen Artikeln wurde erstmalig ein mechanistisches Modell präsentiert, welches einen möglichen molekularen Verlauf der Krankheit skizziert und die wichtigsten Symptome kausal zu erklären versucht. Das zentrale Postulat der AmyloidKaskaden-Hypothese lässt sich auf einen einfachen Nenner bringen (vgl. Abbildung 4): »The pathological cascade for the disease process is most likely to be: Beta-amyloid deposition – tau phosphorylation and tangle formation – neuronal death.« (Hardy/Allsop 1991: 383) Das Protein Amyloid-Beta, so die Hypothese, ist die treibende Kraft hinter einer molekularen Kaskade, die erst zu der pathologischen Deposition von Amyloid-Beta, schließlich zu den Plaques, anschließend zu den intrazellulären Tangles und letztendlich zur Neurodegeneration führt. Tangles, Synapsenverlust, Störungen des cholinergen Systems, Neurodegeneration und schlussendlich die Demenz sind demzufolge alles sekundäre Folgen der Amyloid-Beta-Überproduktion. Die Hypothese ließ zwar mehr Fragen offen, als sie beantwortete: Unklar war, durch welche Gene die Kaskade ausgelöst wird, wie der Mechanismus im Detail abläuft und worauf die neurotoxische Wirkung der Plaques zurückzuführen ist. Viel wichtiger als diese Wissenslücken war jedoch die Hoffnung, von der die Hypothese deutlich Zeugnis ablegt, dass eindeutig identifizierbare genetische Ursachen für das komplexe Krankheitsbild Demenz verantwortlich sein könnten.

T IERMODELLE |

107

extrazellulär

β-Sekretase γ-Sekretase intrazellulär

APP

Aβ-Pepde 1-40 und 1-42

amyloidogene Spezies

Neurodegeneraon

lösliche Oligomere

Aβ1-40  Aβ1-42 

Tau & pTau 

Amyloidfibrillen

Neurofibrilläre Bündel

Demenz

MCI

β-AmyloidPlaques Neuroinflammaon

Abbildung 4: Die Amyloid-Kaskaden-Hypothese. Die fehlgeleitete Prozessierung von APP führt zur Überproduktion von Amyloid-BetaPeptiden, die zu Plaques verklumpen und neurotoxische Prozesse, Tangles und schließlich Demenz verursachen (nach Wiltfang 2006) Dieses Erklärungsmodell war zu einer Zeit entstanden, als die Molekularbiologie eine Hochblüte erlebte. Seit Kurzem war es möglich, Genmäuse herzustellen, und im klinischen Bereich etablierten sich neue Methoden wie Kopplungs- und Assoziationsstudien zur Analyse von Kandidatengenen. Diese »genomic revolution« (Andreasen 2003) ließ in den 1980er Jahren Hoffnungen wach werden, dass es nur eine Frage der Zeit sei, bis die genetischen Ursachen der meisten psychiatrischen Erkrankungen offengelegt seien. AD bildete hier alles andere als eine Ausnahme, sondern rückte in den Fokus einer Vielzahl molekularbiologischer Studien. Ein erster Durchbruch erfolgte Mitte der 1980er Jahre: Damals konnten Glenner et al. (1984) und Masters et al. (1985) unabhängig voneinander nachweisen, dass sich die Plaques von AD-Patienten aus dem Amyloid-BetaPeptid zusammensetzen. Weitere Erkenntnisse folgten in den Jahren darauf Schlag auf Schlag. Das Amyloid-Vorläuferprotein (Amyloid-Precursor-Protein; Abkürzung APP) wurde entdeckt und das entsprechende Gen, das sich auf Chromosom 21 befindet, erstmalig geklont (Kang et al. 1987). Schon früh also

108 | ZWISCHEN GEIST UND GEHIRN

konzentrierte sich die Forschung auf die molekulargenetischen Grundlagen der Krankheit – und in diesem Zusammenhang vor allem auf die Plaques als die krankheitsrelevante Struktur (Lock 2008). Diese Entwicklung war naheliegend, sind doch die Plaques eher typisch für AD, während die Tangles auch in vielen anderen neurodegenerativen Erkrankungen nachgewiesen werden konnten (sogenannte Tauopathien). Entscheidend war jedoch, dass bereits früh auf einer molekularen Ebene Parallelen zwischen der eindeutig genetisch verursachten Trisomie 21 und AD entdeckt wurden, was der molekulargenetischen Forschung wichtige Impulse verliehen hatte (Glenner/Wong 1984). Studien an Familien, die von der frühen, erblichen Variante der Krankheit (die allerdings nur rund 5 Prozent der Krankheitsfälle ausmacht) betroffen waren, schienen diesen Verdacht zu bestätigen: Mittels Kopplungsstudien wurden Anfang der 90er Jahre tatsächlich mehrere relevante Mutationen im APP-Gen aufgespürt (Mullan et al. 1992; Goate et al. 1991; Chartier-Harlin et al. 1991). Hardy, der selber an einer dieser Studien beteiligt war, schreibt im Rückblick: I realized that these findings proved one cause of the disease. More importantly, I realized they implied that all causes of disease would share mechanistic relationships with this first cause. (Hardy 2006: 151)

Interessant daran ist vor allem die zweite Feststellung, die vor dem Hintergrund der damaligen (und heutigen) Erkenntnislage schwer nachvollziehbar ist. Denn man war sich bereits damals im Klaren, dass es sich bei AD um eine komplexe, genetisch heterogene Krankheit handelt – und eben nicht um eine »single entity« (St George-Hyslop et al. 1990). Dies war auch der Grund, wieso man sich bei der damaligen Kopplungsstudie, an der Hardy mitgearbeitet hatte, explizit auf Familien beschränkt hatte, deren Gendefekt auf dem Chromosom 21 zu vermuten war (Hardy 2006). Mit dieser Vorgehensweise hoffte man, der genetischen Komplexität ein Schnippchen zu schlagen und klarere Hinweise auf mögliche Genlozi zu erhalten. Bis heute konnten drei Gene aufgespürt werden, bei denen Mutationen zu der erblichen Frühform der Krankheit beitragen: Neben dem APP-Gen handelt es sich dabei um Präsenilin 1 (PSEN1) und Präsenilin 2 (PSEN2) (Scheuner et al. 1996).5 Auf diesen drei Genen kennt man bislang rund

5

Auf dem APP-Gen sind 25 Mutationen bekannt und über 170 auf PSEN1 und PSEN2 (Jucker 2010). Für die Spätform der Krankheit kennt man zwei genetische Risikofaktoren, nämlich Varianten der Gene APOE4 sowie SORL1 (Webster et al. 2008; Bertram/Tanzi 2008). Im Laufe der Jahre wurden über 500 Kandidatengene für AD postu-

T IERMODELLE |

109

200 Mutationen, die AD in einer erblichen, dominanten Form verursachen, und alle diese Mutationen führen auf unterschiedlichen Pfaden zu einer Überproduktion von Amyloid-Beta (Pimplikar 2009). Dieser Zusammenhang wird gerne als starker Belege für die Amyloid-Hypothese ins Feld geführt, was jedoch ignoriert, dass dies – wenn überhaupt – nur für die erbliche Frühform von AD gilt.6 Ob sich für die Spätform der Krankheit, die das eigentliche gesundheitspolitische Problem darstellt, ein konsistenter Mechanismus verantwortlich machen lässt, ist nach dem derzeitigen Stand der Dinge äußerst fraglich – ich werde darauf später zurückkommen. Alles in allem wurden mehr als 200 transgene Alzheimermodelle entwickelt. Sie unterscheiden sich bezüglich der implementierten Mutationen sowie der verwendeten Promotoren.7 Von diesen verschiedenen Modellen sind nur wenige über einige Forschungslabore hinaus verbreitet, patentiert und kommerziell erhältlich. Die größte Gruppe bilden bis heute sogenannte APP-Mäuse, denen ein mutiertes APP-Transgen integriert wurde. Die erste dieser APP-Mäuse (PDAPP) erblickte 1995 das Licht der Welt (Games et al. 1995). Die Maus zeigte Plaques-Ablagerungen, wies jedoch weder eine großflächige Neurodegeneration noch altersabhängige Gedächtnisdefizite oder eine Tau-Pathologie auf. Das bis heute wichtigste und am meisten verbreitete APP-Krankheitsmodell, Tg25768, wurde Mitte der 1990er Jahre im Labor von Karen Ashe hergestellt (Hsiao et al. 1996). Das Modell basiert auf einem mutierten menschlichen APP-Gen, das bei einer schwedischen Familie isoliert wurde, die von der erblichen Frühform der Krankheit betroffen ist. Tg2576 gilt weithin für die Untersuchung der präklinischen Phase von AD, die seit einiger Zeit intensiv erforscht wird, als besonders geeignet (siehe zweiter Teil des Kapitels). Der Erfolg des Modells ist hauptsächliert. Nach derzeitigem Stand des Wissens bleiben 20 Lozi übrig, bei denen eine signifikante Erhöhung des Risikos vermutet wird (Bertram/Tanzi 2008). 6

Auch da ist die Interpretation bei genauerer Betrachtung kompliziert und spricht nicht ohne Weiteres für die Amyloid-Hypothese: Denn alle diese Mutationen führen zu teilweise völlig unterschiedlichen Kaskaden, die zwar alle Amyloid-Beta involvieren, aber teilweise den Gesamtlevel erhöhen, teilweise nur den Anteil spezifischer Amyloid-Beta-Varianten (vgl. Pimplikar 2009).

7

Um den Einfluss kombinierter Transgene zu studieren, können diese Modellorganismen miteinander gekreuzt werden (vgl. Oddo et al. 2003). Die Interpretation solcher Modelle erweist sich jedoch als schwierig, da die interaktiven Effekte zwischen den Mutationen schwer abzuschätzen sind (Jucker 2010).

8

Die korrekte Bezeichnung der Maus lautet eigentlich Tg(APPSWE)2576Kahs, was in der Literatur jedoch in der Regel als Tg2576 abgekürzt wird (Lesné et al. 2006).

110 | ZWISCHEN GEIST UND GEHIRN

lich darauf zurückzuführen, dass es neben Plaques auch altersabhängige Gedächtnisdefizite aufweist, die vor allem das räumliche Gedächtnis betreffen und messbar sind, bevor irgendwelche neuropathologischen Merkmale feststellbar sind: »The correlative appearance of behavioral, biochemical, and pathological abnormalities reminiscent of Alzheimer’s disease in these transgenic mice suggests new opportunities for exploring the patho-physiology and neurobiology of this disease.« (Hsiao et al. 1996: 99) Wie das Beispiel von Tg2576 deutlich macht, sind Gedächtniseinbußen – erhoben meistens in Testparadigmen zum räumlichen Gedächtnis wie dem Schwimmnavigationstest (siehe viertes Kapitel) – zwar wichtige Sekundärkriterien zur Beurteilung von AD-Modellen, sie gehören jedoch nicht zu deren Kernaspekten. Die gängigen Alzheimermodelle richten sich an der Konstruktvalidität aus, das heißt an mechanistischen Zusammenhängen, und nicht primär an den klinischen Symptomen der Krankheit (face validity). APP-Modelle verfügen weder über eine auffällige Neurodegeneration noch eine Tau-Pathologie (Calhoun et al. 1998), zudem weiß man, dass der Anteil von APP-Mutationen an den Krankheitsfällen beim Menschen verschwindend gering ist (Selkoe et al. 2004). Gemessen am menschlichen Krankheitsbild müsste die Validität von transgenen APP-Mäusen wie Tg2576 demnach stark bezweifelt werden. Die AmyloidKaskaden-Hypothese jedoch ließ diese Mängel als nicht mehr allzu gravierend erscheinen, indem sie die Komplexität der Krankheit auf ein simples Kausalmodell herunterbrach und prägnante Validitätskriterien postulierte. Sie ist ein gutes Beispiel dafür, dass die Überzeugungskraft von Ideen nicht nur auf empirischen Kriterien beruht. So hebt Hardy als eine der Vorzüge seines Modells hervor, dass es »simple, clear and short« sei (Hardy 2006: 152). Und weiter: »[T]oo many articles are complicated, muddy and long: even a venture capitalist or a corporate CEO can read to the end of it.« (Hardy 2006: 152) Die Amyloid-KaskadenHypothese hat somit einen überschaubaren, molekular ausgerichteten, mechanistischen Erklärungsrahmen für komplexe Zusammenhänge geschaffen. Nicht zuletzt aufgrund ihrer Einfachheit und Klarheit konnte sie als »explanatory tool« (Craver 2003: 153) fungieren, als theoretisches Fundament für ein Forschungsprogramm, dessen Erfolgskriterien, Ziele und Mittel sie definierte. »[A]s an idea, the amyloid cascade hypothesis has been extremely valuable in focusing research«, so Hardy (2006: 152). Da man durch die oben erwähnten Kopplungsstudien auf einige der verantwortlichen Mutationen gestoßen war, hätte sich zwar unabhängig von der Hypothese die Gelegenheit geboten, die pathogenetischen Krankheitsprozesse gezielt im Tier zu modellieren. Die Hypothese hatte aber die wichtige Funktion, die entstehenden Modelle zu plausibilisieren und ihnen zum Durchbruch zu verhelfen. Das folgende Zitat von Games in Bezug auf die von

T IERMODELLE |

111

seiner Arbeitsgruppe geschaffene PD-APP-Maus macht das exemplarisch deutlich: We now report the production of transgenic mice that express high levels of human mutant APP (with valine at residue 717 substituted by phenylalanine) and which progressively develop many of the pathological hallmarks of AD, including numerous extracellular thioflavin S-positive Abeta deposits, neuritic plaques, synaptic loss, astrocytosis and microgliosis. These mice support a primary role for APP/Amyloid-Beta in the genesis of AD and could provide a preclinical model for testing therapeutic drugs. (Games et al. 1995: 523)

Offensichtlich wird das Modell trotz seiner Mängel als ein gutes Modell angepriesen, und gleichzeitig wird es als Beleg für die Amyloid-Hypothese ins Feld geführt. Es lohnt sich, die zugrunde liegende Logik etwas genauer zu analysieren. Als PD-APP hergestellt wurde, gab es gute Gründe, in der Aggregation und Deposition von Amyloid-Beta den entscheidenden Faktor im Krankheitsprozess zu sehen. Man wusste, dass Mutationen auf dem APP-Gen, welches für das Vorläuferprotein von Amyloid-Beta codiert, bei erblichen Formen der Krankheit eine Rolle spielen. Durch die Konstruktion eines reduktionistischen Tiermodells, das genau diese und nur diese Mutationen enthält, verknöchern sich nun aber die wesentlichen Prämissen der mechanistischen Hypothese im Krankheitsmodell: Dieses bildet tatsächlich eine Amyliodopathie aus, was erst einmal für die Amyloid-Hypothese spricht. Umgekehrt jedoch gewinnen auch die Tiermodelle erst vor dem Hintergrund der Amyloid-Hypothese ihre Validität. Der Umstand, dass solche Krankheitsmodelle nur unvollständige Aspekte der Krankheit aufweisen, ist nur deshalb kein Mangel, da sie die relevanten Aspekte nach Maßgabe der Kausalhypothese enthalten. Dass die PD-APP-Mäuse weder eine Tau-Pathologie entwickelt haben, noch altersabhängige Gedächtnisdefizite oder Neurodegeneration aufweisen – alles Merkmale, die bei der klinischen Diagnose von AD zentral sind –, ist gemäß dieser Logik zweitrangig und beschädigt nicht das Modell, da alle diese Aspekte gemäß der Amyloid-Hypothese nur Epiphänome der eigentlichen Pathomechanismen darstellen. Mit anderen Worten: Kausalmodell und Tiermodell entwickelten eine Symbiose, indem die Prämissen der Theorie sich in einem materialen Modell verknöcherten. APP-Modelle verfügen damit über die typischen Merkmale, die ich bereits im letzten Kapitel mit den »Standardized Packages« in Verbindung gebracht habe (Fujimura 1992). Es handelt sich um fundamentale Einheiten der biomedizinischen Forschungspraxis, die aufgrund ihrer Eigenschaften als »standardisierte, gereinigte, isolierte, verkleinerte und in ihren Funktionen reduzierte

112 | ZWISCHEN GEIST UND GEHIRN

Entitäten« (Rheinberger 2001: 117) die Knotenpunkte experimenteller Netzwerke bilden. Als epistemisch-technische Zwitterwesen ermöglichen sie es, bestimmte theoretische Fragestellungen routinemäßig zu bearbeiten, sind aber dennoch flexibel genug, um an lokale Forschungsbedürfnisse angepasst werden zu können. Diese Mausmodelle entwickelten sich bald zu einer wichtigen experimentellen Ressource, mit der diverse amyloidzentrierte Fragestellungen untersucht werden konnten. Ohne sie wäre der Amyloid-Hypothese wahrscheinlich kaum diese Durchschlagskraft beschieden gewesen. Der Vergleich mit der TauHypothese, lange Zeit die einzige ernst zu nehmende Konkurrentin, spricht für diese Vermutung. Fast schon legendär ist die jahrelange, bis heute anhaltende Kontroverse zwischen sogenannten ›Beta-Aptisten‹ und ›Tauisten‹ um die Frage, welches der beiden Markenzeichen der Alzheimer-Demenz, die senilen Plaques oder die neurofibrillären Tangles, der relevante pathogenetische Faktor sei (Lee 2001; Maccioni et al. 2010).9 Für die Tauisten spricht unter anderem die Beobachtung, die bei der Autopsie verstorbener Patienten in unterschiedlichen Krankheitsstadien gemacht wurde, dass die Tangles vor den Plaques auftreten und besser mit den klinischen Symptomen und dem Krankheitsverlauf korreliert sind (Braak/Braak 1998, 1991b). Das Protein Tau, aus dem sich die Tangles zusammensetzen, wurde Ende der 1980er Jahre entdeckt (Goedert et al. 1988). Anders als den BetaAptisten gelang es den Tauisten jedoch lange Zeit nicht, ihre Hypothese in eine symbiotische Beziehung mit Tiermodellen zu bringen. Dies hatte mehrere Gründe. Während einerseits schon früh Mutationen bekannt waren, welche die APPProteolyse auf die eine oder andere Weise beeinflussen (siehe oben), konnte kein genetischer Defekt auf dem Tau-Gen mit AD in Verbindung gebracht werden (Duff/Suleman 2004). Obwohl auf einer klinischen Ebene viel für die TauHypothese spricht, war das Tau-Protein deshalb für molekularbiologisch ausgerichtete Grundlagenforscher ein wesentlich weniger attraktiver Ansatzpunkt für ihre Forschungen. Zweitens, dieser Punkt hängt mit dem ersten zusammen, sind transgene Tau-Mäuse um einiges schwieriger herzustellen (Duff/Suleman 2004). Da Mutationen auf dem Tau-Gen für unterschiedliche Tauopathien wie die frontotemporale Demenz verantwortlich sind, jedoch nicht direkt für AD, weisen 9

Das Protein Tau ist der hauptsächliche Bestandteil der neurofibrillären Tangles. Es spielt vermutlich eine wichtige Funktion bei der Stabilisierung von Zellwänden, verklumpt jedoch durch Hyperphosphorylierung und wirkt dann neurotoxisch (Billingsley/Kincaid 1997). Das Tau-Protein spielt in vielen neurodegenerativen Krankheiten eine wichtige Rolle, neben AD unter anderem bei Parkinson und der frontotemporalen Demenz.

T IERMODELLE |

113

solche Mäuse zwar Tangles auf, aber häufig an Stellen wie dem Hirnstamm oder dem Rückgrat, die für AD völlig untypisch sind. Tau-Mäuse neigen häufiger zu schweren Verhaltensdefiziten oder gar zu völliger Bewegungsunfähigkeit, die sie für In-vivo-Experimente völlig unbrauchbar machen.10 Bei der Herstellung von Tiermodellen im Bereich AD haben theoretischkonzeptionelle und empirisch-materielle Aspekte eng zusammengespielt. Der Modellierungsprozess ähnelt dem, was Pickering »framing« nannte, nämlich »the delicate and open-ended process of reconfiguring the material culture of science in the pursuit of material performances that can be precisely aligned with conceptual cultures« (Pickering 1995: 97). Die Amyloid-Kaskaden-Hypothese steht demnach nicht über- oder außerhalb der Forschungspraxis, sondern sie ist dialektisch mit der material agency verquickt. Das macht auch das Beispiel von Tg2576 deutlich. Dieses Modell bildet heute eine zentrale Forschungsressource für Alzheimerforscher, die damit den mechanistischen Zusammenhang zwischen Gedächtnisdefiziten und Amyloid-Ablagerungen untersuchen (Eriksen/Janus 2007; Ashe 2001, 2005). Dabei fand man heraus, dass die Gedächtnisdefizite bei diesen Modellen reversibel sind (Kotilinek et al. 2002). Zudem wurde bei Tg2576 im Alter von sechs Monaten ein starker Abfall der Gedächtnisleistung beobachtet, gefolgt von einer monatelangen Phase der Konstanz, ohne dass entsprechende Schwankungen bei Amyloid-Beta festgestellt wurden (Lesné et al. 2006, 2008). Diese Befunde waren mit der ursprünglichen Version der AmyloidKaskaden-Hypothese schwer in Einklang zu bringen, was aber bezeichnenderweise weder die Tiermodelle noch das Kausalmodell diskreditiert hat, sondern zu einer Revision und Weiterentwicklung der Kaskaden-Hypothese geführt hat. Aufgrund der »material-conceptual dialectics of resistance and accomodation« (Pickering 1995: 144), die die Erforschung von Tg2576 ausgelöst hat, gelten 10 Die erste lebensfähige und experimentell nutzbare Tau-Mau wurde 1995 entwickelt, es konnten jedoch keine Tangles festgestellt werden (Götz et al. 1995). Die erste TauMaus mit einer Tangle-Pathologie vergleichbar zu AD wurde im Jahr 2000 hergestellt, also fünf Jahre nach PD-APP; allerdings zeigte dieses Mausmodell keine Plaquesbildung und beruhte auf der Überexprimierung von mutiertem Tau, was bei AD nicht der Fall ist (Lewis et al. 2000). Erst 2003 konnte eine Tau-Maus konstruiert werden, die humanes, nicht mutiertes Tau enthält, sogenanntes hTau (Andorfer et al. 2003). Dieses Modell weckte prompt Zweifel an der Amyloid-Hypothese, denn es zeigte sich eine Tau-Pathologie, die sehr enge Parallelen zum menschlichen Krankheitsverlauf aufwies und völlig unabhängig von der Amyloid-Pathologie war. Dies geschah jedoch zu einem Zeitpunkt, als längst erste klinische Studien mithilfe von APP-Mäusen auf den Weg gebracht worden waren.

114 | ZWISCHEN GEIST UND GEHIRN

nicht mehr die Plaques, sondern lösliche Amyloid-Beta-Oligomere – noch nicht verklumpte Amyloid-Beta-Cluster – als die relevanten neurotoxischen Entitäten (Cleary et al. 2005; Walsh/Selkoe 2007).11 An den Grundprinzipien des pathomechanistischen Modells sowie an den APP-Modellen haben die meisten Grundlagenforscher bis heute festgehalten, obwohl es immer mehr gibt, die andere Wege einzuschlagen versuchen. Auf diesen Aspekt der Geschichte komme ich im zweiten Teil des Kapitels zurück. Posttraumatische Belastungsstörung: Das Operationalisierungsdilemma Die ersten PTSD-Krankheitsmodelle wurden entwickelt, kurz nachdem die Krankheit offiziell in die diagnostischen Manuale aufgenommen worden war. Bereits Mitte der 1980er Jahre – also circa ein Jahrzehnt vor dem ersten ADModell – wurde von einem großen Durchbruch gesprochen. »Such a clear animal model is unique in psychiatric research.« (van der Kolk et al. 1985: 322) Ein aufmerksamer Beobachter wird jedoch feststellen, dass mehr als zwanzig Jahre danach zwar der Begriff »PTSD-Modell« etabliert ist, dass Grundlagenforscher aber teilweise konträre Vorstellungen davon haben, was die relevanten Merkmale solcher Modelle sein sollen. Die Kernfrage nach den Validitätskriterien von PTSD-Modellen wurde im Jahre 1993 von den Psychiatern Rahel Yehuda und Robert Antelman selbstkritisch aufgeworfen (Yehuda/Antelman 1993). Aus Unzufriedenheit mit den bestehenden Modellen, vor allem aber weil sie erkannten, dass klare Kriterien zu ihrer Beurteilung fehlen, entwickelten sie einen systematischen Kriterienkatalog. Yehudas und Antelmans bahnbrechender Ansatz bestand darin, die Validität eines Modells ausschließlich am klinischen Phänotyp, das heißt der face validity, auszurichten: »The criteria were derived by paring down PTSD phenomenology to its most basic components and identifying relevant counterparts for these clin-

11 Ein wichtiger Grund für die Weiterentwicklung der Amyloid-Kaskaden-Hypothese waren jedoch auch klinische Befunde. Seit vielen Jahren weiß man, dass die Anzahl der Plaques und der kognitive Status nicht gut korreliert sind (Terry et al. 1991). Mithilfe von neuen bildgebenden Verfahren (sogenanntes Amyloid-Imaging, vgl. Nordberg 2004) konnten diese Befunde bei lebenden Personen jüngst bestätigt werden (Nordberg 2008).

T IERMODELLE |

115

ical characteristics based on animal studies.«12 (Yehuda/Antelman 1993: 480) Ihre nach wie vor hochaktuellen Validitätskriterien verdeutlichen das Problem der Repräsentation, das grundlegend mit der Modellierung verknüpft ist. Ein Modell ist ein Modell, weil es Aspekte der Wirklichkeit abbildet. Dabei müssen sich Wissenschaftler daran orientieren, was an Wissensressourcen bereitsteht – es gibt keine andere Grundlage. Da es sich beim Krankheitsbild »PTSD« um ein psychologisches Syndrom handelt, bei dem damals wie heute weder klare molekulare Angriffspunkte bekannt sind, noch mechanistische Hypothesen zur Verfügung stehen, die »simple, clear and short« (Hardy 2006: 152) sind, fällt der Genotyp als Ausgangspunkt für die Krankheitsmodellierung weg. Carsten Wotjak drückt das Dilemma so aus: Ich bin Biologe, ich will die biologischen Mechanismen erfahren, das ist mein Ziel. Aber: Ich bin kein Maus-Doktor, der wissen will, wie die Maus ›tickt‹. Das bedeutet, ich halte es für fahrlässig, biologische Konstrukte zu untersuchen, wenn die anderen Kriterien13 nicht erfüllt sind. (Interview Wotjak)

Es bietet sich demzufolge nur der klinische Phänotyp an, um die Validität der Modelle zu beurteilen. Anstatt bottom up, wie bei AD, wird bei PTSD top down modelliert. Damit steht man vor ganz anderen praktischen Schwierigkeiten als bei Genmäusen. Es stellt sich zum einen die Frage, welche klinischen Merkmale man als zentral herausgreift. Diagnostische Kriterien sind nicht in Stein gemeißelt, vielmehr werden sie mit jeder Neuausgabe der diagnostischen Manuale revidiert. Aber selbst wenn »indisputable criteria« gefunden und akzeptiert sind, schließt direkt daran das Problem an, welche Verhaltensparadigmen geeignet

12 Yehuda und Antelman formulierten die folgenden »indisputable criteria«: Ein PTSDModell ist nur dann valide, wenn auch kurze »Stressoren« biobehaviorale Änderungen induzieren, die jedoch abhängig von deren Intensität sein sollen; schließlich sind auch die traumatischen Ereignisse, die zu PTSD führen, meistens nur von kurzer Dauer. Die durch den »Stressor« ausgelösten Verhaltensänderungen sollen zudem nachhaltig sein und sowohl zu Vermeidungsverhalten als auch Übererregung führen. Zu guter Letzt verlangen Yehuda/Antelman von einem guten Modell, dass eine interindividuelle Variabilität auftritt. Das soll dem Umstand gerecht werden, dass nur ein kleiner Anteil derjenigen, die einem Trauma ausgesetzt waren, anschließend an PTSD erkrankt (Yehuda 2002). 13 Wotjak bezieht sich hier auf ähnliche Kriterien, wie sie 1993 von Yehuda und Antelman aufgestellt wurden.

116 | ZWISCHEN GEIST UND GEHIRN

sind, diese Kriterien im Tierversuch zu operationalisieren. Diese Frage ist keineswegs trivial, wie ich im Folgenden zeige. Das experimentelle Vorgehen sieht so aus: In der Regel unterzieht man verschiedene Typen von Inzuchtratten oder -mäusen einem Verhaltensscreening.14 Die Tiere werden erst ›traumatisiert‹, anschließend wird ihr posttraumatisches Verhalten mithilfe von Kriterien, wie sie etwa von Yehuda/Antelman definiert wurden, analysiert. Es können Tiergruppen gebildet werden, die sich hinsichtlich ihrer PTSD-Vulnerabilität signifikant unterscheiden, um schließlich nach relevanten biologischen Differenzen zwischen diesen Gruppen zu suchen oder die Wirksamkeit von Pharmakotherapien zu testen. So hofft man, biologischen Risikofaktoren, die auch beim Menschen eine Rolle spielen könnten, auf die Spur zu kommen (vgl. Siegmund/Wotjak 2006). Bei PTSD-Modellen handelt es sich also im Grunde genommen nicht um Modellorganismen, die einen Gendefekt simulieren, sondern um Modellsysteme, in denen ein bestimmtes Verhalten erzeugt wird. Modellsysteme umfassen nicht nur den eigentlichen Organismus, sondern bestehen neben dem Labortier aus einem komplexen Arrangement experimenteller Techniken und Testverfahren (Bolker 1995). Verfolgt man die Geschichte der PTSD-Tiermodelle bis zu ihren Anfängen in den frühen 1980er Jahren zurück, so kristallisieren sich zwei weitgehend getrennt operierende Forschungsstränge heraus, in denen mit Verhaltensparadigmen gearbeitet wird, die unterschiedliche Aspekte der komplexen Krankheit PTSD herausgreifen: »Wenn es um Tiermodelle geht, sieht man die PTSD eigentlich entweder als eine Gedächtnisstörung, […] oder aber, was wir nicht vernachlässigen dürfen, als eine Stressstörung.« (Interview Wotjak; vgl. Siegmund/Wotjak 2006) Ein wesentlicher Grund für diese Polarisierung ist, dass die Aspekte der Krankheit (Stress, Gedächtnis) in einem tierexperimentellen Rahmen nur isoliert voneinander operationalisiert werden können. Dies hängt mit den methodologischen Beschränkungen von Verhaltenstests zusammen: Aufgrund fehlender sprachlicher Verständigung beruht beim Tier alles auf »purer Interpretation von Bewegung oder dem Ausbleiben von Bewegung« (Interview Wotjak; siehe dazu im Detail das vierte Kapitel). Setzt man die Tiere bei der ›Traumatisierung‹ etwa zu starkem Stress aus, lässt sich der Gedächtnisaspekt, also die Erinnerung an das Trauma, nicht mehr vernünftig operationalisieren: »Das Problem ist einfach, wie will ich in dieser Situation traumaassoziiertes Gedächtnis messen? Die Maus oder die Ratte geht ja nicht so einfach ins Wasser. 14 Mehrheitlich handelt es sich dabei um Ratten, da Ratten ein reichhaltigeres Verhaltensrepertoire aufweisen als Mäuse und zudem weniger stressanfällig sind (Wotjak 2004).

T IERMODELLE |

117

Ich kann sie nicht fragen, wie sie sich verhalten würde, wenn ich sie wieder ins Wasser setze. Mir fehlt schlicht und einfach ein Verhaltensparameter.« (Interview Wotjak) Deshalb ist der Experimentator gezwungen, Verhaltensparameter zu generieren, die eindeutig interpretierbar sind – was in der Praxis allerdings nur bedingt gelingt, da Stressparadigmen immer eine Gedächtniskomponente und Gedächtnisparadigmen immer eine Stresskomponente beinhalten. Die meisten PTSD-Tiermodelle, die in den 1980er Jahren entwickelt wurden, waren sogenannte Stressmodelle (Yehuda/Antelman 1993; Foa et al. 1992; van der Kolk et al. 1985) – sie bilden bis heute einen wichtigen Forschungszweig (Yamamoto 2009; Cohen et al. 2006; Liberzon et al. 1999). Für die Operationalisierung von PTSD als Stressstörung spricht einerseits, dass das Trauma der Dreh- und Angelpunkt der Störung bildet, der PTSD erst eindeutig von anderen psychiatrischen Erkrankungen abgrenzt. Und unter einem Trauma versteht man ein außerordentliches Stressereignis, das außerhalb gewöhnlicher Erfahrung liegt. Stress, so diffus und allumfassend das Konzept heute auch ist, gilt im Tierversuch zudem als relativ einfach operationalisierbar – es genügt ein starkes aversives Ereignis. Natürlich gibt es hierfür ganz unterschiedliche Verfahren, abhängig vom gewählten Messparameter und vor allem dem Labortier. Die verschiedenen Paradigmen unterscheiden sich hinsichtlich des Typs und der Intensität des verwendeten Stressors.15 In der Frühphase der präklinischen PTSDForschung kreisten die Fachdebatten um die Frage, welches dieser Paradigmen am ehesten geeignet ist, die komplexe PTSD-Symptomatik abzubilden. Diese Einschätzung wurde anhand der ermittelten Stressantwort vorgenommen (gemessen werden Angstverhalten, biologische Parameter wie die Herzrate oder die hormonelle Stressantwort). Während beispielsweise van der Kolk inescapable shock für »a clear animal model« hält, sehen Yehuda und Antelman bei diesem Modell mehrere ihrer Kriterien verletzt. Ihr Alternativmodell, time-dependent sensitization16, soll hingegen alle Punkte erfüllen (Yehuda/Antelman 1993). Trotz solcher Kontroversen und der unterschiedlichen experimentellen Herange15 Um nur einige Paradigmen zu nennen: Tiere werden mit Elektroschocks traktiert (Wakizono et al. 2007), Ertrinkungsstress ausgesetzt (Yamamoto 2009; Cohen/Zohar 2004), sie werden mit einem Fressfeind oder dessen Geruch konfrontiert (Cohen/Zohar 2004) oder in einer shuttle box einem Schock ausgesetzt (Shimizu et al. 2006; van der Kolk et al. 1985). 16 Die Tiere werden dabei für kurze Zeit einem Stressor ausgesetzt und werden später mit dem gleichen oder einem ähnlichen Stressor getestet. Die biobehaviorale Reaktion auf den zweiten Stressor ist bei Tieren, die bereits einem Stressor ausgesetzt waren, deutlich und über lange Zeit hinweg verstärkt (Yehuda/Antelman 1993).

118 | ZWISCHEN GEIST UND GEHIRN

hensweisen verbindet alle diese Ansätze, dass sie ein möglichst starkes Stressereignis in den Mittelpunkt der PTSD-Operationalisierung rücken. Heutzutage sind Stressmodelle jedoch auf Kosten von Gedächtnismodellen außer Mode geraten. Dies hängt mit den Forschungsarbeiten des Psychologen Michael Davis und des Neurobiologen Joseph LeDoux zusammen, die seit den 1980er Jahren weitgehend unabhängig voneinander die neuronalen Grundlagen von Emotionen und der Angst erforscht haben (vgl. LeDoux 2000; Davis 1986, 1989). Die neurowissenschaftliche Emotionsforschung hatte bis dahin keine klaren Erkenntnisse zustande gebracht: »Then, in the late 1970s and early 80s, researchers began using a simple behavioral task, Pavlovian fear conditioning, to study fear networks. This made all the difference.« (LeDoux 2003a: 728) Das Konditionierungsparadigma, das aus dem frühen 20. Jahrhundert stammt,17 wurde von Davis und LeDoux wiederbelebt und spezifisch auf den Spezialfall des emotionalen Lernens übertragen und weiterentwickelt. Sowohl Davis’ als auch LeDouxs Leistung bestand darin, den Wert dieses experimentellen Paradigmas für die Emotionsforschung erkannt zu haben, wenn man es im Vergleich zu Pavlov in einigen Aspekten modifiziert: Anstatt verwilderter Hunde verwendeten sie Ratten, die inzwischen auf eine lange Karriere als neurowissenschaftliche Labortiere zurückblicken konnten, und wählten auditorische Stimuli, die in gut erforschten neuronalen Bahnen (auditorisches System) verarbeitet werden (LeDoux 2004). Der Versuchsaufbau, wie er von LeDoux entwickelt wurde und heute standardmäßig im Bereich der PTSD-Forschung eingesetzt wird, sieht folgendermaßen aus (vgl. Abbildung 5). Ratten oder Mäuse werden in eine Box aus 17 Die Geschichte ist bekannt: Durch Zufall entdeckte Pavlov bei Hunden, die er als Labortiere verwendete, dass der Speichelfluss durch bestimmte Reize ausgelöst wird, die nichts mit der Nahrung selber zu tun haben. Bereits das bloße Erscheinen des Labormitarbeiters, der den Tieren üblicherweise ihr Futter brachte, konnte diese physiologische Reaktion hervorrufen. Pavlov ging diesem Phänomen auf den Grund und entdeckte so das Prinzip der klassischen Konditionierung, das ein zentraler Pfeiler der behavioristischen Lerntheorie bildete. Demnach werden zwei Reize durch einen assoziativen Lernprozess aneinander gekoppelt, wenn sie mehrmals kurz nacheinander präsentiert werden. In den Fachjargon übersetzt: Ein unbedingter Reiz (US), der einen natürlichen Reflex auslöst (im oben genannten Beispiel wäre dies das Futter), wird mehrfach mit einem neutralen Reiz (NS) dargeboten (das Erscheinen des Experimentators), der dadurch zum bedingten Reiz (CS) wird und den natürlichen Reflex ebenfalls auszulösen beginnt. Es handelt sich hierbei um eine Form des assoziativen Lernens, die Spezies übergreifend beobachtet werden kann (Crawley 2007). Für eine ausführliche und gut lesbare Darstellung des Paradigmas vgl. LeDoux 2004.

T IERMODELLE |

119

Plexiglas gesetzt, deren Boden aus einem Metallgitter besteht. Nach einigen Minuten versetzt man den Tieren einen relativ milden, aber deutlich spürbaren elektrischen Fußschock, der mit einem Ton gepaart wird. Wird dieses Prozedere einige Male durchgeführt, so lässt sich zeigen, dass die Tiere erstarren (freezing), wenn man ihnen einige Stunden bis Tage später den Ton vorspielt (klassische Furchtkonditionierung) oder sie einen Käfig mit dem gleichen Hintergrund setzt (kontextuelle Furchtkonditionierung). Beim freezing handelt sich um ein angeborenes Angstverhalten, das eine Maus auch zeigen würde, wenn es einem Fressfeind gegenübersteht. Dieser Parameter ist einfach quantifizierbar und wird als Maß für das traumaassoziierte Gedächtnis herangezogen, das heißt als Beleg dafür, dass die Assoziation zwischen Ton und Fußschock (respektive zwischen Käfig und Fußschock bei der kontextuellen Furchtkonditionierung) gebildet wurde.18 Training

Exposure to context 180 s

Electric footshock 2s

24 h Freezing % 80

Memory Test

60 Freezing

40 20 0 Training Memory Test

Re-exposure to context 180 s

Abbildung 5: Kontextuelle Angstkonditionierung (nach Fischer et al. 2003a)

18 Auf die Methodologie von Verhaltensparadigmen wie der Furchtkonditionierung gehe ich im vierten Kapitel detailliert ein. Ich lege dort auch die vielen Fallstricke offen, die bei diesen Verfahren drohen und die Interpretation der Daten erschweren.

120 | ZWISCHEN GEIST UND GEHIRN

Im Unterschied zu den Behavioristen ging es LeDoux jedoch nicht um den Nachweis von Reiz-Reaktions-Schemata, sondern um die Aufdeckung der neuronalen Prozessierung emotionaler Lernvorgänge. Um die Relevanz dieses reduktionistischen Paradigmas für die Emotionsforschung zu rechtfertigen, stützte sich LeDoux auf die psychologische Unterscheidung zwischen expliziten und impliziten Gedächtnisinhalten sowie evolutionäre Spekulationen ab (siehe zweites Kapitel; vgl. LeDoux 2000). LeDoux zufolge verfügen auch einfachere Organismen über ein emotionales Gedächtnis, das sich bei ihnen aber nicht auf einer bewussten, sondern einer unbewussten (impliziten) Ebene manifestiert. Die mit subjektivem Gehalt aufgeladene Kategorie »Emotion« konnte so zu einer im Kern biologischen Kategorie umgedeutet und »the dark cloud of subjectivity« (LeDoux 2000: 156) vertrieben werden.19 Das Angstkonditionierungsparadigma stellt demnach ein geeignetes experimentelles Verfahren dar, um die neuronalen Korrelate emotionaler Lernprozesse bei einfacheren Organismen zu untersuchen. Durch gezielte Eingriffe in die Gehirne lebender Ratten und die anschließende Analyse der Verhaltensänderungen im Konditionierungsparadigma schälten LeDoux und Davis in jahrelanger, akribischer Forschungsarbeit diejenigen Nervenbahnen heraus, die bei der Verarbeitung aversiver Stimuli involviert sind (vgl. LeDoux 2000). LeDoux und Davis ging es nicht primär um PTSD, sondern um die Funktionsweise des ›emotionalen Gehirns‹ im Allgemeinen. Sie selber und viele andere Forscher erkannten jedoch früh die Relevanz des Paradigmas für die PTSDForschung, sofern man als US einen unangenehmen Reiz nimmt, der eine Traumatisierung simuliert (Grillon et al. 1996). Mithilfe dieses einfachen, einigermaßen standardisierten Verfahrens bot sich die Chance, die Gedächtnisaspekte von PTSD experimentell in den Griff zu bekommen, und zwar sowohl die Konsolidierung des traumaassoziierten Gedächtnisses als auch seine Extinktion durch das Simulieren einer kognitiven Verhaltenstherapie (mehrfache Konfrontation mit dem US). Die Tatsache, dass man hierbei unbewusst ablaufende biologische 19 Natürlich bestreitet LeDoux nicht, dass Emotionen auch einen subjektiven Anteil haben – es sei jedoch der Fehler der Psychologie und der Kognitionswissenschaft gewesen, sich zu sehr auf die subjektive Seite der Gefühle zu konzentrieren, so LeDoux, und somit die tierexperimentelle Forschung a priori auszugrenzen. Wie die Furchtkonditionierung zeige, beruhe jedoch die Verarbeitung der emotionalen Erinnerungen auch auf impliziten, das heißt unbewusst ablaufenden biologischen Prozessen – »[d]ie Untersuchung von Versuchstieren ist daher sowohl sinnvoll als auch notwendig, wenn wir die Funktionsweise von Emotionen im menschlichen Gehirn verstehen wollen« (LeDoux 2004: 21).

T IERMODELLE |

121

Gedächtnisprozesse anstatt die schwierig zu operationalisierenden expliziten Gedächtnisinhalte in den Mittelpunkt rückte, konnte als weiterer Pluspunkt gelten. Obwohl die Stressaspekte der Krankheit als Erstes ins Auge fallen – PTSDPatienten leiden unter Schlafstörungen, nervösen Erregungszuständen sowie Schweißausbrüchen –, wird die Furchtkonditionierung von vielen Wissenschaftlern als das PTSD-Modell angesehen (Layton/Krikorian 2002; Amstadter et al. 2009): Ein großer Vorteil dieser Forschung ist, dass gerade in diesem Bereich die Tiermodelle relativ nahe beim Krankheitsmodell sind. Wir können Tiere traumatischen Ereignissen aussetzen und studieren, was passiert im Gehirn sowohl auf korrelativer als auch auf kausaler Basis. Das ist sehr, sehr viel schwieriger bei anderen Krankheiten wie zum Beispiel Depression, wo ich sagen würde, es gibt keine guten Tiermodelle. Und das hat sehr viel zum Erfolg dieser Forschung beigetragen. (Interview Lüthi)

Der Boom dieses Paradigmas hat allerdings nichts damit zu tun, ich habe es oben bereits angesprochen, dass PTSD mittels Furchtkonditionierung besser abgebildet werden kann als mittels Stressparadigmen. Bei der Konditionierung ist man gezwungen, den Stressaspekt der Krankheit auf Kosten des Erinnerungsaspekts zu vernachlässigen. Um traumaassoziiertes Gedächtnis messen zu können, wählt man in der Regel einen elektrischen Fußschock, der so schwach wie möglich und so stark wie nötig ausfällt. Im Leben eines Labortiers, das in einer völlig artfremden Umgebung aufwächst, in regelmäßigem Kontakt mit einem seiner natürlichen Feinde steht (dem Menschen) und zum Ende seines Lebens hin häufig noch anderweitig traktiert wird, stellt ein milder Fußschock in keiner Weise ein Ereignis dar, das als traumatisch herausstechen würde (Siegmund/Wotjak 2007). Ein wichtiger, wenn nicht gar der wichtigste Aspekt der Krankheit wird so vernachlässigt, aber nur so ist sichergestellt, dass das freezing, das ja der relevante Messparameter ist, kausal mit der Erinnerung an diesen Fußschock zusammenhängt und nicht etwa Ausdruck einer übermäßigen Stressreaktion ist. »Und unter der Prämisse sagen wir, wir müssen ein Trauma wählen, das sicherlich einer strengen Durchleuchtung, ob es ein Trauma ist, nicht genügt.« (Interview Wotjak) Die klassische Konditionierung ist aufgrund ihrer vielen Vorzüge auch über den engeren Kontext der Angst- und Emotionsforschung hinaus verbreitet. Der Erfolg dieses Paradigmas hat zu einer Art Diffusion der PTSD-Forschung in die unterschiedlichsten neurowissenschaftlichen Forschungsbereiche geführt. Die Tatsache, dass »bei jedem Experiment, das mit einer klassischen Konditionierung durchgeführt wurde, gesagt [wurde], ›and this may have implications for

122 | ZWISCHEN GEIST UND GEHIRN

the treatment of PTSD‹« (Interview Wotjak), sehen aber viele präklinische PTSD-Experten kritisch. Carsten Wotjak ist der Überzeugung, dass in solchen Studien in den meisten Fällen »letztendlich ganz andere Phänomene angeschaut wurden [als PTSD]« (Interview Wotjak). Er fordert deshalb mit der »dual branch hypothesis« eine konsequente Integration von »memory- and stress-related processes into a single animal model of PTSD« (Siegmund/Wotjak 2006: 327). Durch den Einsatz mehrerer Batterien von Verhaltensparadigmen sollen die vielschichtigen Verhaltensfacetten der Störung differenzierter erfasst werden (Siegmund/Wotjak 2007). Dazu wird die Maus oder Ratte in einem Interventionsparadigma erst ›traumatisiert‹, um anschließend in unterschiedlichen Verhaltensparadigmen auf verschiedene Parameter (Angst, Stress, soziales Verhalten etc.) untersucht zu werden. Andere Forscher wie Hagit Cohen von der »Anxiety and Stress Research Unit« der Ben-Gurion-Universität verfolgen einen ähnlichen Ansatz (Cohen/Zohar 2004; Cohen et al. 2006). Das Beispiel dieser beiden Arbeitsgruppen zeigt aber, dass das Operationalisierungsdilemma dadurch nicht beseitigt, sondern höchstens abgemildert wird. Das Problem, dass eine zu starke ›Traumatisierung‹ den Gedächtnisaspekt verhüllt und eine zu schwache den Stressaspekt unzulässig abmildert, bleibt grundsätzlich bestehen. Während Wotjak seine Versuchstiere im Konditionierungsparadigma mittels mildem Fußschock ›traumatisiert‹, um ihr Verhalten anschließend auf PTSD-ähnliches Verhalten zu testen (Siegmund/Wotjak 2007), verfolgt Cohen einen klaren Stressansatz. Er ›traumatisiert‹ die Tiere zum Beispiel mittels Fressfeind-Exposition und untersucht sie danach auf Stressempfindlichkeit und Ängstlichkeit. Interessant ist, dass je nach Vorgehensweise auch unterschiedliche biologische Phänomene in den Blickpunkt geraten: Bei Cohen sind es klassische Stressparameter wie Herzrate, Hautleitfähigkeit, HPA-Aktivität und das Stresshormon Cortisol (vgl. Cohen/Zohar 2004; Cohen et al. 2008), bei Wotjak vor allem der Hippokampus, ein allgegenwärtiges Objekt der Gedächtnisforschung (Siegmund et al. 2008; siehe fünftes Kapitel zur Rolle des Hippokampus in der Gedächtnisforschung). Wer PTSD im Tierversuch modellieren will, steht also vor einem schwierigen Spagat: Stress oder Gedächtnis? Auf der Symptomebene wurde zwischen den Stress- und den Gedächtnisaspekten von Trauma schon immer differenziert, was sich nicht nur in den Symptomklassen widerspiegelt, die im DSM bis heute festgeschrieben sind (Wiedererleben einerseits, übermäßige Reizbarkeit andererseits), sondern auch in getrennten Forschungstraditionen (Siegmund/Wotjak 2006), deren Wurzeln weit in die Vorgeschichte der modernen Diagnose PTSD zurückreichen. Freud und Janet hatten hauptsächlich (obwohl nicht ausschließlich) die Gedächtnisaspekte der Krankheit im Blick, davon legen die Konzepte der Verdrängung respektive der Dissoziation Zeugnis ab. Eine traumatische Er-

T IERMODELLE |

123

innerung, die vom bewussten Selbst abgespalten wird, steht im Zentrum ihrer Erklärungsmodelle. Der Psychologe Abram Kardiner auf der anderen Seite, ein wichtiger Wegbereiter der DSM-III-Diagnose, deklarierte PTSD als eine »Physioneurosis«, einen Zustand also, der neben psychischen auch physische Faktoren umfasst (Kardiner 1941). Er definierte Traumatisierung als »an abrupt change in the organism’s adaptation to the world« (Young/Rosen 2004: 131) und grenzte sich mit dieser funktionalen Beschreibung von Freuds Verdrängungstheorie ab (Leys 2000). Die Rede von der Adaptation auf Umwelteinflüsse erinnert zudem stark an den Physiologen Cannon, der zu Beginn des 20. Jahrhunderts Stress als eine Störung des physiologischen Gleichgewichtes (Homöostasis) aufgrund aversiver Umwelteinflüsse konzeptionalisierte (Cannon 1929). Es gehört zur Ironie der Geschichte, dass gerade die Tierforschung die Polarisierung zwischen diesen Krankheitsaspekten wesentlich verschärft hat. Denn dass zwischen Stress und Gedächtnis auf einer physiologischen Ebene enge Wechselwirkungen bestehen, ist ein Punkt, auf den in neurowissenschaftlichen Forscherkreisen gerne hingewiesen wird (vgl. Schelling 2002). Die Entscheidung, vor der Grundlagenforscher stehen, ist von einer großen Tragweite, denn die Wahl des Verhaltensparadigmas ist die entscheidende Weichenstellung bei einem Top-down-Ansatz. Man legt nicht nur die Bedingungen dafür fest, was (bei Mäusen oder Ratten) als relevantes PTSD-Verhalten gilt, sondern es kristallisieren sich auf einer biologischen Ebene tendenziell auch differente Marker heraus (siehe oben). Die »Rekonfiguration«, die im Labor vorgenommen wird, macht aber nicht nur die Labortiere PTSD-Patienten ähnlicher, sondern umgekehrt auch PTSD-Patienten den Labortieren. Bereits sind vorsichtige Stimmen von präklinischen PTSD-Forschern zu vernehmen, die vorschlagen, die klinischen Kategorien so anzupassen, dass sie besser zu ihren experimentellen Phänomenen passen (vgl. Siegmund/Wotjak 2007: 858). Das grundlegende Dilemma der Laborforschung macht dies aber nur umso offensichtlicher: Es ist die Folge einer experimentellen Logik, die darauf abzielt, komplexe Verhaltensphänomene berechenbar und fassbar zu machen. Der Versuch, ein komplexes Syndrom wie PTSD in einem scheuen Nagetier zu reproduzieren, scheint sich ad absurdum zu führen, wenn selbst Mitglieder verschiedener Kulturkreise möglicherweise unterschiedlich mit Traumatisierungen umgehen, wie Medizinanthropologen vermuten (Marsella et al. 1996). Validitätskriterien, die sich an der Symptomebene ausrichten, sind angesichts der völlig unklaren biologischen Grundlagen der Krankheit der einzig gangbare Weg. Ohne einen objektivierbaren biologischen Anker, wie er bei der Alzheimer-Demenz vorliegt, können die resultierenden PTSD-Tiermodelle nicht gleichermaßen als »standardisierte, gereinigte, isolierte,

124 | ZWISCHEN GEIST UND GEHIRN

verkleinerte und in ihren Funktionen reduzierte Entitäten« (Rheinberger) fungieren. Zwischenfazit Ich habe in den letzten beiden Abschnitten die komplexen Modellierungsprozesse aus einer historischen Perspektive rekonstruiert, die sich in den Laboren von Alzheimer- und PTSD-Forschern abgespielt haben. Es hat sich gezeigt, dass die jeweiligen Debatten um die Frage, was ein valides Modell ist, von konträren Perspektiven und Herangehensweisen geprägt sind. In der Alzheimerforschung standen von Beginn an genotypische Merkmale im Vordergrund, nachdem es in den 1980er Jahren durch die Untersuchung familiärer Formen der Krankheit gelungen war, molekulare Aspekte und Kandidatengene offen zu legen. Technisch ausgedrückt orientierte sich der Modellierungsprozess also an der Konstruktvalidität, wobei die Amyloid-Hypothese hier eine wesentliche Rolle spielte: Sie brachte die komplexen biologischen Zusammenhänge in eine klare pathomechanistische Ordnung und bot so einerseits klare Ansatzpunkte für eine Modellierung, während sie gleichzeitig klare Kriterien für die Bewertung der resultierenden Modelle bereitstellte. Im Falle von Genmäusen wie PD-APP oder dem inoffiziellen Standardmodell Tg2576 sind theoretische Annahmen »built into the apparatus itself« (Galison 1987: 251 [Herv. i.O.]), auf eigentümliche Weise »verknöchert« (Rheinberger 2001: 25). Obwohl sie zu den Kernsymptomen der Krankheit gehören, spielen Gedächtnisaspekte im Rahmen von Tiermodellen der Alzheimer-Demenz höchstens als nachgeordnete Epiphänomene eine Rolle und zählen nicht zu den eigentlichen Kernaspekten. Dies macht noch einmal den Charakter dieser Modelle deutlich: Es handelt sich um Modelle, die theoretische Konstrukte repräsentieren und nicht primär den Krankheitsphänotyp. Wenden wir uns PTSD zu, so lässt sich allein an der Tatsache, dass sich in diesem Bereich Batterien von Verhaltenstests und nicht Modellorganismen auf der Forschungsbühne befinden, die antagonistische Ausrichtung ablesen. PTSDModellsysteme verkörpern keine theoretischen Hypothesen bezüglich der Krankheitsätiologie, wie das bei den transgenen AD-Modellen üblicherweise der Fall ist. Diese Modelle stellen Krankheitsmodelle dar, mit denen versucht wird, die Phänomenologie der Krankheit möglichst genau abzubilden. Die Forschungsbewegung beginnt hier nicht bei den Kausaltheorien, sondern bei den experimentellen Paradigmen (und verläuft von da zu den derzeit noch nicht absehbaren Kausaltheorien). Die Frage, welches die geeigneten Verhaltensparadigmen sind, mit denen sich die anthropozentrische Kategorie »PTSD« im Tierversuch operationalisieren lässt, steht im Zentrum der Debatte. Obwohl erste

T IERMODELLE |

125

PTSD-Modelle bereits 1985 entstanden – zehn Jahre vor den ersten ADModellen – gestalteten sich die Aushandlungsprozesse deutlich weniger geradlinig, was auf das grundlegende Dilemma verweist, eine vielgestaltige psychische Krankheit wie PTSD in ein reduziertes Tiermodell zu übertragen. Wie gezeigt, lässt sich dies aufgrund experimenteller Zwänge nicht ohne Polarisierungen erreichen. Mit der Angstkonditionierung hat sich ein Paradigma etabliert, das die Gedächtnisaspekte auf Kosten der Stressaspekte in den Vordergrund rückt, was die von Medizinanthropologen beobachtete herausgehobene Stellung des traumatischen Gedächtnisses im psychiatrischen Diskurs widerspiegelt (Young 2000; Young/Rosen 2004). Die Krankheitsmodelle, deren Konturen sich in den beiden Feldern seit den 1980er Jahren abzuzeichnen beginnen, reproduzieren somit tendenziell die historischen Prägungen der jeweiligen Forschungskulturen. Ich möchte noch einmal auf die theoretische Praxis hinweisen, die dahinter steht. Um genuine Modelle handelt es sich jeweils, weil sie Aspekte der Welt oder Aspekte von Theorien verkörpern und in die biomedizinische Praxis übersetzen. Modelle sind Modelle »durch den Bezug auf eine vorgestellte Wirklichkeit«, so Rheinberger, eine Wirklichkeit jedoch, »an die [sie] nicht herankomm[en]« (Rheinberger 2001: 118). Damit soll jedoch nicht einem Modellbegriff das Wort geredet werden, wie er in der klassischen Wissenschaftstheorie gängig war (vgl. Morgan/Morrison 1999). Der Wert von Modellen lässt sich nicht darauf reduzieren, einzig und allein der Konkretisierung von abstrakten Theorien zu dienen – es käme einer schlechten Metapher gleich, Tiermodelle als Modelle in diesem Sinne zu bezeichnen. Die diskutierten Beispiele aus der AD- und PTSD-Forschung haben »the joint articulation of research materials such as organisms and theoretical frameworks« (Griesemer 1992: 48) anschaulich gemacht. Das Operationalisierungsdilemma im Bereich PTSD zeigt, dass experimentelle Prozeduren über ein Eigenleben verfügen können, die einen theoretischen Balanceakt notwendig machen (vgl. Wotjaks dual-branch hypothesis). Ein ähnliches Phänomen ist im Bereich der Alzheimerforschung zu beobachten: Dort gelten Mausmodelle wie Tg2576 zwar nach wie vor als wichtiger Beleg dafür, dass der Gedächtnisverlust durch Amyloid-Beta verursacht sein könnte. Die experimentelle Vereinnahmung der Modelle hat jedoch neue Fragen aufgeworfen, die eine Weiterentwicklung der Amyloid-Kaskaden-Hypothese notwendig gemacht haben (vgl. Wirths/Bayer 2009). Der Modellbegriff, den diverse Wissenschaftsphilosophen seit Neuestem vertreten, erhellt die Situation in angewandten Wissenschaftsbereichen wie den Lebenswissenschaften: So haben sowohl Cartwright (1995; 2008) als auch Morgan/Morrison (1999) den instrumentellen Charakter von Modellen betont und ihnen als »autonomous agents« (Morgan/Morrison 1999: 10) ein von Theorien

126 | ZWISCHEN GEIST UND GEHIRN

unabhängiges Eigenleben zugesprochen: Die Konstruktion und der Gebrauch eines Modells werfen empirisch-materielle Fragen auf, die sich losgelöst von theoretischen Aspekten stellen. Für Morgan und Morrison ist es gerade diese vermittelnde Position zwischen Experiment und Theorie, zwischen Wissen und NichtWissen, die den primären Wert von Modellen ausmacht – eine These, der ich mich im Hinblick auf Tiermodelle anschließe. Aufgrund ihrer hybriden Eigenschaften (epistemisch, aber auch technisch) fungieren diese Organismen als zentraler Motor der Wissenschaftsdynamik, »both a means and a source of knowledge« (Morgan/Morrison 1999: 35).

M ETAMORPHOSEN : V OM L ABOR IN DIE K LINIK UND ZURÜCK Bislang habe ich die Modellierungsprozesse im Labor betrachtet und die klinische Ebene weitgehend ausgeblendet. Bei der Entwicklung eines Tiermodells orientieren sich Grundlagenforscher zwar am Stand klinischer Erkenntnisse, die klinische Validität des Modells steht aber noch nicht im Vordergrund. Es geht in einer ersten Modellierungsphase primär darum, natürliche Objekte in epistemische und technische Dinge zu verwandeln, was ein äußerst aufwendiger und biotechnologisch komplizierter Prozess sein kann. Es dauert unter Umständen zwei bis drei Jahre, bis die Mutanten in Experimenten eingesetzt werden können. Im Herstellungsprozess lauern viele Klippen wie Spontanmutationen oder genetische Drift, die umschifft werden müssen, um schließlich buchstäblich ›lauffähige‹ und genetisch identische Organismen zu erhalten. Nicht nur der zeitliche Aufwand, auch die Kosten und der Tierverbrauch sind beträchtlich. Das Risiko besteht, dass die neu entwickelten Mutanten ein schweres Verhaltensdefizit aufweisen oder bereits früh sterben, sodass sie als Forschungsobjekte völlig wertlos sind, wie das beispielsweise bei vielen Tau-Mäusen der Fall war (vgl. Crawley 2007). Im besten Fall steht »[a]m Ende […] die Rekonfiguration von Lebewesen als epistemische Objekte, als Produkte und Träger wissenschaftlichen Wissens« (Amann 1994: 272). Diese Objekte, die Grundlagenforscher in langwieriger Arbeit »schaffen, hervorbringen, verfeinern und stabilisieren« (Hacking 1996a: 380), wurden nicht zum Selbstzweck geschaffen, wie es bei vielen esoterischen Experimentalsystemen der Fall ist, deren Reichweite auf das Labor beschränkt bleibt:

T IERMODELLE |

127

Die vergangenen Jahrzehnte waren eher Jahre der Spezialisierung, die aber enorme Fortschritte gebracht haben, beispielsweise für das Verständnis von molekulargenetischen Mechanismen. Aber diese Erkenntnisse nützen letztendlich nichts, wenn es nicht gelingt, diese auf den Menschen zu übertragen. (Interview de Quervain)

Tiermodelle konstruiert man in der Regel zur Lösung praktischer Probleme, die außerhalb des Labors bestehen. Wenn also, wie Morgan und Morrison notieren, »the power of a model only becomes apparent in the context of its use« (Morgan/Morrison 1999: 12), dann schließt dieser Anwendungskontext den klinischen Bereich mit ein. Im Folgenden will ich die interaktiven Übersetzungsprozesse an der Schnittstelle zwischen Labor und Klinik für den Bereich AD etwas genauer untersuchen. Dass ich mich auf den Alzheimerbereich beschränke, hat nicht nur pragmatische Gründe. Es hängt vor allem auch damit zusammen, dass sich bis heute keine biomedizinische PTSD-Plattform ausgebildet hat, die diesen Namen verdient hätte. Weil bislang ein Tiermodell fehlt, das kausale Hypothesen in einem experimentellen Kontext bearbeitbar macht, sind die Befunde zu den biologischen Umständen dieser Krankheit widersprüchlich und entsprechend umstritten. Die etablierten therapeutischen und diagnostischen Verfahren stammen praktisch ausschließlich aus dem klinisch-psychologischen Bereich. Im Gegensatz dazu hat die langjährige Erforschung von Mausmodellen das biomedizinische Verständnis von AD tief greifend verändert und zu einem genetischmolekularen Forschungsparadigma geführt, das sich auch in der Klinik manifestiert. Am Beispiel der Amyloid-Plattform will ich herausarbeiten, dass biomedizinische Labore nicht so hermetisch von ihrer Umwelt abgeschottet sind, wie es oft dargestellt wird. Zwar ist richtig, dass »few things that work in the laboratory work very well in a thoroughly unmodified world – in a world which has not been bent toward the laboratory«20 (Hacking 1992a: 59), aber dieser Übersetzungsprozess schlägt letztlich auf die Laborpraxis zurück. Die Analyse wird deutlich machen, dass Krankheitsmodelle paradoxerweise erst dann in ihrer repräsentationalen Rolle grundlegend problematisiert werden können, wenn diese in den Hintergrund getreten ist. Erst wenn sie Modell für die Krankheit stehen, setzt ein Lernprozess ein, in dem sich auch die präklinischen Krankheitskategorien und die Modelle, in denen sie sich verkörpern, zu verschieben beginnen. 20 Vgl. zu diesem Thema Latours (1993) bekannte historische ANT-Studie zur Pasteurisierung Frankreichs. Nach Latour waren Pasteurs mikrobiologische Erkenntnisse und Methoden so erfolgreich, weil es ihm gelang, vielfältige Allianzen mit verschiedensten Akteuren (Politikern, Medizinern, Landwirten) zu bilden und im Zuge dessen die ganze französische Gesellschaft im Sinne seines Projektes zu transformieren.

128 | ZWISCHEN GEIST UND GEHIRN

Tg2576 und die Amyloid-Plattform Tiermodelle haben mit den in freier Wildbahn vorkommenden Tieren nur wenig gemein. Vom Wesen entspricht »mus laboratorius« (Wotjak 2004) eher einem »Technofakt« (Amann 1994) denn einem natürlichen Lebewesen, in freier Wildbahn wäre sie kaum überlebensfähig. Ihren Lebensraum bilden sogenannte »Laboratope« (Amann 1994: 271): eine weitverzweigte Labor-Infrastruktur, welche die überlebensnotwendigen technischen Ressourcen bereitstellt. Zu diesem infrastrukturellen Netzwerk gehören vor allem Zucht-Institutionen wie zum Beispiel die Jackson Laboratories, eine Non-Profit-Organisation und die Pionierin auf diesem Gebiet, oder die kommerziell ausgerichteten Firmen Taconic oder Charles River GmbH (vgl. Malakoff 2000). Diesen Institutionen obliegt insbesondere die Pflege und Aufzucht der diversen Inzucht-Mausstämme, die auf über mehr als zwanzig Generationen Bruder-Schwester-Verpaarungen beruhen und als »gold standard of biomedical research«21 angepriesen werden.22 »Gold standard« deshalb, weil diese Organismen aufgrund ihres hochgradig standardisierten Genotyps die wichtigste Ressource der Grundlagenforschung sind: Sie bilden die Basis für die Herstellung transgener Organismen, werden aber auch in Verhaltensexperimenten intensiv untersucht (vgl. Crawley 2007). Das Ziel ist, »den Genpool […] so aufrechtzuerhalten, damit wir immer noch in drei Jahren noch mit den gleichen Black623 arbeiten können« (Interview Wotjak). Jede dieser ›Mausfabriken‹ züchtet neben ausgewählten Mausstämmen auch ein begrenztes Angebot von Mausmutanten aus unterschiedlichen Forschungsbereichen, andere Tiermodelle werden mittels Kryokonservierung der Embryonen kurzfristig verfügbar gehalten. Die Tatsache, dass die Züchter auf die meisten dieser Modellorganismen Patente besitzen, macht deutlich, dass nicht nur die Grenzen zwischen Lebewesen und Instrumentarium, sondern auch zwischen wissenschaftlichen und ökonomischen Interessen verwischt sind (vgl. Haraway 1997). Bestellungen können direkt auf der Website aufgegeben werden, die Ab21 Vgl. http://jaxmice.jax.org/findmice/popular.html (Stand: 9.2.2011). 22 Diese Mauslinien gehen hauptsächlich auf einige wenige Tiere zurück, die zu Beginn des 20. Jahrhunderts in den Jackson Laboratories gezüchtet wurden – durch Kreuzung und Inzucht über viele Generationen hinweg haben sich unterschiedliche Linien gebildet, die im Verhalten und Genotyp teilweise stark voneinander abweichen (vgl. Wotjak 2004; Rader 2004; Crawley 2007). 23 Der Mausstamm C57BL/6 oder Black6 gilt als das »Paradepferd« (Interview Wotjak) unter den Mausstämmen, das als Hintergrundstamm für viele transgene Tiermodelle verwendet wird (Wotjak 2004).

T IERMODELLE |

129

wicklung unterscheidet sich kaum noch von der Internetbestellung eines Bauteils in einem beliebigen Baumarkt. Die Nachfrage bestimmt weitgehend das Angebot. Die kosten- und platzaufwendige Entwicklung und Patentierung eines neuen Tiermodells lohnt sich für die Züchter nur dann langfristig, wenn sich auch ausreichend Interessenten dafür finden, die bereit sind, das Modell zu erwerben.24 Umgekehrt ist es ebenso häufig der Fall, dass die Entscheidung einer Forschergruppe für ein bestimmtes Modell respektive einen Mausstamm von pragmatischen Faktoren beeinflusst ist, sei es nun die gute Verfügbarkeit, die geringen Kosten oder die simple Tatsache, dass eine Genmaus bereits in anderen Laboratorien verwendet wurde und damit zu einem inoffiziellen Standard geworden ist. Forschungen auf gängige Modelle auszurichten, bietet viele Vorteile. Vor allem die einfache Verfügbarkeit ist im kompetitiven Wissenschaftsumfeld, wo alles von schnellen Forschungsergebnissen abhängt, ein wichtiges Argument. Ein Wissenschaftler antwortete auf meine Frage, wieso er hauptsächlich auf Black6Mäuse zurückgreift: »Sie wollen eine ehrliche Antwort? Die waren gut erhältlich.« Für die meisten Projekte wäre es viel zu zeitaufwendig und kostspielig, geschweige denn wissenschaftlich sinnvoll, Mausstämme oder Genmäuse in völliger Eigenregie herzustellen. In aller Regel greift man auf Organismen zurück, die direkt bei einem Züchter erworben werden können. Solche Modelle sind auf eine Art und Weise standardisiert, phänotypisiert und genotypisiert,25 wie es in Eigenregie kaum oder nur mit großem Aufwand zu erreichen wäre. Es sind also nicht zuletzt marktähnliche Mechanismen, die festlegen, welche Tiermodelle verfügbar sind und folglich, welche Modelle in der Forschungspraxis verbreitete Verwendung finden. Von den Millionen von Mäusen, die alljährlich in den Laboratorien dieser Welt verbraucht werden, treten aufgrund dessen nur eine überschaubare Zahl von Standardmodellen in Erscheinung. So bilden sich »Cluster von Gruppen von Experimentalsystemen« aus, »in denen ein bestimmter material bedingter Forschungsstil vorherrscht« (Rheinberger 2001:

24 Auf der Website der Jackson Laboratories ist folgender Hinweis zu finden (vgl. http://jaxmice. jax.org/list/ra2282.html, Stand: 9.2.2011): »It is VERY IMPORTANT [Herv. i.O.] that you register interest in strains Under Development. The anticipated demand for a strain enables us to determine effectively the distribution plan for each strain Under Development.« 25 Die Beschreibung des Phänotyps mittels standardisierter Verhaltensparadigmen ist ein aufwendiges Verfahren, auf das sich Einrichtungen wie die »German Mouse Clinic« spezialisiert haben, vgl. Gailus-Durner et al. 2005.

130 | ZWISCHEN GEIST UND GEHIRN

149f.).26 Die »Alzheimer’s Disease Mouse Model Resource« der Jackson Laboratories,27 ein Online-Verzeichnis der verfügbaren AD-Mausmodelle dieser Zuchtinstitution, führt derzeit knapp hundert Krankheitsmodelle als vorrätig auf, sechs weitere befinden sich in Entwicklung. Anhand der dortigen Auflistung lässt sich ablesen, dass APP-Modelle die mit Abstand größte Gruppe der kommerziell verfügbaren AD-Mausmodelle bilden.28 Aus dieser erfolgreichen Gruppe sticht Tg2576 wiederum heraus. Dieses Krankheitsmodell hat, hauptsächlich aufgrund der einmaligen Verbindung von neuropathologischen Merkmalen und altersabhängigen Gedächtnisverlusten, eine erstaunliche Karriere hingelegt: 1994 in der Arbeitsgruppe von Karen Ashe in Minnesota entstanden, wurde es 1996 der scientific community zur Verfügung gestellt und von der Harvard University als eine der zehn wichtigsten Entdeckungen des Jahres bezeichnet. Das Patent liegt bei der Firma Taconic, welche die Maus kommerziell vertreibt und züchtet.29 Mehr als 100 Forschungslaboratorien haben über die Jahre mit diesem Modell gearbeitet und dabei mehr als 500 Artikel publiziert. Von der Arbeit an diesem Mausmodell erhofft man sich neue Impulse für die Entwicklung kausaler Therapieansätze, welche die bislang dominierenden symptomatischen (zum Beispiel die Acetylcholinesterase-Hemmer) ersetzen sollen (Dam/Deyn 2006). Auf ihrer Website schreibt Karen Ashe: I feel immensely gratified to see that at least 200 of these publications have demonstrated the beneficial effects of various interventions, several of which are now being tested in humans with Alzheimer’s disease. I am excited about the prospect of developing safe means of preventing Alzheimer’s disease. I believe that Tg2576 mice are trying to tell us 26 Solche Cluster hat Rheinberger als Experimentalkultur bezeichnet. Experimentalkulturen sind für ihn »Zirkulationskanäle für epistemische Dinge« und »markieren die fluktuierenden Grenzen jener immer wieder spontan entstehenden informellen Wissenschaftlergemeinden«, die durch ihre »horizontale Verkettung« und nicht die »vertikale Beziehung auf eine verborgene Referenz« zusammengehalten werden (Rheinberger 2001: 148f.). Es lässt sich darüber streiten, ob der Kulturbegriff hier angebracht ist. Keating/Cambrosio ziehen das in Zweifel, aus den Gründen, die ich bereits im zweiten Kapitel dargelegt habe (Keating/Cambrosio 2000: 894). 27 Vgl. http://research.jax.org/repository/alzheimers.html (Stand: 9.2.2011). 28 Vgl. dazu auch die »International Mouse Strain Resource (IMSR)«, eine OnlineDatenbank der weltweit verfügbaren Mausmutanten, erreichbar unter http://www.find mice.org/index.jsp (Stand: 9.2.2011). 29 Der Preis liegt pro Tier liegt aktuell zwischen 11 und 24 Dollar, je nach Variante, vgl. http://www.taconic.com/wmspage.cfm?parm1=2632 (Stand: 9.2.2011).

T IERMODELLE |

131

how to achieve this. If we pay close attention to what they are saying, we will be able to prevent tens of millions of people from developing Alzheimer’s disease. Imagine how wonderful that would be!30

Dieses Zitat bringt eine entscheidende Metamorphose zum Ausdruck, die alle erfolgreichen Krankheitsmodelle früher oder später durchlaufen. Sobald ein Tiermodell einen Status erlangt hat, der über wenige spezialisierte Labore hinausreicht, sobald es in den Mittelpunkt präklinischer Forschungsprogramme rückt, verändert es seine Rolle: Es wandelt sich von einem epistemischen Objekt, »das Fragen aufwirft«, zu einem technischen Ding, einer »Maschin[e], die Antworten geben [soll]« (Rheinberger 2001: 29), oder, wie es Evelyn Fox Keller (2000) formuliert hat: von einem Modell von etwas in ein Modell für etwas. Nach jahrelanger Bearbeitung im Labor gewinnt seine artifizielle Natur nach und nach einen Wirklichkeitsstatus, der über seinen Modellcharakter hinausweist. Anders gesagt, seine Abbildfunktion gerät in den Hintergrund, das Modell beginnt, selber Modell zu stehen. Es entwickelt sich zu einer grundlegenden Forschungseinheit, an der im Labor neue diagnostische und therapeutische Verfahren für den Menschen erprobt werden. Rheinberger zitiert in diesem Zusammenhang den berühmten Genetiker François Jacob, der in seiner Autobiografie schrieb: »Aber schon interessierten mich die Erkenntnisse nicht mehr, zu denen wir gekommen waren. Wichtig war nur, was wir mit diesem Instrument weiter erreichen konnten.« (Jacob 1988: 352f.; zitiert nach Rheinberger 2001) Die Dominanz von Tg2576 und anderen APP-Modellen im präklinischen Bereich hat auch in der klinischen Welt deutliche Spuren hinterlassen. Nur vier Jahre, nachdem die ersten Tiermodelle gezüchtet worden waren, wurde von ersten vielversprechenden präklinischen Therapieansätzen berichtet (Bard et al. 2000; Schenk et al. 1999). Sie bauten auf der Prämisse auf, dass Amyloid-Beta der kritische Krankheitsfaktor bei AD bildet. Heute haben sich die entsprechenden Forschungsbemühungen noch einmal deutlich intensiviert und in größeren Einrichtungen wie der Klinik für Psychiatrie und Psychotherapie der Charité werden derzeit verschiedene amyloidzentrierte Strategien experimentell erprobt: Wenn ein Patient zu uns kommt, führen wir erst einmal eine ausführliche Anamnese durch. Dann untersuchen wir ihn im MRT und schauen ganz spezifisch nach, speziell am Hippokampus, ob eine Atrophie vorliegt. Wir machen auch einen Bluttest auf sogenannte Suszeptibilitätsgene, das heißt, wir prüfen, ob ApoE4-Homozygotie oder Heterozygotie vorliegt. Homozygotie, da wissen wir, dass das Menschen sind, die eher Alzheimer be30 Vgl. http://www.memory.umn.edu/scientists/ashe.html (Stand: 9.2.2011).

132 | ZWISCHEN GEIST UND GEHIRN

kommen. Und wir nehmen auch eine Liquoruntersuchung vor, wir entnehmen Nervenwasser und bestimmen das Verhältnis von spezifischen Proteinen, Amyloid und Tau. Das sind alles noch experimentelle Verfahren, die bei uns durchgeführt werden, weil wir eine akademische Gedächtnisklinik sind. Der niedergelassene Neurologe wendet diese Diagnosemethoden noch nicht an. (Interview Heuser)

Zu den derzeit experimentell erprobten Diagnoseinstrumentarien gehören auch bildgebende PET-Verfahren, mit denen Plaques-Ablagerungen in vivo sichtbar gemacht werden können (Nordberg 2008), sowie Bluttests, mit denen Demenzmarker im Blut ermittelt werden (Marcello et al. 2009; Zetterberg et al. 2003; Zetterberg/Blennow 2006). Man hofft, damit die Frühdiagnose der Krankheit signifikant verbessern zu können. Aber auch an neuen Therapiemethoden wird eifrig geforscht. Pharmakotherapien, die sich gegen die Deposition oder Produktion von Amyloid-Beta richten, gelten als besonders vielversprechende Kandidaten, um die nur begrenzt wirkenden symptomatischen Antidementiva (Donepezil etc.) zu ersetzen (Hampel et al. 2009; Butcher 2007).31 Zu den neu erprobten kausalen Wirkstoffen gehören beispielsweise die cholesterinsenkende Gruppe der Statine, denen in klinischen Studien eine Plaques reduzierende Wirkung nachgewiesen werden konnte (Refolo et al. 2001).32 Die größten Hoffnungen ruhen allerdings auf Immunisierungsstrategien, die direkt kausal an der AmyloidKaskade ansetzen (Mohajeri 2007). Bei der Immunisierung werden entweder Anti-Amyloid-Beta-Antikörper direkt injiziert (passive Immunisierung), oder die Bildung solcher Antikörper wird durch die Verabreichung von synthetischem Amyloid-Beta angeregt (aktive Immunisierung). Die Hoffnung ist, dass das so stimulierte Immunsystem im Falle einer AD-Erkrankung zu einer Reduktion der Amyloid-Level im Gehirn befähigt wird. In mehreren präklinischen Studien mit PD-APP-Mäusen führten beide Immunisierungsstrategien zu vielversprechenden Resultaten, das heißt einer Verringerung der Amyloid-Beta-Deposition und Verbesserung der Gedächtnisleistung (Janus et al. 2000; Morgan et al. 2000; Schenk et al. 1999; Bard et al. 2000). Eine placebobasierte Phase-II-Studie scheiterte 2002 jedoch dramatisch (Orgogozo et al. 2003; Schenk 2002): Mehrere Probanden erlitten eine Hirnentzündung, die Studie wurde abgebrochen. Trotz dieses 31 Die meisten der derzeit verabreichten Antidementiva (Donepezil etc.) haben nur eine geringe Wirkung und können die Symptome bestenfalls lindern und den Krankheitsverlauf höchstens um einige Monate verzögern, mit teils beträchtlichen Nebenwirkungen (Kida/Sato 2006; Winblad et al. 2006). 32 Die protektive Wirkung von Statinen konnte in klinischen Studien bislang nicht bestätigt werden (Evans et al. 2009; McGuinness et al. 2009).

T IERMODELLE |

133

schweren Rückschlags lebten die Hoffnungen kurz danach wieder auf, als bei einigen Teilnehmern dieser Studie, die bereits Antikörper gegen Amyloid-Beta gebildet hatten, nachträglich ein verlangsamter kognitiver Verfall festgestellt wurde (Hock et al. 2003). Derzeit werden in klinischen Phase-III-Studien neue Immunisierungsstrategien getestet, mit Antikörpern, die nicht schädlich sein sollen (Wisniewski/Konietzko 2008; Morgan 2011). Die biomedizinischen Entitäten, die in den Laboren der Grundlagenforschung geschaffen wurden, haben klinische Praktiken also grundlegend geprägt. Translationale Medizin ist längst Realität, allerdings nicht als eine Einbahnstraße from bench to bedside, wie viele meinen (Mankoff et al. 2004; Marincola 2003),33 sondern als »an entirely new field of play with its own norms and protocols« (Cambrosio et al. 2009: 511). Denn die heute verfügbaren Tiermodelle wären gar nicht entstanden ohne Inputs aus der Klinik. Bei der Diskussion der APPModelle hat sich gezeigt (siehe oben), wie ausschlaggebend klinische Erkenntnisse waren, insbesondere die erstmalige Klonierung des APP-Gens oder die molekulare Entschlüsselung von Amyloid-Beta, beides wichtige Stationen auf dem Weg zu den ersten transgenen AD-Modellen. Bereits zu Beginn der 1990er Jahre forderte Foa (1992) im Zusammenhang mit ihrem PTSD-Modell, den Modellierungsprozess möglichst in beide Richtungen zu öffnen, ein Anspruch, der heute immer wieder bekräftigt wird (vgl. Marincola 2003; Ashe/Zahs 2010). Viele Wissenschaftler zeigen sich an einem »sehr intensiven Austausch« zwischen Labor und Klinik interessiert, um auf Projektebene »die Grundlagenforschung und die klinische Forschung zu verbinden« (Interview Fischer). André Fischer, der am »European Neuroscience Institute« (ENI) die molekularen Mechanismen von Gedächtnis und Lernen erforscht, resümiert die Übersetzungsprozesse zwischen Labor und Klinik wie folgt: Wir versuchen zunächst einmal im Menschen, einen molekularen Ansatzpunkt zu entdecken, um zu schauen, welche Veränderungen es dort gibt. Dann überprüfen wir das im Tiermodell und schauen dort, mit welchem therapeutischen Ansatz, genetisch, pharmakologisch oder beides im Idealfall, können wir diese Veränderungen, die wir festgestellt haben, rückgängig machen, am besten in dem Hirngebiet, wo es gerade sein muss. (Interview Fischer)

33 So steht im Editorial des »Journal of Translational Medicine«: »For most, ›translational medicine‹ (or ›translational research‹) describes a uni-directional effort to test in humans novel therapeutic strategies developed through experimentation.« (Mankoff et al. 2004)

134 | ZWISCHEN GEIST UND GEHIRN

Für den Bereich der Demenzforschung – aber natürlich nicht nur dort – lässt sich feststellen, dass die Grenzen zwischen Labor und Klinik, zwischen Neurowissenschaft und Medizin verschwimmen. Das ENI in Göttingen ist ein typisches Beispiel dafür: Es pflegt explizit einen translationalen Forschungsansatz und ist stark mit klinischen Einrichtungen vernetzt. Es entstehen aber auch Organisationen wie das »Kompetenznetz Demenzen e.V.«, ein Zusammenschluss universitärer Forschungseinrichtungen, die durch den Aufbau eines »Vertikalen Netzes« einen »verbesserte[n] Informationsaustausch zwischen Forschung und den Einrichtungen der Gesundheitsversorgung« anstreben.34 Derartige Institutionen kann man als sogenannte »bio-clinical collectives« bezeichnen (Bourret et al. 2006; Bourret 2005; Cambrosio et al. 2009), womit Einrichtungen gemeint sind, die Aktivitäten an der Schnittstelle zwischen Grundlagenforschung und klinischem Anwendungskontext organisieren. In dieselbe Kategorie fällt auch das 2009 gegründete, netzwerkartig organisierte »Deutsche Zentrum für neurodegenerative Erkrankungen« der Helmholtz Gemeinschaft. Das Ziel, »fundamentale Entdeckungen in die klinische Anwendung zu überführen«35, soll dort insbesondere auch durch die Kooperation mit industriellen Partnern erreicht werden. Die enge Verflechtung von Labor und Klinik, von universitären und industriellen Akteuren, ist typisch für die moderne Biomedizin. Das Konzept der biomedizinischen Plattform, das ich im zweiten Kapitel eingeführt habe, erweist sich als besonders geeignet, dieser unübersichtlichen Situation Rechnung zu tragen. Als Amyloid-Plattform bezeichne ich im Folgenden diejenigen hybriden Konfigurationen – »a specific configuration of tools, entities, techniques, know-how and therapeutic indications« (Cambrosio et al. 2009: 505) –, die zentral mit der Manipulation, Regulation und Repräsentation der Entität »Amyloid-Beta« befasst sind. Der Begriff der Amyloid-Plattform ist auch in biomedizinischen Kreisen geläufig, hat dort aber in der Regel eine rein technische Bedeutung (vgl. Cambrosio et al. 2009); so besteht die sogenannte »zentrale Amyloid-Plattform« des vom BMBF geförderten »Kompetenznetzes Degenerative Demenzen« im Wesentlichen aus einem ELISA-System, das die Messung von Amyloid-BetaPeptiden im Hochdurchsatzverfahren erlaubt.36 Die sozialwissenschaftliche De34 Vgl. http://www.kompetenznetz-demenzen.de/ueber-das-netz/vertikales-netz/wissen transfer/ (Stand: 9.2.2011). 35 Vgl. http://www.dzne.de/ueber-uns/leitbild.html (Stand: 11.1.2012). 36 Zur Amyloid-Plattform des »Kompetenznetzes Degenerative Demenzen« vgl. http://www.knd-demenzen.de/KNDD/Deutsch/Verbund+Aggregation-Degener./Amy loid-Plattform (Stand: 11.1.2012). ELISA steht für Enzyme Linked Immunosorbent Assay und bezeichnet ein antikörperbasiertes Messverfahren. Zu den technischen De-

T IERMODELLE |

135

finition von Keating/Cambrosio (2000, 2003), auf die ich mich beziehe, ist im Gegensatz dazu weiter gefasst. Neben den erwähnten amyloidzentrierten Instrumentarien (Tg2576, ELISA-Systeme etc.), gehört dazu ein weit gefächertes Spektrum von Experten und institutionellen Akteuren, die sich in ihrer täglichen Arbeit auf dieses Equipment abstützen und es zusammen mit ihren Forschungsfragen weiterentwickeln. Ein weiteres wichtiges Element sind Standards (Leitlinien, Grenzwerte) sowie die Daten- und Biobanken, auf deren Grundlage sie formuliert wurden. Und nicht zu vergessen sind schließlich theoretische Konstrukte wie die Amyloid-Kaskaden-Hypothese, die ein Bild der Krankheitsprozesse zeichnen, in dem Amyloid-Beta einen zentralen Platz einnimmt. Die Überzeugung, dass Amyloid-Beta zu den zentralen krankmachenden Faktoren gehört, ist heute nicht nur unter Grundlagenforschern, sondern auch unter Klinikern so weit etabliert, dass skeptische Beobachter bereits von einer »Verführung« durch die »Church of Holy Amyloid« sprechen (Mandavilli 2006; Lock 2008). Die vielen kritischen Befunde,37 die gegen die Amyloid-Hypothese sprechen, werden Kritikern zufolge nicht genügend gewürdigt, und Forschungsprogramme, die auf alternativen kausalen Hypothesen fußen, hätten aufgrund der einseitigen Ausrichtung des Feldes kaum eine Chance, wahrgenommen zu werden und Geldgeber zu finden.38 Dass der Erfolg des Amyloid-Paradigmas auch auf einer sozialen Dynamik beruht, wird kaum jemand bestreiten: tails der Bestimmung von Amyloid-Beta mittels ELISA-Systemen vgl. Schmidt et al. 2005. 37 Dazu gehört erstens die Erkenntnis, dass das Verteilungsmuster der Neurofibrillenbündel offenbar den Krankheitsverlauf besser widerspiegelt als dasjenige der Plaques (Braak/Braak 1998). Zweitens weiß man, dass die Lage und Menge der Plaques nicht mit den klinischen Gedächtnissymptomen korreliert ist (Terry et al. 1991). 38 Neben der bereits erwähnten Tau-Hypothese, der meist diskutierten Alternative zur Amyloid-Hypothese (Lee 2001; Maccioni et al. 2010), gibt es noch andere ätiologische Alternativhypothesen. Einige Forscher machen zum Beispiel oxidativen Stress für die neurodegenerativen Prozesse verantwortlich, ausgelöst durch noch unbekannte genetische Mutationen (Lee et al. 2004, 2006, 2007; Castellani et al. 2006). Die Pointe dieser »Alternate Hypothesis« besteht darin, Amyloid-Beta die Funktion eines salutogenen Faktors zuzuweisen, der eine sekundäre Reaktion des Körpers auf die neurotoxischen Prozesse darstellt. Andere Forscher versuchen, den Graben zwischen Tauund Amyloid-Pathologie zu überbrücken, indem sie einen gemeinsamen, noch unbekannten »common upstream driver« postulieren, der kausal sowohl für die Plaques als auch für die Tangles verantwortlich sei (Small et al. 2008). Keines dieser Modelle besitzt jedoch die Klarheit und Einfachheit, die der Amyloid-Hypothese eigen ist.

136 | ZWISCHEN GEIST UND GEHIRN

Molekularbiologen, die das Rüstzeug hatten, die die Techniken beherrschten, haben transgene Tiermodelle für die Alzheimer-Demenz entwickelt, die diese Amyloid-Ablagerungen simuliert haben. Das waren erst einmal sehr überzeugende Modelle, sodass diese Forscher sehr viel Drittmittel bekommen haben. Wer für etwas sehr viel Drittmittel bekommt, hat ganz viele Trittbrettfahrer, und so unterhält sich das System eigentlich selbst. (Interview Heuser)

Die Tatsache, dass ein Forschungsprozess sozial gesteuert ist, spricht für sich genommen weder für noch gegen die Wahrheit der in dieser Forschung verankerten Prämissen und Annahmen.39 Die Verfechter der Amyloid-Hypothese verweisen unermüdlich auf die Forschungserfolge (die überzeugenden Tiermodelle werden dabei als ein häufiges Argument genannt, das für die Hypothese spreche), die in den letzten Jahren, dem Zeitalter der »modernen Alzheimerforschung«, erzielt worden seien – und sie sehen den Umstand, dass die klinischen und experimentellen Forschungspraktiken wesentlich von der Hypothese geprägt sind, als einen Beleg für ihre Wahrheit. »If amyloid gets so much attention from the scientists, it’s because there’s almost overwhelming evidence that it’s correct fundamentally«, so der Harvard-Neurologe John Selkoe (zitiert nach Mandavilli 2006). Dass die Amyloid-Kaskaden-Hypothese die Forschungslandschaft gravierend verändert hat, ist unbestritten. Sie verkörpert sich in Forschungsprogrammen, in experimentellen Arrangements und zunehmend in diagnostischen und therapeutischen Ansätzen. Die »politics of nature« (Moser 2008: 98), die hier zu beobachten ist, hat eine eigene Laborwirklichkeit geschaffen, in welche die AmyloidKaskaden-Hypothese und Tiermodelle wie Tg2576 fast perfekt eingebettet sind. Durch die »experimentellen Spielzüge« (Rheinberger 2001: 86), die an diesen Organismen vollzogen wurden, hat ihr biologisches Innenleben einen Wirklichkeitsstatus erreicht, der demjenigen des Menschen weit überlegen ist. Die Reduziertheit der Modellorganismen gilt vor diesem Hintergrund nicht mehr etwa als problematisch, sondern – im Gegenteil – »has been proven to be an advantage for deciphering and understanding the complexity of AD pathogenesis« (Radde et al. 2008: 71). Angesichts einer self-vindicating structure wird nur allzu gerne übersehen, dass diese technowissenschaftliche Realität nicht der entscheidende Maßstab ist, an dem die Validität von Tiermodellen gemessen werden kann. Rachel Ankeny stellt fest, dass »much rhetoric surrounding model organism re39 Wie die Diskussion des Strong Programme im ersten Kapitel gezeigt hat, gehört die Erkenntnis, dass jegliche wissenschaftliche Erkenntnis auch auf sozialen Faktoren beruht, zu den frühen Errungenschaften der STS.

T IERMODELLE |

137

search […] misrepresents the potential limitations of even good models« (Ankeny 2007: 55). Entscheidend ist, dass die Frage, welche Krankheitsrelevanz ein experimentell erzeugter Befund aufweist, sich in der reinen Laborarbeit nicht klären lässt. Während mittels Experimentalsystemen die relevanten biomedizinischen Entitäten und epistemischen Objekte generiert werden, bilden biomedizinische Plattformen diejenigen Organisationseinheiten, wo deren pathologische Relevanz mittels Leitlinien und Grenzwerten reguliert und bewertet wird (Keating/Cambrosio 2000, siehe auch zweites Kapitel): [R]ather than an economy of the production of epistemic things, we suggest that the regulation of those things determines which unprecedented differences produced within an experimental system attain significance or acquire the status of epistemic thing. Without an economy of regulation, it is impossible to tell which differences are significant and which are trivial. (Keating/Cambrosio 2000: 360n)

Unter kontrollierten experimentellen Bedingungen bleibt die klinische Bedeutung von »animal–human hybrids« (Cambrosio et al. 2009: 511) völlig diffus. Anders als im experimentellen Bereich, wo Daten, Theorien und Prozeduren sich tendenziell austarieren, ergeben sich im Lichte einer »economy of regulation« neue Gesichtspunkte, wodurch die Frage »What is it good for?« immer wieder revidiert werden muss. Kurzum, erst im Rahmen einer biomedizinischen Plattform entstehen die Normen, die letztlich über das Schicksal eines Tiermodells entscheiden. Die Tatsache, dass die Tiermodelle selber ein entscheidender Motor der Generierung dieser Normen bilden, verdeutlicht, dass es sich hierbei um einen dialektischen Prozess handelt, der bei den Modellen beginnt und auf sie zurückschlägt. »The explanatory task begins and ends with the models.« (Bechtel/Richardson 1993: 232) Rückkopplungen Auch Verfechter des Amyloid-Paradigmas stimmen darin überein, dass der entscheidende Prüfstein der Hypothese noch aussteht, der nur in der erfolgreichen Entwicklung einer amyloidbasierten Therapie bestehen kann. »Amyloid-based treatments, the final test of the amyloid cascade hypothesis, are showing some hopeful results, but they are certainly not yet conclusive.« (Hardy 2006) In das gleiche Horn bläst Wisniewski, der schreibt: »With the multiple approaches to amyloid prevention in development, we believe that the near future will produce a final answer on whether the amyloid-cascade hypothesis is correct.« (Wis-

138 | ZWISCHEN GEIST UND GEHIRN

niewski/Konietzko 2008) Alle oben skizzierten klinischen Verfahren sind seit Längerem in der Erprobungsphase, und auch nach 25 Jahren intensiver molekularbiologischer Erforschung der Krankheit und ungefähr 300 an Tiermodellen erprobten Therapieansätzen sind immer noch keine vielversprechenden Behandlungsmöglichkeiten beim Menschen in Aussicht (Zahs/Ashe 2010). Die Studienlage ist äußerst unübersichtlich.40 Trotz der bisherigen Misserfolge werden immer neue Wirkstoffe ins Rennen geworfen, die den Glauben an das AmyloidParadigma wachzuhalten vermögen (Mangialasche et al. 2010). Zu beobachten ist jedoch, dass das vielfache Scheitern der Immunisierungsstudien und die bisherige Erfolglosigkeit amyloidbasierter Therapieansätze nachhaltige Zweifel gesät haben. Was nach außen gerne als Erfolg versprechendes Forschungsprogramm angepriesen wird, offenbart bei genauerer Betrachtung einen inhärent fragilen und instabilen Charakter. Bei vielen Biomedizinern ist ein langsamer Sinneswandel festzustellen, der auch in meinen Interviews spürbar wurde: Ich denke, dass wir nicht so ganz weiterkommen mit der Amyloid-Hypothese, vor allem auch, was die Therapieversuche betrifft. Bisher ist es noch nicht gelungen trotz dieses schönen Modells eine Therapie zu entwickeln, die auch beim Menschen funktioniert. Bei den Mäusen funktionieren die amyloidbasierten Therapien sehr gut, aber nicht beim Menschen, und das muss einen nachdenklich machen. (Interview Heuser) Es gibt doch einen Wandel, weil man natürlich gesehen hat, dass viele Ansätze, die aus der Biochemie kommen, letztendlich wunderbar funktionieren in Tiermodellen und diese Pathologie, diese amyloiden Plaques, auch im Menschen aufgelöst werden. Nur haben Phase-III-Studien mittlerweile gezeigt, die daraus resultiert sind, dass die Plaques abgeräumt werden, aber die Kognition verbessert sich beim Menschen nicht. Deshalb fragt man sich, hat man überhaupt das richtige Target, was man angeht. (Interview Fischer)

Kritische Kommentare zur Dominanz des Amyloid-Modells sind inzwischen weder in der Literatur noch auf Kongressen eine Seltenheit, offene Fragen und Probleme werden diskutiert (vgl. etwa Mandavilli 2006; Pimplikar 2009; Korczyn 2008). Die Schlussfolgerungen, die aus den gescheiterten klinischen Studien 40 Eine neuere Studie postuliert sogar, dass amyloidzentrierte Pharmakotherapien potenziell schädliche Wirkung haben könnten (Jang et al. 2010). Aufgrund des multifaktoriellen Charakters von sporadischer AD und den vielen gescheiterten klinischen Studien halten es einige Wissenschaftler inzwischen für unwahrscheinlich, »that a single cure for Alzheimer’s disease is […] to be found and that the approach to drug development for this disorder needs to be reconsidered« (Mangialasche et al. 2010).

T IERMODELLE |

139

gezogen werden, weichen aber deutlich voneinander ab: Die eine Gruppe scheint – verständlicherweise, angesichts der großen Summen, die bereits investiert wurden – im Prinzip sowohl an den bestehenden Tiermodellen als auch der Amyloid-Hypothese festhalten zu wollen und glaubt, das Problem durch eine verbesserte Zusammenarbeit zwischen Labor, Klinik und pharmazeutischer Industrie lösen zu können (Mangialasche et al. 2010). Andere hingegen fordern einen fundamentalen Paradigmenwechsel, der die grundlegenden Prämissen der Forschung einer Revision unterzieht, was sich nur durch die verstärkte Etablierung alternativer Tiermodelle erreichen ließe. Es ist interessant zu beobachten, dass die Amyloid-Plattform, die ja erst durch den extensiven instrumentellen Gebrauch von APP-Mausmodellen installiert werden konnte, einen Kontext geschaffen hat, in dem diese Modelle in einer epistemischen Hinsicht neu problematisiert werden können. Die Philosophin Rachel Ankeny hat diesen dialektischen Prozess formal als fallbasiertes Schließen zu fassen versucht, das nach den folgenden grundlegenden Prinzipien abläuft (Ankeny 2007): Zu Beginn wird ein sogenannter Ursprungsfall konstruiert, der Modellorganismus, der bestimmte Aspekte idealisieren und Komplexität reduzieren soll. Vorerst unklar bleibt jedoch, in welcher Hinsicht diese Idealisierungen tatsächlich gültig sind für das Phänomen, das studiert werden soll (die Krankheit). Dies lässt sich nur herausfinden, indem man den Ursprungsfall in einem iterativen Prozess immer wieder mit möglichst ähnlichen Fällen vergleicht, um nach und nach die relevanten Analogien und Differenzen herauszuschälen:41 What is most important to notice when analyzing the use of model organisms, and particularly the way in which they function as a form of case-based reasoning, is that answering the question of whether a model organism will in fact prove to be a useful model (i.e., for human genome sequencing) requires that researchers not only work on sequencing in the model organism but that this sequencing occur in tandem with sequencing in the object of interest, the human genome, and other comparative genomic work. (Ankeny 2007: 54)

Wichtig ist, dass eben erst die Amyloid-Plattform mit ihren amyloidzentrierten Technologien die Möglichkeiten geschaffen hat, vergleichend zwischen Mensch und Tier hin- und herzuspringen. Ohne Amyloid-Imaging oder Immunisierungsstudien bliebe völlig im Dunkeln, wie die Prozesse im Menschen aussehen, die 41 Es gibt zwei mögliche Vergleichspunkte, »an intraspecific viewpoint and an extraspecific viewpoint« (Ashe/Zahs 2010: 633). Im ersten Fall vergleicht man die transgenen Mausmodelle mit Wildtyp-Mäusen, im zweiten, gängigeren Fall mit Krankheitsmerkmalen beim Menschen.

140 | ZWISCHEN GEIST UND GEHIRN

sich im Tiermodell beobachten lassen. Dieser »double feedback loop« zwischen Beschreibungen des Modellorganismus und klinischen Krankheitsbeschreibungen führt zu einer epistemischen Verschiebung, vor deren Hintergrund nicht nur die klinischen Fälle, sondern auch das Modell neu gelesen werden müssen. Ankeny sieht dadurch ein herkömmliches Wissenschaftsverständnis herausgefordert, das ahistoristisch und universalistisch ausgerichtet ist. Ihre Alternative ist »a form of scientific understanding […] which is constantly evolving, incomplete, and uncertain, but nonetheless has the status of knowledge for its practitioners« (Ankeny 2007: 55). Das skizzierte Wissenschaftsbild gleicht frappierend demjenigen, das Pickering mit der Praxismangel entworfen hat. Beide betonen sowohl die Emergenz und Zeitlichkeit als auch die Kontingenz wissenschaftlicher Prozesse. Das fallbasierte Schließen weist eine Struktur auf, die mit einer Dialektik von Widerstand und Anpassung vergleichbar ist (siehe erstes Kapitel): »Scientists, as human agents, maneuver in a field of material agency, constructing machines that, as I shall say, variously capture, seduce, download, recruit, enroll, or materialize that agency, taming and domesticating it, putting it at our service […].« (Pickering 1995: 7) Die epistemische Problematisierung der Modelle findet im eigentlichen Sinne erst auf der Ebene der Plattform statt, weil Modellorganismen erst in diesem Rahmen als Maschinen, als Modelle für etwas in Erscheinung treten. Die menschliche Handlungsmacht wird, mit anderen Worten, in einen »dance of agencies« mit den materiellen Wirkungsmächten hineingezogen, der zu einer dialektischen Transformation der Modellorganismen selber, der Krankheitskategorien, klinischer sowie experimenteller Infrastrukturen führt – ein »open-ended modelling« (Pickering 1995: 114), das nicht auf das Labor beschränkt bleibt.42 Diese dialektische Verschiebung hat im Bereich der Alzheimerforschung dazu geführt, dass bestehende Modelle auch von prominenten Alzheimerforschern in einem ganz neuen Licht dargestellt werden. Selbst Karen Ashe, die Schöpferin von Tg2576, hält die gängigen APP-Modelle inzwischen nicht als mehr repräsentativ für die Krankheit insgesamt. Der Vergleich mit Wildtyp-Mäusen zeige, dass die Symptome von APP-Mäusen eher einem vorzeitigen Alterungsprozess entsprechen als einem neurodegenerativen Krankheitsbild, wie es beim Menschen auftritt (Ashe/Zahs 2010). Sie bezweifelt deshalb die generelle Validität von APP-Mäusen, hält sie aber dennoch für nützlich, um die asymptomatische

42 Um den prozesshaften Charakter von Modellen zu verdeutlichen, hat Keller vorgeschlagen, das englische Wort model nicht primär als Substantiv, sondern als Verb aufzufassen (Keller 2000).

T IERMODELLE |

141

Krankheitsphase zu erforschen (Ashe/Zahs 2010; Zahs/Ashe 2010).43 Andere Grundlagenforscher wie Fischer gehen abseitigere Wege, indem sie alternative Modellorganismen ins Spiel bringen, die auf völlig neuen Validitätskriterien beruhen. Fischer bringt die Prämissen seines Forschungsansatzes so auf den Punkt: Deshalb benutzen wir Säugetiere als Versuchsmodell, in unserem Fall ist es die Maus. Und wir schauen erst einmal, ob es überhaupt für Lernen oder Gedächtnis irgendeinen Phänotyp gibt in dem Tier. Und das ist, denke ich, ganz entscheidend, wenn wir über psychiatrische Krankheiten und im Speziellen die Alzheimerkrankheit sprechen. Denn es nützt mir überhaupt nichts, wenn ich verstehe, dass das Protein X das Protein Y spaltet oder dass das Protein Z das Protein H bildet in einem Reagenzglas, wenn man es nachher im Tier untersucht und sieht: Okay, das passiert, aber es hat gar keinen Einfluss auf irgendetwas, was ich messen kann in dem Tier. (Interview Fischer)

Anders formuliert: Was nützt es, biochemische und molekulare Abläufe zu studieren, wenn ihre Rolle in Bezug auf den Krankheitsphänotyp, auf Lernen und Gedächtnis im Dunkeln bleibt? Es wird deutlich, dass der hier geschilderte Ansatz diametral der bisherigen Praxis entgegensteht. Die Forderung Fischers, Modelle am komplexen Phänotyp der Krankheit zu messen, bedeutet eine radikale Abkehr von etablierten Grundsätzen: Die Augenscheinvalidität (face validity) der Krankheit, ihr Charakter als Alters- und Gedächtniskrankheit, soll anstelle des Genotyps stärker im Forschungsfokus stehen. Damit werden Zweifel an einer der zentralen Prämissen der derzeitigen Forschungspraxis geschürt, nämlich dass Modelle, die sich an der genetischen Frühform ausrichten, für die Untersuchung der Spätform taugen. »Man merkt auch auf den Meetings, dass man [AD] langsam als Syndrom zu betrachten beginnt«, so André Fischer im Interview. Nach dem bisherigen Stand des Wissens ist die sporadische Form der Krankheit das Ergebnis komplexer Wechselwirkungen zwischen bestimmten Risikogenen und Umweltfaktoren. Da das Erkrankungsrisiko mit dem Alter rapide steigt, hält Fischer die Suche nach dem gemeinsamen Nenner zwischen Altern und AD für besonders zentral. Fischers Forschungen kreisen schon längere Zeit um die CDK5-Kinase, die, so wird vermutet, im menschlichen Gehirn eine wichtige Rolle bei der Regulierung der Plastizität von Nervenverbindungen spielt (Fischer et al. 2003a, 2003b). 43 Vor dem Hintergrund der obigen Ausführungen zum fallbasierten Schließen sind zwei von Ashes Schlussfolgerungen besonders bemerkenswert: Erstens, »[t]he nosology of AD keeps shifting« (Ashe/Zahs 2010: 631), und zweitens: »Translational research should involve an iterative process.« (Zahs/Ashe 2010: 387)

142 | ZWISCHEN GEIST UND GEHIRN

CDK5 wird durch zwei Proteine aktiviert, p25 und p35. P25 ist stabiler und tritt, wie man von Hirnautopsien weiß, bei AD-Patienten in stark erhöhter Konzentration auf. Zudem gibt es Hinweise, dass CDK5 bei AD in die Tau-Pathologie involviert sein könnte (Baumann et al. 1993). Diese Befunde legen Fischer zufolge die Hypothese nahe, dass die verstärkte Aktivierung von CDK5 durch p25 kurzfristig zwar zu einer erhöhten Plastizität der Nervenzellen führt, die Überaktivierung langfristig aber einen pathologischen Effekt hat (Fischer et al. 2005). Mit CK-p25 wurde ein transgenes Mausmodell konstruiert, das diese mechanistische Hypothese experimentell untersuchbar gemacht hat (Cruz et al. 2003). Da das Modell sich jedoch primär an der Augenscheinvalidität und nicht an der Konstruktvalidität ausrichten soll, will man »die pathologischen Faktoren, von denen man glaubt, dass sie eine Wirkung haben, erst dann anschalten, wenn das Tier tatsächlich alt ist« (Interview Fischer). Um dies zu erreichen, bedient man sich eines genetischen Tricks: Die Expression von p25 wird durch die Verabreichung eines Antibiotikums im Futter kontrolliert. Wenn die Maus etwa 16 Monate alt ist, was etwa einem menschlichen Alter von 50 entspricht, wird das Antibiotikum ausgesetzt und p25 dadurch aktiviert. Das Resultat sieht vielversprechend aus: Die Mäuse produzieren etwa fünfmal mehr p25, was dem entspricht, was man in Post-mortem-Untersuchungen bei Menschen gefunden hat. Sie verfügen zudem über viele typische neuropathologische AD-Symptome: AmyloidPathologie (Oligomere, aber keine Plaques), Tau-Pathologie, Neurodegeneration sowie messbare Lerndefizite (Fischer et al. 2005). Ob CK-p25 ein valides Modell ist, lässt sich aufgrund der vorliegenden Laborbefunde nicht abschließend beurteilen. Derzeit führt es noch ein Nischendasein, vor allem, wenn man es mit dem verbreiteten Platzhirsch Tg2576 vergleicht. Ob es sich durchsetzt oder aus der Forschungslandschaft verschwindet und als Fußnote in der biomedizinischen Fachliteratur endet, hängt nicht zuletzt von Drittmitteln ab und auch, ob es gelingt, an diesem Mausmodell Therapieansätze zu entwickeln, die erfolgreich in die klinische Welt übertragen werden können. Erste Therapieansätze werden derzeit in präklinischen Forschungslaboratorien erprobt (Kim et al. 2008; Fischer et al. 2007). Dass die meisten dieser Studien nicht auf genetische, sondern auf umweltinduzierte (epigenetische) Prozesse abzielen, ist ein weiterer Hinweis auf den Sinneswandel, der mit diesem Modell verbunden ist (siehe dazu sechstes Kapitel).

T IERMODELLE |

143

E PILOG In diesem Kapitel habe ich am Beispiel von Tiermodellen ein differenziertes Bild theoretischer Praktiken in der Biomedizin zu zeichnen versucht. Der Kontrast von AD- und PTSD-Forschung hat gezeigt, dass die mit der Konstruktion von Tiermodellen verbundene theoretische Praxis unauflösbar mit empirischmateriellen Praktiken verwoben, aber nicht auf diese reduzierbar ist. Der Wert von Modellorganismen liegt gerade in ihrem Mittlerstatus zwischen Welt und Theorie, wodurch »Vorstellungen von Wirklichkeit« im Rahmen einer größeren Dynamik zwischen Labor und Klinik produktiv auf die Probe gestellt werden können. Das Grundproblem besteht darin, so Rheinberger, dass man nicht genau weiß, was man nicht weiß. Damit ist das Wesen der Forschung kurz, aber bündig ausgesprochen. Es geht letztlich um das Gewinnen von neuen Erkenntnissen, und was wirklich neu ist, ist definitionsgemäß nicht vorhersehbar, es kann also auch nur begrenzt herbeigeführt werden. Was wirklich neu ist, muss sich einstellen, und man muss Bedingungen dafür schaffen, dass es sich einstellen kann. (Rheinberger 2007b)

Tiermodelle sind wichtige Hilfsmittel bei diesem Lernprozess. Sie stehen im Schnittpunkt von theoretischer, empirischer und sozialer Praxis. Als artifizielle, von Wissenschaftlern geplante und konstruierte Systeme basieren sie auf theoretischen Prämissen, durch die sie prima facie ihre Validität gewinnen. Erst das macht sie zu genuinen Modellen. Gleichzeitig fungieren Krankheitsmodelle als Forschungsinstrumente, sodass diese Annahmen sich der empirischen Praxis zu stellen haben. Aufgrund ihrer Doppelrolle ermöglichen sie es, in unbekanntes Terrain vorzustoßen und die ursprünglichen Setzungen und Definitionen, auf denen die Forschung beruht, zu transformieren. Der Paradigmenwechsel, der sich im Bereich AD auf einer empirischmateriellen und konzeptionellen Ebene ankündigt, spiegelt beispielhaft den dialektischen Prozess von Widerstand und Anpassung wider, den Pickering die Praxismangel genannt hat. Wissenschaftler reagieren auf materielle Widerstände, indem sie die institutionellen, materiellen und konzeptionellen Bedingungen ihrer Forschungspraxis in ein neues Gleichgewicht zu bringen versuchen. Ein spannender Nebeneffekt dieser Verschiebungen ist, dass sich plötzlich auf einer experimentellen Ebene Schnittfelder zwischen den beiden Gedächtnisstörungen AD und PTSD ergeben, die noch vor Kurzem undenkbar schienen. Ich beziehe mich noch einmal auf Fischers Forschungen. Fischer, der seine wissenschaftliche Laufbahn in der PTSD- und Stressforschung begann und dort über ein genetisches Screening auf CDK5 stieß, rutschte »über Zufall, über das CDK5« (Inter-

144 | ZWISCHEN GEIST UND GEHIRN

view Fischer) in die AD-Forschung hinein, ohne das Interesse an PTSD zu verlieren. Da CDK5 sowohl bei Stress als auch bei Demenz eine regulative Rolle zu spielen scheint, hat er mit CK-p25 ein Tiermodell zur Hand, das es ihm ermöglicht, Fragestellungen aus beiden Bereichen in quasi demselben Experimentalsystem zu bearbeiten (Sananbenesi et al. 2007; Fischer et al. 2007): [Wir] hatten die Idee zu prüfen, wie sich eigentlich das CK-p25-Tiermodell in dem Angstkonditionierungsparadigma verhält. Wir haben das Tiermodell als Werkzeug benutzt, weil wir spannenderweise zeigen konnten, dass selbst bei der Alzheimer Demenz das p25 am Anfang eine positive Wirkung hat. Es verbessert das Lernen und erst nach einer längeren Zeit zeigen sich die schlechten Auswirkungen. Das ist ganz ähnlich wie bei Stress: Akuter Stress ist gut, chronischer Stress ist schlecht. (Interview Fischer)

Wie das Zitat zeigt, kommt neben CK-p25 auch der (kontextuellen) Angstkonditionierung eine wichtige Scharnierfunktion zu: Dieses Paradigma ermöglicht es einerseits, PTSD auf Basis einer Pseudotraumatisierung zu operationalisieren, und es greift andererseits hippokampusabhängige Gedächtnisprozesse heraus, die im Fokus der AD-Forschung stehen. Die Überlappungen zwischen den Experimentalpraktiken deuten darauf hin, dass sich die Forschungskulturen in den letzten Jahren substanziell angenähert haben, ein epistemischer Wandel, in den Tiermodelle fundamental involviert waren: Parallel zu der Biologisierung von PTSD im Rahmen von Verhaltenstests wie der Angstkonditionierung vollzieht sich die Phänotypisierung von AD, einer Krankheit, die nach Meinung einer wachsenden Zahl von Experten zu lange in den Händen von Molekularbiologen gewesen [ist]. Es wurde untersucht, was passiert bei APP-Mutationen oder was macht eigentlich das Precursor-Protein in der Entwicklung. Aber wirklich funktionelle Forschung ist wenig gemacht worden. (Interview Heinemann)

Wie bei PTSD, so rückt die Gedächtnissymptomatik auch bei AD auf der Ebene der Tiermodelle wieder stärker in den Vordergrund. Dies hat zur Folge, dass sich in beiden Forschungskontexten die biomedizinischen Entitäten, Technologien und Methoden tendenziell angleichen (mehr dazu im fünften Kapitel). Die zunehmende Hinwendung zum Krankheitsphänotyp spiegelt sich auch in einem allgemeineren Trend wider, der seit einigen Jahren in der Neurowissenschaft festzustellen ist. Zu beobachten ist ein »Paradigmenwechsel weg von reduzierten Präparaten und hin zu systemischen In-vivo-Präparaten« (Interview Lüthi). Dieser Trend wird derzeit unter dem Schlagwort behavioral phenotyping

T IERMODELLE |

145

diskutiert. Eine wachsende Zahl von Publikationen (vgl. etwa Crawley 2007; Crawley et al. 1997; Holmes et al. 2002; Anagnostopoulos et al. 2001), Initiativen wie EuroPhenome (Morgan et al. 2010) und PhenoMAP sowie Institutionen wie die »German Mouse Clinic« (Gailus-Durner et al. 2005) widmen sich »the systematic study of phenotypes on a genome-wide scale« (Bilder et al. 2009). Nach langen Jahren der vornehmlich molekularen Forschung rückt das Verhalten wieder in den Vordergrund. Das Ziel ist, stabilere und robustere Verhaltensdaten zu erhalten, mit deren Hilfe dann verlässliche Korrelationen zwischen Genotyp und Phänotyp bestimmbar sind. Dabei steht man allerdings vor einer schwierigen Frage, die bereits im zweiten Kapitel aufgeworfen wurde: »How can learning and memory be reliably quantified by behavioral measures? This would seem a prerequisite for establishing causal relations between cellular functions, electrophysiology, and higher brain functions.« (Wolfer et al. 1998: 118) Die experimentellen Strategien, mit denen man diese Problematik im Tier zu lösen versucht, stehen im Mittelpunkt des nächsten Kapitels.

Im Labor Labyrinthe, Mäuse, Menschen

Im Jahre 2003 wurde eine der ersten Studien überhaupt publiziert, die sich mit den molekularen Aspekten des menschlichen Gedächtnisses befasste (de Quervain et al. 2003). Inzwischen sind einige Studien dazugekommen (zum Beispiel Papassotiropoulos et al. 2006), aber immer noch stammt der Löwenanteil des Wissens über die molekularen Grundlagen von Lernen, Erinnern und Vergessen aus der Tierforschung. An dieser Mission sind verschiedene Akteure beteiligt: Mitten auf der experimentellen Bühne stehen die Modellorganismen, die Thema des letzten Kapitels waren. Sie sind die wichtigste Ressource, das Arbeitsmaterial der Biomediziner. Die an den Gedächtnisexperimenten beteiligten Forscher bilden keine homogene Gruppe, wie ich im zweiten Kapitel gezeigt habe. Gedächtnisexperimente sind das Werk vieler Spezialisten, die aber trotz ihrer unterschiedlichen methodischen Ausrichtung ein gemeinsames Ziel teilen: nämlich, »dass man Lernen und Gedächtnis mit naturwissenschaftlichen Methoden anschaut und dazu am besten einen reduktionistischen Ansatz wählt und versucht, relativ einfache Experimente zu entwickeln« (Interview Kuhl). Gedächtnisexperimente sind Ausdruck des Bemühens, den molekularen Code von Lernen und Gedächtnis zu entschlüsseln, um das fragmentierte Gedächtnis der Psychologie auf der neuronalen Ebene zu fundieren. Dabei ist man jedoch in einem grundlegenden Dilemma gefangen, das Steven Rose, Neurobiologe und Gedächtnisforscher, folgendermaßen auf den Punkt gebracht hat: »Learning and memory is only a meaningful concept at the level of the organism and its interactions with the environment. It doesn’t make any sense at the level of the synapses […].« (Bock/Goode 1998: 123) Mit anderen Worten, bei Lernen und Gedächtnis handelt es sich um funktionelle und keine materiellen Phänomene, was die zentrale These aus dem zweiten Kapitel bestätigt. Ich habe dort argumentiert, dass das psychologische Methodenarsenal durch den Trend, Gedächtnisfunktionen in einem hirnphysiologischen Rahmen zu verorten, nicht

148 | ZWISCHEN GEIST UND GEHIRN

überflüssig wird – im Gegenteil. Nur mithilfe psychometrischer Verfahren, die auf der Ebene des »wachen, sich verhaltenden Tiers« (Interview Lüthi) ansetzen, gelingt es, das flüchtige und hochkomplexe Phänomen in harte Messwerte, in Statistiken und Tabellen zu transformieren, die dann statistisch weiterverwertet und biologisch gedeutet werden können. Andreas Lüthi stellt fest: Lernen ohne Verhalten ist schwierig zu definieren beim Tier. Das ist im Prinzip das Fundament, auf dem wir aufbauen, insofern sind diese In-vivo-Ansätze natürlich ungemein wichtig, haben aber ihre Limiten, weil schlicht und einfach im sich verhaltenden Tier nicht jede Frage untersucht werden kann. Vorzugsweise versuchen wir das, aber oft geht das nicht. (Interview Lüthi)

Viele Fragestellungen – die Eigenschaften von Synapsen, die molekularen Mechanismen von Plastizität – lassen sich im »im einfacheren Präparat, im Hirnschnitt, besser untersuchen« (Interview Lüthi). Durch die Beschäftigung mit einzelnen Molekülen und Synapsen können neue Fragen und Hypothesen generiert werden, die dann in einem In-vivo-Kontext untersucht werden. Die Mechanik des biologischen Gedächtnisapparates enthülle sich deshalb nur durch »ein konstantes Wechselspiel der verschiedenen Ebenen [und verschiedenen] Disziplinen« (Interview Lüthi). Neben Kandel (2006b) zeigt sich also auch Lüthi von der Notwendigkeit der »synergetischen Interaktion« überzeugt, in die neben den diversen biologischen Methodenarsenalen auch das psychologische einbezogen ist. Um die komplexe Mechanik des Gedächtnisapparates zu verstehen, greifen Gedächtnisforscher in das biologische Material ein, sie sind aber auch auf geeignete Inskriptionswerkzeuge angewiesen, mit denen sich die resultierenden Veränderungen aufzeichnen und in verwertbare Daten transformieren lassen. Je gezielter und feiner manipuliert wird, desto empfindlicher und ausgefeilter müssen diese Messapparaturen sein. Im Labor sind es Verhaltensbiologen, denen die wichtige Aufgabe obliegt, tierisches Verhalten zu analysieren und im Hinblick auf seine Gedächtnisrelevanz zu beurteilen. Die methodologischen Grundprinzipien, auf die sie sich stützen, gehen auf Ebbinghaus zurück (siehe zweites Kapitel). Ebbinghaus demonstrierte, wie Gedächtnis als experimentelles Phänomen im Labor erzeugt und kontrolliert werden kann – ein Gedanke, der heute so vertraut erscheint, dass die kontingenten Wurzeln dieser Praxis kaum noch auffallen. Experimentelle Psychologen haben die von Ebbinghaus entwickelten Methoden bald aufgegriffen, um sie an Tieren wie Hunden, Affen oder Ratten anzuwenden. Ihnen kam dabei entgegen, dass Ebbinghaus die komplexen mentalen Facetten von Gedächtnis, welche die Menschen bis dahin besonders fasziniert hatten, bewusst ignorierte, insofern er Ge-

I M L ABOR | 149

dächtnis als Lernleistung operationalisierte. Diese Verschiebung bildet eine zentrale Säule der tierexperimentellen Gedächtnisforschung: »Learning and memory, when you actually assess it, it’s just two sides of the same coin. Learning doesn’t take place without memory, you cannot look at memory directly without assessing learning ability.« (Interview Yee) Da selbst Würmern oder Schnecken Lernfähigkeit unterstellt wird, wenn auch nur in einem sehr eingeschränkten Maß – »ein adaptiver Prozess, mit dem sich der menschliche und tierische Organismus an veränderte soziale und ökologische Bedingungen anpassen kann« (Interview Heinemann) –, besteht kein grundsätzliches Hindernis mehr darin, Gedächtnisvorgänge auch in einfachsten Organismen zu untersuchen. Gedächtnis wird als Lernverhalten operationalisiert, in einem experimentellen Verfahren ermittelt und aus einer neurobiologischen Sicht als »the retention of experience-dependent internal representations over time« (Dudai 1989) definiert. Experimentellen Psychologen kommt dann die Aufgabe zu, auf die einzelnen Tierarten abgestimmte Paradigmen zu entwickeln, in denen man sie unter kontrollierten experimentellen Bedingungen »Umweltsituationen [aussetzt], wo sie lernen müssen« (Interview Fischer). Allein für Ratten und Mäuse, die verbreitetsten Labortiere, wurden nach dieser Maßgabe unzählige Verfahren entwickelt. In Gebrauch sind vor allem Geruchstests, Objekterkennungstests und klassische Labyrinthtests.1 Vor allem Letztere sind in der Verhaltensbiologie seit Langem ein beliebtes Werkzeug, da damit die natürlichen Verhaltensweisen speziell von Nagetieren gut simuliert werden können. Das zweite Kapitel hat gezeigt, dass es sich beim Gedächtnis um ein schwer fassbares Phänomen handelt, das äußerst empfindlich auf verschiedene Einflüsse reagiert und sich damit gegenüber der Verwandlung in ein numerisches Phänomen resistent zeigt. Tierexperimente zeichnen sich dadurch aus, dass sie unter hochgradig kontrollierten Bedingungen durchgeführt werden. Auch wenn es unmöglich ist, »alle möglichen Störvariablen zu hundert Prozent [zu] kontrollieren, […] gelingt [das im Tierversuch] natürlich deutlich besser als in klinischen Forschungen« (Interview Brand). Auch Hacking meint, dass genaue Messungen im Laboratorium eher möglich sind als in einem anderen Umfeld, denn »unter Laboratoriumsbedingungen ist man in der Lage, ein stabiles, zahlenmäßig erfassbares Phänomen hervorzubringen, das sich in erheblichem Maße kontrollieren lässt« (Hacking 1996a: 391). Inwiefern gilt das auch für die psychometri1

Die Entscheidung für eines dieser unterschiedlichen Testverfahren hängt vom verwendeten Modellorganismus, von der zu untersuchenden Gedächtnisart und der konkreten Forschungsfrage ab. Häufig werden im Rahmen eines Experiments mehrere Arten von Verhaltenstests durchgeführt, um Fehlinterpretationen zu vermeiden.

150 | ZWISCHEN GEIST UND GEHIRN

schen Verfahren, die im Tierversuch eingesetzt werden? Das ist die Frage, um die es in dem vorliegenden Kapitel gehen soll. Ich stütze mich auf ein konkretes Fallbeispiel, den sogenannten »Morris water maze« (MWM), ein Messparadigma, das in den späten 1970er, frühen 1980er Jahren von dem experimentellen Psychologen Richard Morris entwickelt wurde. Der englische Name dieses Paradigmas ist irreführend, denn es handelt sich nicht um ein Labyrinth im eigentlichen Sinne. Im MWM werden Ratten oder Mäuse darauf trainiert, in einem Schwimmbecken nach einer versteckten Plattform zu suchen. Für den MWM als Fallbeispiel sprechen verschiedene Gründe. Dieses Verfahren, das auf das räumliche Gedächtnis abzielt, hat sich in den letzten 30 Jahren als »the standard and most widely used behavioral task« (Dalm et al. 2000: 134) etabliert und insbesondere die Alzheimerforschung tief greifend geprägt. In methodologischer Hinsicht ist der MWM außerdem repräsentativ für andere Typen von Verhaltensparadigmen, zudem ist die Entwicklung durch Richard Morris gut dokumentiert, während andere Paradigmen wie etwa die Angstkonditionierung eine wesentlich längere und somit auch verwickeltere Vorgeschichte aufweisen. Im ersten Teil des Kapitels beschreibe ich die Praxis der Gedächtnismessung im Tierversuch. Ich diskutiere die Schwierigkeiten und Fallstricke, die dabei auftreten, und argumentiere, dass es sich beim MWM (und vergleichbaren Testparadigmen) um fluide Apparaturen handelt. Das hebt sie prägnant von den zumeist hochgradig standardisierten Testverfahren ab, die beim Menschen angewendet werden. Im zweiten Teil des Kapitels gehe ich der Frage nach, was das für den Objektivitätsanspruch der tierexperimentellen Gedächtnisforschung bedeutet. Ich analysiere aktuelle Entwicklungen aus dem Bereich der Verhaltensneurowissenschaften, die zeigen, dass auf unterschiedliche Weise auf diese Herausforderung reagiert wird.

D ER »M ORRIS

WATER MAZE «

In den 1970er Jahren war der Hippokampus, eine kleine Hirnregion im limbischen System, in den Fokus der Gedächtnisforschung gerückt (siehe auch fünftes Kapitel). Damals stießen die Londoner Wissenschaftler John O’Keefe und Jonathan Dostrovsky auf einen zuvor unbekannten Typus hippokampaler Neuronen, die sie »Platzzellen« tauften (O’Keefe/Dostrovsky 1971). Bei elektrophysiologischen Untersuchungen von frei beweglichen Ratten, damals ein bahnbrechender Vorgang, registrierten sie bei Neuronen in den CA-Regionen des Hippokampus spezifische Aktivitätsmuster, die offenbar von der allozentrischen Position des Tieres im Raum abhingen. Sie stellten fest, dass eine Platzzelle immer dann mit

I M L ABOR | 151

erhöhter Frequenz feuert, wenn sich das Tier an einem bestimmten Ort aufhält oder ihn durchquert. Die Forscher vermuteten, dass mehrere Platzzellen eine kognitive Landkarte repräsentieren, eine Hypothese, die O’Keefe zusammen mit Nadel zu der sogenannten »Cognitive Map Theory« ausarbeitete (O’Keefe/Nadel 1978). Sie besagt im Kern: »[T]he hippocampus is the core of a neural memory system providing an objective spatial framework within which the items and events of an organism’s experience are located and interrelated« (O’Keefe/Nadel 1978: 1) Diese Hypothese wurde kontrovers diskutiert und Forschungen zum räumlichen Gedächtnis hatten in den 1970er Jahren Hochkonjunktur. In diesem Umfeld kam Richard Morris 1979 an die schottische Universität von St. Andrews, die damals über ein berühmtes meeresbiologisches Labor verfügte. Nach Morris eigener Schilderung kam ihm angesichts der vielen wassergefüllten Tanks, in denen Meerestiere schwammen, die Idee, die Funktion des Hippokampus beim räumlichen Gedächtnis mithilfe eines water maze zu untersuchen (vgl. Morris 2008, 1984). Die von ihm entwickelte Apparatur besteht aus einem offenen Pool, der zur Hälfte mit etwa 25 Grad Celsius warmem, getrübtem Wasser gefüllt ist (vgl. Abbildung 6). Im Pool befindet sich – unter der Wasseroberfläche versteckt – eine durchsichtige Plattform. Um das Schwimmbecken herum sind im Labor gut sichtbare Orientierungsmarken angebracht. Morris und sein Team beobachteten, dass gesunde Tiere schnell lernen, die versteckte Plattform zu finden, wenn sie an verschiedenen Positionen in das Becken gesetzt werden und die Plattform sich immer an derselben Stelle befindet (Morris et al. 1982). Da penibel darauf geachtet wurde, dass im Bereich des Schwimmbeckens nichts auf die Lage der Plattform hindeutete, konnten sich die Tiere also nur an den externen visuellen Anhaltspunkten orientiert haben, deren relative Position zur Plattform sie sich offenbar gemerkt hatten.2 Diese Hypothese wurde dadurch bestätigt, dass gesunde Tiere an der Aufgabe scheiterten, wenn die Plattformposition zwischen den Versuchen zufällig variiert wurde. Da Ratten mit beschädigtem Hippokampus beim Test mit versteckter Plattform signifikant schlechter abschnitten als gesunde Kontrolltiere, während sie eine sichtbare Plattform genauso schnell erreichten,

2

Entscheidend ist, dass innerhalb des Beckens keine visuellen oder olfaktorischen Spuren existieren, die den Weg zur Plattform weisen. Das Wasser muss nach jedem Versuch gewechselt werden und das Becken darf keine Musterung oder Unebenheiten aufweisen. Die ursprünglich verwendeten Pferdetröge haben sich aus diesem Grund nicht bewährt (vgl. Crawley 2007).

152 | ZWISCHEN GEIST UND GEHIRN

schloss Morris daraus, dass dem Hippokampus eine wichtige Rolle bei der räumlichen Orientierung zukommt (Morris et al. 1982).3

A

B

The watermaze Video camera

Paths and latency during place navigaon

Escape latency sec start

mid

end

Hidden plaorm Pool Base board

C

D

Post-training probe tests (no plaorm) Control

Hippocampus lesioned

Subiculum lesioned

Hippocampus and subiculum lesioned

Overtraining Hippocampus lesioned

Abbildung 6: Der »Morris water maze« (nach Morris 2008) Als einfaches Maß für die räumliche Lernleistung definierte Morris die Zeit, welche die Ratten brauchten, um zur versteckten Plattform zu schwimmen.4 Um die notwendigen Verhaltensparameter zu bestimmen, installierte Morris über dem Schwimmbecken eine Videokamera, die in regelmäßigen Abständen Kontrastbilder des Schwimmbeckens aufzeichnete, auf denen die Ratten durch ihren dunklen Pelz gut zu erkennen waren. Um eine zweifelsfreie Auswertung sicherzustellen, wurde der Pool mittels zweier, rechtwinkliger Achsen in vier gleich 3

Diese Schlussfolgerung musste später revidiert werden, da auch Tiere mit beschädigtem Hippokampus mit ausreichend Training und unter bestimmten Bedingungen ebenso zur versteckten Plattform finden (Redish 2001).

4

Heutzutage besteht der eigentliche Test der Lernhypothese im sogenannten probe trial: Man entfernt die Plattform und setzt die Tiere wie üblich in den Pool. Bei gesunden Tieren ist zu beobachten, dass sie sich statistisch signifikant in dem Bereich des Beckens aufhalten, wo sich die Plattform während der Trainingsphase befunden hat – ein Verhalten, das mit den heute verfügbaren Aufzeichnungs- und Analysemethoden einfach messbar ist.

I M L ABOR | 153

große, imaginäre Quadranten unterteilt (+). Die vier Endpunkte bezeichnet man als Nord (N), Süd (S), Ost (O) und West (W), wobei diese Richtungsangaben nicht mit den tatsächlichen Himmelsrichtungen übereinstimmen, sondern am Experimentator ausgerichtet sind, der sich per definitionem am Südpol befindet. Mithilfe dieser Unterteilung ließen sich die Startposition des Tieres und die Plattformposition, die in die Mitte eines der vier Quadranten gesetzt wird, exakt angeben. In den ersten Versuchen nahm Morris die Auswertung der aufgezeichneten Bilddaten noch per Hand vor, was sich aber aus naheliegenden Gründen als zu fehlerhaft erwies. Heute gibt es dafür spezielle Aufzeichnungs- und Analysesysteme: Die von der Videokamera registrierten Bilddaten werden an einen Computer weitergeleitet, wo mithilfe spezieller Software die Schwimmmuster aufgezeichnet und anschließend diverse Verhaltensparameter berechnet werden (vgl. Abbildung 6; Wolfer/Lipp 1992; Dalm et al. 2000). Diese ausgefeilten Daten-Werkzeuge machen den MWM erst zu einem psychometrischen Verfahren, einem Einschreibegerät im Latour’schen Sinn (vgl. Latour/Woolgar 1986).5 Sie automatisieren die Aufgabe, flüchtige Ereignisse in einem mehrschrittigen Translationsprozess in eine harte, wissenschaftlich verwertbare Form zu überführen. Man kann berechnen, wie viel Prozent der Zeit befindet sich das Tier im Zielquadranten, wie viel Prozent der Zeit in den übrigen Quadranten. Man kann aber die Trigonometrie im Prinzip beliebig weit treiben und zum Beispiel erkennen, wann das Tier in welche Richtung schwimmt. […] Ganz früher hat man Statistik noch selber mit dem Rechenschieber gerechnet und noch einigermaßen verstanden, was man macht. Heute drückt man nur noch auf einen Knopf und die Zahlen kommen heraus. (Interview Wolfer)

5

Es ist bezeichnend, dass das Ortungssystem (Kamera, Computer etc.) auf den meisten schematischen Darstellungen fehlt (vgl. Abbildung 6). Die Unsichtbarkeit bestätigt nicht nur Latours These, der darin ein wichtiges Merkmal von Inskriptionswerkzeugen sieht, sondern steht vor allem in einem deutlichen Gegensatz zu der Bedeutung, vor allem aber den komplexen Methoden der Datenerhebung und -auswertung (vgl. Dalm et al. 2000).

154 | ZWISCHEN GEIST UND GEHIRN

Pure Interpretation von Bewegung Seit Morris initialen Experimenten hat sich der MWM als das gängigste Paradigma etabliert, um hippokampusabhängige Formen von Gedächtnis und Lernen bei Ratten und Mäusen zu untersuchen (Crawley 2007; Brandeis et al. 1989). Der Test weist einige Vorteile gegenüber herkömmlichen Labyrinthtests auf (Morris 1984): Eine Orientierung mittels des bei Nagern hervorragend ausgebildeten Geruchssinns ist ausgeschlossen. Da Ratten (und besonders Mäuse) sich nicht gerne längere Zeit im Wasser aufhalten, nimmt man zudem an, dass sie stark motiviert sind, möglichst schnell die rettende Plattform zu erreichen. Die Prozedur ist außerdem sehr variabel und erlaubt die Durchführung verschiedener Testprotokolle, ein Thema, auf das ich später noch zurückkomme. Und im Unterschied zu herkömmlichen Labyrinthen führen unendlich viele Wege zum Ziel, wodurch die räumliche Orientierung stärker auf die Probe gestellt wird. Trotzdem brauchen die Tiere im Normalfall nur wenige Versuche, um sich zurechtzufinden, sodass die Experimente in kurzer Zeit durchgeführt werden können. Trotz seiner vielen Vorzüge gilt der MWM in der Praxis als außerordentlich trickreiches Verfahren, »man kann viele Fehler machen in der Analyse des Verhaltens« (Interview Kuhl). Auch erfahrene Tierexperimentatoren übertragen diese Aufgabe gerne an Spezialisten. Die grundsätzlichen Schwierigkeiten sowie die Vorschläge, die zu ihrer Lösung entwickelt wurden, erinnern an die Diskussion aus dem zweiten Kapitel. Sowohl beim Tier als auch beim Menschen gibt es diverse Faktoren, welche das Messergebnis diffus beeinflussen können, hier wie dort besteht die Problematik darin, Fakt und »Artefakt«6 eindeutig voneinander zu unterscheiden. In beiden Fällen versucht man, dieser Aufgabe hauptsächlich mit statistischen Hilfsmitteln Herr zu werden. Doch diese methodologischen Parallelen können nicht über die grundlegenden Differenzen zwischen Tier und Mensch hinwegtäuschen, die sich in der Praxis gravierend auswirken. Die Probleme der Gedächtnismessung spitzen sich im Tierversuch noch einmal deutlich zu – »es gibt Fallstricke hoch neun dabei« (Interview Wotjak; vgl. Wotjak 2004). Denn natürlich spielt es eine nicht unerhebliche Rolle, ob ein Gedächtnistest bei Mäusen oder Menschen durchgeführt wird. Beim Menschen sind die Testverfahren durch die Möglichkeit der sprachlichen Verständigung raffinierter und differenzierter konstruierbar und das Phänomen »Gedächtnis« dadurch schärfer konturierbar. Labortiere lassen sich hingegen weder mündlich instruieren, noch können sie »erzählen, wie es ihnen geht« (Interview Wotjak). Der Verhaltensbio6

Mit Artefakten sind in diesem Zusammenhang experimentelle Fehlbefunde und nicht Kunstprodukte gemeint.

I M L ABOR | 155

loge ist also auf die »pure Interpretation von Bewegung« (Interview Wotjak) zurückgeworfen, etwas anderes bleibt ihm aufgrund der fehlenden sprachlichen Kommunikation gar nicht übrig (vgl. Wotjak 2004). Dadurch eröffnet sich ein riesiger Spielraum möglicher Verhaltensinterpretationen. Das grundlegende Problem besteht darin – beim MWM wie bei allen anderen Verhaltensparadigmen auch – zu erkennen, ob ein Verhaltensdefizit auf ein Lerndefizit zurückzuführen ist oder ob es andere Ursachen dafür gibt. Carsten Wotjak veranschaulicht die Problematik anhand der folgenden fiktiven Episode: Es ist ein bisschen so, die Verhaltensbiologen setzen Frösche auf den Tisch, die Wissenschaftler klatschen in die Hände und der Frosch springt. Dann wird das Maßband angelegt, man misst und sagt: »In die Hände geklatscht, Frosch springt 36 cm.« Dann ist der französische Post-Doc an der Reihe, weil er Hunger hat, schneidet er die Hinterbeine ab. Man klatscht wieder in die Hände, das wird dreimal gemacht und dann steht im Kontrollbuch: »Hinterbeine amputiert, Frosch taub.« (Interview Wotjak)

Idealerweise wäre ein Paradigma so konstruiert, dass das Lernverhalten für den Wissenschaftler eindeutig als solches zu erkennen ist. Das lässt sich jedoch in der Praxis unmöglich bewerkstelligen. Vor allem seit die Maus die Ratte als das beliebteste neurowissenschaftliche Versuchstier verdrängt hat, haben sich die Probleme der Verhaltensanalyse drastisch verschärft. Exemplare der Gattung mus musculus reagieren sensibel auf ihre Umwelt, viel sensibler noch als Ratten. Und anders als Ratten sind Mäuse keine guten Schwimmer. Das heißt, der Aufenthalt im Wasser stellt für sie eine extreme Stresssituation dar, sodass sie zu idiosynkratischen Verhaltensweisen neigen, sobald sie in ein Wasserbecken gesetzt werden (Wolfer et al. 1998; Crawley 2007). Das Problem der Verhaltensinterpretation spitzt sich dadurch zu, dass eine statistische Normierung der Testverfahren im tierexperimentellen Bereich nicht möglich ist. Ich habe im zweiten Kapitel gezeigt, dass Messverfahren beim Menschen auf einem zweifachen Translationsprozess beruhen, mit dem Ziel, nicht nur das Gedächtnis, sondern auch die Testverfahren selber »zu fixieren, sie dauerhaft und damit in Raum und Zeit verschiebbar und verfügbar zu machen« (Rheinberger 2001: 114). Voraussetzung dafür ist die aufwendige Normierung eines Testverfahrens und die Bestimmung der Gütekriterien mittels statistischer Verfahren, wodurch die Inskriptionswerkzeuge selber in immutable mobiles transformiert werden, was wesentlich zur methodischen Stabilität der Gedächtnisforschung beiträgt. Im Bereich der Grundlagenforschung hingegen kommt es durch die »experimentellen Spielzüge« (Rheinberger), die direkt am biologi-

156 | ZWISCHEN GEIST UND GEHIRN

schen Material ausgeführt werden, zu so unkontrollierbaren Schwankungen auf der Verhaltensebene, dass jede Normvorstellung zum Scheitern verurteilt ist: Grenzwerte in dem Sinn, wie man das beim Menschen gegenüber einer Normpopulation definieren kann, gibt es eigentlich nicht und bei Mäusen schon gar nicht. Denn je nachdem, welchen Mausstamm sie in diesen Test setzen, ist die Leistung völlig unterschiedlich. Das heißt, wenn man ein Experiment durchführt, braucht man immer eine Kontrollgruppe. (Interview Wolfer)

Wie man aus vielen Studien weiß, unterscheiden sich einzelne Mausstämme hinsichtlich ihrer Stressempfindlichkeit, hinsichtlich ihrer Schwimmfreude oder ihrer Ausdauer (Upchurch/Wehner 1988). So gibt es Mäuse, die sich einfach treiben lassen, sogenannte non-performers. Andere wiederum neigen zu einem Verhalten, das »Thigmotaxis« genannt wird: Instinktiv bewegen sie sich an den Wänden des Schwimmbeckens entlang und nehmen sich dadurch jede Chance, die Plattform zu finden. Wieder andere haben die Angewohnheit, sofort zurück ins Wasser zu springen, sobald sie die Plattform erreicht haben. Und offenbar gibt es sogar Mäuse, die anders als die meisten ihrer Artgenossen besonders gerne schwimmen und deshalb weniger motiviert sind, die Plattform zu erreichen (Crawley 2007). David Wolfer und Hans-Peter Lipp von der Universität Zürich, zwei international anerkannte Experten für den Schwimmnavigationstest, haben solche nicht-kognitiven Schwimmstrategien als ein »intrinsic methodological problem« (Wolfer et al. 1998: 120) bezeichnet, da sie experimentelle Befunde gravierend verfälschen können. Verstärkend kommen die unnatürlichen Haltungsbedingungen sowie experimentelle Läsionen hinzu, welche sich massiv auf die psychische und physiologische Konstitution der Labortiere auswirken können (vgl. Cressey 2010). All das führt die Idee einer Verhaltensnorm ad absurdum, was aber eine noch größere »confusion between statistical issues and substantive psychological issues« (Danziger 1990: 154) zur Folge hat. Da ein allgemeiner Bewertungsrahmen fehlt und große interindividuelle Varianzen im Verhalten auftreten, behelfen sich Experimentatoren mit dem »average animal« (Danziger 1990: 153). Sie stützen ihre experimentellen Schlussfolgerungen ausschließlich auf Gruppendaten ab und führen jeden Versuch mit einer Kontrollgruppe durch, um die Unterschiede auf ihre Signifikanz zu bewerten (vgl. Maei et al. 2009). Diese Praxis, in der individuelle Differenzen herausgemittelt werden, wurde bereits in den 1930er Jahren

I M L ABOR | 157

kritisch kommentiert (Dunlap 1935), ist aber mehr denn je etabliert.7 Statistische Methoden sollen auch dabei helfen, Artefakte zu erkennen und ›herauszufiltern‹: »Noncognitive behavioral variability might be thought of as ›noise‹ from which the signal memory must be extracted by filtering through factor analysis.«8 (Wolfer et al. 1998: 122) Diese statistischen Verfahren prozessieren jedoch nur die experimentellen Daten, mit den Testverfahren selber beschäftigen sie sich nicht. Verhaltenstests wie der MWM verfügen deshalb keineswegs über den blackboxartigen Charakter, über die Fixiertheit und Stabilität, die sowohl Latour als auch Rheinberger von technischen Dingen erwarten. Latour zufolge ist Blackboxierung the way scientific and technical work is made invisible by its own success. When a machine runs efficiently, when a matter of fact is settled, one need focus only on its inputs and outputs and not on its internal complexity. Thus, paradoxically, the more science and technology succeed, the more opaque and obscure they become. (Latour 1999c: 304)

Während der Wechsler Gedächtnistest, das Standardverfahren im Humanbereich, in seiner 75-jährigen Geschichte insgesamt bloß viermal revidiert wurde (davon eine deutsche Adaption), verfügt der MWM über eine wesentlich fluidere Gestalt, wie ich im nächsten Abschnitt zeige. Das heißt, Verhaltensparadigmen erweisen sich nicht im gleichen Ausmaß als stabile gray boxes, wie das bei den etablierten Gedächtnistests im Humanbereich der Fall ist.9 Damit deutet sich eine grundlegende Spannung zwischen der psychologischen und biologischen Analyseebene an: Je tiefer Gedächtnisforscher in den physiologischen Apparat des Ge7

Nach Logan (1999; 2001) beginnt diese Praxis um 1915, als in der experimentellen Psychologie, die damals hauptsächlich Albino-Ratten als Versuchstiere einsetzte, ein Sinneswandel einsetzte: »[A]lbino rats became a general standard, no longer just objects of study, that deemphasized biological diversity, and viewed test animals as ›instruments‹ for uniformity in physiology, neurology and psychology.« (Logan 2001: 288)

8

Um die Schwierigkeiten der Verhaltensinterpretation abzumildern, haben Wolfer/Lipp bereits zu Beginn der 1990er Jahre eine Analysesoftware entwickelt, die weitere Verhaltensparameter

wie

»path

tortuosity« oder

»path

preferences« bestimmt

(Wolfer/Lipp 1992). 9

Es gibt natürlich auch im Humanbereich experimentellere Testverfahren, zum Beispiel virtuelle oder reelle Labyrinthe, mit denen die räumliche Gedächtnisleistung erfasst werden soll (vgl. Goodrich-Hunsaker/Hopkins 2010). Im Vergleich zu den normierten Standardverfahren spielen sie jedoch eine untergeordnete Rolle.

158 | ZWISCHEN GEIST UND GEHIRN

dächtnisses einzudringen versuchen, was ja das Ziel solcher Experimente ist, desto mehr verschwimmen seine psychologischen Oberflächenkonturen. Fluide Materialitäten Mit der Metapher der fluids haben sich Annemarie Mol und John Law vom starren Netzwerkkonzept der Akteur-Netzwerk-Theorie gelöst. Die Netzwerkmetapher der ANT basiert auf der Idee, dass soziomaterielle Konfigurationen tendenziell stabil sind, dass sie über ein Zentrum verfügen (siehe erstes Kapitel) – in empirischen Arbeiten haben John Law, Annemarie Mol und andere die Grenzen dieser Auffassung aufgezeigt (Mol/Law 1994; de Laet/Mol 2000). Sie teilen Latours relationalen Ansatz und viele seiner ontologischen Schlussfolgerungen, kritisieren jedoch die Netzwerkmetapher als zu statisch und robust. Sie verweisen darauf, dass viele soziotechnischen Konfigurationen keineswegs stabil sind, sondern flexibel und variabel. Die in diesem Zusammenhang inzwischen klassische Fallstudie stammt nicht aus der Wissenschaft, sondern befasst sich mit einer Pumpe, welche die Dörfer Simbabwes seit vielen Jahren mit sauberem Wasser versorgt: The Zimbabwe Bush Pump is solid and mechanical and yet, or so we will argue, its boundaries are vague and moving, rather than being clear or fixed. […] Instead, there are many grades and shades of ›working‹; there are adaptations and variants. Thus the fluidity of the pump’s working is not a matter of interpretation. It is built into the technology itself. (de Laet/Mol 2000: 225)

Die Pumpe wird in Harare hergestellt und als Bausatz an die weit verstreuten Dörfer des Landes geliefert. Sie wurde mit Absicht einfach konstruiert, damit sie von den Dorfbewohnern selber installiert, in Betrieb genommen und möglichst auch gepflegt und instand gehalten werden kann. Originale Ersatzteile sind in abgelegenen Orten schwer zu bekommen – Mol und de Laet haben beschrieben, wie Dorfbewohner im Falle eines Defekts mit handwerklichem Geschick und Kreativität Bauteile ersetzen, etwa undichte Dichtungen aus Leder durch Gummireifen. Die Mechanik der Pumpe und ihre Gestalt haben sich in der Praxis folglich als wandelbar erwiesen: Sie ist ein mutable mobile mit wechselnden Identitäten, eingebettet in viele dörfliche Strukturen mit ihren spezifischen Ritualen, am Laufen gehalten von vielen verteilten Akteuren, die nicht einer zentralen Designidee unterworfen sind. Aber gerade dieser Variantenreichtum macht sie in Simbabwe mit seiner ländlichen Struktur so erfolgreich, so die These der beiden Autorinnen: »So why is this? The answer is: because it changes shape. Of this

I M L ABOR | 159

pump and everything that allows it to work, nothing in particular necessarily holds in place.« (Law/Mol 2001: 613) Dies lässt sich auch vom MWM sagen, der ebenfalls über eine äußerst variable Gestalt verfügt. Ein Verhaltensparadigma wie der MWM muss ja so konstruiert sein, dass es dem natürlichen Lernverhalten der Versuchstiere entspricht, dieses Verhalten selektiv herausgreift und mittels geeigneter Aufzeichnungssysteme so abbildet, dass möglichst präzise Daten resultieren. Im Gegensatz zu einem Gedächtnistest wie dem Wechsler, der kaum aufwendiges Equipment voraussetzt,10 lässt sich das nur im Rahmen eines komplexen materiellen Arrangements erreichen. Im Falle des MWM besteht es aus Pool, Plattform, Computer, Software, Videokamera, Wasserheizer, Wasserpumpe, visuellen Markern, Trübungsmittel etc. Als Richard Morris 1984 sein Paradigma in einem Fachartikel erstmals ausführlich vorstellte (Morris 1984), lag der Schwerpunkt seiner Darstellung zwar auf dem fertigen Endprodukt, aber zwischen den Zeilen kommt die alles andere als triviale Aufgabe zum Ausdruck, vor die ihn die Entwicklung eines funktionalen Prototypen gestellt hatte. Er war auf viele Hindernisse gestoßen, die er durch Bricolage zu lösen versucht hatte: Wie groß sollen der Pool und die Plattform sein, damit die Aufgabe für die Tiere nicht zu schwer oder zu leicht gerät? Welches Material macht die Plattform unsichtbar, das Becken ebenmäßig? Welche Wassertemperatur ist ideal, um die Versuchstiere anzuspornen und nicht zu demotivieren? Wie hell sollte das Licht sein, sodass keine Spiegelungen auftreten und sich die Ratte gut sichtbar von der Wasseroberfläche abhebt? Welches Mittel ist am besten dazu geeignet, das Wasser zu trüben, verändert dabei aber nicht die Viskosität des Wassers oder verklebt den Pelz der Tiere? Wie muss das Videosystem angebracht werden, damit sich anhand der aufgenommenen Bilddaten die Position des Tieres eindeutig bestimmen lässt? Es gab damals keine vergleichbare Apparatur, an der Morris sich hätte orientieren können. So sah er sich gezwungen, sein Arrangement immer wieder neu zu konfigurieren, mit den Parametern und Materialien herumzuspielen, seine Vorstellungen und Ideen im Laufe des Prozesses anzupassen, bis er eine in seinem Sinne funktionsfähige Apparatur beisammenhatte. Die Erfindung machte sich aber bald von ihrem Erfinder unabhängig, das heißt, sie wurde in andere Forschungslabore importiert, dort adaptiert und weiterentwickelt. Einige Beispiele: Um Zufallstreffer zu minimieren, die bei bestimmten Schwimmstrategien häufiger auftreten können, entwickelte ein Team im Jahr 1985 eine sogenannte »Atlantis-Plattform«, die nicht von ungefähr nach 10 Alles, was man für die Testdurchführung braucht – Manual, Protokollbögen, Stimulushefte und Karten –, findet in einem kleinen Testkoffer Platz.

160 | ZWISCHEN GEIST UND GEHIRN

der versunkenen Stadt benannt ist (Buresová et al. 1985). Die Plattform befindet sich auf Grund und wird erst dann auf eine gewünschte Höhe unterhalb der Wasseroberfläche hochgefahren, wenn sich die Maus eine gewisse Zeit im Zielquadranten aufgehalten hat. 1994 wurde eine auf elektromagnetischen Prinzipien basierende Adaption dieses Plattformtyps vorgestellt, die über eine entsprechende Software vollautomatisch steuerbar ist (Spooner et al. 1994). Ein fundamentaler Umbruch erfolgte ab Ende der 80er Jahre, »als man irgendwann von Ratten auf Mäuse umschwenkte, weil diese genetisch besser manipulierbar sind. [Da] hat man das Wasserlabyrinth einfach auf Mausgröße geschrumpft« (Interview Würbel). Mäuse sind aber keine kleinen Ratten. Die beiden Spezies besetzen unterschiedliche ökologische Nischen und unterscheiden sich demzufolge in ihren Verhaltensweisen teilweise fundamental (vgl. Wotjak 2004). Dies zog die oben erwähnten Interpretationsprobleme nach sich, was nicht nur die Verkleinerung des Beckens, sondern auch die Entwicklung ausgefeilterer Software und Ortungssysteme erforderlich machte (Wolfer/Lipp 1992; Wolfer et al. 1998). Relevanter noch als die technische Evolution des Paradigmas sind die im Forschungsalltag zu beobachtenden Abweichungen von Labor zu Labor. Wer die Methodenteile von Fachartikeln studiert, dem fällt auf, dass die Angaben zum Arrangement meist nur rudimentär ausfallen: Sie beschränken sich in der Regel auf die Größe des verwendeten Pools, die Temperatur des Wassers, das Ortungssystem und manchmal das Trübungsmittel. Relevante Angaben etwa zur Größe der Plattform, der Analysesoftware oder den verwendeten Poolmaterialien sucht man häufig vergeblich.11 Dies deckt sich mit der Beobachtung, dass »even ›obvious‹ information, is often not included in many of the primary publications on the behavioral phenotyping of mouse mutants« (Staay/Steckler 2002: 9). Wie stark die einzelnen Apparaturen voneinander abweichen, lässt sich auf Basis der Literatur schwerlich klären – aber es gibt Hinweise auf substanzielle Differenzen von Labor zu Labor. Wahlsten resümiert, dass swimming pools range from 35 to 200 cm in diameter, are white or black, contain clear water or water made opaque with one of many substances (several of which cause the fur to become wet quickly), use room temperature or heated water, and are placed in settings with cues of various sizes and distances from the tank in different labs. (Wahlsten 2001: 698) 11 Das verwendete Material ist nicht irrelevant, denn »[c]ommercially available swimming pools and troughs are often used as MWM tanks, but caution should be exercised with these as they often have prominent welded seams, corrugated surfaces or other features that provide proximal cues« (Vorhees/Williams 2006: 852).

I M L ABOR | 161

Es gibt auf Laborequipment spezialisierte Firmen, die komplett ausgestattete Schwimmnavigationstests in ihrem Angebot führen. Ihre Produkte weichen aber teilweise deutlich voneinander ab und unterscheiden sich nicht nur in der Farbe und den verwendeten Materialien, sondern auch in der Größe und der Ausstattung.12 Trotz der kommerziell verfügbaren Apparaturen scheint es eher üblich zu sein, den »Water Maze« – so wie Morris seinerzeit – in Eigenregie zu bauen. Denn »high quality commercial apparatus is often too expensive to be widely adopted as a standard in many labs. The cost factor itself inspires a variety of local shortcuts« (Wahlsten 2001: 699). Darauf deuten auch Bemerkungen von Wissenschaftlern hin, die in Fachforen gemacht wurden: »We built our mazes. So for us to purchase we would not pay more than 500 dollars. […] We used MatLab and wrote our own software and used webcams for the video.«13 Der MWM gehört heute zu den am häufigsten eingesetzten Testverfahren. Meine These ist: Sein Siegeszug beruht nicht zuletzt auf seiner fluiden Verfasstheit, welche die Adaption an laborspezifische Bedingungen ermöglicht hat, ein Erfolgsgeheimnis, das er mit der Buschpumpe teilt. In beiden Fällen handelt es sich um technische Systeme, die sich aus mehreren Einzelteilen zusammensetzen. Neben den teuren kommerziellen Versionen, die sich nur die wenigsten Arbeitsgruppen leisten können, kann beim MWM jedes dieser Einzelteile mit relativ geringen Kosten und wenig Aufwand in Eigenregie besorgt, hergestellt oder verändert werden: Die Bauteile für den Pool etc. findet man im nächsten Baumarkt, Software ist frei erhältlich oder lässt sich programmieren und ein Aufnahmegerät ist in den meisten Laboratorien sowieso bereits vorhanden. In der Praxis ergibt sich so eine auffällig variable Gesamtkonstruktion, die sich gerade 12 Wichtige Anbieter sind zum Beispiel Harvard Apparatus, Panlab oder San Diego Instruments. Einige dieser Firmen bieten unterschiedliche Varianten an – Otto Environmental etwa eine Deluxe-Version ab 3975 Dollar und eine Economy-Version für das schmalere Budget (895 Dollar; Stand 2010). Oft bieten diese oder andere spezialisierte Firmen (Columbus Instruments, HVS Image, CPL Systems) auch Equipment zur Datenanalyse an, sodass Wissenschaftler darüber hinaus aus einer großen Bandbreite verschiedener Ortungs-, Aufnahme- sowie Analysegeräten wählen können (Softwareprogramme, Videoaufnahmesysteme etc.). Die Pionierin in diesem Bereich ist HVS Image, die in den frühen 80er Jahren speziell auf Morris’ Bedürfnisse angepasst das erste Ortungssystem für den MWM entwickelte (vgl. Morris 1984). Neben den kommerziellen Softwarelösungen gibt es aber auch einzelne Arbeitsgruppen, die spezifisch auf ihre Bedürfnisse angepasste Softwarepakete entwickelt und anschließend zur freien Verfügung gestellt haben (vgl. Wolfer/Lipp 1992). 13 Vgl. http://[email protected] (Stand: 1.7.2009).

162 | ZWISCHEN GEIST UND GEHIRN

dadurch an lokale Anforderungen wie etwa knappe Raumverhältnisse, schmalere Budgets oder spezielle raumtechnische Voraussetzungen anpassen lässt. Die Fluidität des Wasserlabyrinths vereinfacht aber nicht nur die Reproduktion der Technologie. Sie ist auch aus einem anderen Grund wichtig: Denn der MWM hat sich in der Praxis als ein so wertvolles experimentelles Werkzeug erwiesen, nicht obwohl, sondern weil er als materielle Konfiguration so variabel ist. Es sei nicht entscheidend, meint dazu der Zoologe Hanno Würbel, »wie der Bottich genau aussieht oder wo genau die Plattform steht. Im Gegenteil, es ist wichtig, dass solche Parameter variiert werden, denn nur so lässt sich das gesuchte Phänomen herausschälen« (Interview Würbel). Der Verhaltensbiologe Benjamin Yee hat diesen Punkt im Interview ausgeführt: We put the animal in the water maze, at some different starting points, not always from the same, because it needs to learn the whole configuration. And this is essentially the basic principle, we are playing with the parameters. For example, we can manipulate the difficulty of the test, e.g., the bigger the water pool, the more difficult to learn, without changing the psychological quality of the test. Memory is multifaceted and one of our major objectives is to identify how different brain treatments may selectively affect specific types of memory functions. (Interview Yee)

Die von Morris entwickelte Standardprozedur, bei der eine trainierte Ratte nach einer verborgenen Plattform sucht, ist nur eines von vielen möglichen Testprotokollen.14 Morris selber hat mehrfach darauf hingewiesen, dass es sich beim Wasserlabyrinth nicht eigentlich um einen wohldefinierten Test handelt, sondern »[s]trictly speaking, the watermaze itself is no more than a piece of apparatus in which a variety of different tasks can be trained« (Morris 2008). Es gibt eine ganze Reihe unterschiedlicher Testvarianten, und »je nachdem, wie man das Protokoll aufgleist, misst das ganz unterschiedliche Dinge« (Interview Wolfer). Die Plattform kann zum Beispiel zwischen den einzelnen Versuchen nach dem Zufallsprinzip verschoben (revearsal learning) oder ganz entfernt (probe trial) werden, um zu beobachten, ob die Ratte wie zu erwarten an der letzten Position zu suchen beginnt. Eine andere Möglichkeit ist, die Plattform jeden Versuchstag an eine neue Position zu setzen (delayed matching to place). Es gibt Varianten, in denen mit einer schwimmenden Plattform gearbeitet wird, in anderen sind zwei Plattformen installiert, eine sichtbare über der Wasseroberfläche und eine unsichtbare unterhalb. Manchmal wird ein größerer oder kleinerer Pool einge14 Vgl. Vorhees/Williams 2006 für eine Übersicht über die unterschiedlichen Testprotokolle.

I M L ABOR | 163

setzt oder die visuellen Marker werden durch Vorhänge verhüllt, um zu beobachten, wie die Tiere reagieren. Die experimentellen Spielmöglichkeiten sind fast unbegrenzt. Die Variabilität des Testverfahrens macht es möglich, unterschiedliche theoretische Hypothesen gezielt zu testen und Kontrollexperimente unter variierten Bedingungen durchzuführen. Angesichts der weiter oben erwähnten Interpretationsspielräume bei der Verhaltensanalyse ist das ganz zentral. Die funktionellen Auswirkungen der Läsionen sind unklar, Mäuse zeigen je nach genetischem Hintergrund unerwartete Verhaltensmuster, ein allgemeiner normativer Maßstab zur Beurteilung der individuellen Leistung fehlt – aus all diesen Gründen stellt die kontrollierte Variation der Testparameter eine unabdingbare Methode dar, um die Validität einer Interpretation auf die Probe stellen und alternative Hypothesen ausschließen zu können. Der Vergleich mit dem Humanbereich ist aufschlussreich: Versucht man dort für gewöhnlich die psychologischen Rahmenbedingungen möglichst festzuzurren, um sich an die biologischen Grundlagen heranzutasten (siehe zweites Kapitel), so ist es im Tierversuch gerade umgekehrt: Die biologischen Rahmenbedingungen sind weitgehend standardisiert, was zu einem Herumtappen und Abtasten auf der Verhaltensebene führt. »There is not a single answer as to how to reveal such alternative [behavioral, C.K.] strategies as they may depend on the particular genetic or pharmacological manipulation the experimental subjects are exposed to.« (Gerlai 2001: 275) In Anbetracht dessen ist die Fluidität der Messapparatur paradoxerweise eine wichtige Voraussetzung dafür, den epistemischen Gegenstand »Gedächtnis« ausreichend stabilisieren zu können.

S TANDARDS , ODER: W IE KOMMT DAS S CHIFF IN DIE F LASCHE ? Die Lektion aus dem letzten Abschnitt lautet, dass es sich sowohl bei der Buschpumpe als auch dem MWM um Technologien handelt, die sich in ihren jeweiligen Anwendungskontexten kontinuierlich verändern und deshalb über eine fluide Identität verfügen. In beiden Fällen ist es gerade die Wandelbarkeit, die in einem heterogenen Umfeld eine gewisse Stabilität garantiert, wie es ein allzu starres Netzwerk nicht vermocht hätte. Doch gibt es zwischen einer wissenschaftlichen Messapparatur wie dem MWM und einer reinen Arbeitsmaschine wie der Buschpumpe nicht einen wesentlichen Unterschied? Von der Buschpumpe wird verlangt, dass sie funktioniert – wie sie das tut, ist in der Tat nicht entscheidend. Es scheint keine allzu große Rolle zu spielen, ob das Wasser dank Dichtungen

164 | ZWISCHEN GEIST UND GEHIRN

aus Gummireifen oder Leder an die Oberfläche befördert wird. Das lässt sich von wissenschaftlichen Messapparaturen nicht so einfach sagen. Denn die wissenschaftliche Praxis ist – zumindest nach Meinung vieler Wissenschaftler – strengen Normen unterworfen. Wissenschaftliche Messapparaturen sollen nicht nur einfach ihren Dienst tun, sie sollen das darüber hinaus auf eine objektive Art und Weise tun. Das Objektivitätsideal, das als »epistemic accountability to the real« (Kukla 2008: 285) definiert werden kann, verlangt, dass Apparaturen nicht nur im technischen Sinne funktionieren, sondern dass sie das so tun, dass Fakten sichtbar werden und ein unverzerrtes Bild der Realität entsteht.15 Da man experimentellen Daten diese Eigenschaften nicht ansieht, soll diese epistemische Lücke des wissenschaftlichen Erkenntnisprozesses durch methodologische Prinzipien geschlossen werden, die Karl Popper so zusammenfasst: »[D]urch wiederholte Beobachtungen oder Versuche […] [ist aufzuzeigen], dass es sich nicht nur um ein einmaliges ›zufälliges Zusammentreffen‹ handelt, sondern um Zusammenhänge, die durch ihr gesetzmäßiges Eintreffen, durch ihre Reproduzierbarkeit grundsätzlich intersubjektiv nachprüfbar sind.«16 (Popper 1934: 19) Fakten lassen sich demnach von experimentellen Artefakten dadurch unterscheiden, dass sie nachprüfbar sind. Nachprüfbarkeit wiederum scheint vorauszusetzen, dass das experimentelle Handwerkszeug so weit harmonisiert und homogenisiert ist, dass experimentelle Befunde, die an unterschiedlichen Orten und zu unterschiedlichen Zeiten gewonnen wurden, miteinander vergleichbar sind.17 Standards – von Bowker/Star definiert als »any set of agreed upon rule for the production of (textual or material) objects« (Bowker/Star 2005: 13) – gelten deshalb in methodologischer Hinsicht für viele Forscher als eine der grundlegenden

15 Wissenschaftshistoriker haben auf die verzweigten historischen Wurzeln des Objektivitätsideals verwiesen, vgl. etwa Daston 1992, Daston/Galison 1992. 16 In der Praxis wird kaum ein Experiment von unterschiedlichen Arbeitsgruppen eins zu eins nachgeprüft, was viel zu zeit- und kostenintensiv wäre bei zu geringem Prestigegewinn. Das Prinzip fordert nicht die Überprüfung, sondern Überprüfbarkeit: Das heißt, dass Experimente so durchgeführt und dokumentiert sind, dass sie im Prinzip in einem anderen Labor wiederholt werden können. 17 Die Urspünge dieser Grundsätze liegen in der frühen Moderne, als Naturphilosophen wie Francis Bacon (1561–1626) und Robert Boyle (1627–1692) die experimentelle Methode begründeten (Hacking 1996a). Vgl. dazu auch die bekannte historische Studie von Steven Shapin und Simon Schaffer (1985), in der die Kontroverse zwischen Boyle und Hobbes um die experimentelle Methode rekonstruiert wurde.

I M L ABOR | 165

Säulen moderner Wissenschaft. Hanno Würbel, Ethologe und kritischer Beobachter der Tierforschung, meint dazu:18 Ein wichtiger Grund, wieso die Standardisierung im letzten Jahrhundert aufkam, hatte tatsächlich mit wissenschaftlicher Qualitätssicherung zu tun. Es ging darum, gewisse Standards zu setzen, damit Versuchsergebnisse überhaupt interpretierbar und reproduzierbar wurden. Heute hat man es aber fast schon mit einem Standardisierungswahn zu tun, der über das Ziel hinausschießt. Alles wird standardisiert, von den Tieren über die Zucht- und Haltungsbedingungen bis zur Tierpflege. (Interview Würbel)

Standardisierungsprozesse wurden von verschiedenen empirischen Wissenschaftsforschern untersucht (vgl. Rader 2004; Collins 1975; Timmermans/Berg 1997, 2003). Als einer der ersten ist Harry Collins (1975) der Frage nachgegangen, welche Rolle soziale Faktoren in der experimentellen Praxis spielen.19 Er nahm sich dafür die Gravitationswellenphysik vor, ein in den 1970er Jahren ebenso junges wie umstrittenes Feld. Im Zentrum der wissenschaftlichen Debatten stand damals die Behauptung eines Physikers, er hätte Gravitationswellen mit einer speziell dafür entwickelten Apparatur messen können, was viele seiner Fachkollegen aus technischen Gründen für unmöglich hielten. Andere wollten den Befund zumindest überprüfen, indem sie die entsprechende Messapparatur nachzubauen versuchten. Auf der Basis von Interviews hat Collins die Aushandlungsprozesse rekonstruiert, die um die Gültigkeit der Experimente entbrannte, und gezeigt, dass ohne eine bereits etablierte Forschungskultur die exakte Replikation eines Experiments immer eine streitbare Sache bleibt. Denn wie weiß man, ob man eine exakte Kopie einer Apparatur vor sich hat? Wie ein Gravitati18 Neben der Reproduzierbarkeit sprechen im Bereich der tierexperimentellen Forschung ökonomische und ethische Gründe für Standards: Je mehr man standardisiert, umso weniger Tiere braucht man pro Versuch, da die Effekte signifikanter ausfallen. Dadurch können Tiere und Kosten gespart werden (Würbel/Garner 2007). 19 Der Text ist der erste in einer ganzen Reihe von Arbeiten, in denen Collins sich aus soziologischer Perspektive mit dem Phänomen der Gravitationswellenphysik und der Replikation von Experimenten auseinandergesetzt hat (Collins 1975, 1981, 1992). Collins führte viele Interviews mit beteiligten Forschern und ging dabei von einem relativistischen Standpunkt aus, wie er schreibt, da »theories, histories, and epistemologies are often subject in some degree to what one might call the ethnocentrism of now« (Collins 1975: 205). Diesem »Ethnozentrismus« wollte er durch eine unvoreingenommene soziologische Untersuchung entgehen und so die Konstruktion und Dekonstruktion eines wissenschaftlichen Phänomens nachzeichnen.

166 | ZWISCHEN GEIST UND GEHIRN

onswellen-Messgerät zu funktionieren hat – und damit letztlich, was Gravitationswellen sind –, war in diesem jungen Forschungsgebiet noch völlig offen und Gegenstand laufender Aushandlungen. Collins zentrale Pointe lautet, dass wissenschaftliche Fakten sozial konstruiert sind. Standardisierung, »the process of rendering things uniform« (Timmermans/Berg 2003: 24), beinhaltet »negotiations about the meaning of a competent experiment in the field« (Collins 1975: 216). Für Collins legt demzufolge erst ein sozialer Rahmen die relevanten Kriterien fest, an denen die Validität eines Experiments und die Kompetenz eines Wissenschaftlers zu messen sind – Kriterien, die allerdings oft nicht explizit zu benennen sind, sondern auch auf »stummem Wissen« beruhen (Polanyi/Brühmann 1985): »As far as can be seen there is nothing outside of ›courses of linguistic, conceptual and social behavior‹ which can affect the outcome of these arguments, and yet this outcome decides the immediate fate of high fluxes of gravity waves.« (Collins 1975: 220) Sind solche Kontroversen aber erst entschieden, wie es in der »normalen Wissenschaft« (Kuhn 1976) der Fall ist, sind die Kriterien also festgelegt, so verrät nichts mehr ihren einstmals kontroversen Status. Damit will Collins sich scharf von Popper und anderen Erkenntnistheoretikern abgrenzen, die in der Realität nicht das Endprodukt eines komplizierten Verhandlungsprozesses sehen (quasi eine notwendige Illusion, vgl. Latour/Woolgar 1986: 177), sondern den Ausgangspunkt objektiver Erkenntnis. Collins zieht den Vergleich mit einem Flaschenschiff: To speak figuratively, it is as though epistemologists are concerned with the characteristics of ships (knowledge) in bottles (validity) while living in a world where all ships are already in bottles with the glue dried and the strings cut. A ship within a bottle is a natural object in this world, and because there is no way to reverse the process, it is not easy to accept that the ship was ever just a bundle of sticks. Most perceptions of the grounds of knowledge are structured in ways derived from this perspective. (Collins 1975: 205)

Obwohl sie diametral entgegengesetzte Positionen vertreten – für Collins sind wissenschaftliche Fakten soziale Konstrukte, für Popper verweisen sie auf eine vom Menschen unabhängige Realität –, treffen sich die beiden Autoren in einem wichtigen Punkt: Für beide ist Standardisierung das sozial bedingte Nadelöhr der Faktenproduktion. Sie stimmen darin überein, dass Standards diversifizierte Produktionsprozesse harmonisieren, Experimente reproduzierbar machen und experimentelle Befunde stabilisieren. Beide Autoren sehen damit den Forschungsprozess wesentlich unter der Kontrolle menschlicher Akteure. Im nächsten Abschnitt geht es mir darum, am Beispiel von Verhaltensexperimenten die maßgebliche Rolle der Dinge und ihre Wirkungsmacht ins rechte Licht zu rücken.

I M L ABOR | 167

Gen-Umwelt-Interaktionen: Context matters Noch Anfang des 20. Jahrhunderts war es gang und gäbe, verwilderte Hunde als Versuchstiere zu verwenden (Pavlov) oder Laborratten für die Kinder zum Spielen nach Hause zu nehmen, wie es von Donald Hebb überliefert ist (Hebb 1949). Beides wäre heute undenkbar. Der Ruf nach Standardisierung ertönt in Wissenschaftsbereichen wie der tierexperimentellen Gedächtnisforschung, wo die Grenze zwischen Fakt und Artefakt unklar ist, besonders laut. Um die »Fallstricke hoch neun« zu umgehen, die bei Verhaltenstests und im Speziellen ihrer Auswertung drohen, »versucht [man] möglichst viel zu standardisieren, viele dieser [Stör-]Faktoren auszuschließen« (Interview Wotjak). Fast alles ist Gegenstand von Standardisierungsbemühungen: Von den experimentellen Testprotokollen der Paradigmen, dem verwendeten Equipment, die von »mehr oder weniger standardisiert« bis zu »absolut standardisiert« (Interview Fischer) sind; von den Labortieren selber (Geschlecht, Alter, genetischer Hintergrund) bis zu den Haltungsbedingungen dieser Tiere, »standardisiert über die Institute hinweg« (Interview Fischer); von den Messapparaturen, mit welchen die Daten erhoben werden, bis hin zu den statistischen Analyseinstrumenten, wo auf Knopfdruck »die Zahlen herauskommen« (Interview Wolfer). Die meisten Forscher sind davon überzeugt, dass man »gewisse Standards haben [muss], damit man überhaupt etwas vergleichen kann. Je einfacher die sind oder je kleiner das System, das man anschaut, desto [besser]. Wenn man es […] ganz isolieren kann, dann ist es am besten« (Interview Gräff). Auf dem Spiel steht für viele nichts weniger als der Objektivitätsanspruch der Wissenschaft, verkörpert durch die experimentelle Methode. Das ausgeprägte Standardisierungsethos im Bereich der Gedächtnisforschung und anderswo steht in einem scharfen Kontrast zur Fluidität einer Apparatur wie des MWM. In der Praxis scheinen Standards offenbar in vielen Fällen weniger konsequent umgesetzt zu sein als von vielen erwartet oder erwünscht. Zu dieser Schlussfolgerung kommen auch Wissenschaftler, die sich systematisch mit der Standardisierung von Gedächtnistests auseinandergesetzt haben (vgl. Wahlsten 2001; Wahlsten et al. 2003b).20 David Wolfer bestätigt das im Hinblick auf den MWM:

20 So heißt es bei Wahlsten: »Numerous tests of behaviors in many domains are readily available for work with mice, but a wide variety of labspecific implementations prevails for most tests in common use.« (Wahlsten 2001: 698) Wahlsten macht konkrete Vorschläge, wie ein Standardisierungsverfahren umzusetzen wäre. Es wird deutlich,

168 | ZWISCHEN GEIST UND GEHIRN

Es wird immer wieder diskutiert, man sollte Standards haben, damit man auch die Experimente, die in verschiedenen Laboratorien gemacht wurden vergleichen kann, und damit man die Resultate im Prinzip in Datenbanken tun könnte, die für alle zugänglich sind. Versuche zu standardisieren gibt es, nur sind die bis jetzt nie erfolgreich gewesen. Eines ist ein technisches Problem, es weiß bis heute niemand, was wirklich die kritischen Faktoren sind. Was muss man eigentlich standardisieren und was spielt keine Rolle? (Interview Wolfer)

Die meisten Standardisierungsinitiativen, die über die Jahre entstanden, scheinen im Sande verlaufen zu sein (vgl. Staay/Steckler 2002). Die Diskrepanz zwischen Anspruch und Wirklichkeit rückt ein Kernproblem der Wissenschaft in den Vordergrund: die Spannung zwischen »knowledge as pregiven and its creation by actors« (Latour/Woolgar 1986: 175), die zu der Frage führt, wie unter lokalen Bedingungen hergestellte Daten in den Rang von universal gültigen Fakten erhoben werden können.21 Diese Spannung spitzt sich bei den Laborwissenschaften besonders zu, was mit den widersprüchlichen Merkmalen wissenschaftlicher »Faktenfabriken« zusammenhängt: Forschungslaboratorien sind in der Regel hermetisch von der Umwelt abgeschottet, sollen jedoch universal gültige Phänomene hervorbringen. Sie sind vollgestopft mit wissenschaftlichen Apparaturen, die so komplex sind, dass sie nur noch von einigen wenigen Fachleuten beherrscht werden. Mithilfe dieser komplexen Apparaturen sollen jedoch möglichst einfache, komplexitätsreduzierte Phänomene erzeugt werden. Forschungslaboratorien sind ab den 1970er Jahren in den Fokus diverser empirischer Wissenschaftsstudien gerückt (Latour/Woolgar 1986; Knorr-Cetina 1984; Traweek 1992; Lynch 1988; Collins 1975). Das gemeinsame Band dieser laborethnografischen Studien besteht in der Feststellung, dass Experimente über ein Eigenleben verfügen, das nicht auf einer abstrakten Ebene begreifbar ist. Dies, so Barad, »shifts the focus from questions of correspondence between descriptions and reality (e.g., do they mirror nature or culture?) to matters of practices, doings and actions« (Barad 2007: 135). Hacking wiederum, ein anderer wichtiger Autor in diesem Zusammenhang, möchte lieber von der Erzeugung statt von der Beobachtung experimenteller Phänomene sprechen, und er pocht dass der Aufwand groß und die forschungspolitischen Hürden hoch sind (Wahlsten 2001). 21 Bemerkenswert ist – Rheinberger hat darauf in einem Vortrag hingewiesen – die lateinische Ursprungsbedeutung dieser beiden Begriffe, die quasi spiegelverkehrt zur aktuellen Bedeutung steht: Datum heißt auf Lateinisch das Gegebene, factum das Gemachte.

I M L ABOR | 169

damit ebenfalls auf die Eigendynamik der experimentellen Praxis (vgl. Hacking 1996a).22 Wenn aber, wie Wissenschaftsforscher behaupten, experimentelle Phänomene im Forschungsprozess allererst hergestellt und nicht bloß aufgefunden werden, dann ändert sich der Status von Apparaturen. Sie sind »not passive observing instruments; on the contrary, they are productive (and part of) phenomena« (Barad 2007: 142). Dass die Phänomene, die im Labor registriert und stabilisiert werden, mit ihrem Produktionskontext verwoben sind, darauf gibt es auch Hinweise aus den Verhaltensneurowissenschaften selber. In Fachartikeln findet man – oft im klein gedruckten Methodenteil –, Bemerkungen wie diese: »In our procedure, substantial reduction of freezing was observed […]. However, we found that this time course strongly depended on the experimental setting.« (Sananbenesi et al. 2007: 7) Darüber hinaus hat sich gezeigt, dass die Ergebnisse von Verhaltensexperimenten nicht nur vom engeren experimentellen Kontext abhängen, sondern unter Umständen sogar von Faktoren, die nicht direkt mit dem Versuchsaufbau verknüpft sind. In einer Studie aus dem Jahr 2000 wurde etwa beobachtet, dass Knock-out-Mäuse, denen ein Gen für den NMDA-Rezeptor ausgeschaltet wurde, wie erwartet gravierende Gedächtnisdefizite in nichträumlichen Paradigmen aufwiesen – aber nur dann, wenn sie unter Standardbedingungen gehalten wurde. Waren die Mäuse in einer angereicherten Umwelt aufgewachsen, zeigte sich kein Effekt (Rampon et al. 2000). Man kennt inzwischen eine große Zahl verschiedener Kontextfaktoren, die Verhaltensexperimente gravierend beeinflussen können. Carsten Wotjak (2004), der sich die Mühe gemacht hat, sie zu typisieren, kommt auf drei große Kategorien: Merkmalsfaktoren (trait factors) der Tiere (genetischer Hintergrund, Entwicklung, Haltung etc.), Zustandsfaktoren (Experimentator, Tageszeit, experimentelles Setup etc.) sowie technische Aspekte (Datenanalyse und -auswertung). Von all diesen »Störfaktoren« werden von Experten die sogenannten »experimenter effects« (Wahlsten et al. 2003a: 203) als besonders kritisch eingeschätzt. Denn »was einfach eine große Rolle spielt, das ist der Mensch, der sich natürlich nicht standardisieren lässt« (Interview Wolfer). Wissenschaftler prägen in verschiedenen Phasen den Ausgang eines Verhaltensexperiments: als Interaktionspartner der Versuchstiere vor, während und 22 Eine weitere wichtige Autorin in diesem Zusammenhang ist Karin Knorr-Cetina, die zwei umfangreiche Laborstudien vorgelegt hat (Knorr-Cetina 1984, 2002; siehe zweites Kapitel). Knorr-Cetina sieht die »Macht von Laboratorien« darin, »SubjektObjekt-Bezüge« zu rekonfigurieren. Das Labor stelle eine »optimierte Umwelt« dar, in der natürliche Objekte im Rahmen sozialer Praktiken geformt würden (KnorrCetina 1991: 120).

170 | ZWISCHEN GEIST UND GEHIRN

nach dem eigentlichen Versuch sowie als Beobachter und Interpreten der Daten nach dem Experiment.23 Im Laboralltag nimmt der Umgang mit den Labortieren beträchtlichen Raum ein und beschränkt sich bei Weitem nicht allein auf die Durchführung eines Experiments, was meistens die letzte Phase im Leben eines Versuchstiers einläutet. Dazu gehören auch Fütterung, Reinigung der Käfige, das regelmäßige Zähmen der Tiere durch Streicheln, das ›Handling‹ der Versuchstiere vor und während der Experimente und der Eingriffe. Jeder Wissenschaftler hat eigene Gewohnheiten, mit Tieren umzugehen oder Experimente durchzuführen, er unterscheidet sich in Persönlichkeit und Geruch, genauso wie die Tiere sehr individuell auf neue Situationen und Menschen reagieren.24 Die Interaktion zwischen dem Versuchsleiter und seinen Versuchstieren ist folglich kaum standardisierbar, beeinflusst das Verhalten der Tiere und somit das experimentelle Ergebnis aber enorm. Hier zwei Schilderungen aus der Praxis: Verschiedene Experimentatoren gehen einfach anders mit den Mäusen um, das lässt sich nicht aus der Welt schaffen, und das spielt wahrscheinlich eine sehr große Rolle. Wie nimmt man eine Maus in die Hand? Wie setzt man sie in den Pool? Was macht der Mensch, wenn die Maus etwas nervös ist? Wird er auch nervös, wird die Maus noch nervöser. (Interview Wolfer) Wenn ich die Tiere zum Beispiel aus dem Raum A nehme, auf den Wagen tue, in den Raum B fahre und da teste, lernen sie natürlich den ganzen Weg. Sie wissen, jetzt kommt der Typ, der nimmt den Käfig, packt mich und die wissen schon, oh nein, jetzt komme ich in die Box. Das ist natürlich anders, wenn sich die Maus bereits in dem Raum in einem Käfig befindet, ich mache eine Tür auf, nimm sie raus und setze sie sofort in die Box. (Interview Fischer) 23 Wie festgestellt wurde, kamen technische Assistenten in verschiedenen Laboren selbst bei einer so einfachen Messgröße wie der verzehrten Futtermenge zu unterschiedlichen Ergebnissen – trotz eindeutiger Messanweisungen (Wahlsten et al. 2003b). Eine Automatisierung des Messprozesses dürfte nur begrenzt Abhilfe schaffen, da die Bedienung der Messapparaturen und die Interpretation der Daten in den meisten Fällen wiederum Spielräume eröffnen, wie Studien zur Mensch-Maschine-Interaktion gezeigt haben (vgl. Suchman 1987). 24 Eine kürzlich veröffentlichte Studie hat die Auswirkungen unterschiedlicher Umgangsweisen auf das Verhalten von Mäusen untersucht. Demnach lassen sich deren Stress- und Angstlevel deutlich reduzieren, wenn sie mithilfe von Röhren aus dem Käfig genommen, anstatt – wie es üblich ist – am Schwanz herausgezogen zu werden (Hurst/West 2010).

I M L ABOR | 171

In einer Laborstudie mit dem Titel »Sacrifice and the Transformation of the Animal Body into a Scientific Object« hat Michael Lynch (1988) solche Routinepraktiken in einem neurowissenschaftlichen Labor ethnografisch untersucht. Er hat beobachtet, dass ein wesentlicher Aspekt der tagtäglichen Forschungspraxis der Aufgabe gewidmet ist, »naturalistic creatures« in »analytic animals« zu transformieren – ein Translationsprozess, der für Lynch in der technischen Metapher des »sacrificing« symptomatisch zum Ausdruck kommt. Im Rahmen mehrschrittiger Prozeduren würden, so Lynch, Individuen in homogene, gereinigte wissenschaftliche Objekte verwandelt, in Träger abstrakter, objektiver Daten. Lynch hat festgestellt, dass das »analytic animal« trotz seiner objektiven Gestalt notwendigerweise selber ein Artefakt ist, ein Kunstprodukt, das Ergebnis einer sozialen Praxis. Diese soziale Praxis, das ist die eigentliche Pointe, macht zwar das »naturalistic animal« unsichtbar, setzt es jedoch als wesentliche Ressource ein: »The relation between the naturalistic and analytic animal is not simply a dichotomous one. The naturalistic animal provides the conditions for achieving its analytic counterpart. Through a series of practices (sometimes including the breeding and rearing of the animal) that prepare the animal for experimentation, the lab worker begins with the naturalistic animal in order to supersede it.« (Lynch 1988: 280) Subjektivität und Individualität sind demnach konstitutive Aspekte von Daten, deren Objektivität sich daran bemisst, wie es gelingt, diese Aspekte mithilfe experimenteller Prozeduren und entsprechender Darstellungen dieser Prozeduren unsichtbar zu machen. Doch Lynch baut wie Collins in dessen Gravitationswellenstudien auf einen soziodeterministischen Analyseansatz, der die Wirkmächtigkeit des sozialen Kontexts verabsolutiert und die Handlungsmacht der Dinge kaum thematisiert. Die Ratten tauchen bei Lynch als Handlungsgegenstände auf. Sie sind Teil von wissenschaftlichen Sprachspielen, verfügen aber über keine eigenständige Handlungsträgerschaft – die Konsequenz einer soziologischen Perspektive, die stark auf die menschlichen Akteure ausgerichtet ist. Im Gegensatz dazu hat vor allem der Akteur-Netzwerk-Ansatz mit dem Konzept der material agency respektive der Aktanten die Handlungsmacht des Nicht-Menschlichen ins Zentrum der empirischen Wissenschaftsforschung gerückt (siehe erstes Kapitel). Damit Gedächtnisexperimente erfolgreich verlaufen, das heißt zu stabilen Inskriptionen führen, sind die menschlichen Akteure im Sinne der ANT auf lokale »Verhandlungen« mit nicht-menschlichen Wirkungsmächten zurückgeworfen (vgl. Callon 1999). Oder, um es mit Pickering zu sagen, die menschliche Wirkungsmacht ist mit der materiellen dialektisch verquickt. Die Interviewzitate oben (S. 170) bringen die Interaktion zwischen der menschlichen und der nicht-menschlichen Sphäre deutlich zum Ausdruck. Sie

172 | ZWISCHEN GEIST UND GEHIRN

zeigen, dass der Forschungsprozess nicht der völligen Kontrolle der Forscher unterworfen ist, sondern dass Wissenschaftler und ihre Forschungsgegenstände in subtiler Weise aufeinander reagieren. Die Versuchstiere sind nicht bloß rituelle Objekte, sondern sie zwingen die Forscher zu spontanen Anpassungen ihrer Abläufe. Dass Verhaltensexperimente tatsächlich in viel geringerem Maß kontrollierbar sein könnten, als man bislang glaubte, hat eine systematische Untersuchung aus dem Jahre 1999 vor Augen geführt (Crabbe et al. 1999). Acht genetisch unterschiedliche Mausstämme wurden in drei Laboratorien in sechs Verhaltensparadigmen getestet. Dabei galt die Bedingung, dass »[a]pparatus, test protocols, and many environmental variables were rigorously equated« (Crabbe et al. 1999: 1670). Das Ergebnis: Trotz rigoroser Standardisierung zeigten sich »systematic differences in behavior across labs« (Crabbe et al. 1999: 1670), was die Wissenschaftler auf nicht-lineare Interaktionen zwischen Laborkontext (dazu zählen sie auch den Experimentator) und Mausgenom zurückführten. Der Artikel rief sowohl innerhalb als auch außerhalb der engeren Fachgemeinschaft ein großes Echo hervor. Vier Jahre später publizierten dieselben Autoren einen weiteren Artikel, in dem sie bislang unpublizierte Daten der ersten Studie veröffentlichten und vor dem Hintergrund der wissenschaftlichen Debatte, welche die Studie von 1999 ausgelöst hatte, analysierten und diskutierten (Wahlsten et al. 2003a). Die Autoren kommen zum Schluss25: One inference that could be drawn from the laboratory–genotype interactions revealed by this study is that standardization of behavioral tests is desirable. The results of our study, however, suggest that standardization of the test situation would not guarantee identical results in different labs because of large effects of laboratory environments. (Wahlsten et al. 2003a: 306)

Mit anderen Worten: Selbst da, wo sich eine Forschungskultur etabliert hat mit den dazu gehörigen experimentellen Normen und Regularien, selbst wenn darüber Klarheit herrscht, was es heißt, »the same behaviors of the same strains in the same way« (Wahlsten et al. 2003a: 308) zu testen, selbst dann sind Experimente nicht ohne Weiteres reproduzierbar. Oder, um es zuzuspitzen: Die Reproduzierbarkeit von Experimenten (und folglich ihre intersubjektive Überprüfbarkeit) ist nichts, was sich allein sozial regeln ließe. Die Daten aus den erwähnten Studien weisen vielmehr daraufhin, dass sich auch in Laboratorien ein Phänomen mani-

25 Einschränkend muss gesagt werden, dass die Autoren der Studie keine Prognose über die Generalisierbarkeit und Replizierbarkeit ihrer Ergebnisse gewagt haben.

I M L ABOR | 173

festiert, das die Medizinanthropologin Margaret Lock (2001) »lokale Biologien« genannt hat. Lock hat in verschiedenen Kulturen den medizinischen Umgang mit der Menopause untersucht, und sie ist dabei auf große Differenzen gestoßen: Nicht nur berichten Frauen ganz unterschiedliche Symptome, auch die medizinischen Kategorien und Therapieangebote weichen teilweise deutlich voneinander ab. Sie hat das zum einen auf die unterschiedliche, sozial bedingte Rolle der Frau in diesen Gesellschaften zurückgeführt, in denen Weiblichkeit mit unterschiedlichen Idealen assoziiert wird. Lock geht es aber gerade nicht darum, Menopause als ein kulturelles Konstrukt zu entlarven. Vielmehr habe sich gezeigt, so Lock, dass es sich dabei um kein universales Phänomen – »an invariant biological transformation« – handelt, das mittels internationaler Standardverfahren behandelbar sei: »[L]ocal biologies are at work, and […] it is appropriate to think of biology and culture as in a continuous feedback relationship of ongoing exchange, in which both are subject to variation.« (Lock/Kaufert 2001: 503) Auch wenn der Begriff von Kultur, den Lock im Sinn hat, kaum auf Laboratorien übertragbar ist, deutet sich an, dass auch in hochstandardisierten Wissenschaftsbereichen Natur und Forschungskultur offenbar eng miteinander verschränkt sind. Der Fehlschluss der Standardisierung Die systematischen Untersuchungen zur Replizierbarkeit von Verhaltensexperimenten haben eine rege Debatte angestoßen, wie die Befunde zu interpretieren und welche methodologischen Konsequenzen daraus zu ziehen sind. Die wahrscheinlich größte Gruppe von Wissenschaftlern fordert desto stärkere Standardisierungsbemühungen, um laborspezifische Artefakte auf ein Minimum zu reduzieren und die Validität und Reproduzierbarkeit der Experimente zu erhöhen (vgl. Staay/Steckler 2002). Ihr Credo lautet: »[M]ost of the confounding variables […] can be controlled in a given laboratory.« (Wotjak 2004: 167) Eine andere Gruppe versucht, mittels neuer experimenteller Anordnungen möglichst viele Störfaktoren aus dem Experiment zu eliminieren, »indem man eben nicht die Maus aus dem Käfig nimmt und in die Arena setzt, sondern indem man quasi das Experiment in den Heimkäfig der Maus bringt« (Interview Wolfer). Erreicht werden soll dies beispielsweise durch hochtechnologisierte Käfige wie das »IntelliCage«, in dem bis zu 16 Mäuse permanent leben und computergesteuerte Lernaufgaben zu bewältigen haben, etwa, um Zugang zum Trinkwasser zu erhalten. Das Problem der Beeinflussung durch den Experimentator wird so abgemildert, aber das Problem der diffusen Kontextabhängigkeit bleibt virulent. Die Tiere befinden sich nach wie vor in einem spezifischen Umfeld, das sich in ihr Ver-

174 | ZWISCHEN GEIST UND GEHIRN

halten einschreibt. Eine andere Gruppe um den Ethologen Hanno Würbel zieht deshalb noch radikalere Schlüsse. Der seit Mitte des 20. Jahrhunderts grassierende »Standardisierungswahn« (Interview Würbel) habe dazu geführt, dass lange nicht untersucht [wurde], wie sich völlig identische Haltungsbedingungen auf die Aussagekraft experimenteller Befunde auswirken. Wir haben das untersucht und festgestellt, dass Resultate unter Umständen nicht auf andere Labore übertragbar und damit wertlos sind, wenn die Versuchsbedingungen nicht systematisch variiert werden. Es gibt einfach zu viele nicht kontrollierbare Faktoren, vor allem der Umgang mit den Tieren hat einen entscheidenden Einfluss. (Interview Würbel)

Hanno Würbels Büro befindet sich auf dem Gelände der Tierklinik der Universität Gießen. Während die meisten meiner Interviews in hermetisch abgeriegelten, aseptischen Forschungslaboratorien stattfanden, führte mich der Weg zu Würbel vorbei an Kuhställen und einer Tier-Geburtsklinik. Deutlich waren Tiergeräusche zu hören. Im Bürogebäude selber ging ich breite, rundum gekachelte Gänge entlang, in die überdimensionierte Türen eingelassen waren, damit offenbar auch große Tiere hindurchpassen. Anstatt Forscher in weißen Kitteln, wie ich es gewohnt war, begegneten mir solche in Gummistiefeln und grünen Overalls. Vor einem der Hörsäle befand sich ein Schild mit dem Hinweis, dass Hunde im Vorlesungssaal nicht erlaubt seien. Das spezielle Umfeld, in dem Hanno Würbel arbeitet, ist ein Spiegelbild seiner Thesen. Als Alternative zur rigiden Homogenisierung fordern er und seine Kollegen eine systematische Heterogenisierung der Haltungsbedingungen, ein Vorgehen, das zum Beispiel hinsichtlich des genetischen Hintergrunds bereits gang und gäbe ist (Neuron 1997). Das setzt zwar immer noch »[…] Standards voraus, das wird oft missverstanden. Dennoch ist damit eine Art Paradigmenwechsel verbunden, denn mir geht es darum, dass sich die Tierforschung stärker am Tier und seinen biologischen Bedürfnissen ausrichtet« (Interview Würbel).26 26 Ein neues experimentelles Paradigma in diesem Kontext ist environmental enrichment (EE) oder angereicherte Umwelt (siehe sechstes Kapitel). Anstatt Labortiere in Standardkäfigen zu halten, was auf die Dauer zu abnormen Verhaltensweisen führt (Würbel/Garner 2007), gewährt man ihnen Spielgerät, viel Bewegung und soziale Kontakte (Nithianantharajah/Hannan 2006). Die Idee ist, molekulare Prozesse unter weniger künstlichen und damit biologisch relevanteren Bedingungen zu untersuchen (Wolfer et al. 2004). Zumindest an Tiermodellen konnte gezeigt werden, dass sich EE sowohl auf Plaques-Level als auch auf die Neurogenese und die Gedächtnisleistung positiv auswirkt (Karsten/Geschwind 2005; Fischer et al. 2007).

I M L ABOR | 175

Die standardisierte Tierhaltung unter artfremden Bedingungen hält Würbel nicht nur aus ethischen, sondern auch aus experimentellen Gründen für fragwürdig (Richter et al. 2009; Würbel/Garner 2007; Würbel 2002): Zwar steige durch die rigide Standardisierung die Testsensitivität, was die Stabilität der Daten innerhalb einer Versuchsreihe erhöht. Gleichzeitig nimmt jedoch, so Würbels These, die externale Validität der Resultate ab, das heißt, die Varianzen zwischen verschiedenen Laboratorien nehmen zu – und im Sinne der Reproduzierbarkeit ist das der entscheidende Punkt. Es ist Würbel zufolge schlichtweg nicht möglich, die Laborbedingungen zwischen weltweit verstreuten Laboratorien bis ins letzte Detail zu harmonisieren. Die Folge ist: »different laboratories inevitably standardize to different local environments.« (Richter et al. 2009: 257) In einem vor kurzem erschienenen Artikel haben Würbel et. al. den Zusammenhang zwischen Variation der Umweltbedingungen und Reproduzierbarkeit erstmalig empirisch untersucht, in dem sie auf die Daten einer zuvor publizierten Verhaltensstudie zurückgriffen (Richter et al. 2009). Aus drei Laboratorien lagen Verhaltensdaten von Hunderten Mäusen vor, die von drei Mausstämmen abstammten und unter zwei unterschiedlichen Bedingungen (angereicherte Umwelt versus Standardkäfig) gehalten worden waren. Auf der Basis dieser Resultate simulierten die Wissenschaftler zwei experimentelle Designs, indem sie die Verhaltensdaten einer standardisierten Gruppe (gleiches Labor, Haltungsbedingungen etc.) mit den Daten einer heterogenisierten Gruppe (zufällige Zuordnung) verglichen. Das Ergebnis der komplexen statistischen Analyse war: Die Rate falsch-positiver Differenzen zwischen den Mausstämmen war bei der standardisierten Gruppe im Vergleich zur nicht-standardisierten Gruppe signifikant erhöht. Würbel sah damit seine Vermutung »as a proof of principle« bestätigt: »[E]nvironmental standardization may compromise the reproducibility of behavioral strain differences.« (Richter et al. 2009) Obwohl es für eine abschließende Beurteilung dieser Thesen noch etwas früh ist und dafür weitere empirische Untersuchungen notwendig sind, so gibt es zumindest ernst zu nehmende Hinweise, dass die systematische Heterogenisierung der Laborbedingungen nicht zu weniger, sondern zu objektiveren Resultaten – im Sinne der intersubjektiven Überprüfbarkeit – führt (vgl. Richter et al. 2010; Paylor 2009). Oder umgekehrt formuliert: Aufgrund der unkontrollierbaren Wechselwirkungen zwischen Versuchstieren und Laborumfeld erhöht sich durch Standardisierung das Risiko experimenteller Artefakte drastisch. Das lässt die gängigen Abbildungen des MWM problematisch erscheinen, die in wissenschaftlichen Artikeln oder anderswo publiziert sind (vgl. Abbildung 6). Zu sehen ist – schematisch dargestellt – die zentrale Arena, der Pool, während der gesamte Kontext ausgeblendet wird. Der Experimentator ist, wenn

176 | ZWISCHEN GEIST UND GEHIRN

überhaupt, als imaginärer Punkt abgebildet (Position S im Koordinatensystem), wodurch er als Person verschwindet. Es handelt sich um einen typischen Fall von »Othering«, die Herstellung von Präsenz durch die gleichzeitige Herstellung von Absenz (Law 2006). Kritisch ist nicht, dass jede Fokussierung Aspekte in den Hintergrund drängt, das lässt sich nicht vermeiden. Kritisch ist, dass das, was fehlt, nicht mehr als fehlend wahrgenommen wird. Die Tatsache, dass experimentelle Daten in einer Situation erhoben werden, die lokal situiert ist, wird durch eine wissenschaftliche Darstellung, die Universalität suggeriert, verschleiert. Die systematischen Untersuchungen zu Gen-Umwelt-Interaktionen bei Verhaltensexperimenten haben die Bedeutung des experimentellen Kontextes vielen Forschern schmerzhaft bewusst gemacht. Jede vorab definierte, strikte Trennlinie zwischen Experiment und Kontext erscheint angesichts dieser Befunde als künstlich. Dass der Wissenschaftler, der die Maus ins Schwimmbecken setzt, zu den externalen Elementen der Experimentalanordnung zählt, lässt sich angesichts seines großen Einflusses auf das Verhalten der Labortiere kaum aufrechterhalten.27 Das gesamte Umfeld während des Experiments – die spezifischen Lichtverhältnisse, die Architektur des Raums, die Geräusche und Gerüche – beeinflusst das Verhalten der Tiere.28 Und der Kontext lässt sich sowohl in räumlicher als auch zeitlicher Hinsicht fast beliebig weit ausdehnen: Nicht nur die Haltungsbedingungen, auch die Entwicklungsgeschichte der Tiere schreibt sich in ihre Körper und damit zwangsläufig in die experimentellen Daten ein. Welche dieser unzähligen Faktoren sich im Einzelfall als relevant erweisen, hängt von der spezifischen Testsituation ab und zeigt sich erst dann, wenn man die Daten laborübergreifend beurteilt.

27 Einige Experimentatoren verlassen während des Experiments den Raum, andere ziehen sich hinter eine Abdeckung zurück. Die Mehrzahl der Experimentatoren scheint sich jedoch während des Versuchs konstant an der gleichen Stelle im Raum aufzuhalten, gut erkennbar für das Tier (Vorhees/Williams 2006). 28 Bemerkenswerterweise wurde beobachtet, dass sogar blinde Ratten den Parcours erfolgreich absolvieren konnten, vermutlich, weil sie sich an olfaktorischen oder auditorischen Merkmalen orientieren (Lindner et al. 1997).

I M L ABOR | 177

F AZIT : L OKALE U NIVERSALITÄT Am Beispiel des »Morris water maze« hat dieses Kapitel die Komplexität aufgezeigt, die bei Gedächtnisexperimenten im Spiel ist. Das Tierexperiment, obwohl es mit seinem reduktionistischen Ansatz auf Komplexitätsreduktion und die Maximierung experimenteller Kontrolle ausgerichtet ist, ist nicht ohne Weiteres mit einem Zugewinn an Objektivität verbunden. Die weitverbreitete Hoffnung, dass die ›harte‹ Wissenschaft Gedächtnis zu einem ›härteren‹ Objekt macht, wird nicht erfüllt. Eher das Gegenteil ist der Fall. Der wichtigste Grund dafür liegt darin, dass der Erfolg eines Gedächtnisexperiments auch im biologischen Bereich zentral von den psychometrischen Verfahren und der exakten Quantifizierung kognitiver Zustände abhängt. Tiere lassen sich aber aufgrund fehlender sprachlicher Verständigungsmöglichkeiten viel schwieriger disziplinieren. Die Gedächtnismessung ist auf eine reine Verhaltensanalyse zurückgeworfen, die nur im Rahmen komplexer materieller Konfigurationen möglich ist. Und mehr noch als beim Menschen erweist sich dabei die Kontextsensitivität der Messungen als ein Schlüsselproblem: Die Grenze zwischen Fakt und Artefakt ist nebulös. Wissenschaftler sind es gewohnt, auf derartige Herausforderungen mit einer möglichst rigiden Standardisierung zu antworten, um die Messapparatur in ein möglichst stabiles Inskriptionswerkzeug zu verwandeln, eine Blackbox, die Komplexitäten verhüllt. Im Bereich der Verhaltensexperimente stoßen sie damit jedoch auf zwei Probleme: Erstens sind Paradigmen wie der MWM so komplex aufgebaut, dass sie sich anders etwa als abstrakte Testprotokolle kaum sinnvoll vereinheitlichen lassen. Derartige materielle Konfigurationen, bestehend aus verschiedenen instrumentellen Elementen, sind nicht nur deshalb schwierig zu vereinheitlichen, weil die Identitätskriterien kaum festzulegen wären. Es ist auch mit politischen Widerständen zu rechnen, da jeder Standard angesichts der vielfältigen lokalen Gegebenheiten willkürlich erscheint.29 Das bringt mich zum zweiten Problem, das auf einer epistemischen Ebene angesiedelt ist. Die Idee, ein mutable mobile wie den MWM in ein immutable mobile zu transformieren,

29 Wie schwierig es ist, Testparadigmen in unterschiedlichen Laboren exakt zu replizieren, haben Wahlsten et al. in der oben erwähnten Studie zu Gen-Umwelt-Interaktionen festgestellt. Sie schreiben: »We recognized from the outset that equating all relevant variables across labs was futile, and we never hoped to achieve such perfection. We were incapable of making even our three labs do things in exactly the same way, and we were aware that the rest of the mouse testing world would never agree to a single standard.« (Wahlsten et al. 2003a: 285)

178 | ZWISCHEN GEIST UND GEHIRN

scheint vor allem aus Objektivitätsgründen geboten. Durch Vergleichbarkeit zwischen Laboratorien sollen die Daten an Stabilität gewinnen und die Grenzziehung zwischen Fakt und Artefakt eindeutiger werden. Aber Standards schaffen nicht nur Uniformität und Vergleichbarkeit, sondern setzen sie bereits voraus. Auf diesen Punkt deuten nicht nur Würbels Untersuchungen hin, auch Mol und de Laet sind auf diesen Zusammenhang gestoßen. »Such standards only make sense if instances can be meaningfully compared« (de Laet/Mol 2000: 243), schreiben sie in Bezug auf die Buschpumpe. Was für die Wasserquellen Simbabwes gilt, gilt auch für die Laboratorien der tierexperimentellen Gedächtnisforschung: Beide sind alles andere als uniform und einfach miteinander vergleichbar. Wie die Studien zu Gen-Umwelt-Interaktionen gezeigt haben, haben auch jahrzehntelange Standardisierungsbemühungen daran nichts ändern können. Wenn Laborforscher tatsächlich mit »lokalen Biologien« konfrontiert sind, und es gibt gute Hinweise dafür, scheint es auch aus Objektivitätsgründen geboten, Experimente systematisch zu kontextualisieren, statt sie systematisch zu dekontextualisieren. Standards werden dadurch nicht obsolet, auch Würbel fordert kein anything goes. Aber Standardisierung macht nur dann Sinn, wenn sie sich sensitiv gegenüber den lokalen Gegebenheiten zeigt. Wer allzu rigide Standards fordert, ignoriert, dass die Forschungspraxis eine verteilte Aktivität ist, die sich an verschiedenen Orten, unter sich immer wieder verändernden materiellen und sozialen Rahmenbedingungen vollzieht. Da die experimentellen Artefakte durch die gängige Praxis weitgehend verdeckt bleiben – Experimente werden ja nur selten eins zu eins repliziert und innerhalb des Labors steigt dadurch die Validität der Daten –, gehen viele Wissenschaftler wohl lieber diesen Weg, als umgekehrt das Risiko einzugehen, viele ihrer experimentellen Resultate neu beurteilen zu müssen. Passend dazu hat die feministische Wissenschaftsforscherin Donna Haraway kritisiert, dass »situated knowledge, in my terms, [is] lost in the pseudo-objectivity […] that denies the ongoing action and work that it takes to sustain technoscientific material-semiotic bodies in the world« (Haraway 1997: 142). Mit dem Oxymoron der »lokalen Universalität« wiederum haben Timmermans/Berg auf »the distributed origins of standards, and at their distributed production and maintenance« verwiesen (Timmermans/Berg 1997: 298): One of the central tensions in creating and achieving universalizations is the relationship with past infrastructures, procedures, and practices. Standards will attempt to change and replace those practices but, we will argue, the same standards need, to a certain degree, to incorporate and extend those routines. To understand the ›universalization‹ of standards, it is crucial to look at these processes of incorporation and transformation. (Timmermans/Berg 1997: 274)

I M L ABOR | 179

In eine ähnliche Richtung geht auch die Physikerin und Wissenschaftssoziologin Karen Barad, die vor dem Hintergrund der quantenphysikalischen Paradoxien zentrale Wissenschaftsbegriffe wie »Objektivität«, »Realität« oder »Kausalität« neu gedeutet hat (Barad 2007).30 Der Leitgedanke ihres »Agential Realism« lässt sich kurz und knapp formulieren: »[W]e are a part of that nature that we seek to understand.« (Barad 2007: 26) Ohne mir hier ihre ontologische Theorie umfassend zu eigen zu machen, sind einige ihrer Schlussfolgerungen im Zusammenhang dieses Kapitels aufschlussreich. Barads Neologismus der »Intra-Aktion« (statt Interaktion) bringt auf den Punkt, dass weder eine beobachterunabhängige Realität prä-existiert, die durch bloße Sprachspiele oder wissenschaftliche Messungen bloß zu legen wäre, noch ein fixes Subjekt, das sich mithilfe von fixen Instrumentarien dieser Realität annähert. Während der Begriff der Interaktion klar definierte Handlungsträger suggeriert, die der Interaktion vorgehen, soll der Begriff der Intra-Aktion ausdrücken, dass Handlungsträger sich erst im Rahmen von spezifischen Intra-Aktionen konstituieren: »It is through specific intraactions that phenomena come to matter – in both senses of the word.« (Barad 2007: 140) Dies gilt sowohl für das Messsubjekt als auch das Messobjekt, es gilt aber auch für die Messapparatur und ihren Kontext – Grenzziehungen zwischen diesen Elementen finden erst im Rahmen von »open-ended practices« (Barad 2007: 146) statt: Apparatuses are not preexisting or fixed entities; they are themselves constituted through particular practices that are perpetually open to rearrangements, rearticulations, and other reworkings. This is part of the creativity and difficulty of doing science: getting the instrumentation to work in a particular way for a particular purpose (which is always open to the possibility of being changed during the experiment as different insights are gained). (Barad 1998: 102)

Wissenschaftliche Messapparaturen wie der MWM verfügen nach Barad über keine klar definierten Begrenzungen. Wo ihre Grenzen verlaufen, kristallisiert sich erst im dynamischen Akt des Messens heraus, in dem es zu einer ganzen Reihe von Wechselwirkungen kommt: zwischen einem Experimentator und der Messapparatur, zwischen dem Experimentator und dem Versuchstier oder zwi30 Wie Latour verfolgt Barad einen konsequenten Posthumanismus und zeigt sich skeptisch gegenüber den klassischen Dichotomien von Objekt und Subjekt oder Natur und Gesellschaft. Dennoch hält sie wie Pickering die asymmetrische Stellung des Subjekts teilweise aufrecht, was auch in dem Begriff »Agential Realism« zum Ausdruck kommt (Wiesner-Steiner 2004).

180 | ZWISCHEN GEIST UND GEHIRN

schen Versuchstier und der Messapparatur. Diese Entitäten als isoliert voneinander zu begreifen, wie es die Formulierung des letzten Satzes suggeriert, hat Barad aber gerade nicht im Sinn. Alle diese Entitäten konstituieren sich mit ihren Eigenschaften erst als Bestandteile eines Phänomens im Rahmen ihrer IntraAktion. Dazu passt, dass auch in einem Verhaltensexperiment erst im Nachhinein zu entschlüsseln ist, welches die relevanten Wechselwirkungen zwischen Experimentator, Maus und Messgerät sind. Das oben stehende Zitat von Barad könnte auch von Pickering stammen. Auch wenn ihre Konzeptionen in vielen Details nicht miteinander vergleichbar sind, erlaubt mir der Blick auf die Parallelen zwischen den beiden Autoren, noch einmal auf die relevanten Punkte hinzuweisen. Sowohl Pickering als auch Barad betonen die enge Verquickung von Mensch und Maschine im Rahmen einer kontinuierlichen Praxis. Der Intra-Aktion Barads entspricht bei Pickering eine »unreine Dynamik« (Pickering 2007: 50), welche die menschliche und materielle Sphäre konstitutiv miteinander verquickt. Das heißt, materielle Widerstände existieren »nur an den Überschneidungszonen zwischen menschlicher und nichtmenschlicher Wirkungsmacht« (Pickering 2007: 50). Aber menschliche Ziele und Pläne sind immer auch materiell »strukturiert«: Dass Maschinerien »productive (and part of) phenomena« (Barad 2007: 142) sind, wie Barad meint, heißt genau das. Welche Phänomene auftauchen, entscheidet sich in lokalen Konfigurationen, in die Wissenschaftler, Messapparaturen und Probanden interaktiv einbezogen sind. Jede dieser Konfigurationen hat ihre experimentellen Unschärfen, die sich aus der Struktur der Experimentalanordnung ergeben. Die zentrale Beobachtung dieses Kapitels, dass die Praxis des Tierversuchs auf einer psychologischen Ebene diffus bleibt, ist die Folge bio-logischer Interventionsregimes, die zu psycho-logischen Disziplinierungsregimes nicht kompatibel sind. Doch ironischerweise ist es gerade dieser wissenschaftliche Kontrollverlust – die Tatsache, dass Widerstände auftreten, »which cannot be wished away« (Sismondo 1993: 518) – welche die Rede von der objektiven Realität nicht obsolet macht. Im Zentrum der Laborwirklichkeit steht das Gehirn und dabei besonders der Hippokampus als einer der zentralen Forschungsattraktoren der biomedizinischen Gedächtnisforschung. Nachdem ich mich zuletzt auf die Beschreibung der Werkzeuge und Methoden der Gedächtnisforschung konzentriert habe, werde ich im nächsten Kapitel nachzeichnen, wie es mithilfe dieses Instrumentariums gelingt, das Gedächtnis und seine Pathologien im Gehirn zu lokalisieren und dingfest zu machen. Dabei wird es auch um die Frage gehen, welche Herausforderungen diese »Gedächtnispolitik« für traditionelle Menschenbilder und Selbstkonzeptionen bereithält.

Materialisierung der Seele Anatomischer Denkstil und Hippokampus

Seit dem 19. Jahrhundert versuchen Wissenschaftler, die menschliche Psyche im Gehirn zu verorten. Gall, dessen phrenologische Lehre heutigen wissenschaftlichen Maßstäben nicht genügt, erklärte das Gehirn zum Zentrum des Geistes und versuchte, anhand der Schädelform Rückschlüsse auf menschliche Charaktereigenschaften zu ziehen. Die meisten ›modernen‹ Hirnforscher nach Gall, beginnend mit Paul Broca und Paul Wernicke, distanzierten sich zwar von dessen Pseudowissenschaft – niemand käme heute mehr auf die Idee, unspezifische Charaktermerkmale oder »Instinkte« oberflächlichen Schädelregionen zuweisen zu wollen (vgl. Bechtel 2009). Im Grunde genommen verfolgt die moderne Neurowissenschaft aber immer noch eine vergleichbare Mission: nämlich die Lokalisierung und Materialisierung mentaler Fähigkeiten im Gehirn.1 Im Laufe der Jahrzehnte konnte sie sich bei diesem Projekt auf ein immer feineres Methodenarsenal stützen, mit dessen Hilfe sowohl die geistigen Operationen als auch die hirnanatomischen Korrelate kleinteilig bestimmt werden konnten. Die These, dass das Gehirn aus funktionalen Modulen besteht, gehört zu den fundamentalsten Prämissen der klinischen und experimentellen Forschungspraxis. Vor langer Zeit haben Brodmann und andere begonnen, ›Gehirnlandkarten‹ anzulegen, die mit der Zeit detaillierter wurden und sich auf die Beobachtung abstützten, dass es verschiedene Hirnzentren gibt, die über eine unterschiedliche Neuroarchitektur, über unterschiedliche Typen von Neuronen und Rezeptoren verfügen und unterschiedlich miteinander vernetzt sind (Hagner 1994). Aufgrund 1

Dass im Laufe der Zeit anti-lokalisationistische Tendenzen immer wieder mit lokalisationistischen abwechselten, soll allerdings nicht verschwiegen werden. Auch Mittelwege werden erprobt (vgl. Anderson 2006). Im Hinblick auf das Gedächtnis vgl. dazu Markowitsch 1992, 1994.

182 | ZWISCHEN GEIST UND GEHIRN

der schier unglaublichen Komplexität des Gehirns ist es gerade in der molekularisierten Grundlagenforschung unabdingbar, den forschenden Blick auf einzelne Regionen einzuschränken. Hirnfunktionsmodelle sind dabei wichtige heuristische Hilfsmittel, wie die folgende Interviewaussage verdeutlicht: »I am going to be looking in areas that are good candidates for relevant changes, so if I’m talking about olfactory learning I will look in olfactory areas.« (Interview Morris) Das meiste Wissen zu Gehirnfunktionen stammt aus der Analyse fokaler Läsionen, die Tieren experimentell zugefügt wurden oder die Patienten durch Operationen, Unfälle oder Krankheiten erlitten haben.2 Seit den 90er Jahren des letzten Jahrhunderts sind neue Verfahren wie die Bildgebung hinzugekommen, mit denen »das Mapping des Gehirns, die detaillierte Kartierung der Großhirnrinde« (Interview Haynes) weiter vorangetrieben werden konnte. Auch wenn die Interpretation der Ergebnisse solcher Studien viele Fragen aufwirft (vgl. Bechtel 2009 und sechstes Kapitel), so hat dies lokalisationistischen Bestrebungen starken Auftrieb verliehen. Für das Gedächtnis sticht ein Hirnareal in diesem Zusammenhang besonders heraus: der Hippokampus.3 Diese kleine Hirnregion, die sich im Zentrum des medialen Temporallappens befindet, hat sich im Laufe der Zeit als eines der wichtigsten »Spielobjekte« (Interview Wotjak) der Gedächtnisforschung etabliert und »continues to fascinate, challenge, and frustrate those who seek to understand its ›role‹ in memory« (Tulving/Markowitsch 1997: 209). Der Hippokampus wird gerne als »Flaschenhals des Gedächtnisses« bezeichnet, weil man ihm vor allem eine wichtige Rolle bei der Encodierung von Erinnerungen zuschreibt (während der eigentliche Speicherort im Kortex vermutet wird; Markowitsch 2002a). Zudem gilt er als die maßgebliche »Paraderegion für […] unser Verständnis für ein zelluläres Modell von Lernen und Gedächtnis« (Interview 2

Methodologisch geht man bei Läsionsstudien so vor, dass man aus der Dysfunktion eines Hirnareals auf seine Funktion im gesunden Gehirn schließt. »Es ist wirklich frappierend, sie haben eine Läsion ohne kognitives Defizit und eine andere Läsion, deren Lokalisation sich um 5 Millimeter unterscheidet, mit einem kognitiven Defizit.« (Interview Ploner) Von einer Dysfunktion auf die Funktion des gesunden Areals zu schließen, ist allerdings nicht unbedenklich. Oft ist der genaue Ort der Verletzung nicht bekannt und aufgrund der Plastizität des Gehirns ist fraglich, ob die Funktionsweise des geschädigten Gehirns mit der des gesunden identisch ist (vgl. Bechtel 2009). Ich werde auf diesen Punkt im sechsten Kapitel zurückkommen.

3

Eigentlich genauer: die hippokampale Formation, da sie sich aus mehreren Strukturen (Gyrus dentatus, Ammonshorn, Subiculum) zusammensetzt (vgl. Abbildung 7, S. 186).

M ATERIALISIERUNG

DER

SEELE | 183

Wotjak). Er gehört zu den herausgehobenen Hirnregionen, denen ein eigenes, interdisziplinär ausgerichtetes Fachjournal gewidmet ist (»Hippocampus«, gegründet 1991) – mit Artikeln, die so unterschiedliche Bereiche abdecken wie »single and multidisciplinary experimental studies from all fields of basic science, theoretical papers, papers dealing with hippocampal preparations as models for understanding the central nervous system, and clinical studies«.4 Diese große Bandbreite an Forschungsbereichen illustriert, dass es sich beim Hippokampus um ein hybrides und vielschichtiges Wissensobjekt handelt. Zwar sind durchaus Stimmen zu vernehmen, welche die dominante Stellung des Hippokampus in der Gedächtnisforschung kritisch kommentieren. So geben einige zu bedenken, dass »der Hippokampus eine völlig heterogene Struktur ist, dass es einen dorsalen Teil, einen ventralen Teil, möglicherweise einen intermediären Teil des Hippokampus gibt« (Interview Wotjak; vgl. Bannerman et al. 2004). Andere weisen darauf hin, dass die Hippokampusformation nicht nur in Gedächtnisprozesse, sondern in »eine Vielzahl von Verhaltensabläufe integriert« ist (Markowitsch 2002a: 111). Die Fokussierung auf den Hippokampus werde der komplexen Realität des Gehirns nicht gerecht, denn auch dieses Hirnareal sei »von der Funktionsweise des restlichen Gehirns abhängig, und andere Bereiche des Gehirns interagieren wiederum mit ihm« (Markowitsch 2002a: 112). Solche anti-lokalisationistischen Gedächtnisvorstellungen bestätigen jedoch eher den Forschungstrend. Zu beobachten ist, dass der Hippokampus in den meisten Gedächtnismodellen eine herausragende Stellung innehat und dass auf der Ebene der Praxis viele experimentelle Routinen – zu nennen sind vor allem sogenannte hippokampusabhängige Testparadigmen wie der MWM (siehe viertes Kapitel) – auf ihn eingespielt sind. Dieser Forschungsmainstream hat natürlich längst auch Spuren im klinischen Bereich hinterlassen. Bei vielen Gedächtnisstörungen, darunter auch AD und PTSD, bildet der Hippokampus eines der wichtigsten diagnostischen und therapeutischen »Zielorgane« (Interview Wotjak). So zeigt sich Carsten Wotjak davon überzeugt, dass »beide Erkrankungen, wie viele andere psychiatrische Störungen eben auch, sich in bestimmten hirnorganischen Grundstrukturen treffen. Eine maßgebliche Hirnstruktur dabei ist wohl die Hippokampusformation« (Interview Wotjak). Diese Annäherung auf einer anatomischen Ebene ist hochinteressant, wenn man sich die historischen Differenzen zwischen den beiden Krankheitsbildern vor Augen führt. Während das neurodegenerative Syndrom AD eine hauptsächlich neurologische Prägung aufweist, stehen die zentralen Konzepte bei 4

Vgl. http://onlinelibrary.wiley.com/journal/10.1002/(ISSN)1098-1063/homepage/Pro ductInformation.html (Stand: 11.2.2011).

184 | ZWISCHEN GEIST UND GEHIRN

PTSD in einer psychoanalytischen Tradition. Ätiologische Theorien fokussieren hier auf Läsionen der Seele und nicht des Gehirns, die Ursachen werden in Störungen der psychischen Integrität vermutet. Dass der Hippokampus sich auch bei PTSD in den Vordergrund drängt, deutet auf fundamentale epistemische Umwälzungen hin: Auch bei diesem traditionell funktionell verstandenen Krankheitsbild gewinnen anatomische Deutungsmuster offenbar an Gewicht. Die weitreichenden Konsequenzen für die Krankheitskonzeptionen, die dies nach sich zieht, sind eines der Themen dieses Kapitels. Außerdem gehe ich der Frage nach, wie es überhaupt zu dieser Verflechtung von Hippokampus und Gedächtnis kam, die sich auf einer epistemischen und einer praktischen Ebene manifestiert. Ich verfolge diesen Punkt erst aus einem historischen Blickwinkel, wende mich aber anschließend aktuellen biomedizinischen Entwicklungen zu, in denen sich der Hippokampus als wichtiger Forschungsattraktor herauskristallisiert hat. Meine zentrale These entwickle ich im zweiten Teil des Kapitels. Abgestützt auf Hackings Begriff einer »memoro-politics« (Hacking 1994) werde ich argumentieren, dass die herausgehobene Rolle des Hippokampus erst plausibel wird vor dem Hintergrund eines spezifischen gedächtnispolitischen Regimes. Heterogene Praktiken der Anatomisierung und Lokalisierung, in denen der Hippokampus als Wissensobjekt auftaucht, verbinden sich mit psychologischen Konstrukten und einem Tiefenwissen, welches das Gedächtnis als Surrogat für die Verwissenschaftlichung der Seele bestimmt hat. Im Rahmen dieser Konstellation bietet sich zum ersten Mal die Chance, das Selbst in einer konkreten Stelle im Gehirn, dem Hippokampus, zu verankern und wissenschaftlich greifbar zu machen. Das Ergebnis ist aber nicht etwa die Reduktion von Geist auf Gehirn, die Materialisierung des Ich, sondern vielmehr die symbolische Aufladung eines hybriden Objekts, dessen Bedeutung weit über den biomedizinischen Horizont hinausweist.

E XPERIMENTELLE V ERWICKLUNGEN Aus einer heutigen Perspektive ist die Bedeutung des Hippokampus für die biomedizinische Gedächtnisforschung so grundlegend, dass es schwer vorstellbar ist, dass dies nicht immer so war. In der ersten Hälfte des 20. Jahrhunderts galten die Bemühungen zur anatomischen Lokalisierung von Gedächtnis aber als weitgehend gescheitert. Der Psychobiologe Karl Lashley – der seine wissenschaftliche Karriere der Suche nach dem Gedächtnisengramm widmete und dessen Experimente mit Ratten und Schimpansen Maßstäbe setzten – zog im Jahre 1950 ein ernüchtertes Resümee seiner dreißigjährigen Forschungsbemühungen:

M ATERIALISIERUNG

DER

SEELE | 185

This series of experiments has yielded a good bit of information about what and where the memory trace is not. […] It is not possible to demonstrate the isolated localization of a memory trace anywhere within the nervous system. Limited regions may be essential for leaming or retention of a particular activity, but within such regions the parts are functionally equivalent. The engram is represented throughout the region. (Lashley 2000: 347)

Die tierexperimentellen Methoden waren damals zu unterentwickelt, um wichtige Erkenntnisse darüber zu gewinnen, wie Erinnerungen neuronal repräsentiert sind. Mit ihrem groben Handwerkszeug blieb Forschern nur übrig, großflächige Läsionen zu setzen. Die Aussagekraft solcher Experimente ähnelte denen von Läsionsstudien, wie sie seit dem 19. Jahrhundert beim Menschen bekannt waren. Aufgrund der weitreichenden Beschädigungen waren die Resultate hier wie dort ungenau und kaum aussagekräftig. Die hauptsächlichen Fortschritte der Gedächtnisforschung spielten sich auf einer psychologischen Ebene ab und beinhalteten die Verfeinerung der psychologischen Konstrukte und Messverfahren (siehe zweites Kapitel; Danziger 2008). Der Hippokampus, dessen Form an ein Seepferdchen erinnert, hatte zwar bereits im frühen 20. Jahrhundert das Interesse der Anatomen und Neurowissenschaftler erregt. Aber nicht etwa, weil man ihm eine wichtige Rolle bei Gedächtnis und Lernen zuschrieb, sondern vielmehr wegen seiner strukturellen und funktionellen Besonderheiten und seiner praktischen Eignung als experimentelles Untersuchungsobjekt. Der Hippokampus ist anatomisch relativ eindeutig definiert, bei allen höheren Säugetieren und Vögeln identifizierbar und gerade bei Nagetieren, die traditionell zu den beliebtesten Labortieren gehören, sehr dominant. Die hippokampale Formation verfügt über eine klare Architektur und außerdem über ein übersichtliches Verschaltungsmuster, das den entorhinalen Kortex (EC), mit dem Gyrus dentatus (DG) und den CA-Regionen verbindet (vgl. Abbildung 7; Nakashiba et al. 2008). Dank der laminaren Architektur lassen sich die Faserbündel in einem einfachen Hirnschnitt abbilden. Im Unterschied zu anderen, komplexer strukturierten Regionen wie der Amygdala eignet er sich somit hervorragend als neuroanatomisches Experimentalsystem. »Der Hippokampus ist groß, man kann ihn gut präparieren, man kann ihn gut zerstoßen.« (Interview Wotjak) Santiago Ramón y Cajal, der berühmte spanische Neuroanatom und Nobelpreisträger, fertigte bereits zu Beginn des 20. Jahrhunderts mithilfe von Golgis Silberfärbetechniken detaillierte Karten an, die einen guten Eindruck der charakteristischen Morphologie des Hippokampus vermitteln (vgl. Abbildung 7).

186 | ZWISCHEN GEIST UND GEHIRN

Abbildung 7: Der Hippokampus nach einer modifizierten Zeichnung von Santiago Ramón y Cajal (1911). DG: Gyrus dentatus. Sub: Subiculum. EC: entorhinaler Kortex Aufgrund seiner Verbindungen zum medialen Temporallappen (Amygdala etc.) und dem Neocortex wurde bereits früh vermutet, dass dem Hippokampus eine wichtige Rolle in der Informationsverarbeitung zukommt. Da es sich um eine evolutionär alte Hirnregion handelt, glaubten die meisten Wissenschaftler bis Mitte des letzten Jahrhunderts, dass er für die Verarbeitung primitiverer Reize wie Geruch, Sexualität oder Emotionen verantwortlich ist. Der Sitz der Kognition war dem phylogenetisch jüngeren Neocortex vorbehalten. Ein typisches Beispiel für die gängigen Auffassungen der Zeit ist MacLeans Theorie des »limbischen Systems«, die den Hippokampus und die umliegenden Hirnareale des medialen Temporallappens wie die Amygdala, den Thalamus, den Hypothalamus zu einer Funktionseinheit zusammenfasste (MacLean 1952, 1954).5 MacLean, der sich auf Ideen von Broca, Hughlings Jackson (Smith 1982), Cannon und Papez (Papez/Neylan 1995) berief, spekulierte, gestützt auf empirische Befunde, dass das limbische System mit der Verarbeitung niederer Affekte, elementarer Triebe und der sogenannten Fight-or-Flight-Reaktion befasst ist (LeDoux 2004). Diese Theorie galt lange als das maßgebliche und überzeugendste Modell der Emotionsverarbeitung im Gehirn, und zumindest als anatomische Bezeichnung ist es bis heute im neurowissenschaftlichen Diskurs verankert. Als funktionelles Konzept ist es jedoch umstritten (vgl. LeDoux 2000; Kötter/Meyer 1992; Kötter/Stephan 1997).

5

Für eine ausführliche und gut lesbare Darstellung vgl. LeDoux 2004.

M ATERIALISIERUNG

DER

SEELE | 187

Konjunkturen: 1950–1980 Die Transformation des Hippokampus zum Forschungsattraktor der biomedizinischen Gedächtnisforschung ergab sich im Rahmen einer größeren Verschiebung. Dabei haben sich vor allem bestimmte tierexperimentelle Forschungsprogramme als wichtig erwiesen, die in den Jahren von 1950 bis 1980 ihren Durchbruch hatten. Angetrieben wurde diese Entwicklung durch technische Innovationen in vitro als auch in vivo, mit denen es möglich wurde, neue experimentelle Phänomene zu generieren und zu stabilisieren. Anfang der 1970er Jahre war die Geburtsstunde eines der bis heute einflussreichsten Forschungsprogramme der Gedächtnisforschung. Damals beobachteten die Osloer Forscher Terje Lømo und Timothy Bliss nach einer kurzen, hochfrequenten Stimulation im Hippokampus von Kaninchen eine lange, Stunden bis Tage anhaltende Verstärkung der synaptischen Erregungsmuster, ein Phänomen, das heute als Langzeitpotenzierung (LTP) bekannt ist (Bliss/Lømo 1973; Bliss et al. 1973).6 Der Philosoph Carl Craver hat die Anfänge dieses Forschungsprogramms von den 1950er Jahren bis Mitte der 1970er Jahre detailliert nachgezeichnet (Craver 2003, 2007). Craver beschreibt, wie LTP ›entdeckt‹, erst als eine experimentelle Anomalie nicht wirklich ernst genommen, dann als experimentelles Phänomen stabilisiert und schließlich in der neurowissenschaftlichen community zu »a component in the explanatory store of the neurosciences« (Craver 2003: 181) ausgearbeitet wurde. Heute gilt LTP für viele Gedächtnisforscher als hoffnungsvollster Kandidat eines zellulären Gedächtnismechanismus, mit dem sich die Aussicht bietet »to understand all aspects of interesting and important cognitive phenomena – like memory – from the underlying molecular mechanisms through behavior« (Stevens 1996: 1147). Das Phänomen, dass eine kurzzeitig verstärkte Reizung ein länger anhaltendes elektrisches Ausgangssignal zur Folge hat, war bereits in den 1950er Jahren bekannt, wurde jedoch weder mit dem Gedächtnis noch mit synaptischer Plasti-

6

Der Mechanismus wurde bei glutamergen Synapsen beobachtet und beruht auf einer molekularen Kaskade, die zwei unterschiedliche Typen von Rezeptoren – NMDAund AMPA-Rezeptoren – involviert (Lisman et al. 2003). Die resultierende lang anhaltende Verstärkung der synaptischen Übertragung wurde in verschiedenen Hirnregionen beobachtet, ist aber vor allem im Hippokampus gut untersucht. Im Laufe der Jahre entstanden viele unterschiedliche Definitionen von LTP, sodass in einem Review-Artikel von »the confusion regarding its definition« die Rede ist (Shors/Matzel 1997: 598).

188 | ZWISCHEN GEIST UND GEHIRN

zität in Verbindung gebracht.7 Craver hat nachgewiesen, dass der Erfolg des Forschungsprogramms wesentlich von der Entwicklung neuer experimenteller Techniken abhing, wodurch der experimentelle Effekt entscheidend verstärkt werden konnte. Denn die zu Beginn von Lømo/Bliss durchgeführten Lebendexperimente bei anästhesierten Kaninchen wiesen eine große experimentelle Variabilität auf. Abhilfe schufen sowohl neue In-vivo-Techniken, die Elektrodenableitungen beim lebendigen, nicht-betäubten Tier ermöglichten (Bliss/Lømo 1973), vor allem aber innovative Schnitttechniken, welche die laminare Struktur des Hippokampus ausnutzten (Skrede/Westgaard 1971). In vitro konnten Elektroden punktgenau platziert und Experimente über einen längeren Zeitraum durchgeführt werden. Craver hat in seiner Studie die zentrale These aufgestellt, dass die Genese des Hippokampus zum Forschungsattraktor der Gedächtnisforschung wesentlich mit dem Erfolg des LTP-Forschungsprogramms zusammenhängt. Im Laufe der 1970er Jahre entstand die Idee, dass LTP ein wichtiger Baustein in einem mechanistischen Gedächtnismodell spielen könnte. Lømo und Bliss »came to see LTP […] as a component of a multilevel learning or memory mechanism« (Craver 2003: 185), wodurch sowohl Phänomene auf der zellulären Ebene als auch übergeordnete Verhaltensphänomene in den Blick der Forscher gerieten (vgl. Bliss/Lømo 1973). Durch diese theoretische Neuorientierung entwickelte sich LTP zum Dreh- und Angelpunkt des heterogenen Feldes, so Craver, indem es die verstreuten Arbeitsgruppen unter einem gemeinsamen theoretischen Dach vereinte: [T]his argument carved out a theoretical space that could accomodate researchers from many different fields using different experimental techniques in different organisms to address similar or theoretically related questions. (Craver 2003: 189)

Craver zufolge wurden erst vor dem Hintergrund dieses integrativen multidisziplinären Projekts Gedächtnis und Hippokampus eng miteinander verknüpft, mit dem Ziel »to argue for the explanatory relevance of LTP, however vaguely, to memory« (Craver 2003: 189). Diese Darstellung ist sicher nicht völlig ver7

Erstmalig erwähnt wurde die sogenannte »tetanus induced hippocampal synaptic plasticity« bereits im Jahr 1956 (Green/Adey 1956), als sie vor allem dazu eingesetzt wurde, um mehr experimentelle Daten zu generieren. Denn die neurophysiologischen Experimente wurden damals in vivo durchgeführt – die Hippokampusschnitttechniken wurden erst später entwickelt –, was mit hohem Blutverlust etc. verbunden war, sodass das experimentell nutzbare Zeitfenster nur klein war (Craver 2003).

M ATERIALISIERUNG

DER

SEELE | 189

kehrt, sie greift aber meines Erachtens dennoch zu kurz. Craver weist zwar sehr überzeugend die verwickelten experimentellen Ursprünge des LTP-Forschungsprogramms nach. Interessant zu beobachten ist jedoch, wie er die »experimental complexity« (Rheinberger 1997) dem Primat der Theorie opfert, sobald die »theoretical superstructure« (Craver 2003: 188) an Kontur gewinnt.8 Er schreibt: [A] great deal of scientific work remains to be done both to understand what an ideally complete neurobiological explanation of learning and memory would look like and to envision and develop the kinds of experimental techniques that would show that such an explanation had been achieved. (Craver 2003: 190)

Cravers Analyse ist folglich ganz am Begründungskontext orientiert. Die experimentelle Komplexität wird zugunsten einer linearen Erzählung der Theorieentwicklung aufgelöst, um die Transformation des Erkenntnisgegenstandes »Hippokampus« zum Gedächtnisorgan zu erklären. Im Gegensatz dazu halte ich die von Bachelard entwickelte und später von Rheinberger weiterentwickelte Philosophie des »epistemologischen Details« (Rheinberger 1997: 246) für die angemessenere Perspektive, um die komplexe Forschungsdynamik zu analysieren, die sich damals abspielte. Rheinberger schreibt: Instead of searching for universal theories, the order of the day for epistemology is to learn to understand how local wisdoms, entrenched in research »attractors« such as experimental systems, become connected to knowledge patchworks. Fragmentation, far from being deleterious, appears as one of the basic conditions of unprecedented development. (Rheinberger 1997: 253)

8

Diese Einengung hängt wohl nicht unwesentlich damit zusammen, dass Cravers historische Rekonstruktion mit der Emergenz des LTP-Modells abbricht und damit die verwickelte neuere Geschichte des LTP-Forschungsprogramms nicht berücksichtigt. Sie hat aber vermutlich auch damit zu tun, dass seine historische Erzählung eine ideologische Färbung aufweist. Carl Craver gehört zusammen mit William Bechtel zu den Vertretern des mechanistischen Ansatzes in der Wissenschaftstheorie, den ich im nächsten Kapitel diskutieren werde (vgl. Craver/Darden 2001; Machamer et al. 2000). Diese Philosophen sind überzeugt davon, dass der mechanistische Erklärungsansatz maßgeblich für die Lebenswissenschaften ist, und vor diesem Hintergrund liegt die Fokussierung auf den Gedächtnismechanismus »LTP« nahe.

190 | ZWISCHEN GEIST UND GEHIRN

Das LTP-Programm war nur eines von mehreren großen Forschungsprogrammen jener Zeit, die auf unterschiedliche Weise den Hippokampus und das Gedächtnis theoretisch und experimentell miteinander verknüpften. Zu nennen ist unbedingt der legendäre Fall H.M. (siehe zweites Kapitel), der für viele Forscher die Geburtsstunde der modernen Gedächtnisforschung markiert. H.M. (1926–2008) gehört zu den am meisten untersuchten Patienten der Medizingeschichte. Bis zu seinem Tod beschäftigten sich mit ihm insgesamt fast 100 Wissenschaftler, sein Gehirn wird derzeit in einem groß angelegten, beispiellosen Projekt Zelle für Zelle kartiert.9 Das »hippocampal amnesic syndrome« (Milner et al. 1968), das nach der bilateralen Entfernung des Hippokampus bei ihm auftrat, beschränkte sich offenbar auf bewusste Gedächtnisinhalte, während motorische Lernprozesse nicht betroffen waren. Diese Entdeckung löste ab den 1950er Jahren intensive neuropsychologische und tierexperimentelle Forschungen aus und markiert eine historische Zäsur in der Geschichte der Gedächtnisforschung. Zum ersten Mal gab es Hinweise, dass spezifische Gedächtnisfunktionen von einer konkreten Hirnregion abhängen, »da man Gedächtnis mit einer anatomischen Struktur [dem Hippokampus, C. K.] in Verbindung bringen konnte, die eben bei Ratten und Mäusen auch vorhanden ist« (Interview Wolfer). Dies initiierte die psychologische Ausdifferenzierung verschiedener Gedächtnissysteme, die ich im zweiten Kapitel beschrieben habe, und begründete eine neuropsychologische Gedächtnistheorie, die dem Hippokampus eine zentrale Rolle bei der Verarbeitung deklarativer Langzeit-Gedächtnisinhalte zuweist (Eichenbaum 2000). Neben H.M. und LTP sind zwei weitere Forschungsprogramme erwähnenswert, auf die ich bereits in vorhergehenden Kapiteln kurz hingewiesen habe: Zum einen Joseph LeDouxs Untersuchungen zum emotionalen Gedächtnis (siehe drittes Kapitel; LeDoux 1993), zum anderen O’Keefes Forschungen zu hippokampalen Platzzellen und dem räumlichen Gedächtnis (siehe viertes Kapitel; O’Keefe/Dostrovsky 1971). Beide Forschungsstränge sind mit zwei hippokampusabhängigen Verhaltensparadigmen verbunden – der kontextuellen Furchtkonditionierung sowie dem »Morris water maze« –, die inzwischen weit über ihren engeren Entstehungskontext hinaus große Bedeutung erlangt haben. Das Beispiel dieser beiden Forschungsprogramme macht jedoch auch deutlich, wie unterschiedlich – in experimenteller und theoretischer Hinsicht – die Phänomene

9

Die Sektion des Gehirns konnte live per Internet verfolgt werden. Das Projekt läuft unter dem Schlagwort »Deconstructing Henry«, Informationen sind zu finden unter http://thebrainobservatory.ucsd.edu/ (Stand: 11.2.2011).

M ATERIALISIERUNG

DER

SEELE | 191

sind, die am Hippokampus erforscht werden.10 Alle diese distinkten Phänomene wurden nicht einfach nur ›entdeckt‹ oder aufgefunden, sondern mussten im Laufe jahrelanger, intensiver Forschungsbemühungen von einer »experimental curiosity« (Craver 2003: 179) in ein stabiles und reproduzierbares Phänomen verwandelt werden. Dieser Prozess beruhte nicht nur auf der Entwicklung und Verfeinerung experimenteller Techniken und Prozeduren, sondern beinhaltete auch die Entfaltung theoretischer Konstrukte, um sowohl die experimentellen Daten als auch, was damit eng zusammenhängt, die Funktionsweise der Instrumente in ein Interpretationsschema einzuordnen. Die im Rahmen der unterschiedlichen Programme ko-produzierten Theorien, Techniken und Daten haben mit der Zeit »›a closed system‹ that is essentially irrefutable« (Hacking 1992a: 30) ergeben. Diese drei Forschungsprogramme sind in sich wiederum heterogen strukturiert, im Fluss und bis heute Gegenstand endloser Debatten. Inwieweit LTP Lernen und Gedächtnis unterliegt, ist immer noch so umstritten wie vor 30 Jahren (Malinow 1998; Andersen 1991; Stevens 1998; Lisman et al. 2003).11 Bereits sind bei einigen Forschern angesichts der endlosen Debatten Ermüdungserscheinungen festzustellen. So bemerkte ein Wissenschaftler selbstironisch, dass sich die LTC (long-term controversy) um LTP in einen LTTP (long-tar pit) zu verwandeln drohe (Malinow 1998). Doch die fehlende empirische Evidenz für einen mechanistischen Zusammenhang zwischen Gedächtnis und LTP scheint für viele Grundlagenforscher gar nicht wirklich relevant zu sein: LTP ist ja eine elektrophysiologische Beobachtung […]. Inwieweit es tatsächlich Lernen und Gedächtnis unterliegt, ist vielleicht eine Glaubensfrage. Ich denke, mein Labor ist relativ unvoreingenommen, für uns spielt das erst einmal keine Rolle. Wir können sagen, bei bestimmten Mutanten fehlt LTP und es sind bestimmte Formen des Gedächtnisses betroffen. Damit hat man ja immer noch nicht gezeigt, dass LTP tatsächlich wichtig ist oder eine Komponente des Gedächtnisses. (Interview Kuhl)

10 Bei LeDoux geht es um das emotionale Gedächtnis, bei O’Keefe um das räumliche. Da der Hippokampus in völlig unterschiedliche Verhaltensphänomene involviert ist, wie in Läsionsstudien nachgewiesen wurde, vermuten einige Wissenschaftler, dass er funktional stärker differenziert ist, als man bislang dachte (Bannerman et al. 2004). 11 Viele Forscher halten inzwischen die sogenannten sharp wave ripples, Feldpotenzialschwankungen, die durch LTP-Protokolle erzeugt werden, für das eigentlich entscheidende Phänomen bei der Gedächtniskonsolidierung (Thurley et al. 2008; Leibold et al. 2008).

192 | ZWISCHEN GEIST UND GEHIRN

Versuche, den Fall H.M. im Tierversuch zu replizieren, stießen ebenfalls auf große Schwierigkeiten und blieben offen bis in die 1980er Jahre (Milner 1998).12 Heute ist immer noch unklar, welche Schlüsse aus H.M.’s Schicksal zu ziehen sind. Einige der ursprünglichen Thesen wurden durch neuere Befunde »partiell relativiert« (Interview Ploner): Zum einen offenbarten spätere Untersuchungen mit bildgebenden Verfahren, dass durch die Operation nicht nur wesentlich größere Bereiche des medialen Temporallappens in Mitleidenschaft gezogen wurden, als man ursprünglich dachte, und im Gegenzug Teile des Hippokampus intakt geblieben waren (Corkin et al. 1997). Zum anderen weiß man heute, dass H.M. eben doch bis zu einem gewissen Grad deklarative Gedächtnisinhalte erwerben konnte (Corkin 2002). Trotz ihrer Heterogenität haben alle diese verschiedenen Forschungen einen entscheidenden Aspekt gemeinsam: Sie alle brachten auf die eine oder andere Weise Lern- und Gedächtnisvorgänge mit dem Hippokampus in einen experimentellen Zusammenhang. Der Hippokampus – von Redish treffend als »whirlpool of theory, experiment, and debate« bezeichnet (Redish 2001: 90) – ist somit ein faszinierendes Beispiel für science in the making. Seine Genese zu einem Forschungsattraktor der Gedächtnisforschung verdeutlicht einen zentralen Punkt Rheinbergers: In der Regel entstehen neue Forschungsattraktoren nicht dadurch, dass sich Arbeitsgruppen unter dem schützenden Dach einer theoretischen Superstruktur sammeln. Vielmehr entstehen sie eher durch unvorhersehbare, ungeordnete Wechselwirkungen (durch den Austausch von Materialien, Methoden, Hypothesen etc.) auf der Ebene der verwickelten Experimentalpraxis, was Rheinberger »Konjunkturen« genannt hat (Rheinberger 2001).13 Experimentalsysteme sind zwar in bestimmten Sequenzen ihrer Geschichte funktionell autonom, aber weder grundsätzlich noch auf Dauer. Sie sind im Gegenteil stets vernetzungsfähig wie auch vernetzungsbedürftig. Zwischen ihnen ereignen sich Konjunkturen. Dabei 12 In einem ersten Schritt musste ein selektives, hippokampusabhängiges Testparadigma gefunden werden, was Primatenforschern erst 1974 gelang (Gaffan 1974). Die anschließenden Tierversuche lieferten inkonsistente Resultate und legten den Schluss nahe, dass eine Entfernung des Hippokampus nicht ausreicht, um amnestische Symptome zu erzeugen (Mishkin 1978). 13 Rheinberger hat betont, dass damit gerade nicht ein Paradigmenwechsel im kuhnschen Sinne gemeint ist, also die Ablösung eines umfassenden wissenschaftlichen Weltbildes durch ein anderes. Vielmehr lenken Konjunkturen die Forschungsdynamik in unvorhergesehene Richtungen, wodurch aber nur ein patchwork durch das nächste abgelöst wird (Rheinberger 1997, 2001).

M ATERIALISIERUNG

DER

SEELE | 193

handelt es sich um unvorwegnehmbare Ereignisse in Form von Kooperationen und Übertragungen, die gegebene Experimentalsysteme in einem neuen Licht erscheinen lassen. (Hagner et al. 1994: 11)

Der Begriff des Forschungsattraktors, den Rheinberger in diesem Zusammenhang gerne benutzt (Rheinberger 1992), lehnt sich dabei nicht ohne Grund an einen Begriff aus der Chaosforschung an.14 In der mathematischen Fachsprache bezeichnen Attraktoren, verkürzt gesagt, stabile Verhaltensmuster eines dynamischen Systems, die sich über die Zeit ausbilden.15 Mit dieser Analogie rücken die dynamischen und emergenten Aspekte der Wissenschaftspraxis in den Mittelpunkt der Analyse. Forschungsattraktoren, das haben sie mit ihren Namensgebern aus der Komplexitätsforschung gemein, zeigen sich erst in einem komplexen, verwickelten, dynamischen Gesamtzusammenhang. Analysiert man die Forschungsdynamik, die sich um Hippokampus und Gedächtnis zwischen 1950 und 1980 entsponnen hat, aus einer solchen Makroperspektive, so ergibt sich kein homogenes Bild: Konzeptionelle, materielle und methodische Wechselwirkungen, die sich aber nicht unbedingt bestimmten theoretischen Fragestellungen unterordnen, wechseln sich ab mit Verwerfungen und Brüchen. So wird beispielsweise LTP hauptsächlich im Rahmen räumlicher Lernparadigmen bei Mäusen untersucht (in erster Linie MWM) und hat somit zu einer engen Verflechtung zwischen den Forschungstraditionen von Lømo/Bliss (LTP) und O’Keefe/Nadel (Platzzellen) geführt (vgl. O’Keefe 1993). Umgekehrt spielt in der neuropsychologischen Forschungstradition, die aus dem Fall H.M. hervorgegangen ist, LTP eine nur untergeordnete Rolle, da elektrophysiologische Messungen beim Menschen kaum möglich sind (vgl. Cooke/Bliss 2006). Und in 14 Wie in den Naturwissenschaften, so ist auch – wenn auch mit etwas Verspätung – in den Sozialwissenschaften von einem sogenannten »complexity turn« die Rede. Gemeint ist damit, soziale Systeme als emergente Phänomene zu begreifen, die nicht aus einer reduzierenden Perspektive in ihrer Dynamik zu verstehen sind. Wissenschaftsforscher bedienen sich zunehmend des Begriffsarsenals der Chaosforschung (vgl. Mol/Law 2002; Wynne 2005; Beck/Niewöhner 2006; Rheinberger 1997). Sie tun es aus unterschiedlichen Gründen und in den meisten Fällen nicht in systematischer, sondern metaphorischer Anlehnung, aber immer ausgehend von dem emergenten, dynamischen und verwickelten Charakter von Wissenschaftspraxis. 15 In diesem Sinne sprechen etwa Müller-Wille und Rheinberger vom Konzept der »Erblichkeit« als einem stabilen »discursive center«, das sich in komplexen Wissensregimes zu Beginn des 19. Jahrhunderts herausgebildet habe (Müller-Wille/Rheinberger 2004).

194 | ZWISCHEN GEIST UND GEHIRN

Bezug auf die Rolle des Hippokampus bei Lernen und Gedächtnis haben sich zwei große theoretische Lager gebildet (vgl. Redish 2001; Knierim 2003): Die einen, die sich am Fall H.M. orientieren, sehen den Hippokampus als Prozessor deklarativer Gedächtnisinhalte (Cohen/Eichenbaum 1995); die anderen, in der Tradition von O’Keefes und Nadels »cognitive map theory«, halten ihn für die zentrale Instanz, die räumliche Erfahrungen organisiert (Redish 2001). Das Bild, das sich ergibt, ist weniger eines der theoretischen Kohärenz oder der »mosaic unity« (Craver 2007), sondern das eines »patchworks« – also »a structured experimental network of objects and practices that […] is tinkered and pulled together from different elements« (Rheinberger 1997: 251). Der Hippokampus steht im Zentrum dieses Gefüges, eng mit ihm verflochten die Routinen, Konzepte und Instrumente, die im Rahmen der heterogenen Forschungsdynamik von 1950 bis 1980 aufgetaucht sind: Dazu gehören die duale Gedächtnissystematik und die darauf abgestimmten neuropsychologischen Testverfahren, die im Zusammenhang mit dem Fall H.M. entwickelt wurden (siehe zweites Kapitel); dazu gehören aber auch LTP als neurophysiologisches Messkonstrukt (und die entsprechenden elektrophysiologischen Techniken) sowie die diversen hippokampusabhängigen Messparadigmen16 wie der »Morris water maze« oder die Furchtkonditionierung (siehe drittes und viertes Kapitel). Alle diese Elemente sind inzwischen fest etablierte Bestandteile einer experimentellen Gedächtnispraxis, die auf das Experimentalsystem »Hippokampus« eingespielt ist.

E NDOPHÄNOTYPEN : T RIANGULATION G EDÄCHTNIS , K RANKHEIT , G EHIRN 17

VON

Wissenschaftshistoriker haben darauf verwiesen, dass das Schisma von Organ und Funktion der Psychiatrie in die Wiege gelegt ist (Bürgy 2008; Beer 1996; Davidson 1999). Die Differenzierung zwischen zwei Typen von Störungen, deren Ursachen nun plötzlich entweder ausschließlich in anatomischen Defekten oder in psychischen Funktionsstörungen vermutet werden, entwickelte sich an der Schwelle zum 20. Jahrhundert, etwa zur selben Zeit, als sich die Psychiatrie

16 Messparadigmen als hipppokampusabhängig zu bezeichnen, stellt im Grunde genommen eine unzulässige Simplifizierung dar, da natürlich jede Hirnregion, um überhaupt funktionieren zu können, auf die Interaktion mit anderen Hirnregionen angewiesen ist. 17 Einige Ergebnisse dieses Abschnitts wurden bereits in Kehl 2008 veröffentlicht und werden hier in ergänzter und überarbeiteter Form abgedruckt.

M ATERIALISIERUNG

DER

SEELE | 195

als eine eigenständige medizinische Disziplin zu etablieren begann. Einerseits wurden bei vielen der sogenannten Neurosen – wie etwa der Alzheimer Demenz – organische Ursachen aufgedeckt, während andererseits mit dem Aufkommen der Psychoanalyse psychogene Störungen – wie etwa die posttraumatischen Syndrome – in Mode kamen. Diese Unterscheidung war von prinzipieller und fundamentaler Natur. Sie bezeichnete nicht nur einfach eine Wissenslücke, wie es zuvor der Fall gewesen war, als man all das als funktionell bezeichnete, dessen anatomische Umstände noch nicht bekannt waren (Beer 1996). Es handelte sich vielmehr um eine Dichotomie, die so grundlegend war, dass sie die psychiatrischen Diskurse und Praktiken des 20. Jahrhunderts maßgeblich prägte. Um das Schisma von Organ und Funktion und seine Reichweite genauer zu fassen, bietet sich ein analytisches Instrument an, das Ian Hacking ins Spiel gebracht hat (vgl. Davidson 1999). Es handelt sich um den Begriff der »styles of reasoning« (Hacking 1992c), den Hacking mit den folgenden Worten eingeführt hat: My styles of reasoning, eminently public, are part of what we need to understand what we call objectivity. This is not because styles are objective (i.e. we have found the best impartial ways to get at the truth), but because they have settled what it is to be objective (truths of certain sorts are just what we obtain by conducting certain sorts of investigations, answering to certain standards). (Hacking 1992c: 4)

Bei styles of reasoning handelt es sich um historisch und soziokulturell situierte Wahrheitsregimes, die sich als epistemische Strömungen voneinander abgrenzen lassen.18 Jeder style of reasoning definiert Möglichkeitsspielräume und bildet das Fundament für das, was wir Objektivität nennen: Er macht bestimmte Ordnungen aus Konzepten, Gegenständen und Technologien wahrscheinlicher als andere. Die Parallelen sowohl zu Flecks (1980) »Denkstilen« als auch zu Foucaults (1986) archäologischer Methode oder auch zu Kuhns (1976) »Paradigmen« sind unverkennbar.19 Allen Denkern geht es im Grunde genommen um ähnliche Fra18 Für eine kritische Betrachtung des Konzepts vgl. Kusch 2010. 19 Von den drei Autoren steht Hacking Foucault am nächsten. Sowohl an Flecks Denkstilen wie auch an Kuhns Paradigmen erscheint problematisch, dass die Begriffe zu stark auf kognitive Strukturen und sprachliche Phänomene ausgerichtet sind. Die ontologischen Umwälzungen, die Hacking im Sinn hat, spielen sich aber nicht nur auf einer begrifflichen, sondern auch auf der Praxisebene ab – sie umfassen neben Begriffen und Modelle ebenso Apparaturen, Objekte und institutionelle Strukturen, also materiell-diskursive Phänomene. Der von Fujimura (1994) geprägte Ausdruck »style of

196 | ZWISCHEN GEIST UND GEHIRN

gen: Welches Regel- oder Beziehungssystem liegt wissenschaftlichen Aussagen zugrunde, sodass gerade diese Aussagen und keine anderen zu einem bestimmten Zeitpunkt und innerhalb einer bestimmten scientific community auftauchen? Welche epistemischen Strukturen leiten ebendiese Diskurse und Praktiken in ihre Bahnen? Das Ziel ist, die immanente Logik des Gesagten, das Wahrheitsregime freizulegen, das materiell-diskursive Formationen in der jeweiligen historischen Situation konfiguriert. Hacking hat sich neben dem experimentellen vor allem mit dem statistischen Stil beschäftigt (Hacking 1992b). Das Konzept kann aber ohne Weiteres auf den klinischen Bereich übertragen werden, wie die psychiatrische Dichotomie zwischen organischen und funktionellen Störungen zeigt. Die fundamentalen epistemischen Umwälzungen, die mit der Genese der Psychiatrie verbunden waren, brachten zwei weitgehend inkommensurable Deutungsmuster von Krankheit hervor, mit ihrer je eigenen Logik. Es entstanden »systems of knowledge [that] shape us as subjects, […] literally make us subjects« (Davidson 1999: 132). Mehr als hundert Jahre nach der Entstehung der Psychiatrie scheint die Dichotomie im Rahmen eines »technosomatischen Imperativs« weitgehend aufgelöst. Vorherrschend ist eine »epistemological emphasis on technoscientific methodologies and knowledges, and an ontological preoccupation with the body as the locus of psychopathology« (Pickersgill 2009: 45).20 Dank Genomik und bildgebenden Verfahren weiß man heute viel mehr über die hirnphysiologischen Mechanismen psychiatrischer Krankheiten als noch zu Beginn der 1990er Jahre. Ehemals als ›Geisteskrankheiten‹ bezeichnete Störungen wie die Depression, Schizophrenie oder PTSD werden ohne viel Aufhebens »als neuronale Dysfunktion« deklariert – folgerichtig liegt der Forschungsschwerpunkt auf den »ganzen organismischen oder hirnphysiologischen Abläufe[n]« (Interview Heuser). Als Initialzündung dieser Verschiebungen gilt gemeinhin der als revolutionär bescientific practice« ist dem eher angemessen. Der Einfachheit halber gebrauche ich im Folgenden den deutschen Begriff »Denkstil«, beziehe mich damit aber nicht auf Fleck, sondern die moderne Lesart von Hacking und Fujimura. 20 Zwar haben psychodynamische Konzepte wie Verdrängung oder Dissoziation im klinischen Bereich bis heute maßgebliche Spuren hinterlassen, wie die Debatte der »memory wars« in den USA zeigt (vgl. Laney/Loftus 2005; Kehl 2008). Und neue Technologien wie die funktionelle Bildgebung haben psychodynamische Erklärungsmuster nicht etwa obsolet gemacht, sondern vielmehr können sie mit ihrer Hilfe in einen hirnorganischen Rahmen importiert und damit objektiviert werden (siehe dazu sechstes Kapitel). Das ändert aber nichts an der allgemeinen Tendenz, dass der funktionelle Denkstil im Forschungsdiskurs derzeit eine eher marginale Rolle spielt.

M ATERIALISIERUNG

DER

SEELE | 197

zeichnete DSM-III (vgl. Andreasen 2007; Mayes/Horwitz 2005). Mit der Einführung dieses Klassifikationssystems im Jahre 1980 wurde nicht nur die Störung »PTSD« in der heutigen Form aus der Taufe gehoben, parallel dazu wurden auch psychodynamische Deutungsmuster aus dem offiziellen psychiatrischen Repertoire getilgt (zumindest gilt das für die USA, wo der DSM das verbindliche Diagnosemanual ist). Anstatt an Entstehungsmechanismen wie der Neurose orientierte man sich strikt an Symptomen, definiert auf der Basis evidenzbasierter Methoden und möglichst eindeutiger Kriterien. Doch viele Biomediziner halten die an der Symptomatik orientierten Diagnosekategorien inzwischen für problematisch: »[A]us biologischer Sicht [ist es] ein vollkommenes Durcheinander. Zwischen dem ICD 9 und dem ICD 10 oder zwischen dem DSM-III und dem DSM5, das es demnächst geben wird, gibt es wirklich viele Unterschiede. Die Erkrankungen sind dieselben geblieben, die Biologie ist dieselbe, nur wir nennen das anders.« (Interview Papassotiropoulos) An die derzeit in Arbeit befindliche 5. Revision des DSM haben viele biologische Psychiater die Hoffnung geknüpft, dass die Definition der psychiatrischen Störungen stärker auf »information about brain structure and function« (Hyman 2007: 725) abgestützt werde (vgl. auch Hyman 2007; Jeste et al. 2006; Yehuda/Bierer 2009; Rosen et al. 2008).21 Anhand der vorläufigen, kürzlich in der Rohfassung offengelegten diagnostischen Kriterien des DSM-5 zeichnet sich ab, dass diese Erwartung wohl nicht eingelöst wird – an der grundlegenden Stoßrichtung der psychiatrischen Forschung, die in Richtung einer Anatomisierung und – damit verbunden – Lokalisierung von psychischen Störungen geht, dürfte sich dadurch kaum etwas ändern: Wir wollen auch in der Psychiatrie dahinkommen, dass wir wie beim Herzinfarkt erst einmal die Beschwerden des Patienten haben, beim Herzinfarkt sind das Schmerzen in der Brust, Kurzatmigkeit. Dann wird ein EKG gemacht, es wird Blut abgenommen, dann zeigt 21 Der DSM-5 ist seit 1999 in Arbeit und soll im Mai 2013 erscheinen (Stand: Januar 2011). Bei PTSD deutet sich als wichtigste Änderung die Aufspaltung der Symptomgruppe C (Vermeidungsverhalten) an: Das neu definierte Kriterium C umfasst reines Vermeidungsverhalten, das neue Kriterium D hingegen negative Einstellungen, die aus dem Trauma resultieren. Gravierender sind die Änderungsvorschläge bei AD: Alzheimer soll als Subtyp von »Major or Minor Neurocognitive Disorders« aufgeführt und in ein Hauptsyndrom (»major«) und ein Risikosyndrom (»minor«) aufgespalten werden. Gedächtnisdefizite bilden in beiden Fällen das Hauptkriterium, die Diagnose soll jedoch Methoden wie Biomarker, Bildgebung und genetische Tests mit einschließen. Für einen Überblick über den derzeitigen Stand der Änderungen vgl. http://www.dsm5.org/Pages/Default.aspx (Stand: 11.2.2011).

198 | ZWISCHEN GEIST UND GEHIRN

sich, welche Enzyme angestiegen sind und man erkennt: Herzinfarkt. Man weiß sogar, wo der Herzinfarkt lokalisiert ist, Vorderwand oder Hinterwand. So wollen wir das auch möglichst bei den Demenzpatienten machen. (Interview Heuser)

Die konkrete und möglichst frühzeitige Lokalisierung einer Krankheit im Gehirn bietet die Chance, zielgerichtete diagnostische und therapeutische Maßnahmen zu ergreifen. Was zumindest für organische Krankheiten wie AD nicht mehr unerreichbar scheint, ist bei komplexen psychischen Erkrankungen wie PTSD vorerst noch Science-Fiction. Da solche Krankheiten keine auffälligen organischen Läsionen beinhalten, fehlt es zurzeit noch an »guten, überzeugenden Werkzeugen, um tatsächlich fehlfunktionierende Regelkreise im Gehirn darstellbar zu machen« (Interview Heuser). Dies könnte sich jedoch bald ändern. Viele Biomediziner sind davon überzeugt davon, dass es nur noch eine Frage der Zeit sei, bis »wir irgendwann auch bei der PTSD mithilfe der Bildgebung und anderen Instrumentarien sagen können, genau wie heute bei der Demenz, im Gehirn ist das und das verändert, sind die und die Blutwerte verändert. Es ist nur eine Frage der Technologie« (Interview Heuser). Um den pathologischen Mechanismen, den genetischen Ursachen und den maßgeblichen hirnorganischen Orten komplexer psychiatrischer Syndrome auf die Spur zu kommen, bedient sich die Neuropsychiatrie verstärkt der Endophänotypstrategie. Das Konzept der Endophänotypen wurde in den 1970er Jahren von Gottesman und Shields in die Schizophrenieforschung eingeführt, um den genetischen Wurzeln dieser multifaktoriellen Krankheit näher zu kommen, und breitete sich von da an in andere Bereiche der Psychiatrie aus.22 Durch die Zergliederung einer komplexen Krankheit »in mehrere, genetisch weniger komplex neurobiologisch definierte Endophänotypen« (Zobel/Maier 2004: 209) hofft man, die Suche nach relevanten Krankheitsgenen vorantreiben zu können. Ursprünglich bezogen sich Gottesman/Shields auf messbare (neurobiologische oder neuropsychologische) Marker psychiatrischer Erkrankungen. Das heißt »genetisch mit der Erkrankung assoziierte Normvarianten« (Schulze-Rauschenbach 2007: 27), die bereits vor Ausbruch der Krankheit vorliegen müssen, krankheitsspezifisch sind und eine starke erbliche Komponente aufweisen. Komponenten dieser Art entsprechen Risikoindikatoren, geben aber keinerlei Aufschluss über die kausalen Zusammenhänge, die im Humanbereich besonders schwierig zu ermitteln sind. In der modernen Fassung (auch »intermediate phenotypes« genannt) liegt der Fokus mehr auf den kausal relevanten Zwischenstücken, die in einem »engeren pathophysiologischen Zusammenhang mit der Störung« stehen 22 Für eine ausführliche Diskussion des Konzepts vgl. Gottesman/Gould 2003.

M ATERIALISIERUNG

DER

SEELE | 199

(Zobel/Maier 2004). Die Endophänotypstrategie stellt einen ergänzenden Mittelweg zwischen einem klassisch symptomorientierten Ansatz und der Genortsuche (Assoziationsstudien, Kopplungsstudien) dar, die sich bei psychologischen Erkrankungen mit heterogenem Phänotyp sowie ihrer multifaktoriellen und polygenetischen Ätiologie oft schwierig gestaltet. Endophänotypen, die zwischen Genotyp und Krankheitsbild liegen, können sowohl neurobiologischer als auch biochemischer oder neuropsychologischer Art sein. Entscheidend ist der Aspekt der Messbarkeit, denn es gibt die Tendenz »to assume that such ›harder‹ measures are, of necessity, more reliable than the ›softer‹ psychiatric diagnoses« (Kendler/Neale 2010: 791). Hier kommt das Gedächtnis ins Spiel, das dank der Arbeit von Neuropsychologen und Verhaltensbiologen zu den am besten quantifizierbaren Phänotypen gehört und bei verschiedenen neuropsychiatrischen Erkrankungen (et al. Schizophrenie und AD, vgl. Hall/Smoller 2010) als Endophänotyp im Gespräch ist. Das Gedächtnis ist, so Dominique de Quervain, für genetische Untersuchungen beim Menschen ein sehr geeigneter Phänotyp, weil aus der Grundlagenforschung schon viel über die molekularen Mechanismen und die neuroanatomischen Grundlagen bekannt ist. Dies ist insbesondere für genetische Assoziationsstudien wichtig, da aus diesen Untersuchungen ja keine kausalen Erkenntnisse resultieren. (Interview de Quervain)

Zusammen mit neuropsychologischen Testroutinen, bildgebenden Verfahren, Tiermodellen etc. gehört das Endophänotypkonzept zu einem biomedizinischen Denkstil, der Gedächtnisstörungen in einen neuroanatomischen Rahmen einordnet – wobei vor allem der Hippokampus als ein zentraler Bezugspunkt heraussticht. Die Forschungen von Christoph Ploner, Mediziner an der Klinik für Neurologie der Charité, sind ein gutes Beispiel dafür. Sie illustrieren nicht nur die enge Verflechtung von Gedächtnis und Hippokampus, sondern auch, dass sich dieser Denkstil auf der Ebene der Forschungspraxis als ein heterogenes Gefüge präsentiert, das Neurobiologie und Neurologie, Neuropsychologie und Psychiatrie miteinander verschränkt. Ploners Arbeitsgruppe untersucht »die Rolle des räumlichen Kurzzeitgedächtnisses für menschliches Verhalten mit psychophysischen und neuropsychologischen Methoden an Patienten mit fokalen Läsionen des Gehirns und an gesunden Normalpersonen«.23 Obwohl sie an einer klinischen Einrichtung beheimatet ist, steht keine spezifische Pathologie im Vorder23 Vgl. http://neurologie.med-network.de/forschung/arbeitsgruppen/okulomotorik.html (Stand: 11.2.2011).

200 | ZWISCHEN GEIST UND GEHIRN

grund der Forschungsarbeit. Das Interesse richtet sich vielmehr in einem allgemeinen Sinn darauf, »Gedächtnisprozesse zu verstehen. Dabei entstehen standardisierte kognitive Paradigmen, die sehr selektiv Funktionen bestimmter Hirnregionen untersuchen können« (Interview Ploner). Mithilfe von Paradigmen wie dem Gedächtnissakkadenparadigma (siehe zweites Kapitel), die im Rahmen von Ploners Läsionsstudien quasi als ›Beiprodukt‹ entstehen, »kann man dann untersuchen, ob bei einem Patienten der Hippokampus funktioniert oder ob ein funktional relevantes Defizit vorliegt« (Interview Ploner). Die Forschungen des Labors lassen also einen hohen klinischen Nutzwert erwarten: Sollte sich herausstellen, dass diese Paradigmen wirklich selektiv für bestimmte Hirnregionen sind, könnten sie sich als wichtige Werkzeuge erweisen, um psychiatrische Erkrankungen minutiös in der Anatomie des Gehirns zu verorten. Im Falle von AD und PTSD ist die klinische Suche nach relevanten Endophänotypen im vollen Gange, und wie ich im nächsten Abschnitt zeige, hat sich in beiden Bereichen der Hippokampus als wichtiger Forschungsattraktor herauskristallisiert. Der Hippokampus und die Gedächtniskrankheiten Die Alzheimerforschung hat den Hippokampus bereits früh als ein zentrales diagnostisches Zielorgan entdeckt. Seit den 1990er Jahren ist bekannt, dass die Taupathologie im Hippokampus und den angrenzenden Gebieten in einem frühen Stadium manifest wird (das sogenannte Braak-Stadium 1; Braak/Braak 1991a; Thompson et al. 2007) und eine feststellbare Hippokampusatrophie gilt demgemäß als ein guter Marker für eine klinische Demenz (Jack et al. 1998). Der neurodegenerative Prozess, der sich vom limbischen System aus nach und nach auf den gesamten Cortex ausbreitet, korrespondiert mit den demenziellen Symptomen: In der Frühphase fallen demnach Störungen des episodischen Gedächtnisses auf, für das der geschädigte Hippokampus verantwortlich gemacht wird (Reischies/Bürker 2005). Zurzeit orientiert sich die AD-Diagnosepraxis noch an einem mehrschrittigen Ausschlussverfahren, in dem zuerst die Gedächtnisstörung festgestellt und anschließend mögliche Ursachen wie Depression oder Schizophrenie ausgeschlossen werden (Dubois et al. 2007). In fast jeder größeren Ortschaft bietet eine Gedächtnisklinik Sprechstunden für all diejenigen an, die an ihrem Gedächtnis (ver-)zweifeln. In diesen Einrichtungen wird versucht, die von den Patienten beklagten Gedächtnisstörungen neuropsychologisch zu objektivieren, um eventuell weitere Untersuchungen im Hinblick auf eine ADDiagnose einzuleiten (Genscreenings, bildgebende Verfahren, Liquoruntersuchungen). Man hat dabei jedoch mit zwei gravierenden Problemen zu kämpfen: Erstens ist die neuropathologische Manifestation der Krankheit nicht immer mit

M ATERIALISIERUNG

DER

SEELE | 201

den neuropsychologischen Symptomen korreliert (Katzman et al. 1988; Snowdon 2003).24 Zweitens weiß man, dass die krankhaften Prozesse Jahrzehnte beginnen, bevor die ersten klinischen Symptome manifest werden, also dann, wenn es für eine effektive Behandlung oder Prävention bereits zu spät ist (Reischies/Bürker 2005). Fragen der Prävention, vor allem aber eine Verbesserung der Frühdiagnose gehören deshalb zu den wichtigsten Zielen der Alzheimerforschung. Zurzeit kann AD mit Sicherheit erst post mortem festgestellt werden, durch den Nachweis der Plaques und Tangles im Hippokampus im Rahmen einer Hirnautopsie. Vor dem Hintergrund neuer wissenschaftlicher Erkenntnisse aus tierexperimentellen und klinischen Studien hat eine Arbeitsgruppe vor einiger Zeit eine Revision der offiziellen Diagnosepraxis gefordert (Dubois et al. 2007). Der neue Kriterienkatalog soll einerseits objektiv feststellbare Gedächtniseinbußen als Kernkriterium und andererseits auf biologischer Ebene – als unterstützende Befunde – unter anderem die Feststellung struktureller und funktionaler Veränderungen im mittleren Schläfenlappen und insbesondere dem Hippokampus umfassen. Die Autoren sehen sich einem »neurobiological imperative« unterworfen (Dubois et al. 2007: 741), die Diagnose möglichst weit in den präklinischen Bereich hinein auszudehnen, was auf der Basis des kombinierten Einsatzes von neuropsychologischen und neurobiologischen Diagnosemethoden gelingen soll. Die Vorschläge der Arbeitsgruppe sind die logische Folge einer Entwicklung, die bereits Mitte der 1990er Jahre eingesetzt hat. Damals wurden mehrere neue Diagnosekategorien wie »Mild Cognitive Impairment« (MCI) etabliert, die auf die leichten kognitiven Störungen fokussieren, die im Vorstadium einer Demenz auftreten (Petersen et al. 1999; Winblad et al. 2004).25 Die ›Patienten‹ weisen zwar im Unterschied zur Altersgruppe objektiv feststellbare Gedächtnisdefizite auf, sind aber in ihren alltäglichen Aktivitäten nicht gravierend einge24 Man erklärt sich dies unter anderem mit der Hypothese der kognitiven Reserve (Stern 2002). Damit wird die Fähigkeit des Gehirns bezeichnet, neurodegenerative Prozesse durch die Aktivierung neuer neuronaler Netzwerke plastisch abzufangen. Die Vermutung ist, dass zu dieser Widerstandsfähigkeit sowohl genetische als auch psychosoziale Einflüsse beitragen (Gatz et al. 2006). 25 Diese neuen Störungsbilder stehen in der Tradition einer ganzen Reihe umstrittener Krankheitskategorien wie »Benign Senescent Forgetfulness«, die sich seit den 1960er Jahren mit der Altersvergesslichkeit beschäftigen (vgl. Ritchie/Touchon 2000). Neben MCI zählen auch die Benigne Altersvergesslichkeit, Mild Cognitive Decline, Age Associated Memory Impairment, Age Related Cognitive Decline zu den leichten kognitiven Störungen (Stoppe 2007).

202 | ZWISCHEN GEIST UND GEHIRN

schränkt. Die Diagnose, die hauptsächlich auf einer kognitiven Testung beruht, erweist sich als äußerst aufwendig, da keine einheitlichen Testbatterien festgelegt sind und neurologische Ursachen wie Demenzen ausgeschlossen werden müssen (Reischies/Bürker 2005). Die leichten kognitiven Störungen stellen somit streng genommen keine eigenständigen Krankheitsbilder im klassischen Sinne dar. Eine Person, bei der MCI diagnostiziert wird, ›leidet‹ vor allem an einem abstrakt erhöhten Risiko, an AD zu erkranken, wobei die Prognose der Demenzentwicklung mit den derzeitigen Kriterien sehr unzuverlässig ist (Reischies/Bürker 2005). Über die Prävalenz und die Konversionsrate zur Demenz gibt es von Studie zu Studie unterschiedliche Angaben (Visser/Verhey 2008; Busse et al. 2006). Die Kategorie MCI ist deshalb sowohl unter Medizinanthropologen wie auch Biomedizinern hochumstritten (Whitehouse et al. 2005; Whitehouse/Moody 2006; Gauthier/Touchon 2005; Lock 2006; Visser/Brodaty 2006). Während Anthropologen vor allem die Pathologisierung der Altersvergesslichkeit kritisieren, stören sich Biomediziner wie der Gerontopsychiater Matthias W. Riepe am diffusen Krankheitskonzept: Fragen Sie drei Leute, kriegen Sie fünf Antworten, was MCI ist. Es gibt sicherlich Konzepte, die einen relativ hohen prädiktiven Wert haben, und andere, die einen relativ niedrigen prädiktiven Wert haben. […] Gerade was MCI angeht, steht das ja in der Tradition von bestimmt zwei bis drei Dutzend Begriffen, die für eine im Alter häufig beobachtete Beeinträchtigung geistiger Leistungsfähigkeit seit den 50er Jahren immer wieder unter unterschiedlichen Labels beschrieben wurden. (Interview Riepe)

Die Situation ist also unübersichtlich. Ungeachtet dessen hat der amnestische MCI-Subtyp – wohl wegen der hohen Konversionsrate zu AD (Grundman et al. 2004) – großes Interesse geweckt und gilt als vielversprechendes Instrument, um »den Endophänotyp der Krankheit Alzheimer Demenz klinisch so früh wie möglich bei alten Menschen zu identifizieren« (Reischies/Bürker 2005: 217). Mithilfe neuropsychologischer Testbatterien versucht man erst diejenigen Personen zu identifizieren, die objektivierbare Gedächtnisdefizite aufweisen. Diese Personengruppe kann anschließend – vor allem mithilfe von bildgebenden Verfahren – in prospektiven Untersuchungen auf neurologische Veränderungen untersucht werden (Markesbery 2010). Interessant zu beobachten ist, wie MCI und vergleichbare Kategorien das komplexe Krankheitsbild AD auf messbare Gedächtnisaspekte verengt haben und sich parallel dazu fast zwangsläufig der Sog auf den Hippokampus verstärkt hat. Vielen Studien zufolge verfügen MCI-Patienten im Durchschnitt nicht nur über ein verkleinertes Hippokampusvolumen, sondern man vermutet darüber hinaus, dass das Ausmaß der Hippokampusatrophie einer

M ATERIALISIERUNG

DER

SEELE | 203

unter mehreren Risikoindikatoren sein könnte, später an Demenz zu erkranken (Jack et al. 2005; Devanand et al. 2007; Wolf et al. 2004).26 Neben kognitiven Maßen gehört das Hippokampusvolumen zu denjenigen quantitativen Merkmalen, mit denen man derzeit versucht, in genomweiten Assoziationsstudien neuen AD-Risikogenen auf die Spur zu kommen (Seshadri et al. 2007; Hall/Smoller 2010; Reitz/Mayeux 2009). Der Hippokampus kristallisiert sich spannenderweise auch im Bereich »PTSD« als wichtiger Forschungsattraktor heraus. Seit den 1990er Jahren interessiert man sich verstärkt für die hirnphysiologischen Grundlagen der Stressreaktion und hat so der Biomedikalisierung der Krankheit den Weg gebahnt (Yehuda 2006b). Begünstigt wurde dieser Umbruch zum einen durch neue medizinische Technologien wie funktionelle Bildgebungsverfahren, mit denen auch komplexe Hirnfunktionen nicht-invasiv studiert werden können (Liberzon/Martis 2006), zum anderen durch Messparadigmen, mit deren Hilfe es gelang, psychotraumatologische Konstrukte tierexperimentell zu operationalisieren. Die Forschung trifft in diesem Bereich jedoch auf mehrere Hindernisse, die auch schon an anderer Stelle angesprochen wurden (siehe drittes Kapitel): Es mangelt an etablierten Tiermodellen und longitudinale Studien erweisen sich durch den nicht absehbaren Auslöser der Krankheit (Trauma) als fast unmöglich.27 Die Diagnosekriterien sind unscharf, die Komorbidität hoch. Die klinischen Studien basieren oft auf geringen Stichprobengrößen und können häufig nicht repliziert werden. Die Forschungslandschaft ist – gerade im Vergleich zu AD – wesentlich heterogener, von vielen Kontroversen geprägt und klare Trends sind entsprechend schwierig auszumachen. Neben dem Hippokampus stehen auch andere Hirnregionen – besonders die Amygdala oder der präfrontale Kortex – und ihre Interaktionen im Forschungsfokus (Liberzon/Garfinkel 2009). Dennoch gilt der Hippokampus auch unter klinischen PTSD-Forschern als »zentrales Gedächtnismaß« (Interview Jelinek) und übt eine besondere Anziehungskraft aus – nicht zuletzt deshalb, weil ihm auch eine wichtige Rolle bei der Stressregulation zugewiesen wird (Kim/Diamond 2002). 26 Dies passt zu Studien, die bei Trägern eines ApoEe4-Allels, einem der wenigen bekannten Risikogene für sporadische AD, einen im Mittel verkleinerten Hippokampus entdeckt haben (van der Flier/Scheltens 2009; Pievani et al. 2011). 27 Bis eine chronische PTSD erkannt und diagnostiziert wird, liegt das Trauma unter Umständen Jahre zurück. Der kausale Zusammenhang zwischen den Symptomen und dem Trauma lässt sich nicht mehr eindeutig nachweisen. Vor allem die sogenannte Pseudo-PTSD, das heißt die Simulation der klinischen Symptome, stellt ein großes diagnostisches Problem dar (Rosen/Taylor 2007).

204 | ZWISCHEN GEIST UND GEHIRN

Neuropsychologische Untersuchungen zu Gedächtnisdefiziten bei PTSDPatienten werden erstmalig ab Ende der 1980er Jahre durchgeführt. Die ersten Ergebnisse sind inkonsistent (Dalton et al. 1989; Bremner et al. 1993), im Laufe der Zeit verfestigt sich aber der Verdacht, dass kognitive Funktionen gestört sind (Isaac et al. 2006). Anfang der 1990er Jahre wird bei hirnstrukturellen Untersuchungen mittels bildgebender Verfahren bei PTSD-Patienten ein im Durchschnitt verkleinertes Hippokampusvolumen festgestellt (Bremner et al. 1995a,b). Diese Befunde schienen zu Tierversuchen zu passen, die sich mit den Auswirkungen von Stresshormonen auf das Gehirn beschäftigten. Dabei erwies sich der Hippokampus immer wieder als besonders vulnerabel (Sapolsky et al. 1990). Eine theoretische Rahmung dieser verstreuten Evidenzen, die auf eine Verbindung zwischen Stress, Hippokampusschädigung und PTSD hindeuten, ermöglichte die Glukkokortikoid-Kaskaden-Hypothese. Aus den 1980er Jahren stammend, stellt sie einen mechanistischen Zusammenhang zwischen chronischem Stress und Schädigungen des Hippokampus her (Sapolsky et al. 1986; Elzinga/Bremner 2002). Die Hypothese lautet grob zusammengefasst, dass der eng in die Stressregulation eingebundene Hippokampus aufgrund seiner vielen Cortisolrezeptoren speziell anfällig für die neurotoxische Wirkung von Steroidhormonen wie Cortisol ist. Stressbedingter Hypercortisolismus kann demnach auf lange Sicht einen sich hochschaukelnden Prozess auslösen, in dessen Verlauf sich die neuronale Vulnerabilität erhöht, die Zellen schneller altern und die synaptische Plastizität unterbunden wird, was bis hin zum Zelltod und zur irreversiblen Schrumpfung des Hippokampus führen kann (McEwen/Seeman 1999). Eine Zwillingsstudie aus dem Jahr 2002 hat dieses Kausalmodell, das die Hippokampusatrophie als Auswirkung einer Traumatisierung darstellt, erschüttert – ohne jedoch die Fokussierung auf den Hippokampus infrage zu stellen, im Gegenteil (Gilbertson et al. 2002). Die Forscher untersuchten Zwillingspaare, von denen einer als Vietnamveteran an PTSD erkrankt war, während der andere weder in Vietnam gekämpft hatte, noch an PTSD litt. Ein statistischer Vergleich der Hippokampusvolumina zeigte auf, dass dies bei den erkrankten Vietnamveteranen, wie erwartet, verkleinert war. Das Gleiche galt jedoch auch für die nicht erkrankten Zwillingsgeschwister. Verkleinerte Hippokampivolumina können demnach nicht, so die Schlussfolgerung, ein bloßes Epiphänomen der Krankheit sein. Mehrere Studien untersuchten im Anschluss daran den Zusammenhang zwischen Cortisolspiegel und PTSD etwas genauer und fanden Hinweise, dass die Mechanismen ganz anders verlaufen könnten, als bislang vermutet (Yehuda 2006a). Dominique de Quervain, einer der Vorreiter dieser Forschung, fasst den Umschwung folgendermaßen zusammen:

M ATERIALISIERUNG

DER

SEELE | 205

Bevor man über die genauen Cortisolveränderungen bei PTSD Bescheid wusste, dachte man, dass bei dieser Stresserkrankung zu viel Cortisol ausgeschüttet wird und dadurch der Hippokampus geschädigt wird. Was man dann gefunden hat, war, dass diese Patienten gar nicht erhöhte Cortisolspiegel haben. Und da ist diese ursprüngliche Theorie ins Wanken gekommen. […] Es scheint also auch die Möglichkeit zu bestehen, dass die Kausalität umgekehrt ist, dass ein kleiner Hippokampus das Risiko erhöht, an einer PTSD zu erkranken. (Interview de Quervain)

Untersuchungen zum Cortisolspiegel von PTSD-Patienten haben aufgrund der relativ kleinen Studiengrößen und Messunsicherheiten eine verwirrende Datenlage ergeben (Yehuda 2006a). Der Zusammenhang zwischen Cortisolausschüttung und PTSD ist entsprechend umstritten. Trotz der komplexen Forschungslage scheint die Mehrheit der Wissenschaftler inzwischen zur These zu tendieren, dass tiefe Cortisolspiegel und ein verkleinertes Hippokampusvolumen die Stressanfälligkeit sowie das PTSD-Risiko erhöhen. Sollte sich dieser Verdacht bestätigen, so wäre man damit auf einen vielversprechenden Endophänotypen gestoßen. Das Hippokampusvolumen hat eine erbliche Komponente (Thompson et al. 2001), es erhöht spezifisch das Erkrankungsrisiko und es ist relativ einfach messbar. Gleichzeitig wären damit die neuropsychologisch feststellbaren Gedächtnisdefizite mit großer Wahrscheinlichkeit nicht als eine Folge toxischer Schädigungen durch Stress, sondern ebenfalls als ein Risikofaktor der Krankheit entlarvt, worauf Zwillingsstudien ebenfalls hindeuten (Gilbertson et al. 2006). Angesichts der offenen Frage, warum nur ein kleiner Teil der Traumatisierten an PTSD erkrankt, eröffnet das die Aussicht, im Hippokampus nach spezifischen PTSD-Risikomarkern zu suchen. Im Gespräch ist der Neurometabolit NAcetylaspartat (NAA), der als ein Marker für die funktionelle Integrität des Hippokampus gilt und durch Magnetresonanzspektroskopie sichtbar gemacht werden kann (Siegmund et al. 2008; Schuff et al. 1997, 2008). Einschränkend ist zu sagen, dass die PTSD-Forschungslandschaft viel zerklüfteter ist, als hier dargestellt werden kann. Dennoch zeichnet sich eine Parallele zur Alzheimerforschung ab. In beiden, historisch gesehen weit auseinanderliegenden Forschungsfeldern beginnt sich eine Dreiecksbeziehung zwischen Hippokampus, Gedächtnis und Krankheit zu entspinnen.28 Parallel zu der klinischen Operationalisierung der ebenso komplexen wie heterogenen Syndrome als Gedächtnispathologien – mithilfe von neuropsychologischen Testbatterien –, 28 Wobei bei PTSD – wie bereits erwähnt – die Tatsache eine wesentliche Rolle zu spielen scheint, dass der Hippokampus als Schaltstelle zwischen Stress und Gedächtnis auch für klinische Stressforscher ein interessantes Untersuchungsobjekt darstellt.

206 | ZWISCHEN GEIST UND GEHIRN

zieht es den forschenden Blick zum Hippokampus hin, dessen materielldiskursiven Umrisse sich in den Praxisfeldern dadurch deutlich abzeichnen. Die Dichotomie zwischen Geist und Gehirn, welche die Geschichte der beiden Krankheiten tief greifend geprägt hat, scheint damit zunehmend ihre Grundlage zu verlieren: »Für mich gibt es eigentlich keine Polarisierung zwischen Gehirn und Psyche. Beim Gedächtnis handelt es sich ganz klar um psychologisch fassbare Verhaltensweisen, die alle, aber wirklich alle, ein biologisches Korrelat haben.« (Interview Papassotiropoulos) Im nächsten Abschnitt komme ich auf die weitreichenden politischen Konsequenzen der Anatomisierung von Gedächtnis zu sprechen, die weit über das Labor und die Klinik hinausreichen.

G EDÄCHTNISPOLITIK Im Jahre 2007 richteten Psychiater des McLean Hospital Psychiatry Lab einen Wettbewerb aus, den sogenannten »Repression Challenge« (vgl. Pope et al. 2007).29 Sie wollten wissen, ob es das Krankheitsbild der dissoziativen Amnesie wirklich gibt.30 Die Wissenschaftler zweifelten offensichtlich daran, dass »das Konzept von unterdrückter Erinnerung bzw. dissoziativer Amnesie« ein »wissenschaftlich valides« ist.31 Um den Preis zu gewinnen, galt es, die Beschreibung eines Falles von unterdrückter Erinnerung vor 1800 zu dokumentieren, der erwiesenermaßen nicht auf neurologische Faktoren, sondern ein psychisches Trauma zurückgeht. Erst dann sei plausibel gemacht, dass es sich bei der dissoziativen Amnesie nicht bloß um ein Kulturprodukt des 19. Jahrhunderts, sondern ein natürliches, das heißt universal gültiges und in der Wirklichkeit des Gehirns verortetes Syndrom handelt: »Is dissociative amnesia a natural neuropsychological phenomenon, an innate capacity of the brain to expel traumatic memories from consciousness, or is it merely a pseudoneurological symptom, analogous to

29 Vgl. für das Folgende Kehl 2008. 30 Die Dissoziative Amnesie ist eine umstrittene, im DSM-IV-TR jedoch offiziell anerkannte Diagnose. Die Erkrankung zählt wie PTSD zu den Traumastörungen. Im Unterschied zu PTSD ist die Dissoziative Amnesie aber nicht durch übermäßige Erinnerung, sondern durch übermäßiges Vergessen gekennzeichnet (American Psychiatric Association 2000). Zentrales Merkmal der seltenen Krankheit ist eine umfassende Amnesie im Zusammenhang mit einer traumatischen Erfahrung. 31 Vgl.

http://www.biopsychlab.com/research/repressed-memory/dissociative-amnesie/

(Stand: 11.2.2011).

M ATERIALISIERUNG

DER

SEELE | 207

pseudo-seizures, pseudo-paralysis or anesthesia in a non-anatomic distribution?« (Pope et al. 2007: 1) Trotz mehr als hundert Rückmeldungen brachte der »Repression Challenge« kein glaubwürdiges Beispiel für Dissoziative Amnesie vor 1900 ans Licht, was nach Ansicht der Initiatoren nahe legt, dass es sich um ein kulturgebundenes Phänomen handelt, das Produkt einer romantischen Weltanschauung (Pope et al. 2007). Diese These ist im Dunstkreis einer wissenschaftlichen Kontroverse anzusiedeln, die unter den Schlagworten memory wars oder false memory debate in den USA der 1990er Jahre hohe, weit über den engeren Wissenschaftskontext hinaus wahrnehmbare Wellen schlug (vgl. Hacking 2001). Auslöser waren eine epidemisch anwachsende Zahl von Missbrauchsprozessen, in denen die Ankläger sich auf lange zurückliegende Kindheitserinnerungen abstützten, die erst mit psychotherapeutischer Hilfe, teilweise sogar erst unter Hypnose, ans Licht gekommen waren. Die verantwortlichen Psychotherapeuten, die diese kritischen Erinnerungen zutage gefördert hatten, beriefen sich dabei mehr oder weniger offen auf die psychoanalytischen Konzepte der Verdrängung und Dissoziation (Loftus/Ketcham 1994; Loftus 1993). Vor allem Neuropsychologen und biologische Psychiater (darunter diejenigen des McLean Hospital) zweifelten, unterstützt durch die »False Memory Foundation«,32 den Wahrheitsgehalt, ja sogar die Möglichkeit unbewusster resp. verdrängter Erinnerungen an. Diese »battle for truth in science« (Loftus 2004) schwelen bis heute weiter (vgl. Kehl 2008). In derartigen Debatten manifestieren sich zwei eng miteinander verschränkte Entwicklungstendenzen, die Thema des vorliegenden Kapitels sind: • Das Gehirn wird zum Maßstab für die Realität nicht nur organischer Krankhei-

ten wie AD, sondern auch komplexer psychischer Syndrome wie der Dissoziativen Amnesie oder PTSD erklärt. • Praktiken der Lokalisierung spielen sich zwar hauptsächlich in biomedizinischen Laboratorien und Kliniken ab. Sie haben aber biopolitische Konsequenzen, die weit über diese Orte hinausreichen und in der sozialwissenschaftlichen Literatur seit Foucault eingehend diskutiert werden (vgl. Hacking 1994; Rose 2001; Flower/Heath 1993; Moreira/Palladino 2008). Seit Foucaults Arbeiten (1978, 1988, 1983) zur Sexualität und der »Geburt der Klinik« gehört die Analyse soziopolitischer Machtdispositive zu einem zentralen Topos der biomedizinischen Begleitforschung (vgl. Rabinow 2004; Rose 1996 2001; Rabinow/Rose 2006). Foucault hat ein Dispositiv als »heterogenes En32 Vgl. http://www.fmsfonline.org/ (Stand: 11.2.2011).

208 | ZWISCHEN GEIST UND GEHIRN

semble« charakterisiert, »das Diskurse, Institutionen, architektonische Einrichtungen, reglementierende Entscheidungen, Gesetze, administrative Maßnahmen, wissenschaftliche Aussagen, philosophische, moralische oder philanthropische Lehrsätze, kurz: Gesagtes ebenso wie Ungesagtes umfasst« (Foucault 1978: 118). Die Schwelle zwischen Normalität und Pathologie festzulegen, gehört zu den Kernaufgaben der (Bio-)Medizin – die Gesundheitstechnologien, die Klassifikationssysteme, die institutionellen Strukturen, die aus dieser Praxis auftauchen, implizieren immer auch Formen der Disziplinierung individueller Körper (Anatomopolitik) oder ganzer ›Volkskörper‹ (Biopolitik). Wie etwa das Beispiel MCI deutlich macht, geht die Demenzforschung in Richtung einer zunehmenden Medikalisierung und Pathologisierung des Alterungsprozesses, die sich am Phänomen der Altersvergesslichkeit festmacht. Endophänotypen sind Teil einer Strategie, die Krankheitsmerkmale vor Ausbruch der eigentlichen Krankheit ausfindig zu machen und den Zustand der Pathologie somit immer weiter in die prodromale oder sogar präsymptomatische Phase auszudehnen. Diese Praxis impliziert sowohl neue Krankheits- als auch neue Selbstkonzeptionen, die sich vermehrt an körperlichen Dispositionen oder Risikozuständen ausrichten. Um auf eine Unterscheidung von Joseph Dumit (2002) zurückzugreifen: Das zunehmend dominierende Krankheitsmodell ist nicht mehr das des inhärent gesunden Körpers, der erst durch eine konkrete Krankheitsursache aus seinem Gleichgewicht gerät, in das er mithilfe der Medizin wieder zurückfindet; sondern es ist dasjenige des inhärent kranken Körpers, der nie völlig symptomfrei, also gesund ist (vgl. Kliems 2008; siehe dazu auch sechstes Kapitel). Die Grenzen zwischen Gesundheit und Krankheit werden dadurch fließend, denn auch der scheinbar gesunde Körper ist immer »at risk« und bedarf beständig medizinischer Überwachung, um notfalls schnell eingreifen zu können, falls er aus dem Gleichgewicht gerät. Wie Harald Kliems (2008) am Beispiel von ADHS ausgeführt hat – einer Diagnose, die in vielen Punkten mit PTSD vergleichbar ist –, entstehen durch den biomedizinischen Trend zum Risikodiskurs neue Subjektkonzeptionen, worauf auch Begriffe wie »somatische Individualität« (Novas/Rose 2000), »neurochemisches Selbst« (Rose 2003) respektive »pharmaceutical self« (Dumit 2003) hindeuten. Durch die biomedizinische Triangulation von Gehirn, Gedächtnis und Krankheit eröffnen sich auch PTSD-Patienten neue psychopharmakologische Möglichkeiten zur »Herstellung von ›Normalität‹« (Kliems 2008), die ergänzend zu psychotherapeutischen Verfahren verabreicht werden. Zurzeit stehen zwar nur herkömmliche Antidepressiva (SSRI’s) zur Ver-

M ATERIALISIERUNG

DER

SEELE | 209

fügung, deren Wirkmechanismen nicht geklärt sind (Fani et al. 2011).33 Die Forschung arbeitet aber an mehreren neuen kausalen Therapieansätzen wie Propranolol oder Cortisol, mit denen traumatische Erinnerungen direkt an ihren neurochemischen Wurzeln bekämpft werden sollen (de Quervain/Margraf 2008; Debiec/Altemus 2006; Debiec/LeDoux 2006). In diesem Trend zeigt sich der neue anatomische Fokus, die Verortung der Gedächtnis-Krankheit im Gehirn, wohl am deutlichsten. Im Sinne Foucaults ist wichtig festzuhalten, dass diese machtvollen Verschiebungen Patienten nicht nur passiv Herrschaftstechnologien aussetzen, sondern ihnen neue »Technologien des Selbst« (Foucault et al. 1993; Kontopodis/Niewöhner 2010) an die Hand geben, um sich selbst und ihren Körper zu transformieren.34 Es waren auch Foucault und dessen Lehrer Georges Canguilhem (1991), die anhand historischer Fallbeispiele klargemacht haben, dass es sich bei Krankheitskategorien um keine natürlichen Kategorien handelt, sondern um kulturspezifische Phänomene. Im Falle von AD und PTSD wurden ihre Thesen von Medizinanthropologen untermauert: So hat etwa Allan Young (1995) in seiner klassischen Ethnografie darauf hingewiesen, dass es sich bei der Idee des traumatischen Gedächtnisses um etwas handelt, das tief im westlichen Kulturkreis verankert ist und auf kulturspezifischen Überzeugungen des Selbst beruht. Dass die Diagnose »PTSD« inzwischen international verbreitet ist, verschleiert tendenziell die kulturellen Unterschiede, die es im Umgang mit Traumata und seelischer Verletzung gibt (vgl. Marsella et al. 1996). Und bei AD wiederum fällt auf, dass sich das Krankheitskonzept und das subjektive Erleben der Patienten in westlichen Gesellschaften durch eine Fokussierung auf das pathologische Gedächtnis auszeichnen, die bei anderen Kulturen so nicht beobachtet wird (Gaines; Cohen 2000; Leibing/Cohen 2006; Leibing 2002). Sowohl AD als auch PTSD können demzufolge als »diseases of time« (Leibing 2002: 214) bezeichnet werden, als Kulturprodukte einer »hypercognitive society« (Post 2003), in der viele der gesellschaftlichen Regulationsmechanis33 Die Tatsache, dass sich mit diesen Medikamenten bestimmte PTSD-Symptome wie Schlafmangel, Unruhe etc. effektiv bekämpfen lassen, wie Studien gezeigt haben (Tucker et al. 2001), wirft viele ethische Fragen auf, die kontrovers diskutiert werden (vgl. Hall/Carter 2007; Henry et al. 2007). Vor allem das Militär hat ein großes Interesse an effektiven Pharmakotherapien, die prophylaktisch oder post-traumatisch verabreicht werden können. 34 Die sozialen Konsequenzen, die ich hier nicht weiter thematisiere, werden unter den Schlagworten »Biosozialität« oder »Genetic citizenship« diskutiert (vgl. Kliems 2008; Kollek/Lemke 2008; Rabinow 2004).

210 | ZWISCHEN GEIST UND GEHIRN

men auf die kognitiven Fähigkeiten und im Besonderen das Gedächtnis abzielen. Konkret äußert sich das im »Repression Challenge« und den kontroversen Debatten um die Natur traumatischer Erinnerungen oder den allgegenwärtigen Gedächtniskliniken und der zunehmenden Medikalisierung von Alter und Vergesslichkeit (Hacking 2001, 1994). Vor dem Hintergrund solcher Entwicklungen hat Hacking die beiden foucaultschen Machtmechanismen (Bio- und Anatomopolitik) um einen dritten ergänzt, den er »Gedächtnispolitik« (Memoropolitik) genannt hat. Den dritten Machtpol sieht Hacking auf die Disziplinierung der Seele oder des Selbst gerichtet – also demjenigen Aspekt des Menschen, der sich lange Zeit exakter Kategorisierung und materieller Vereinnahmung hartnäckig verwehrt hatte. Die Ursprünge des gedächtnispolitischen Wahrheitsregimes liegen gemäß Hacking im späten 19. Jahrhundert, das Young als »the golden age of memory science« bezeichnet hat (Young 2000: 149). Damals begannen sich mehrere wissenschaftliche Disziplinen mit dem Erinnern und Vergessen zu beschäftigen: zum einen experimentelle Psychologen wie Ebbinghaus, die Gedächtnis in einen statistischen Gegenstand verwandelten; dann somatisch orientierte Neurologen wie Broca oder Wernicke, die psychische Funktionen neuroanatomisch verorteten; und zu guter Letzt natürlich Theoretiker der Psyche wie Freud, die Läsionen vom körperlichen auf den seelischen Raum übertrugen. Hacking spricht von »several sciences of memory«, und er ergänzt: »Despite our deep commitment to the unity ot science, there is virtually no overlap between them.« (Hacking 1996c: 70) Das gilt jedoch nur für die »Ebene des Oberflächenwissens« (Hacking 2001: 275). Unter der Oberfläche teilen alle diese Forschungsströmungen trotz ihrer Heterogenität dasselbe »Tiefenwissen«: nämlich dass das Gedächtnis ein Gegenstand ist, der wissenschaftlich erforschbar ist, vor allem aber, dass die Wissenschaften vom Gedächtnis als Surrogat für die Erforschung und Kontrolle der menschlichen Seele dienen können.35 Memoropolitik, Anatomopolitik und Biopolitik bilden zusammengenommen die zentralen soziopolitischen Ordnungskräfte moderner Gesellschaften, drei Machtpole, die »durch ein Bündel von Zwischenbeziehungen« (Foucault 1983: 166) miteinander verflochten sind und sich im Trend zur Biologisierung psychischer Syndrome ver-

35 Dieses Tiefenwissen entwickelte sich gemäß Hacking erst im 19. Jahrhundert: Zwar beschäftigte man sich auch bereits in den Jahrhunderten zuvor mit dem Gedächtnis, aber diese Auseinandersetzung fand nicht auf einer naturwissenschaftlichen Ebene, sondern in der Renaissance als Ars Memoriae (die Kunst des Erinnerns) erst auf einer mnemotechnischen und in der Neuzeit vor allem auf einer philosophischen Ebene statt.

M ATERIALISIERUNG

DER

SEELE | 211

schränken, die der eingangs thematisierte »Repression Challenge« auf den Punkt bringt. Kalkulierbare und andere Subjekte Ich will jetzt die gedächtnispolitischen Dimensionen (bio-)medizinischer Forschungen im PTSD-Bereich etwas genauer anschauen. Dort ko-existieren zwei einflussreiche, aber kaum miteinander vernetzte Forschungsfelder, die unterschiedliche Konzeptionen des Selbst implizieren. Lena Jelinek skizziert die Bereiche wie folgt: Wir haben zum einen Theorien zum Traumagedächtnis, die besagen, dass die Erinnerungen an das Trauma fragmentierter, desorganisierter, unzusammenhängender usw. sind, und die Personen aufgrund dieser Eigenschaften der Erinnerungen Intrusionen bekommen. Das andere Forschungsfeld sind die Neuropsychologen und Biologen, die eher untersucht haben, warum Patienten Gedächtnisdefizite in Standardtests haben, also bei neutralem, nichtautobiografischem Material. Und das sind eher zwei getrennte Forschungsfelder. (Interview Jelinek)

Auf der einen Seite steht die biologische Psychiatrie. Man interessiert sich hier für die hirnorganischen Grundlagen der Krankheit und messbare Gedächtnisdefizite, die nicht primär mit dem Traumagedächtnis zusammenhängen. Es ist dieser Forschungskontext, in dem der Hippokampus als epistemisches Objekt auftaucht. Auf der anderen Seite steht eine Forschungstradition, die um psychologische Phänomene kreist. Diese Forschungsrichtung beschäftigt sich mit der komplexen Struktur des autobiografischen Traumagedächtnisses und der ihm zugrunde liegenden psychosozialen Verarbeitungsmechanismen und Bewältigungsstrategien. Wie von Jelinek angedeutet, gibt es zwischen den Kernelementen dieser beiden Forschungstraditionen (mit ihren Erklärungsmodellen, Hypothesen, epistemischen Objekten, Standards, Untersuchungsmethoden etc.) kaum maßgebliche Schnittmengen.36 Ausgehend von der heuristischen Annahme, dass es sich bei diesen Forschungskontexten um zwei divergente Denkstile handelt, lässt sich fragen, welche unterschiedlichen Formen von Personalität und Subjektivität in diesen materiell-diskursiven Machtgefügen erzeugt werden. Um diese Frage zu beantworten, ist es notwendig, sich die zentralen Untersuchungsmetho-

36 Zu den wenigen Forschern, die Verbindungen herzustellen versuchen, gehören Brewin (1996) und Jelinek (2006) selber.

212 | ZWISCHEN GEIST UND GEHIRN

den und Forschungsfragen der psychologischen Forschungstradition genauer vor Augen zu führen, um sie der biomedizinischen gegenüberzustellen. PTSD-Forschungen im klinisch psychologischen Bereich kreisen um die komplexe Symptomatik des Syndroms, die sich auch in den diagnostischen Kriterien widerspiegelt. Dazu gehört, dass das Traumagedächtnis von PTSDPatienten eine paradoxe Struktur aufweist: Einerseits können sich die Patienten normalerweise an Details der traumatischen Situation nicht mehr erinnern, sie haben Gedächtnislücken. Gleichzeitig leiden sie unter besonders lebhaften, vor allem visuell erlebten Wiedererinnerungen an das Trauma oder dessen Begleitumstände (Flashbacks, Intrusionen). Begleitet wird diese Desorganisiertheit der Erinnerungszustände von dissoziativen Symptomen. Die Person ist ›gespalten‹, sie kann ihre Gefühle, Gedanken und Erfahrungen nicht mehr miteinander in Einklang bringen. Die fehlende Kontextualisierung und Integration des Traumas in die eigene Lebensgeschichte trägt nach dem »Kognitivem Störungsmodell« Ehlers’ und Clarks (2000) – »the most detailed account of the maintenance and treatment of PTSD« (Brewin et al. 2003: 364) –, zu einem Bedrohungsgefühl bei. Das Modell bringt das für PTSD symptomatische Vermeidungsverhalten und die Merkmale des Traumagedächtnisses (Intrusionen, Dissoziation) in einen Erklärungszusammenhang. Entscheidend sind demnach die negative Interpretation des Traumas und die damit verbundene psychische Verletzung (Maercker 2009). Die Desorganisiertheit der autobiografischen Erinnerung an das Trauma verstärkt das Bedrohungsgefühl zusätzlich und die kognitiven Strategien und Verhaltensweisen, die Abhilfe schaffen sollen, wirken kontraproduktiv. Der Fokus dieses und ähnlicher Modelle,37 die nach Erklärungen für das spezifische Leiden traumatisierter Patienten suchen, ist folglich auf die psychischen Ursachen und subjektiven Begleitumstände der Krankheit gerichtet. Tanja Michael streicht die Differenzen zur biologischen Forschungsrichtung heraus: Ob man hinterher traumatisiert ist oder nicht, das ist ein sehr psychischer Prozess, ein sehr subjektiver. Es ist sehr schwierig, Standard-Laborgedächtnistests mit Patienten zu machen, da es keine objektive Validierung davon gibt, was die Leute einem erzählen. […] Ich finde natürlich das, was in meiner Community gemacht wird relevanter, weil wir noch einen

37 Andere anerkannte psychologische Modelle wie das »Furchtstrukturmodell« (Foa/Kozak 1986) oder das »Duale Traumagedächtnismodell« (Brewin et al. 1996), das als einziges der psychologischen Modelle eine Brücke zu den biologischen Wissenschaften schlägt, setzen jeweils andere Akzente, weisen jedoch viele gemeinsame Schnittmengen auf.

M ATERIALISIERUNG

DER

SEELE | 213

Schritt weitergehen und fragen, wie verändert man solche Bilder, wie hilft man Patienten, mit diesen schrecklichen Bildern im Kopf umzugehen. (Interview Michael)

Der Einfluss von psychischen Prozessen (Bewertung des Traumas oder Umgang mit Symptomen) werde ignoriert von den biologisch orientierten Wissenschaftlern, kritisiert Michael. Auch wenn die klassische Unterscheidung zwischen anatomischen und funktionellen Denkstilen durch neuere Entwicklungen (etwa funktionelle Bildgebung) an Eindeutigkeit und Schärfe verliert (siehe dazu sechstes Kapitel), so halte ich sie in diesem Fall für analytisch fruchtbar. Vor dem Hintergrund von Hackings Ausführungen zu den Denkstilen lässt sich die von Tanja Michael angesprochene »Ignoranz« nämlich noch einmal neu bewerten. Sie hat nichts mit fehlendem Willen zu tun. Subjektive Phänomene, mit denen sich die psychologische Forschungspraxis auseinandersetzt, tauchen in der biomedizinischen Praxis mit ihrem quantitativ ausgerichteten Methodenarsenal kaum auf. Existenzielle Lebenserfahrungen und subjektive Bedeutungen, die gesamte emotionale Dimension einer Traumatisierung, das Gefühl von Hilflosigkeit und Schuld, die im Therapiegespräch im Zentrum stehen, sind im neuropsychologischen Labor nicht sichtbar; was dort in Erscheinung tritt, sind die objektivierbaren Prozesse, das somatische Gedächtnis oder »bodily memory« (Young 1996), das mit seiner »Bio-Logik« (Young 1996: 99) von der subjektiven Bedeutungsdimension der Krankheit losgelöst ist. Diese wiederum steht für Psychologen wie Michael im Vordergrund, und es liegt auf der Hand, dass aufgrund der untersuchten Phänomene die objektive Quantifizierung kognitiver Funktionen hier methodisch völlig ins Leere liefe. Denn im Vordergrund stehen gerade nicht objektiv feststellbare, messbare Lerndefizite, sondern die spezifische Qualität der autobiografischen Erinnerung und das subjektive Bedrohungsgefühl, das mit einem schrecklichen Ereignis verbunden wird. Um die Dissonanzen und Störungen in der autobiografischen Selbstbeschreibung aufzuspüren, greift man deshalb auf qualitative Methoden wie Fragebögen oder Interviewanalysen zurück, um etwa die Unorganisiertheit autobiografischer Erinnerungen an das Trauma (anhand von Wiederholungen oder Sprüngen in den Erzählungen etc.) zu ermitteln (Harvey/Bryant 1999). Man hat es hier mit zwei Forschungslogiken zu tun, die das Selbst des Patienten auf verschiedene Weise konstituieren. Um die Kernmerkmale der jeweiligen Subjektkonzeptionen etwas genauer auszubuchstabieren, ist Dennetts Unterscheidung dreier stances (Erklärungsstrategie, Standpunkt) hilfreich. Dennett (1971) beschreibt drei mögliche Erklärungsstrategien, mit denen sich das Verhalten von Systemen fassen lässt: Erstens den physikalischen Standpunkt, bei dem rein materielle Aspekte – physikalische Gesetze oder genetische Mutationen –

214 | ZWISCHEN GEIST UND GEHIRN

im Vordergrund stehen. Zweitens den funktionalen Standpunkt, nach dem der Bauplan des Systems relevant ist, wobei es keine Rolle spielt, wie das Design auf einer materiellen Ebene realisiert ist.38 Und drittens den intentionalen Standpunkt, bei dem eine rationale respektive intentionale Handlungsweise unterstellt wird. Das heißt, hier interessiert man sich nicht für den funktionalen Aufbau, sondern für die Ziele, Bedürfnisse und Überzeugungen, die das Verhalten insgesamt vernünftig erscheinen lassen. Dennett zufolge sind Menschen so komplex aufgebaut, dass die physikalische oder funktionale Erklärungsstrategie in den meisten Fällen ungeeignet ist und sich der intentionale Standpunkt aufdrängt. Sobald jedoch psychische Störungen vorliegen, mit denen sich die Psychiatrie und klinische Psychologie beschäftigen, können biologische oder funktionale Erklärungsmuster natürlich sehr wohl angemessen sein, um Abweichungen von normalen Handlungsmustern zu erklären (Bolton 2009). Dennetts Standpunkte lassen sich als Denkstile im Sinne Hackings charakterisieren, insofern sie nicht zueinander kommensurabel sind. Man kann zwar die Erklärungsstrategie wechseln, verliert damit aber auch das vormalige Wahrheitsregime mit seiner spezifischen Ordnungslogik aus dem Blick. Was folgt daraus nun für die oben skizzierten Forschungsfelder? Die klinische Psychologie scheint sich an einem intentionalen Erklärungsmuster zu orientieren: Im Vordergrund stehen das traumatisierte Subjekt, seine psychischen Verarbeitungsmechanismen und gestörten Verhaltensweisen. Irrationale Verhaltensweisen werden vor dem Hintergrund der traumatischen Erfahrung und des subjektiv erlebten Bedrohungsgefühls rationalisiert. Es ist, mit anderen Worten, völlig rational, mit den »schrecklichen Bildern im Kopf« umzugehen, indem man sie vom restlichen autobiografischen Selbst abspaltet. Die Rationalitätsunterstellung ist besonders in der kognitiven Verhaltenstherapie von großer Bedeutung, die darauf abzielt, Verzerrungen zwischen Überzeugungen, Wünschen und Handlungsmustern des Patienten aufzuspüren und in einen rationalen Einklang zu bringen. Auf der Seite der biologischen Psychiatrie herrscht hingegen eine funktionale Einstellung gegenüber dem Patienten vor, der nicht auf die subjektive Bedeutungsebene fokussiert. Vielmehr richtet sich die Forschungspraxis an »der neuronalen Basis der menschlichen Informationsverarbeitung« aus (Interview Haynes). Man nimmt Funktionsstörungen in den Blick, die sich als Leistungsdefizite in Standardtests zeigen und die auf Dysfunktionen von relevanten Hirnstrukturen wie dem Hippokampus zurückgeführt werden. Das Resultat sind kalkulierbare, in der »Sprache der Biomedizin« (Kliems 2008: 156) formuli38 Dennetts funktionaler Standpunkt ist nicht mit dem zuvor skizzierten funktionellen Denkstil zu verwechseln, der das psychiatrische Denken seit Freud geprägt hat.

M ATERIALISIERUNG

DER

SEELE | 215

erbare Subjekte: »[I]ndividualizing humans through classifying them, calibrating their capacities and conducts, inscribing and recording their attributes and deficiencies, managing and utilizing their individuality and variability.« (Rose 1988: 187) Das episodische Gedächtnis, die Seele und der Hippokampus Few research topics in neuroscience have been more successful than the study of the brain mechanisms of memory, and its companion, learning. If the self is encoded as memories, then we have a way of beginning to understand how the self is established and maintained in the brain. (LeDoux 2003b: 298)

LeDoux bekennt sich im Zitat freimütig zur Absicht, die Seele – also denjenigen Aspekt des Menschen, der sich bislang nicht konkret fassen lässt – naturwissenschaftlich in den Griff zu bekommen. Dass dies über das Gedächtnis erreicht werden soll, bedient einen uralten Topos des westlichen Denkens. Bereits Augustinus sah in der (autobiografischen) Erinnerung eine zentrale Quelle von Selbst und Identität. Die Idee jedoch, dass das Selbst durch die autobiografische Erinnerung nicht nur zugänglich gemacht, sondern gleichsam produziert wird, vollzieht sich gemäß Allan Young erst in der Neuzeit durch Denker wie Hume und Locke und wird schließlich durch Ribots self-narrated self in die Psychologie übertragen (Young 2000). Der vorläufige Kulminationspunkt dieser Entwicklung bildet das episodische Gedächtnis. Es handelt sich dabei um ein von dem Psychologen Endel Tulving zu Beginn der 1970er Jahre vorgestelltes und später mehrfach revidiertes Gedächtnissystem (Tulving 1972, 1983, 2005). Dieses neuropsychologische Konstrukt eröffnet zum ersten Mal die Chance, das Selbst direkt im Gehirn zu objektivieren. Mit anderen Worten: Das episodische Gedächtnis, so wie es von Tulving gefasst wird, verbindet Seele und Gehirn. Die forschungspraktische Bedeutung des Hippokampus im Zusammenhang mit AD oder PTSD erschließt sich, so mein Argument, erst vor dem Hintergrund dieser gedächtnispolitischen Konstellation. Das episodische Gedächtnissystem ist ein Produkt der im zweiten Kapitel beschriebenen psychologischen Umwälzungen, die durch die psychometrische ›Vermessung‹ von amnestischen Patienten wie H.M. und anderen ausgelöst wurde und zur Fragmentierung des Gedächtnisses in funktional definierte Module geführt hat. Es gehört zu einer von Tulving (1985) aufgestellten Gedächtnissystematik, welche die duale Kategorisierung (explizit/implizit) weiter verfeinert. Zusammen mit dem semantischen Gedächtnis (dem sogenannten »Wissenssystem«) zählt es zu den expliziten, das heißt auf Bewusstsein beruhenden Gedächt-

216 | ZWISCHEN GEIST UND GEHIRN

nisfunktionen, die sich von den unbewusst ablaufenden Erinnerungsvorgängen abgrenzen lassen. Tulving fasst seine zentralen Merkmale wie folgt zusammen: Das episodische Gedächtnis ist ein relativ junges, sich spät entwickelndes und früh beeinträchtigtes vergangenheitsorientiertes Gedächtnissystem, anfälliger als andere Gedächtnissysteme für neuronale Dysfunktion und wahrscheinlich ausschließlich beim Menschen anzutreffen. Es ermöglicht eine mentale Zeitreise durch die subjektive Zeit – von der Gegenwart in die Vergangenheit – und erlaubt uns so, mittels des autonoietischen Bewusstseins die eigenen früheren Erfahrungen wieder zu durchleben. […] Der Kern des autonoietischen Bewusstseins ist die Verbindung dreier Konzepte – des Selbst, der autonoietischen Bewusstheit und der subjektiv empfundenen Zeit. (Tulving 2006: 54f.)

Episodische Erinnerungsvorgänge unterscheiden sich von anderen dadurch, dass sie nicht nur einfach auf erworbenes Wissen zurückgreifen – zum Beispiel ein Wort aus einer Wortliste –, sondern zusätzlich den persönlichen Kontext wachrufen – also etwa die Umstände, unter denen ein Wort gelernt wurde. Der Begriff »Autonoiesis« soll die spezielle Art des Bewusstseins bezeichnen, die solchen mentalen Zeitreisen zugrunde liegt. Nur wer sich seiner eigenen, subjektiv erlebten Vergangenheit bewusst werden kann, hat die Möglichkeit, dem eigentlich unaufhaltsamen Fluss der Zeit zumindest auf der subjektiven Ebene ein Schnippchen zu schlagen. Das episodische Gedächtnis ist somit als das definiert, was unsere bewusste Gegenwart mit unserer subjektiv erlebten Vergangenheit und möglichen Zukünften verbindet. Für Tulving macht erst das episodische Erinnern uns zu Personen mit einer eigenen Identität, einer eigenen Lebensgeschichte, einem eigenen Selbst. Dieses »Wunder der Natur« (Tulving 2006: 71), so Tulving, sei deshalb wahrscheinlich auch nur dem Menschen vorbehalten – ein Punkt, der, wie ich gleich zeigen werde, nicht von allen akzeptiert wird. Mit der Konzeption des episodischen Gedächtnisses bedient Tulving einen zentralen Topos der westlichen Ideengeschichte. Was Tulvings Konzeption heraushebt und sie zu einem paradigmatischen Fall von Gedächtnispolitik macht, ist die Behauptung, dass dieses komplexe Gedächtnissystem nicht etwa in unserer Psyche oder Seele, sondern in der biologischen Realität des Gehirns verankert sei. Diese Verlinkung von Selbst und Gehirn ist der entscheidende Punkt. Es gäbe inzwischen genügend Belege, so ist Tulving überzeugt, die den »Status [des episodischen Gedächtnisses] als nicht allein psychologische, sondern neurokognitive Entität« (Tulving 2006: 52) bestätigen würden. Für Tulving hängt vom Nachweis der zugrunde liegenden »neurokognitiven Maschinerie« (Tulving 2006: 57) viel ab: Ist dieses »hypothetische Gedächtnissystem« eine abstrakte Kategorie, ein Hirngespinst? Oder existiert es tatsächlich? Auch für andere Ge-

M ATERIALISIERUNG

DER

SEELE | 217

dächtnisforscher wie Papassotiropoulos hat sich »[d]ieses Konzept […] insofern bewahrheitet, als es strukturell-anatomische Korrelate gibt, Stichwort Hippokampus. Es gibt auch physiologische Korrelate, Stichwort LTP und LTD« (Interview Papassotiropoulos). Die wissenschaftliche Basis dafür besteht hauptsächlich in Untersuchungen mit funktionellen Bildgebungsverfahren und einzelne Hirnläsionsstudien (Kapur et al. 1994; Tulving et al. 1994; Rosenbaum et al. 2005; Habib et al. 2003; Vargha-Khadem et al. 1997), die nahelegen, dass die Einspeicherung und der Abruf episodischer Gedächtnisinhalte auf komplexen neuronalen Netzwerken vor allem des präfrontalen Kortex und mittleren Schläfenlappens beruhen (Piolino et al. 2009).39 Auch wenn die unübersichtliche Forschungslage schwer auf einen gemeinsamen Nenner zu bringen ist, so besteht doch ein weitgehender Konsens, dass der hippokampalen Formation bei der Einspeicherung episodischer Gedächtnisinhalte eine wichtige Rolle zukommt (Piolino et al. 2009; Vargha-Khadem et al. 1997; Tulving/Markowitsch 1998; Moscovitch et al. 2005; Staniloiu et al. 2010; Dickerson/Eichenbaum 2010). Allerdings gesteht Tulving ein, dass das letzte Wort in dieser Sache noch nicht gesprochen ist. Aufgrund der komplexen Struktur des Gedächtnissystems erschöpfe es sich nicht in »bestimmten Formen von Gedächtnisaufgaben oder Tests« (Tulving 2006: 55) und entzieht sich somit weitgehend dem gewohnten experimentellen Zugriff. Zudem stoßen Interpretation und Validierung der vorhandenen klinischen Belege aus den bekannten methodologischen Gründen auf viele Probleme. Tulvings Fazit aus dem Jahre 2002 lautet: Ist die Frage nach dem besonderen Status des episodischen Gedächtnisses mittlerweile beantwortet? […] Heute stehen uns […] eine Unmenge von Daten zur Verfügung – viel zu wenige aber immer noch, wenn es um Lebendigkeit und Entwicklung von Wissenschaft gehen soll. Vor diesem Hintergrund wird die Wissenschaft weitergehen; in diesem Sinne gibt es auch keine abschließende Antwort. (Tulving 2006: 69f.)

Das Konzept eines episodischen Gedächtnissystems ist nach wie vor diffus. Ungeachtet dessen gehört es zweifelsohne zum begrifflichen Grundinventar nicht nur der Psychologie, sondern allgemein der Neurowissenschaften. Eine beson39 Unter den Läsionsstudien sticht hierbei der Patient K.C. heraus, bei dem ein kompletter Verlust des episodischen Gedächtnisses bei ansonsten intakter Erinnerungsfähigkeit beobachtet wurde (Rosenbaum et al. 2005). K.C. ist wie H.M. Gegenstand langjähriger neuropsychologischer Untersuchungen, aber in beiden Fällen trifft man auf vergleichbare methodische Probleme: Der genaue Ort der Läsionen ist nicht bekannt, es fehlt eine unabhängige Überprüfung der Daten.

218 | ZWISCHEN GEIST UND GEHIRN

ders wichtige Rolle spielt es in biomedizinischen Forschungskontexten. Tulving hat es als das am höchsten entwickelte Gedächtnissystem bezeichnet, das aufgrund seiner Komplexität besonders anfällig für neuronale Dysfunktionen sein soll, wie sie beim natürlichen Alterungsprozess, aber natürlich vor allem bei neuropathologischen Prozessen auftreten (siehe Definition von Tulving, S. 216). Störungen des episodischen Gedächtnisses gehören zu den Kernsymptomen von MCI und AD (Salmon/Bondi 2009; Dubois et al. 2007; Seidl et al. 2006; Desgranges et al. 1998) und wurden von Biomedizinern auch bei PTSD beobachtet (Isaac et al. 2006; Layton/Krikorian 2002).40 In beiden Krankheitsfeldern steht das episodische Gedächtnis im Mittelpunkt des Interesses, es ist ein »regular theme of clinical, experimental, and theoretical research«, wie Tulving auf seiner Website schreibt.41 Der Siegeszug dieses Konstrukts belegt den Status von Gedächtnisstörungen als Pathologien des Selbst und wirft ein helles Licht auf die gedächtnispolitischen Machtkonfigurationen in der biomedizinischen Praxis. Auffällig ist dabei, dass je weiter man sich aus dem Epizentrum des einschlägigen neuropsychologischen Diskurses entfernt, das psychologische Konstrukt an Klarheit verliert, während die Konturen des Hippokampus gleichzeitig an Schärfe gewinnen. Dominique de Quervain definiert das episodische Gedächtnis folgendermaßen: Wenn Sie eine Wortliste lernen und am nächsten Tag diese frei abrufen können, so handelt es sich um episodisches Gedächtnis, weil Sie sich genau daran erinnern, dass Sie diese Worte am Vortag gelernt haben. Diese Art von Gedächtnis hängt im starken Maße vom Hippokampus ab, einer Hirnstruktur im medialen Temporallappen. (Interview de Quervain)

Das Zitat gibt einen deutlichen Hinweis auf die Unschärfe des Begriffs, die Ausdruck eines fragmentierten, sich dynamisch entwickelnden Forschungsfeldes ist, dessen Konzepte sich im Fluss befinden. Das episodische Gedächtnis wird »auch

40 In diesem Zusammenhang ist es interessant zu beobachten, dass sich die psychologischen, an der subjektiven Bedeutungsdimension orientierten Modelle weniger häufig auf Tulvings Konzeption zu stützen scheinen. Um die Desorganisiertheit des Traumagedächtnisses theoretisch zu beschreiben, werden andere Konstrukte in Anschlag gebracht, die weniger neuropsychologisch ausgerichtet sind. So berufen sich Ehlers/Clark bei ihrem Kognitiven Störungsmodell auf das autobiografische Gedächtnismodell von Conway (2000). 41 Vgl. http://www.rotman-baycrest.on.ca/index.php?section=219 (Stand: 11.2.2011).

M ATERIALISIERUNG

DER

SEELE | 219

innerhalb der Psychologie unterschiedlich definiert« (Interview Brand).42 De Quervains Aussage, dass die Abfrage von Worten aus einer Wortliste episodisches Gedächtnis voraussetze, ist weit verbreitet und passt zu Tulvings erster Definition aus den 1970er Jahren (Tulving 1972). Das Lernen und den Abruf eines spezifischen Wortes aus einer Wortliste zählte er damals noch zum episodischen Gedächtnis, weil es seiner heuristischen Definition zufolge »information about temporally dated episodes or events, and temporal-spatial relations among these events« enthält (Tulving 1972: 385). Von der Auffassung, dass das episodische Gedächtnis im Rahmen von standardisierten psychometrischen Tests abgefragt werden kann, hat er sich später explizit distanziert (Tulving 2001, 2002, 2005): Die erfolgreiche Bewältigung eines herkömmlichen Gedächtnistests setzt nicht notwendigerweise eine mentale Zeitreise oder eine explizite Erinnerung an die zeitlichen und räumlichen Umstände der Testsituation (›Was?‹, ›Wann?‹ und ›Wo?‹) voraus (vgl. Tulving 2002).43 »[T]here is no necessary correlation between behavior and conscious experience« (Tulving 2002: 4), sodass ›episodische‹ Tests eben nicht eindeutig zwischen episodischen und anderen Gedächtnisinhalten differenzieren können (Tulving 2001). Je mehr man sich jedoch in Richtung biomedizinischer Forschungskontexte bewegt, desto weiter wird die Kategorie »episodisches Gedächtnis« ausgedehnt. Das Konstrukt wird in den Fachtexten oft nicht klar definiert. Dass es sich dabei um etwas handelt, was abgefragt und quantifiziert werden kann, scheinen die meisten Alzheimerforscher und biologisch ausgerichteten PTSD-Forscher stillschweigend vorauszusetzen (vgl. Isaac et al. 2006; Carcaillon et al. 2009; Blacker et al. 2007). Diese semantische Ausfransung wird im Bereich der tierexperimentellen Grundlagenforschung besonders deutlich, wo die Abgrenzung zwischen episodischen und anderen expliziten Gedächtnisinhalten völlig verschwimmt – in der Regel gebrauchen Tierforscher »episodisch« synonym zu »explizit« respektive 42 Von Tulving abweichende Definitionen stammen beispielsweise von Conway (2001) oder Roediger (2002). 43 Eine solche Differenzierung ist nicht einfach operationalisierbar. Eine Möglichkeit ist das »Erinnern/Wissen«-Paradigma: Probanden werden einem Wiedererkennungstest unterzogen, bei dem in der Testphase neben den gelernten Wörtern auch neue vorgelegt werden. Erkennen die Versuchspersonen ein auswendig gelerntes Wort wieder, sollen sie beurteilen, ob die Vertrautheit mit semantischen Faktoren (Wissen) oder aber Erinnerungsepisoden an den Lernkontext zusammenhängt (Gardiner und Richardson-Klavehn 2000; Gardiner 2001). Ein solcher Test, der subjektive Beurteilungen einbezieht, weicht offensichtlich von den herkömmlichen psychometrischen Tests ab, die objektiv feststellbare Performanzen messen.

220 | ZWISCHEN GEIST UND GEHIRN

»deklarativ« (vgl. zum Beispiel Redish 1999). Was wäre auch der Sinn einer solchen Differenzierung bei Lebewesen, zu deren mentalen Prozessen wir mangels sprachlicher Verständigung keinen Zugang haben? Ob Tiere über ein autonoietisches Bewusstsein verfügen, ist eine rein spekulative Frage (Tulving 2005). Da diesem Gedächtnissystem bei vielen Gedächtnisstörungen eine außerordentlich wichtige Rolle zugesprochen wird, ist das Interesse an einer experimentellen Operationalisierung im Bereich der biomedizinischen Grundlagenforschung dennoch groß. Trotz Tulvings Diktum, dass das episodische Gedächtnis dem Menschen vorbehalten sei (vgl. Schwartz 2006), vertreten viele Verhaltensbiologen die Ansicht, dass zumindest höhere Wirbeltiere über vergleichbare Fähigkeiten verfügen könnten.44 Auch wenn solche Gedächtnisformen nicht streng episodisch im Sinne Tulvings sind – »seeking true episodic memory in animals is […] a forlorn exercise« (Morris 2001: 1455) –, so seien sie doch zumindest ähnlich dazu, das heißt »episodic-like«. Viele experimentelle Psychologen haben sich mit dem Problem herumgeschlagen, wie ›episodische‹ Gedächtnisvorgänge bei Tieren untersucht werden könnten, und viele Experimente wurden in den letzten 20 Jahren mit Vögeln, Primaten oder Mäusen durchgeführt (vgl. zum Beispiel Morris 2001; Clayton et al. 2001, 2007; Griffiths/Clayton 2001; Griffiths et al. 1999). Die Kriterien, die an die entsprechenden Verhaltensprotokolle gestellt werden, sind hoch: Spezies übergreifend gilt ein Verhaltensversuch erst dann als einigermaßen valide, wenn er eine Bewertung des Lernerfolgs bezüglich des ›Was‹, ›Wann‹ und ›Wo‹ eines vergangenen Ereignisses ermöglicht. Das Verhalten des Tieres sollte also Auskunft darüber geben, ob das Tier etwas tut, weil es sich an ein vergangenes Ereignis erinnert (Morris 2001). Eine Annäherung an dieses schwierige Problem stellen Paradigmen dar, bei denen »Informationen nicht einfach für alle Zeit gültig sind, sondern nur für eine bestimmte Zeitperiode und dann wieder aussortiert werden müssen« (Interview Wolfer). Bei Nagetieren hat sich der im vierten Kapitel besprochene »Morris water maze« bewährt, um solche Aufgaben in verschiedenen Varianten zu konstruieren (vgl. Morris 2001). Indem die Plattform beispielsweise jeden Tag an eine neue Position verschoben wird, gefolgt von mehreren Tests, ist die Ratte gezwungen, ihre innere ›Landkarte‹ flexibel an die neue Situation anzupassen (Steele/Morris 1999). Es ist gleichwohl umstritten, ob 44 Tulving hält es inzwischen, anders als früher, nicht mehr für prinzipiell ausgeschlossen, dass auch Tiere über ein episodisches Gedächtnis verfügen, zeigt sich aber dennoch skeptisch: »Episodic memory is unique to humans in the sense that no other animals have yet been reliably reported as being capable of behaviors that require episodic memory.« (Tulving 2005: 48)

M ATERIALISIERUNG

DER

SEELE | 221

dieses Testprotokoll die oben erwähnten strengen Auflagen zu erfüllen vermag (Griffiths et al. 1999). Vermutlich ist die Lernaufgabe zu limitiert, um Aufschluss über das ›Was‹, ›Wann‹ und ›Wo‹ zu geben (vgl. Morris 2001). Zusammenfassend kann man feststellen, dass es sich sowohl beim episodischen wie auch beim deklarativen Gedächtnis trotz aller Bemühungen um »ganz wichtige Konstrukte [handelt], die sich [bei nichtmenschlichen Lebewesen] schlicht und einfach unserem Zugriff entziehen« (Interview Wotjak). Da sich das psychologische Konstrukt beim Tier in seiner Komplexität nicht abbilden lässt, bietet sich der »Umweg über die Anatomie« (Interview Wolfer) an: Wenn man sich fragt, was könnte beim Tier eine Entsprechung sein für menschliches deklaratives Gedächtnis, nimmt man eigentlich den Umweg über die Anatomie. Denn man hat festgestellt, dass beim Menschen der Hippokampus sehr wichtig für diese Arten von Gedächtnis ist, und da hat man einfach geschaut, welche Formen des Gedächtnisses hängen beim Tier vom Hippokampus ab. So ist man beim räumlichen Gedächtnis gelandet. (Interview Wolfer)

Der Hippokampus ist ein naheliegendes Surrogat. Erstens, weil er sich über die Jahrzehnte als ideales Experimentalsystem bewährt hat, auf das vielfältige experimentelle Prozeduren und Konstrukte im Bereich der Grundlagenforschung ausgerichtet sind. Wie einer meiner Gesprächspartner bemerkte, findet derzeit nicht zuletzt deshalb »alles im Hippokampus statt, weil das der einzige Assoziationskortex ist, den die Maus hat« (Interview Heinemann). Zweitens gibt es Hinweise, dass der Hippokampus eine wichtige Rolle beim menschlichen episodischen Gedächtnis spielt. Und drittens verfügt er sowohl bei höheren Wirbeltieren als auch beim Menschen über eine sehr ähnliche Struktur. Dies hat zu evolutionären Spekulationen geführt, dass seine Funktion beim Tier ebenso wie beim Menschen in Bezug auf das Gedächtnis die gleiche sein könnte (Morris 2001). Meine These lautet: Die Tatsache, dass viele psychologische Gedächtniskonstrukte und besonders das episodische Gedächtnis beim Tier äußerst diffus sind, hat den gedächtnispolitischen Sog in Richtung Hippokampus wesentlich verstärkt. Aufgrund fehlender psychologischer Kriterien wird diese Hirnstruktur zum Surrogat, an das tierexperimentelle Operationalisierungen des episodischen Gedächtnisses andocken. Dies lässt sich an der großen Bedeutung ablesen, über die hippokampusabhängige Verhaltensparadigmen wie der MWM in der Forschungspraxis verfügen. So »heißt [es] nicht mehr episodisches Gedächtnis, sondern Gedächtnis ist gleich water maze, und dann macht man noch eine LTP-Messung dazu und das Paket ist fertig geschnürt« (Interview Wolfer). Im Gegenzug rechtfertigt und stabilisiert der extensive Einsatz von hippokampusabhängigen Prozeduren

222 | ZWISCHEN GEIST UND GEHIRN

(MWM etc.) die bestehenden Gedächtnismodelle, die dem Hippokampus eine maßgebliche Rolle bei der Gedächtnisverarbeitung zuschreiben.

F AZIT Ausgangspunkt des Kapitels war die Beobachtung, dass der Hippokampus ein Forschungsattraktor der biomedizinischen Gedächtnisforschung darstellt. Anhand der Analyse historischer und aktueller Praktiken der Lokalisierung habe ich die These entwickelt, dass die starke Anziehungskraft, die diese Hirnstruktur auf die Diskurse und Praktiken im Bereich der Gedächtnisforschung ausübt, erst vor dem Hintergrund einer bestimmten gedächtnispolitischen Konstellation plausibel wird. Der Hippokampus macht es in Verbindung mit dem episodischen Gedächtnis zum ersten Mal möglich, eine physiologische Struktur mit Ideen zum Selbst zu verbinden. Diese Verbindung wird in tierexperimentellen Forschungskontexten besonders eng geknüpft, paradoxerweise, gerade weil dort das menschliche Selbst (respektive das episodische Gedächtnis) jeglichem wissenschaftlichem Zugriff entzogen ist. Der Hippokampus bietet sich als das naheliegendste Surrogat an, um das Ich wissenschaftlich greifbar zu machen. Er steht im Epizentrum eines biomedizinischen Denkstils, der zum Ziel hat, harte Fakten über Gedächtnis, Krankheit und Selbst zu schaffen. Aufgrund der zunehmenden Dominanz dieses Denkstils nähern sich historisch so unterschiedlich verhandelte Syndrome wie AD und PTSD in epistemischer Hinsicht an. Denkstile verfügen über eine selbstreflexive Struktur, die genuine Konzepte, Objekte und Wahrheitskandidaten generiert. Kontroversen wie die false memory debate, in denen mit Schlagworten wie »Natur«, »Objektivität«, »Wahrheit« hantiert wird, sind Hacking zufolge typische Konsequenzen von epistemischen Verschiebungen, wie sie derzeit bei PTSD im Gange sind: »Every style of reasoning is associated with an ontological debate about a new type of object.« (Hacking 1992c: 11) Zu diesen neuen Objekten gehört unter anderem der Hippokampus, aber auch LTP oder das deklarative Gedächtnis; ihnen entsprechen auf der methodischen Seite die in der Praxis verbreiteten hippokampusabhängigen Paradigmen (»Morris water maze«, kontextuelle Angstkonditionierung etc.). Der anatomische Denkstil, der von PTSD Besitz ergreift, geht mit charakteristischen Konzeptionen von Krankheit und Selbst einher und rückt Objekte, Apparaturen etc. ins Zentrum, die zwar bei anderen neurologischen Störungen länger verbreitet sind, bei PTSD jedoch traditionell keine Rolle spielten. Diese Objekte und Routinen sind nicht nur Produkte einer epistemischen Praxis, sondern definieren in ihrer Gesamtheit ein Forschungsprogramm, das einen bestimmten Wissenstyp

M ATERIALISIERUNG

DER

SEELE | 223

über Krankheit produziert: objektive, neurobiologisch fundierte Gedächtnisfakten. Diese Praxis impliziert ein Machtregime, dem Körper und Subjekte auf spezifische Art und Weise unterworfen werden: Seine Kernmerkmale sind die Dekontextualisierung des Subjekts, die Messbarmachung seiner Eigenschaften und die Fokussierung auf das individuelle Gehirn. Diese Entwicklung sollte jedoch nicht zu vorschnell als der Siegeszug eines reduktiven Biologismus missverstanden werden. Wie ich im dritten Kapitel gezeigt habe, gibt es im Bereich der Alzheimerforschung einen wachsenden Trend, Tiermodelle stärker am Phänotyp der Krankheit auszurichten. Dies steht im Einklang mit den Thesen dieses Kapitels. Es sollte deutlich geworden sein, dass von einer strengen Reduktion geistiger Funktionen auf das neuronale Substrat keine Rede sein kann. Zwar spielen evolutionäre Narrative und biomedizinische Techniken in der neurowissenschaftlichen Praxis eine zentrale Rolle, um Hirnzentren auf einer biologischen Ebene funktional voneinander abzugrenzen und konkret zu lokalisieren (vgl. Young 2006). Die Suche nach der Bedeutung der einzelnen Zentren jedoch gelingt nur im Rahmen einer hybriden Praxis, in die psychologische Konstrukte und Messverfahren wesentlich einbezogen sind. Der Verlauf der Grenze zwischen Gehirn und Geist bleibt demzufolge auch beim »kalkulierbaren Subjekt« unscharf (vgl. auch Young 2006). Als einer der Epizentren dieser heterogenen Praxis ist der Hippokampus somit mehr als eine Hirnstruktur. Er ist ein hybrides Wissensobjekt und Träger symbolischer Bedeutung, die weit über den engeren biomedizinischen Horizont hinausweist. Was Tulving (2002) für das episodische Gedächtnis behauptet hat, nämlich dass es eine »mind/brain-entity« sei, gilt komplementär dazu auch für den Hippokampus.

Darstellen und Eingreifen im Zeitalter der Postgenomik

Kausalität sei ein obsoleter Mythos, stellte der Philosoph Bertrand Russell im Jahre 1918 polemisch fest: »The law of causality […] is a relic of a bygone age, surviving, like the monarchy, only because it is erroneously supposed to do no harm.« (Russell 1912: 1) Das war keine Einzelmeinung. Kausalität – ein diffuser Begriff, der den metaphysischen Ballast aus vielen Jahrhunderten philosophischer Reflexion mit sich herumschleppt – galt positivistischen Denkern als unvereinbar mit dem Prinzip der Verifizierbarkeit von Beobachtungen und dem Ziel, die Naturwissenschaften empiristisch zu fundieren. Die logischen Positivisten strebten deshalb nichts weniger an als eine radikale Eliminierung kausaler Konzepte aus naturwissenschaftlichen Erklärungsmodellen (wobei die Naturwissenschaften damals weitgehend mit der Physik gleichgesetzt wurden), und sie waren insofern erfolgreich, als Mitte des 20. Jahrhunderts das Thema »Kausalität« weitgehend von der wissenschaftstheoretischen Landkarte verschwunden war (vgl. Bunge 1979). Dieser wissenschaftsphilosophische Trend hat auch in der Medizin Spuren hinterlassen. Im Jahre 1961 hielt der führende logische Empirist Carl Gustav Hempel1 einen Vortrag vor der »American Psychopathological Association« zum Thema Klassifikation in der Psychiatrie. Seine Ideen, die er später in einem Artikel veröffentlichte (Hempel 1965), prägten die damalige Entwicklung des DSM-III maßgeblich (vgl. Stein 1991; Schwartz/Wiggins 1986). Ich habe bereits im letzten Kapitel darauf hingewiesen, dass die dritte Ausgabe des DSM aus dem Jahre 1980 zurecht als ein revolutionärer Wendepunkt in 1

Hempel ist vor allem für sein deduktiv-nomologisches Modell der wissenschaftlichen Erklärung bekannt, das er zusammen mit Paul Oppenheim entwickelte (Hempel/Oppenheim 1948).

226 | ZWISCHEN GEIST UND GEHIRN

der psychiatrischen Diagnosepraxis gilt: Das Manual markiert die Abkehr von psychodynamischen Erklärungsmustern und ersetzte – im Einklang mit empiristischen Grundsätzen – ätiologische Krankheitsdefinitionen durch solche, die rein an evidenten Symptomen ausgerichtet waren (vgl. hierzu Mayes/Horwitz 2005). Damit wurde, von positivistischem Gedankengut beeinflusst, eine in ätiologischer Hinsicht agnostische Klassifikationslogik etabliert, die bis heute weitgehend Bestand hat. Die psychiatrische Diagnosepraxis steht allerdings in einem scharfen Kontrast zur biomedizinischen Forschungspraxis, in der das Aufspüren kausaler Wirkzusammenhänge eine »extrem wichtige Motivation« (Interview Lüthi) darstellt. Vor allem das Aufblühen der Genetik hat in den letzten Jahren zu einer grundlegenden »Neuorientierung« geführt. Ihr Ziel es sei, »ein neues Modell der Verifikation von Krankheitsursachen zu etablieren, das Krankheiten nicht mehr nach ihrem klinischen Erscheinungsbild beurteilt, sondern auf deren molekulargenetische ›Ursachen‹ zurückführt« (Lemke 2003: 475). Im Bereich der Grundlagenforschung bilden die im dritten Kapitel diskutierten Tiermodelle wichtige Forschungswerkzeuge, mit denen man sich den pathogenetischen Mechanismen psychiatrischer Erkrankungen annähert. In der klinischen Forschung greift man auf genomweite Assoziationsstudien und die im letzten Kapitel besprochene Endophänotypstrategie zurück. Durch den kombinierten Einsatz solcher Methoden hofft man, den biologischen Wurzeln von komplexen Krankheiten wie AD und PTSD auf die Spur zu kommen, um darauf aufbauend kausale Therapieansätze und prädiktive Diagnosemethoden zu entwickeln (vgl. Kollek/Lemke 2008). Es erstaunt also nicht, dass die biomedizinischen Diskurse von kausalen Kategorien beherrscht werden, wie die verbreitete Rede von »Gen für Krankheit X« (Kendler 2005a) oder kausale Krankheitsmodelle wie die Amyloid-KaskadenHypothese prägnant verdeutlichen. Dabei ist zu beobachten, dass sowohl das Genkonzept als auch der Begriff einer »genetischen Krankheit« in den letzten Jahren kontrovers diskutiert werden, was andeutet, dass sie keineswegs über eine klare Bedeutung verfügen (vgl. Lemke 2003; Pearson 2006; Rheinberger/MüllerWille 2009; Griffiths/Stotz 2006). Zu dieser zunehmend unklaren Situation hat ironischerweise das Humangenomprojekt wesentlich beigetragen, das bei vielen Biomedizinern Hoffnungen auf genetische Krankheitsmodelle geweckt hatte, die sich aber in den meisten Fällen nicht erfüllt haben (Keller 2001). Das Paradigma der monogenetischen Krankheit, die deterministisch erklärbar ist, bleibt auf eini-

D ARSTELLEN

UND

E INGREIFEN | 227

ge wenige Spezialfälle beschränkt.2 Für Evelyn Fox Keller sind es gerade die herausragenden sequenzbasierten Erfolge, die »[e]ntgegen allen Erwartungen […] den vertrauten genetischen Determinismus […] in entscheidenden Punkten in Frage [gestellt]« und »ihre Triebfeder, den Genbegriff, radikal unterminiert« haben (Keller 2001: 16f.) In der Tat zeigt sich kaum ein Biomediziner noch davon überzeugt, dass die Kenntnis und Manipulation der DNA-Sequenz ausreicht, um Krankheitsprozesse ausreichend zu verstehen. Nach Carsten Wotjak gibt es »in der Regel keine Gendeletion, die sich dann durchschlägt und immer wieder zu finden ist. Insofern werden uns diese Knock-out-Geschichten nur bedingt weiterhelfen« (Interview Wotjak). Zu beobachten ist weiterhin eine zunehmende Skepsis und Unklarheit bezüglich der positiven Definition des Genbegriffs (Pearson 2006; Scherrer/Jost 2007; Griffiths/Stotz 2006) sowie die wachsende Einsicht in »the variety and complexity of the processes that allow regulated gene expression in living organisms« (Stotz et al. 2006).3 Dieser Denkwandel und Praxiswandel wird gemeinhin als »Zeitalter der Postgenomik« (Rheinberger/Müller-Wille 2009) bezeichnet. Er lässt sich auch an Trends im Bereich der biomedizinischen Grundlagenforschung ablesen, die im Laufe dieser Arbeit thematisiert wurden: etwa die zunehmend funktionalistischer und weniger monogenetisch ausgerichtete Modellierungspraxis der Alzheimerforschung (siehe drittes Kapitel) oder die Forderung, Verhaltensexperimente stärker zu kontextualisieren (siehe viertes Kapitel). Beides deutet auf einen biomedizinischen Praxiswandel hin, dem die wachsende Anerkenntnis zugrunde liegt, dass der Zusammenhang zwischen Genotyp und Phänotyp wesentlich weniger geradlinig sein könnte als lange geglaubt. Es gibt also gute Gründe, sich dem Thema Kausalität in der Biomedizin zuzuwenden. In der Wissenschaftsphilosophie ist seit einigen Jahren durchaus von einem »Comeback« der Kausalität die Rede. Das Thema sei seit den 1970er Jahren wieder ganz nach oben auf die Tagesordnung der Wissenschaftstheorie gerückt, konstatiert Bunge (Bunge 1979, vgl. Mackie 1980).4 Diese Entwicklung

2

Zur umfangreichen Kritik am Gendeterminismus vgl. etwa Alcock 1999, Griffiths et al. 2006, Kitcher/Singh 2001, Lewontin et al. 1984, Rose 1982, Strohman 2001, Kendler 2005a.

3

Evelyn Fox Keller zum Beispiel schlägt eine radikal antiessenzialistische Sichtweise vor. Gene sollen keine Dinge, sondern Prozesse bezeichnen, »as ways in which information can flow« (Keller 2006).

4

Die philosophische Literatur zum Kausalitätsbegriff ist inzwischen ins Unermessliche gewachsen, und entsprechend gibt es eine Vielzahl konkurrierender und gut ausgear-

228 | ZWISCHEN GEIST UND GEHIRN

hat mehrere Ursachen, aber generell ist dies ein deutlicher Hinweis darauf, dass das positivistische Projekt in seiner Reinform tot ist. Kaum noch ein Philosoph träumt davon, kausale Begrifflichkeiten in einer Formalsprache aufzulösen. Man hat akzeptiert, dass viele Wissenschaftsbereiche und im Speziellen die Lebenswissenschaften auf epistemologischen und methodologischen Prinzipien basieren, die sich teilweise markant von der mathematisierten Physik unterscheiden.5 Im Gegensatz dazu wurde die Kausalitätsproblematik im Feld der STS jedoch bislang kaum systematisch thematisiert.6 Ähnlich wie die Positivisten scheinen viele empirische Wissenschaftsforscher in der Kausalität in erster Linie eine bloße epistemologische Kategorie zu sehen, also ein Aspekt unserer Beschreibungen der Welt und nicht der Welt selber.7 Der abwehrende Impuls ist verständlich vor dem Hintergrund des radikal empiristischen Ethos, das in einigen Bereichen der STS gepflegt wird (siehe erstes Kapitel). Die diffusen theoretischen Implikationen, die der Kausalitätsbegriff mit sich führt, wirken aus naheliegenden Gründen auf viele empirische Wissenschaftsforscher abschreckend und scheinen mit einer praxiografischen Analyse von Wissenschaftspraxis nicht vereinbar zu sein.8 Alternativ dazu werde ich in diesem Kapitel argumentieren, dass es gute Gründe gibt, Kausalität auch im Bereich der empirischen Wissenschaftsforschung mehr Aufmerksamkeit zu schenken. Zwar gilt tatsächlich, dass sich Kausalität nicht auf die Empirie reduzieren lässt. Die Konstruktion von Ursachen ist eine genuin theoretische Praxis, die sich vor dem Hintergrund bestimmter episbeiteter Theorien, in denen das Wesen von Kausalität definiert wird (vgl. etwa Gillies 2005; Price 2002; Salmon 1998; Woodward 2003; Lewis 2001). 5

Dies spiegelt sich auch in den sich ausdifferenzierenden Analysen des Kausalitätsbegriffs wider. So stellt etwa Nancy Cartwright fest, dass »causation is not a single, monolithic concept. There are different kinds of causal relations imbedded in different kinds of systems […].« (Cartwright 2004: 805)

6

Es gibt einige Autoren, die sich am Rande mit Kausalität beschäftigt haben (vgl. etwa Fujimura/Chou 1994; Keller 2000; Dumit 2002), jedoch hat sich meines Wissens nur Barad (2007) systematisch mit der Thematik auseinandergesetzt.

7

Bereits Hume stellte fest, dass die eigentliche ontologische Kausalrelation, die beobachtbaren Regularitäten zugrunde liegen soll, selber nicht verifizierbar ist (vgl. Bunge 1979).

8

Es muss betont werden, dass die Differenzen zwischen diesen beiden Bereichen der Wissenschaftsforschung nicht grundlegender sein könnten. Die STS und die logischen Positivisten verstehen unter einer empirischen Analyse von Wissenschaft völlig unterschiedliche Dinge, die STS nämlich eine empirische Analyse der Wissenschaftspraxis, die Positivisten eine empirische Fundierung wissenschaftlicher Theorien.

D ARSTELLEN

UND

E INGREIFEN | 229

temologischer Normen und Denkstile abspielt. Aber diese Normen müssen nicht universal interpretiert werden, wie es die Wissenschaftsphilosophie gerne tut, sondern sie sind in die spezifischen »means and ends« (Keller 2000: 85) der biomedizinischen Forschungspraxis eingebettet. Nachdem ich im dritten Kapitel den Zusammenhang zwischen Theorie und Experiment von der Seite materieller Tiermodelle her beleuchtet habe, drehe ich im Folgenden den Spieß um. Meinen Ausgangspunkt bilden theoretische Erklärungsmodelle wie die AmyloidKaskaden-Hypothese, die ich auf ihre epistemologischen, aber auch praktischen Implikationen befrage. Dabei berufe ich mich auf Wissenschaftsphilosophen, die sich mit lebenswissenschaftlichen Erklärungsansätzen beschäftigt haben und darauf hinweisen, dass Begründungs- und Entstehungskontexte eng miteinander verflochten sind. Biomedizinische Kausalmodelle lassen sich demzufolge nicht unabhängig von praktischen Kontexten der Manipulation und Intervention analysieren (vgl. Machamer et al. 2000). Nach diesem theoretischen Exkurs wende ich mich der experimentellen Praxis zu, die sich im Zeitalter der Postgenomik durch eine außerordentliche Dynamik sowohl auf einer empirischen wie theoretischen Ebene auszeichnet. Ich kontrastiere schlaglichtartig zwei einflussreiche Forschungsbereiche der postgenomischen Gedächtnisforschung, um sie auf ihre theoretischen Implikationen zu befragen: nämlich zum einen die tierexperimentell dominierte Epigenetik, die hauptsächlich auf interventionistische Methoden zurückgreift; und zum anderen funktionelles Neuroimaging, eine Praxis, die weitgehend auf den Humanbereich beschränkt ist und in der physische Eingriffe praktisch keine Rolle spielen. Anhand der Analyse dieser beiden Praxisformen will ich plausibel machen, dass sich die theoretische Analyse von Kausalitätskonzepten nicht von der empirischen Analyse der Forschungspraxis und ihren pragmatischen Rahmenbedingungen loslösen lässt. Kausalität bildet, so meine These, einen idealen Kristallisationspunkt, um die verwickelten Wechselwirkungen zwischen den unterschiedlichen Dimensionen der biomedizinischen Forschungsarbeit zu analysieren. Kurz und gut, es geht mir um »a better and fuller understanding of how science works« (Keller 1992: 78 [Herv. i.O.]).

D ER

MECHANISTISCHE

E RKLÄRUNGSSTIL

Der Nobelpreis für Medizin des Jahres 2007 wurde sicher nicht zu Unrecht für die Arbeiten an Knock-out-Mäusen vergeben (Capecchi 2007). Kaum eine andere Methode hat die moderne Biomedizin so geprägt wie das sogenannte gene targeting, das Gene zu vielseitig manipulierbaren Entitäten gemacht hat (Crawley 2007). Zusammen mit der Sequenzierung der Genome verschiedener Orga-

230 | ZWISCHEN GEIST UND GEHIRN

nismen ab den 1990er Jahren bilden Knock-out-Mäuse bis heute die Triebfedern des biomedizinischen Fortschritts (siehe drittes Kapitel). Die Intensivierung der molekularbiologischen Forschungen ab den 1970er Jahren, die im Humangenomprojekt gipfelte, weckte Hoffnungen, dass auch die genetischen Ursachen von Krankheiten wie PTSD oder AD bald offengelegt sein würden. Theoretisch fundiert wurde dieser Fortschrittsglaube vom zentralen Dogma der Molekularbiologie, das 1958 von Crick formuliert worden war (Crick 1958, 1970). Crick hatte bekanntlich postuliert, dass die Erbinformation vom Genotyp zum Phänotyp fließt, nicht aber in die umgekehrte Richtung. Die molekularbiologischen Technologien entwickeln sich in atemberaubendem Tempo weiter. Mit dem modernen Methodenarsenal können molekulare Prozesse immer präziser kontrolliert werden und längst sind Biomediziner über den von Morris diagnostizierten »transition point […] to studies that use reversible […] manipulations« (Morris 2001: 1458) hinaus: Die Transgenexpression ist mithilfe neuer Techniken sowohl in zeitlicher wie räumlicher Hinsicht immer spezifischer induzierbar (Yamamoto et al. 2001). Bereits kündigt sich eine weitere biotechnologische Revolution an. Mithilfe optogenetischer Methoden, die gemäß dem Neurobiologen Andreas Lüthi einen wahren »Goldrausch« ausgelöst haben, lassen sich Nervenzellen in spezifischen Regionen durch Lichteinwirkung gezielt aktivieren oder deaktivieren (Miesenböck 2009).9 Lüthi sieht »in den nächsten fünf Jahren eine Flut an Publikationen kommen, die wirklich zum ersten Mal auch wirklich kausale Fragen stellen« (Interview Lüthi). Die Aufmerksamkeit, die diese auf Kontrolle und Manipulation ausgerichtete Methode in einem experimentellen Kontext genießt, belegt zum einen die bereits eingangs postulierte zentrale Stellung der Kausalität in der biomedizinischen Forschungspraxis. Sie macht aber noch auf einen zweiten wichtigen Punkt aufmerksam: Wenn Biomediziner von Kausalität sprechen, dann legen sie in der Regel ein mechanistisches Verständnis zugrunde. »Explanations in neuroscience describe mechanisms.« (Craver 2007: vii [Herv. i.O.]) Die zentrale Rolle mechanistischer Erklärungen kam in meinen Gesprächen mit Gedächtnisforschern immer wieder zur Sprache. »People are often looking for mechanistic relations and we too are looking for mechanistic relations. This emphasizes the biological bases of learning and memory« (Interview Yee), meint der an der ETH Zürich arbeitende Verhaltensbiologe Benjamin Yee. Der molekulare Neurobiologe Dietmar Kuhl hält es für eine der großen Zukunftsaufgaben, die »zellulären Mechanismen aufzuschlüsseln, die dazu beitragen, dass Informa9

Die Optogenetik wurde von »Nature Methods« zur Methode des Jahres 2010 gekürt (Deisseroth 2011).

D ARSTELLEN

UND

E INGREIFEN | 231

tionen gespeichert werden« (Interview Kuhl). Dem Neuropsychologen Matthias Brand geht es darum, die »Mechanismen, die bei dieser Störung [Dissoziative Amnesie] eine Rolle spielen können, besser zu verstehen« (Interview Brand). Und Carsten Wotjak weist darauf hin, dass man bei der »Alzheimer’schen Erkrankung biologische Mechanismen zu verstehen glaubt. Wir haben sehr gute Evidenz, dass es eine Kausalität gibt zwischen den entsprechenden Ablagerungsprozessen und der Erkrankung« (Interview Wotjak). Die AmyloidKaskaden-Hypothese, auf die Carsten Wotjak anspielt, kann als ein typisches Beispiel für ein mechanistisches Erklärungsmodell herangezogen werden (siehe drittes Kapitel und Abbildung 4, S. 107). Das Erklärungsmodell benennt die relevanten Entitäten, die in die Kaskade involviert sind, und es benennt vor allem die relevanten kausalen Wechselwirkungen, die schließlich zur Demenz führen. Solche Erklärungen unterscheiden sich in vielen Aspekten von anderen Erklärungstypen, die in den Wissenschaften vorkommen: von den nomologischen Erklärungen, die in der Physik gebräuchlich sind, beispielsweise dadurch, dass sie in aller Regel grafisch und nicht mathematisch-formal dargelegt werden. Doch die Antwort auf die Frage, was mechanistische Erklärungen beinhalten, kann nicht pauschal gegeben werden. Wissenschaftshistoriker haben darauf aufmerksam gemacht, dass das Konzept eines Mechanismus substanziellen Wandlungsprozessen unterworfen war (und es immer noch ist), die eng mit gesellschaftlichen, technologischen und wissenschaftlichen Entwicklungen zusammenhängen. Mehrfach ist es zu »movements back and forth across the machine-living organism border« (Fujimura 2005: 196) gekommen, deren vielfältige Umstände hier aus Platzgründen nicht thematisiert werden können (vgl. dazu Wright/Bechtel 2007; Feinberg/Farah 2000; Allen 2005). Ein kurzer Überblick soll jedoch der Veranschaulichung dienen. Mechanistische Erklärungen des Lebens kamen im 17. Jahrhundert in Mode und werden gemeinhin vor allem mit René Descartes in Verbindung gebracht. Descartes war der Überzeugung, dass lebende Organismen eine Art Maschine sind, bekanntlich mit Ausnahme des menschlichen Geistes, der eigenen, nichtmechanischen Gesetzen folgt. Die cartesianische Philosophie wurde von Jacques de Vaucanson kongenial ins Werk gesetzt: Seine automatische Ente von 1738, die er aus mehr als 400 Einzelteilen zusammenbaute, konnte mit den Flügeln schlagen, schnattern und verfügte über einen künstlichen, auf chemischen Reaktionen beruhenden Verdauungstrakt, der ein frappierend naturgetreues Ergebnis hervorbrachte. Das Beispiel zeigt, dass man sich damals am Vorbild einer simplen maschinellen Mechanik orientierte, um organische Strukturen zu verstehen. Der Wissenschaftshistoriker Georges Canguilhem schreibt dazu: »[T]he parts were seen, in dynamic terms, as subordinate to the whole […], that functional

232 | ZWISCHEN GEIST UND GEHIRN

subordination led to a view of the static structure of the machine as merely the sum of its parts.« (Canguilhem 1994: 296) Dies änderte sich jedoch im Laufe des 19. und 20. Jahrhunderts, als systemischere Modelle des Lebendigen entstanden, die auf mehr oder weniger komplexen Prinzipien der Selbstorganisation beruhten. Wie Canguilhem (1994) am Beispiel von Claude Bernard verdeutlicht, kam es zu einer Entwicklung, in der Parallelen zwischen Organismen und Gesellschaften gezogen wurden – »the whole was no longer a structure of interrelated organs but a totalization of individuals« (Canguilhem 1994: 300). Im 20. Jahrhundert erlebte das mechanistische Denken vor allem im Bereich der Psychologie ein stetes Auf und Ab (Wright/Bechtel 2007). Durch den Einfluss des Behaviorismus verschwand es praktisch von der psychologischen Bühne,10 um später, mit dem Aufstieg von Kybernetik, Computerwissenschaften und AI-Forschung, wieder an Einfluss zu gewinnen. Diese Disziplinen beschäftigten sich mit neuen Maschinentypen, die sich markant von den simplen mechanischen Maschinen aus der Zeit der frühen Moderne abhoben: mit Maschinen nämlich, die sich in ihren Funktionsprinzipien ihrerseits an Organismen anlehnten und auf komplexen Regulationsmechanismen und nicht-linearen Prozessen der Informationsverarbeitung basierten (vgl. Pickering 2007). Das kybernetische Maschinenmodell wurde Wissenschaftshistorikern zufolge von der kognitiven Psychologie der 1960er Jahre, aber auch von der Molekularbiologie bereitwillig aufgegriffen und mechanistisch gedeutet (Feinberg/Farah 2000; Keller 2001; Fujimura 2005). Es war also wieder ein Maschinenmodell (das allerdings von ganz anderer Art war als dasjenige aus dem 18. Jahrhundert), das dem mechanistischen Denken im Bereich der Biomedizin zu der bis heute anhaltenden Renaissance verhalf. Angesichts der vielfältigen Analogien, die zwischen biologischen Systemen und Maschinen gezogen wurden, meint der Philosoph Carl Craver zurecht, dass »[t]he term mechanism has been used in too many different ways, and most of those uses no longer have any application in biology« (Craver 2007: 3). Es handelt sich um einen schillernden Begriff, der vor dem Hintergrund der heutigen Wissenschaftspraxis einer Klärung bedarf. Die positivistische Wissenschaftstheorie scherte sich lange Zeit nicht um diese Aufgabe, da mechanistische Erklärungen in der Physik im Gegensatz zu den Lebenswissenschaften nur eine marginale Rolle spielen. Inzwischen gibt es aber eine beachtliche Gruppe von Wis10 Die vom Positivismus beeinflussten Behavioristen zeigten sich skeptisch gegenüber allen kognitiven Prozessen, die nicht direkt beobachtbar waren. Der Organismus wurde entsprechend als eine Blackbox konzipiert, dessen interne Funktionsweise nicht interessierte (Wright/Bechtel 2007, vgl. auch Skinner 1965).

D ARSTELLEN

UND

E INGREIFEN | 233

senschaftstheoretikern, die sich mit diesem Erklärungsstil und seinen epistemologischen Implikationen beschäftigen (vgl. Machamer et al. 2000; Bechtel/Richardson 1993; Craver 2007; Glennan 2002). Diese Philosophen gehören zu einer neueren Tradition in der Wissenschaftstheorie, die einige der traditionellen philosophischen Ideale einer Neubewertung unterzogen hat: • Die Physik gilt nicht mehr als die Königsdisziplin der Wissenschaften. Dies ist

nicht zuletzt auf den wachsenden gesellschaftlichen Einfluss der Lebenswissenschaften zurückzuführen, von denen vielfach behauptet wird, dass sie die neue Leitwissenschaft des 21. Jahrhunderts seien. Mit der Reflexion anderer Wissenschaftsbereiche als der Physik haben Philosophen erkannt, dass es mehr als eine wissenschaftliche Methode gibt – beispielsweise führen nomologische Erklärungen in den Lebenswissenschaften nur ein Nischendasein. • Mechanistische Philosophen nehmen für sich in Anspruch, »descriptively adequate« vorzugehen (Craver 2007: 19). Das bedeutet, der scharfe Gegensatz zwischen dem Kontext der Entdeckung und dem Kontext der Begründung, der die positivistische Tradition geprägt hat (siehe erstes Kapitel), wird kritisch hinterfragt. Im folgenden Abschnitt werde ich zeigen, dass für Philosophen, die sich an den Lebenswissenschaften orientieren, die experimentellen Aktivitäten und Strategien zu einem wesentlichen Gegenstand der philosophischen Analyse werden; in diesem Zusammenhang erlebt auch der Kausalitätsbegriff eine Renaissance. Erklären und Verursachen Die unterschiedlichen philosophischen Mechanismuskonzeptionen, die seit den 1990er Jahren entwickelt worden sind, weichen zwar in Details voneinander ab (die hier ignoriert werden können), bezüglich der wesentlichen Grundsätze besteht jedoch ein weitgehender Konsens (Bechtel/Richardson 1993; Craver 2007; Machamer et al. 2000; Glennan 1996). Mechanismen sind demzufolge »hierarchical, multi-level structures that involve real and different functions being performed by the whole composite system and by its component parts« (Wright/Bechtel 2007: 55). Und eine Erklärung counts as mechanistic for a phenomenon ĭ only when it identifies a composite hierarchical system whose activities account for ĭ and whose component parts are organized in certain ways and perform certain operations so as to be constitutive of the systemic activities – thereby situating ĭ among a nexus of natural regularities. (Wright/Bechtel 2007: 48)

234 | ZWISCHEN GEIST UND GEHIRN

Wie nah diese philosophische Definition an der Praxis ausgerichtet ist, macht folgendes Interviewzitat deutlich: We may come up with a very detailed causal picture, a story, of what really happened. For example: this gene leads to this protein, this protein binds to that receptor, this cell is connected to the other cell, the other cell is in a part of the brain, where certain processing takes place and finally there is the output. (Interview Yee)

Das Ziel eines mechanistischen Erklärungsmodells wie der Amyloid-KaskadenHypothese besteht demnach darin, die unterschiedlichen Komponenten und ihre Operationen zu identifizieren, deren Wechselspiel das Explanandum-Phänomen konstituiert (im Falle der Amyloid-Kaskaden-Hypothese ist das die Demenz). Mechanistische Erklärungen beruhen demzufolge auf kausalen Schlussfolgerungen. Sie beschreiben nicht nur die involvierten Komponenten, sondern auch deren Aktivitäten und Wirkprinzipien, das heißt ihre kausalen Relationen. Dabei geraten jedoch nicht die metaphysischen Aspekte von Kausalität in den Fokus. Mechanistische Philosophen interessieren sich gerade nicht für die Frage, wie die mysteriöse Verbindung zwischen Ursache und Wirkung beschaffen sein könnte, mit der sich Philosophen seit Jahrhunderten beschäftigt haben. Carl Craver zufolge erfordert Verursachung »normative regimentation, not metaphysical demystification« (Craver 2007: 64). Im Vordergrund steht somit die Frage, wie Kausalerklärungen empirisch konstruiert werden, und nicht Spekulationen darüber, was die Kausalrelation ausmacht. Gestützt auf die Beobachtung der experimentellen Praxis ziehen er und seine Kollegen den Schluss, dass mechanistische Erklärungen eng mit Praktiken der Manipulation und Intervention verwoben sind. Diese Thesen werden durch Beobachtungen von empirischen Wissenschaftsforschern wie Knorr-Cetina gestützt, die molekularbiologische Experimente durch »Technologie[n] der Intervention« gekennzeichnet sehen, die den »Kern der experimentellen Aktivität« und die »eigentlichen erkenntnisgenerierenden Elemente« bilden (Knorr-Cetina 2002: 57). Der Zusammenhang zwischen Mechanismus und Manipulation kommt auch in Aussagen wie diesen zum Ausdruck: We manipulate independent variables. So for example, we put a virus into a part of the brain to delete particular genes. We produce an effect on the behavior, the dependent variables. Now, is it mechanistic enough to say that this gene in that part of the brain, when it’s normally present, is somehow contributing to this kind of behavior which I observed? Can I say I cause the observed behavioural effect? I think I can only to the extent that I did

D ARSTELLEN

UND

E INGREIFEN | 235

A and I then observed the phenomenon X. A leads to X, but this could be an incomplete picture. (Interview Yee)

In den letzten Jahren haben verschiedene Philosophen handlungstheoretische Definitionen des Kausalitätsbegriffs entwickelt, die alle auf den engen begrifflichen Zusammenhang zwischen Handlung und Kausalität abzielen (vgl. Keil 2000; Menzies/Price 1993; Gillies 2005). Demzufolge wissen wir, was es heißt, etwas zu verursachen, weil wir tagtäglich in den natürlichen Lauf der Dinge eingreifen (Keil 2000). Handlungstheoretische Kausaltheorien verfügen über eine große intuitive Kraft, »it is implicit in the way people think about causation« (Hausman/Woodward 1999: 550). Sie setzen sich jedoch dem Vorwurf des Anthropozentrismus aus, denn offensichtlich lassen sich nicht alle möglichen Kausalrelationen mit menschlichen Aktivitäten in Verbindung bringen (Keil 2000). Um solche Fallstricke zu umgehen, hat James Woodward (2003) eine reichhaltige Kausaltheorie ausgearbeitet, die auf den Handlungsbegriff verzichtet und an seine Stelle den abstrakteren Begriff der Intervention rückt, worunter auch natürliche Ereignisse fallen können. Es ist hier nicht der Platz, um Woodwards reichhaltigen Ansatz, auf den sich die meisten philosophischen Mechanismuskonzeptionen der heutigen Zeit beziehen, in all seinen Facetten zu diskutieren (vgl. dazu Craver 2007; Waters 2007). Er besagt, grob zusammengefasst:11 Änderungen in Variable X verursachen Änderungen in Variable Y, wenn eine ideale Intervention in X, unter ansonsten gleichbleibenden Bedingungen, den Wert der Variable Y in regelmäßiger Weise ändert.12 Dieser Zusammenhang muss nicht universell und ausnahmslos gültig sein, sondern soll eben nur unter bestimmten stabilen empirischen Rahmenbedingungen oder für bestimmte Werte von X gelten. Wenn das zutrifft, dann verursacht X Y unter diesen Bedingungen. Gleichzeitig kann X herangezogen werden, um Y zu erklären – wobei diese Erklärung wiederum nur für bestimmte Bedingungen gilt. Strengen philosophischen Ansprüchen an eine Definition hält 11 Die folgende Zusammenfassung der Grundzüge von Woodwards Kausaltheorie lehnt sich an Craver 2007 an. 12 Eine Intervention ist dann ideal, wenn sich der Wert von Y nur via X ändert. Damit sollen mehrere mögliche Fälle ausgeschlossen werden: etwa, dass eine Intervention den Wert von Y direkt ändert. Darüber hinaus wirft eine interventionistische Kausaldefinition noch viele andere kritische Fragen auf, die Woodward auf mehreren Hundert Seiten abhandelt: Was ist mit Interventionen, die in der Wirklichkeit unmöglich auftreten können? Wie verhält es sich mit komplexen Netzwerken, in denen mehrere Ursachen zusammenwirken? usw.

236 | ZWISCHEN GEIST UND GEHIRN

Woodwards Lesart des Kausalitätsbegriffs nicht stand, da der Interventionsbegriff ja selber eine kausale Färbung aufweist. Die interventionistische Kausaltheorie ist dennoch keineswegs tautologisch, sondern hat sich gerade in wissenschaftstheoretischen Kontexten als hilfreich erwiesen, um die Bedeutung von Kausalaussagen und ihre normativen Rahmenbedingungen zu analysieren. Entscheidend ist die Grundidee, die lautet: »[C]ausal relationships are distinctive in that they are potentially exploitable for the purposes of manipulation and control.«13 (Craver 2007: 94) Woodward zufolge sind Kausalerklärungen wirkmächtige Werkzeuge, die nicht so sehr auf das verweisen, was da ist, sondern auf das, was machbar ist. Vor langer Zeit, in den 1940er Jahren, kam der britische Philosoph Robin Collingwood zu ähnlichen Schlussfolgerungen. In Bezug auf die »practical sciences« stellte er fest, dass »[t]he causal propositions which it establishes are not propositions which may or may not be found applicable in practice, but whose truth is independent of such applicability; they are propositions whose applicability is their meaning« (Collingwood 1940: 300). Legt man ein manipulationistisches Kausalitätsverständnis zugrunde, besteht der Wert einer mechanistischen Erklärung folglich in ihrer praktischen Dimension: Kausalerklärungen legen die Wechselwirkungen zwischen den Komponenten des Systems offen, das damit in mannigfaltiger Weise kontrollierbar wird. Doch mechanistische Erklärungen verweisen nicht nur auf die Anwendungskontexte von Wissen. Sie sind selber fest in der empirischen Praxis verwurzelt, da ihre Gültigkeit nur relativ zu bestimmten experimentellen Rahmenbedingungen und Aktivitäten bestimmt ist. Es ist klar, dass dies mit einer grundlegenden wissenschaftsphilosophischen Neubewertung des Zusammenhangs von Theorie und experimenteller Praxis einhergeht. Der Entdeckungszusammenhang, die experimentellen Strategien und technologischen Ressourcen, die zum Einsatz kommen, lassen sich in einem mechanistischen Rahmen nicht mehr vom Begründungszusammenhang entkoppeln. Der Erklärungsprozess setzt die Spezifizierung eines Explanandum-Phänomens voraus, das ja – wie Hacking gezeigt hat – im Labor erst mithilfe technologischer und konzeptioneller Ressourcen erzeugt werden

13 Die Bedeutung einer Kausalaussage erschöpft sich also nicht in tatsächlichen Interventionen, sondern setzt nur voraus, dass eine Kontrolle möglich wäre, würde man eine Intervention durchführen. Diese Feinheit erweist sich gerade in biomedizinischen Kontexten als wichtig, wo viele mechanistische Hypothesen mögliche therapeutische Wege beschreiben, die noch gar nicht durchführbar, aber natürlich dennoch sinnvoll sind (Craver 2007).

D ARSTELLEN

UND

E INGREIFEN | 237

muss (Hacking 1992a, 1996a).14 Erst wenn das Phänomen ausreichend stabilisiert ist, kann die eigentliche Erklärungsarbeit beginnen. Indem man »geschickt Fragen stellt, geschickt die Experimente anlegt und sie kombiniert […]« (Interview Wolfer), versucht man, den »productive activities« (Machamer et al. 2000) auf die Spur zu kommen. Boom-up Experiment

Top-down Experiment

Detecon Technique

Intervenon Technique

Intervenon Technique

Detecon Technique

Abbildung 8: Erklären und Verursachen: experimentelle Strategien (nach Craver 2002) Philosophen haben die experimentellen Strategien, die Forscher beim mechanistischen Erklärungsprozess einsetzen, detailliert aufgeschlüsselt (Craver 2007; Bechtel/Richardson 1993; Bechtel 2009). Zu den wichtigsten gehören die Dekomposition des Systems in Einzelkomponenten, die Lokalisation dieser Komponenten (siehe fünftes Kapitel) sowie drittens die Manipulation des Systems, um den Funktionen auf die Spur zu kommen. Im Hinblick auf den Interventionsmodus lassen sich zwei Typen von Experimenten unterscheiden (Craver 2007; vgl. Abbildung 8): • Top-down-Experimente: Hier wird auf der Ebene des Systems interveniert, al-

so der Ebene des Phänotyps. Eingesetzt werden dazu Verhaltensparadigmen oder kognitive Aufgaben. Das Ziel ist, mittels physiologischer Marker die Hirnaktivität zu erfassen, die mit diesen kognitiven Funktionsänderungen korreliert. Die Messung erfolgt beim Tier in der Regel mittels elektrophysiologischer Methoden, beim Menschen heute durch funktional bildgebende Verfahren.

14 Vgl. Sanes/Lichtman 1999 zu den vielfältigen Problemen, die auftreten, wenn wie im Falle von LTP das zu erklärende Phänomen selber diffus ist.

238 | ZWISCHEN GEIST UND GEHIRN

• Bottom-up-Experimente: Hier greift man direkt auf der mechanistischen Ebe-

ne ein, um anschließend die Effekte auf der phänotypischen Systemebene zu messen; diese Eingriffe können sowohl unterbindend sein, wie es bei Läsionsexperimenten oder Knock-out-Experimenten der Fall ist, oder sie beruhen auf einer Aktivierung von Prozessen, beispielsweise durch eine elektrophysiologische Stimulierung bestimmter Hinregionen. Beide Vorgehensweisen gehören im Rahmen von Tierexperimenten zum festen Inventar der Gedächtnisforschung, während im Humanbereich aus naheliegenden Gründen kaum invasive Eingriffe zu Forschungszwecken vorgenommen werden dürfen. Beim Menschen ist man zum Aufschlüsseln mechanistischer Zusammenhänge hauptsächlich auf Top-down-Methoden wie bildgebende Verfahren zurückgeworfen, die sich seit Mitte der 1990er Jahre als Kerntechnologie der kognitiven Neurowissenschaften etabliert haben. So groß die Hoffnungen auch sind, die mit Methoden wie PET oder fMRT verbunden sind: Ebenso wie bei genetischen Assoziationsstudien, die »per definitionem einen rein korrelativen Charakter« (Interview Papassotiropoulos) haben, ist auch ihre Aussagekraft im Hinblick auf kausal-mechanistische Zusammenhänge stark begrenzt: Imaging ist eine reine Beobachtung. […] Im Prinzip möchte man die Hypothesen, die man aufgrund solcher Korrelate aufstellen kann, testen, indem man die Aktivität von spezifisch definierten Nervenzellen dann auch manipuliert. Entweder, indem man die Aktivität verhindert, oder aber, indem man vielleicht sogar Aktivitätsmuster künstlich auslösen kann, um zu schauen, ob man das Verhalten so direkt beeinflussen kann. (Interview Lüthi)

Für Papassotiropoulos besteht der Wert seiner korrelativ ausgerichteten humangenetischen Forschung deshalb hauptsächlich darin, molekulare Anhaltspunkte zu identifizieren, die für das menschliche Gedächtnis eine Rolle spielen könnten. Der Ball liegt anschließend bei der Grundlagenforschung: »Es gibt eine Vielzahl von Molekularbiologen, sie können dieses Gen nehmen, das sie vorher nicht kannten, und sie können mir sagen, was dieses Gen eigentlich macht.« (Interview Papassotiropoulos) Die herausragende Rolle, die Tiermodelle und Tierversuche als Erkenntnisinstrumente in der Forschungspraxis haben, spiegelt die große Bedeutung des mechanistischen Erklärungsparadigmas auf einer theoretischen Ebene. Invasive Interventionstechnologien sind letztendlich unerlässlich, um sich Klarheit über die mechanistische Rolle bestimmter biologischer Entitäten zu verschaffen. Das soll aber nicht heißen, dass die mechanistische Erklärungsstrategie zwangsläufig zum Erfolg führt, wenn man nur ausreichend manipuliert, lokalisiert und dekons-

D ARSTELLEN

UND

E INGREIFEN | 239

truiert. Es ist »nicht alles kausal, was als kausal beim Tier angesehen wird« (Interview Papassotiropoulos). Das heißt, die oben aufgezählten heuristischen Strategien können in der Praxis scheitern. Tatsächlich zeichnet sich das Zeitalter der Postgenomik dadurch aus, dass Biomediziner zunehmend auf Phänomene stoßen, die sich ihren mechanistischen Erklärungsversuchen hartnäckig entziehen – »the world kicks back« (Barad 1998), was immer mehr Wissenschaftler zu einer kritischen Reflexion ihrer Forschungslogik zu veranlassen scheint.

A USSER K ONTROLLE ? P OSTGENOMISCHE U MWÄLZUNGEN In einem mechanistischen Paradigma sind Entstehungs-, Anwendungs- und Begründungskontexte von Wissen eng aufeinander bezogen. Dies wirft auch ein neues Licht auf einen brisanten Streit, der die Wissenschaftsphilosophen seit Jahrzehnten umtreibt und sich an der Frage entzündet hat, ob bestimmte Begriffe oder Theorien in fundamentaleren Begriffen oder Theorien aufgehen.15 Ob sich der menschliche Geist rein biologisch und letztlich vielleicht sogar im Rahmen physikalischer Gesetze umfassend erklären lässt, steht spätestens seit Descartes heftig umstritten im Raum. Der modernen Biomedizin, dominiert von mechanistischen Erklärungsprogrammen, wurde dabei immer wieder vorgeworfen, zu materialistische und reduktionistische Vorstellungen vom Leben zu haben, und in der Geschichte kam es immer wieder zu vitalistischen und holistischen Gegenbewegungen, welche auf der Nicht-Reduzierbarkeit von Lebensprozessen beharrten (vgl. Harrington 2002; Scheper-Hughes/Lock 1987). Diese Auseinandersetzungen scheinen mit der Entdeckung der Struktur der DNA durch Watson und Crick aktueller geworden zu sein denn je: Lassen sich die Gesetze der klassischen Genetik auf die molekulare Genetik und biochemische Prozesse zurückführen? Oder verfügen biologische Systeme ab einer gewissen Komplexität über emergente Eigenschaften, die nicht aus einer reduzierenden Perspektive in ihrer Dynamik zu verstehen sind?

15 In einer extremen Form träumten diesen Traum die Philosophen des Wiener Kreises um Carnap, die von einer generellen Rückführbarkeit aller Wissenschaften auf eine grundlegende Einheitswissenschaft überzeugt waren. Ernest Nagel arbeitete den Begriff der Theorienreduktion später detailliert aus. Sein inzwischen klassisches Modell beruht auf der Identifizierung von Identitätsrelationen zwischen den Aussagen von Theorien (Nagel/Hawkins 1961).

240 | ZWISCHEN GEIST UND GEHIRN

Zwar haben sich Philosophen eingehend und kontrovers mit solchen theoretischen Fragen auseinandergesetzt (vgl. Schaffner 1969; Kincaid 1990; Hull 1982), mechanistische Philosophen jedoch haben das klassische Reduktionismusproblem – meines Erachtens zurecht – im Großen und Ganzen für peripher erklärt (vgl. Craver 2005). Denn interessanterweise spielen diese Streitpunkte für Biomediziner selber keine wesentliche Rolle. Wie der letzte Abschnitt gezeigt hat, überschreiten mechanistische Erklärungen als »multi-level structures« die hierarchischen Organisationsebenen, in die biomedizinische Phänomene durch disziplinäre Spezialisierungen zerlegt werden. Entsprechend vielfältig sind die Disziplinen und Methoden – »[the] menagerie of researchers with different explanatory goals, different concepts and vocabularies, and different techniques and methods« (Craver 2007: 16) –, die sich mit komplexen biomedizinischen Fragestellungen beschäftigen. Die theoretischen Ordnungen, die die Biomedizin erzeugt, bilden ein »explanatory mosaic« (Craver 2007: 19). Eine Theorie wie die Amyloid-Kaskaden-Hypothese zielt hauptsächlich auf die molekulargenetischen Faktoren der Krankheit ab, aber eben nicht ausschließlich. Sie integriert offensichtlich auch zelluläre, organische und behaviorale Aspekte in einen Kausalzusammenhang (vgl. Abbildung 4, S. 107). Was die multidisziplinäre und kleinteilig organisierte biomedizinische Wissensproduktion auszeichnet (siehe zweites Kapitel), ist das Bemühen um lokale Grenzüberschreitungen und Wissenstransfers im Rahmen einzelner Forschungsplattformen und weniger die endgültige Überwindung disziplinärer Grenzen durch das Hochziehen allumfassender Theoriegebäude: »Mechanistic explanations at each level are partial and constructed piecemeal with a focus toward actual experimental investigation, without overarching concerns that they be fit into grand, large-scale scientific theories.« (Wright/Bechtel 2007: 26f.) Derartige Erklärungen haben nicht zum Ziel, komplexe Phänomene wie das Gedächtnis in einer eindimensionalen, fundamentalen Theorie aufgehen zu lassen. Indem sie dies anerkennen, umgehen mechanistische Philosophen die gewohnten (anti)reduktionistischen Fahrwasser, in die sich viele Philosophen angesichts der verwirrenden biomedizinischen Vielfalt von Analysemethoden, Analyseebenen und disziplinären Perspektiven gezwungen sehen. Trotzdem findet es in einem gemäßigteren Sinn durchaus seine Berechtigung, die gängigen biomedizinischen Forschungsansätze reduktionistisch zu nennen. Im folgenden Zitat erläutert der an der ETH Zürich arbeitende Verhaltensbiologe Benjamin Yee, warum das so ist: Because modern biology emphasizes that genes and molecules are the simplest and most fundamental units of explanation, biology of memory has also sought explanation at such

D ARSTELLEN

UND

E INGREIFEN | 241

levels. We therefore carry out experiments by manipulating genes and molecules, to identify and characterize specific gene-memory relations. We are practical reductionists seeking a description of memory in molecular terms, but for me, I am not therefore seeking to define memory in terms of molecular interactions. I am looking for molecular targets or switches that may allow me to influence memory functions. We all know that memory cannot be equated to some molecules. The manifestation of memory, or its defining moment if you like, is at its richest and most meaningful at the holistic level, observed through an organism’s interaction with its environment across time. (Interview Yee)

Biomediziner, die nach mechanistischen Erklärungen suchen, sind reduktionistisch, ja, aber nicht in einem starken ontologischen oder epistemologischen Sinn, sondern nur in einem schwachen forschungspragmatischen Sinn (Beck/Niewöhner 2006). Das heißt, ihre tägliche Forschungsarbeit ist darauf ausgerichtet, komplexe Phänomene auf die Wirkprinzipien ihrer internalen Elemente zurückzuführen, um sie kontrollierbar zu machen. Solche Reduktionen von Komplexität, auch wenn sie praktischer und nicht epistemologischer Art sind, haben jedoch weitreichende epistemische Konsequenzen. Der Forschungsprozess beginnt in einem ersten Schritt mit der Wahl eines möglichst einfachen Experimentalsystems, das im Labor feinsäuberlich aus seinem natürlichen Kontext herausgelöst wird (siehe drittes Kapitel). Diese Dekontextualisierung, bei der Standardisierungsprozesse eine wichtige Rolle spielen, ist notwendig, um anschließend die heuristischen Strategien der Manipulation, Dekomposition und Lokalisation zum Erfolg zu bringen. Die mechanistisch ausgerichtete Biomedizin ist aufgrund ihrer reduktionistischen Forschungsstrategie jedoch zunehmend unter Druck geraten. Insbesondere die psychosoziale Dimension, die viele psychiatrische Störungen unzweifelhaft haben, wird dabei – so der Vorwurf – zu wenig oder gar nicht berücksichtigt: Die biologische Komponente, die die Alzheimer’sche Erkrankung aufweist, lässt sich zum Beispiel mit dem Amyloid-Modell sehr gut beschreiben. Das stößt natürlich auch an gewisse innere Grenzen, aber ich glaube dennoch, dass das zunächst einmal ein sehr tragfähiges Modell ist. Andererseits ist klar, dass man aufgrund der starken biografischen Komponente in den konkreten Symptomen der Alzheimer Demenz und der Relevanz anderer, nicht primär biologischer Faktoren die Gefahr groß ist, dass man beim realen Patienten mit diesen Ansätzen nur begrenzt weit kommt. Für den demenzkranken Patienten geht es nicht um Beta-Amyloid, sondern um den Verlust des Denkens, seiner Erinnerung und damit seiner Biografie. (Interview Kempermann)

242 | ZWISCHEN GEIST UND GEHIRN

Vor einigen Jahren forderten die einflussreichen National Institutes of Health eine verstärkte Integration der verschiedenen medizinischen »levels of analysis« (Anderson 1998; NIH 2003). Angesichts der vielen Herausforderungen im Bereich der öffentlichen Gesundheit tue es not, »an overall strategy for intervention research« zu entwickeln »that integrates behavioral, psychosocial, and biomedical approaches and that spans multiple levels, from the individual to the societal« (NIH 2003: 12). Diese immer noch aktuelle Forderung kann durchaus als eine Kritik an der allzu großen Dominanz »neoreduktionistischer« (Lock 2005: 48) Krankheitsmodelle gelesen werden, die aufgrund ihrer spezifischen forschungspragmatischen Perspektive zu sehr auf das interne Milieu von Organismen und die pathophysiologischen Ursachen von Krankheit ausgerichtet sind und der dynamischen Komplexität lebender Systeme damit nicht gerecht werden (Anderson 1998). Es gibt Anzeichen, dass solche Forderungen nicht ungehört verklungen sind. Unter Biomedizinern scheint ein Umdenken und Umlenken stattzufinden. Kaum jemand möchte noch bestreiten, dass das externe Milieu biomedizinischer Phänomene von Relevanz ist und »Kultur unter die Haut« geht (Niewöhner et al. 2008). Das Schlagwort »Plastizität« wird dabei gerne in Anschlag gebracht »to highlight the momentary and long-term modifiability of brain, behavior, and culture in association with internal and external conditions of life« (Baltes et al. 2006b: 9).16 Nicht nur Gehirne, auch Gene und Erinnerungen werden zunehmend als plastische Entitäten verstanden. Dass psychiatrische Erkrankungen auf komplexen Ätiologien und »multifaktoriellen« Zusammenhängen beruhen und »psychobiosozial verankert« (Interview Heuser) sind, gehört zu den Gemeinplätzen dieser Tage. Diese Verschiebung findet nicht nur auf einer diskursiven Ebene statt, sondern spiegelt sich auch in aktuellen Forschungsansätzen wider, die versuchen, sich mittels kontextsensitiver Methoden und neuer Werkzeuge der psychosozialen Dimension ihrer Forschungsobjekte anzunähern. Ich wende mich 16 Fast im gesamten 20. Jahrhundert herrschte die Überzeugung vor, dass das menschliche Gehirn von Geburt an in seiner Struktur und Funktion weitgehend fixiert ist. Die Idee, dass das Gehirn plastisch ist, taucht in den 1990er Jahren im neurowissenschaftlichen Diskurs auf und hängt unter anderem mit der Entdeckung zusammen, dass sich auch im adulten Gehirn neue Neuronen bilden können. Die sogenannte Neurogenese scheint vor allem im Hippokampus eine wichtige Rolle zu spielen (Kempermann 2006). Anthropologen wie Tobias Rees zufolge beinhaltet »the emergence of adult cerebral plasticity […] a major mutation of the neurologically human – a metamorphosis of the confines within which neuroscience requires all those who live under the spell of the brain to think and live the human« (Rees 2010).

D ARSTELLEN

UND

E INGREIFEN | 243

jetzt zwei Forschungsfeldern der Gedächtnisforschung zu, die immer wieder mit postgenomischen Entwicklungen in Verbindung gebracht werden: der molekularbiologischen Epigenetik einerseits und der funktionellen Bildgebung andererseits. Durch den Kontrast dieser beiden Forschungspraktiken, die auf unterschiedlichen experimentellen Strategien beruhen, will ich die Reichweite und Grenzen des mechanistischen Erklärungsparadigmas in der postgenomischen Ära genauer herausarbeiten. Epigenetik: Kontextualisierte Gene Die postgenomische Revision molekularer Genkonzepte seit Mitte der 1990er Jahre ist eng mit dem Schlagwort »Epigenetik« verbunden, ein Begriff, der Mitte des letzten Jahrhunderts von Charles Waddington in die wissenschaftliche Diskussion eingebracht wurde. Waddington wollte darauf hinweisen, dass es nicht nur die eigentliche Gensequenz ist, die für den Phänotyp relevant ist, sondern auch das, was »auf den Genen« (Epi-Genom) passiert (Waddington 1953; Griesemer 2002). Es ging ihm also darum, den Fokus auf die kausalen Wechselwirkungen zwischen den Genen und ihren Produkten zu lenken – eine erstaunliche Vision zu einer Zeit (Mitte des 20. Jahrhunderts), als die Genetik selber noch in den Kinderschuhen steckte. Der Begriff hat seither eine lange und wechselvolle Evolution durchgemacht und ist ebenso diffus und vielschichtig wie der Genbegriff (Jablonka/Lamb 2002). Einige Wissenschaftler, denen ich mich im Folgenden anschließe, beziehen sich damit sehr spezifisch auf »changes in gene function that are mitotically and/or meiotically heritable and that do not entail a change in DNA sequence« (Wu/Morris 2001: 1103). Viele gebrauchen den Begriff allgemeiner und schließen auch nicht-erbliche Änderungen der Genexpression ein (vgl. Sananbenesi/Fischer 2009). Abgesehen von solchen begrifflichen Fragen handelt es sich bei der Epigenetik vor allem um ein florierendes und produktives molekularbiologisches Forschungsfeld, das in den letzten Jahren eine veritable sozialwissenschaftliche und philosophische Reflexion erfahren hat (Lock 2005; Speybroeck 2000, 2002; Keller 2006). Epigenetische Prozesse werden seit mehreren Jahren vor allem in der Krebsforschung intensiv untersucht (vgl. Holliday 1979), und die Forschungsprogramme aus diesem Bereich haben wesentlich zu einem besseren Verständnis der molekularen Mechanismen beigetragen. Das Hauptaugenmerk der Forschung liegt auf zwei (unspezifischen) Modifikationen, welche die Genaktivität regulieren, ohne direkt in die DNA-Sequenz einzugreifen (Sananbenesi/Fischer 2009). Dazu gehören die DNA-Methylierung, also das Anhängen einer Methylgruppe (CH3) an die Cytosinbase mittels Enzymen, sowie die Histone-Modifizierung

244 | ZWISCHEN GEIST UND GEHIRN

(etwa mittels Deacetylierung), durch die das Chromatin verdichtet wird.17 Beide Vorgänge behindern die Genexpression und sind reversibel, erweisen sich unter bestimmten Umständen aber als so stabil, dass sie erblich sein können (Niewöhner 2011).18 In den letzten Jahren wurden die in der Krebsforschung etablierten experimentellen Praktiken in viele andere biomedizinische Forschungsfelder importiert und es scheint sich eine neue Experimentalkultur auszubilden. Um André Fischer zu zitieren: »Wir können einfach genau dieselben Substanzen nehmen, auf die Experimente zurückgreifen, die gemacht wurden, und schauen, klappt es auch in Tiermodellen für psychiatrische Störungen.« (Interview Fischer) Dass epigenetische Systeme bei der Regulation komplexer Verhaltensmuster involviert sind, konnte Anfang dieses Jahrhunderts in bahnbrechenden Rattenversuchen demonstriert werden (Weaver et al. 2004): Michael Meaney und Mosche Szyf von der McGill Universität wiesen einen Zusammenhang nach zwischen dem Brutverhalten der Rattenmütter und dem Epigenom der Jungtiere.19 Derartige Verhaltensexperimente, die den Einfluss der Umwelt auf die Genexpression studieren, haben die sogenannte »environmental epigenetics« (Niewöhner 2011) begründet, die für die Gedächtnisforschung hauptsächlich relevant ist. Es gibt inzwischen viele überzeugende Hinweise, dass epigenetische Prozesse eine wichtige Rolle bei der synaptischen Plastizität und Gedächtnisbildung spielen, respektive, wenn sie dereguliert sind, zu kognitiven Störungen beitragen (Levenson/Sweatt 2005; Gräff/Mansuy 2008, 2009; Roth/Sweatt 2009). Unter anderem haben Studien gezeigt, dass die pharmakologische Inhibierung der DNAMethylierung zu Einbußen in verschiedenen Verhaltenstests führt (Miller/Sweatt 2007), oder umgekehrt, dass die erfolgreiche Absolvierung solcher Verhaltens17 Histone sind Proteine, die zusammen mit der DNA das plastische Chromatin bilden. 18 Für eine detaillierte Übersicht der verschiedenen Mechanismen vgl. Levenson/Sweatt 2005. 19 Vor Kurzem hat eine Studie beim Menschen einen ähnlichen Effekt festgestellt (McGowan et al. 2009), was Aufsehen erregte, da epigenetische Mechanismen im Humanbereich schwierig nachzuweisen sind. Ausgewertet wurde umfangreiches Hirnmaterial von Suizidopfern, bei denen die psychiatrische Vorgeschichte rekonstruiert worden war (Niewöhner 2011). Es zeigte sich, dass die Suizidopfer, die als Kinder missbraucht worden waren, epigenetische Modifikationen im Hippokampus aufwiesen, die so bei Suizidopfern ohne Missbrauchsgeschichte sowie Kontrollpersonen nicht festgestellt wurden. Es gibt also Hinweise, dass epigenetische Mechanismen auch beim Menschen eines der Bindeglieder sein könnten, um zu erklären, wie aversive Lebenserfahrungen unser Verhalten prägen.

D ARSTELLEN

UND

E INGREIFEN | 245

tests Änderungen in der Chromatinstruktur bestimmter Gene induziert (Levenson et al. 2004; Lubin et al. 2008). Alle diese Befunde sind vorläufig und noch nicht wirklich abgesichert. Bei der Epigenetik handelt es sich um ein sehr junges Forschungsgebiet, dessen experimentelle Methoden und Experimentalsysteme sich noch in einem wenig ausgereiften, fragilen Zustand befinden. Zudem sind die Forschungsbemühungen notgedrungen fast ausschließlich auf den tierexperimentellen Bereich beschränkt, was es zusätzlich schwierig macht, die Validität der experimentellen Resultate zu beurteilen.20 Trotz dieser Einschränkungen ist die Rede von einem Paradigmenwechsel nicht zu hoch gegriffen: Der genetische Code, seit Watson und Crick der privilegierte Dreh- und Angelpunkt aller Lebensprozesse, verliert offensichtlich an Relevanz; die Rede vom Buch respektive Fundament des Lebens (Kay/Roßler 2005) scheint in ihrer Tragweite nicht mehr gerechtfertigt. Wie die epigenetische Forschung zeigt, gibt es dynamische und reversible Vorgänge jenseits der DNASequenz, die transgenerationelle Effekte zur Folge haben können. Dies hat erstens mit dazu beigetragen, dass man »versucht, die DNA als dreidimensionale Struktur und als dynamische Struktur zu verstehen« (Interview Fischer). Der genetische ›Code‹ wird also nicht mehr auf rein formale oder informationelle Aspekte reduziert (Smith 2000; Jablonka 2002). Zweitens folgt daraus, dass er seinen privilegierten kausalen Status verliert und wie jeder andere materielle ›Gegenstand‹ kontextualisiert werden muss, eingebettet in ein komplexes Netz verschiedener Einflussfaktoren (Speybroeck 2000). »Genome, meet your environment« (Pray 2004), diese (nicht mehr ganz frische, aber weiterhin aktuelle) Schlagzeile aus dem Jahr 2004 bringt die Erschütterung althergebrachter kausaler Deutungsmuster durch das junge Forschungsgebiet der Epigenetik auf den Punkt. Etwas konkreter ausgedrückt, bedeutet dies, dass

20 Im Humanbereich kämpft man mit dem Problem, dass Gehirnmaterial in der Regel erst post mortem und folglich zu einem weit fortgeschrittenen Krankheitsstadium vorliegt. Es gibt aber unabhängig davon epidemiologische Studien, die auf transgenerationelle Effekte von Umwelteinflüssen hindeuten. In diesem Zusammenhang wird oft auf eine schwedische Studie aus dem Jahr 2002 verwiesen (Kaati et al. 2002). Die Forscher analysierten die Gesundheitsbiografien von 300 Personen aus einem schwedischen Bezirk, die zu Beginn des 20. Jahrhunderts aufgewachsen waren, und setzten die Daten mit der Ernährungssituation der Eltern und Großeltern in Verbindung. Das Ergebnis war, dass das persönliche Risiko für Herzkreislauferkrankungen und Diabetes deutlich von dem durch Überfluss oder Knappheit geprägten Ernährungsverhalten der vorangegangenen Generationen abhing.

246 | ZWISCHEN GEIST UND GEHIRN

die Umweltfaktoren mehr und mehr an Bedeutung gewinnen. Das heißt, man rückt davon ab, dass man sagt, ein Gen hat eine Mutation und das ist die Krankheit. Auch bei Alzheimer Demenz sprechen die Leute mittlerweile von einem Syndrom. Die Idee ist, dass sich durch verschiedene Umweltfaktoren, die sich auf den Metabolismus auswirken können, letztendlich in der DNA-Struktur auch epigenetische Veränderungen manifestieren, die dann durchaus auch zusätzliche Risikofaktoren für die Pathogenese darstellen können. (Interview Fischer)

Mit dieser kontextsensitiven Sicht auf Krankheitsprozesse scheinen sich neue biomedizinische Interventionsstrategien zu eröffnen, die jenseits des individuellen Körperinneren operieren. Und, was damit zusammenhängt, sie scheint die dominierende Vorstellung von der Haut als einer eindeutigen Grenze zwischen dem Individuum und seinem Kontext zu hinterfragen (vgl. Bentley 1941; Niewöhner et al. 2008). In der epigenetischen Praxis wird, so deutet sich an, ein »embedded body« produziert, der in seine Umwelt eingebettet ist und feinfühlig auf Veränderungen von außen und innen reagiert (Niewöhner 2011). Doch inwieweit der Denkwandel, der in dem obigen Zitat von Fischer zum Ausdruck kommt, in einen Praxiswandel mündet, muss anhand einer Analyse der konkreten experimentellen Praxis genauer hinterfragt werden. Wie wird die Umwelt in einem hermetisch abgeschotteten Forschungslabor operationalisiert? Angereicherte Umwelten In den meisten epigenetischen Studien zu Gen-Umwelt-Interaktionen kommt ein experimentelles Paradigma zur Anwendung, das als »angereicherte Umwelt« oder »enriched environement« (EE) bezeichnet wird. In der Regel werden Labormäuse unter standardisierten Bedingungen in möglichst einfachen Plastikkäfigen von der ungefähren Größe eines Schuhkartons gehalten, in denen sich nicht viel mehr als die Futterstelle und etwas Streu befinden. Dass die Tiere unter diesen Bedingungen viele Verhaltensauffälligkeiten an den Tag legen, ist seit Langem bekannt, und es gibt deshalb ein wachsendes, ethisch begründetes Interesse an verbesserten Haltungsbedingungen (Wolfer et al. 2004; Würbel 2001). Beispielsweise, indem man größere Käfige, stimulierendes Spielmaterial wie sogenannte Nestlets und Laufräder oder Unterschlupfmöglichkeiten wie Röhren verwendet (Nithianantharajah/Hannan 2006). Viele Variationen sind denkbar, die aber alle zum Ziel haben, den Tieren mehr soziale Kontakte, geistige und körperliche Betätigung zu ermöglichen. Dass man solche stimulierenden Haltungsbedingungen auch experimentell nutzbar machen kann, wurde bereits in den 1940er Jahren erkannt. Von dem Psychologen Donald Hebb ist die Beobachtung überliefert, dass Laborratten, die

D ARSTELLEN

UND

E INGREIFEN | 247

er seinen Kindern als Haustiere nach Hause brachte, auffällige Verhaltensunterschiede zu ihren Artgenossen im Labor aufwiesen (Hebb 1949; Nithianantharajah/Hannan 2006). Das Paradigma wurde dann in den 60er Jahren von Psychologen wie Rosenzweig und Bennett systematisch ausgearbeitet, eine intensive Forschungsphase, von der viele wissenschaftliche Artikel zeugen (vgl. zum Beispiel Bennett et al. 1964, 1969). In den letzten Jahren ist das Interesse an EE auch in neurowissenschaftlichen Forschungsbereichen stark gewachsen. In diversen Studien wurde die positive Wirkung auf verschiedene physiologische und psychologische Parameter, unter anderem Gedächtnis und LTP, nachgewiesen (vgl. van Praag et al. 2000; Milgram et al. 2006). EE hat wesentlich zu der Erforschung der sogenannten Neurogenese im Hippokampus beigetragen (vgl. Kempermann et al. 2002) und gilt besonders im Zusammenhang mit neurodegenerativen Erkrankungen wie AD als ein vielversprechender Forschungs- und Therapieansatz (Spires/Hannan 2005). Die tierexperimentellen Forschungsarbeiten, die eine Verbesserung diverser neuropathologischer Marker unter dem Einfluss von EE festgestellt haben (vgl. Lazarov et al. 2005; Karsten/Geschwind 2005; Berardi et al. 2007; Marx 2005a), bestätigen im Großen und Ganzen die klinische Vermutung, dass körperliche und geistige Betätigung die kognitive Reserve steigern und damit die Widerstandsfähigkeit gegenüber der Demenz erhöhen könnten (Marx 2005b; Gatz 2005). In einer bemerkenswerten Publikation aus dem Jahr 2007 gehen André Fischer et al. der Annahme nach, dass solchen Enrichment-Effekten epigenetische Wirkprinzipien zugrunde liegen. Als Labortier verwendeten sie CK-p25, das bereits im dritten Kapitel kurz vorgestellte Tiermodell, das eine zeitlich spezifische Auslösung pathologischer Prozesse ermöglicht. In einem ersten Schritt unterzogen die Wissenschaftler Mäuse, die bereits eine feststellbare Neurodegeneration und Defizite in der kontextuellen Angstkonditionierung aufwiesen, einem mehrwöchigen Enrichment-Training. Das erstaunliche Ergebnis: Im Unterschied zu Kontrolltieren bewiesen die trainierten Mäuse nicht nur eine verbesserte Gedächtnisleistung, sondern konnten sogar Gedächtnisinhalte wieder abrufen, die sie nach der induzierten Pathologie offensichtlich bereits verloren hatten – und das, obwohl die trainierten Mäuse immer noch über einen ähnlichen Grad von Neurodegeneration wie die Kontrolltiere verfügten. Die Autoren ziehen den Schluss: »The fact that long-term memories can be recovered by EE supports the idea that the apparent ›memory loss‹ is really a reflection of inaccessible memories.« (Fischer et al. 2007: 180) Aufgrund der Reversibilität der Gedächtnisdefizite lag die Vermutung nahe, dass epigenetische Prozesse im Spiel sind. In der Tat stellten die Wissenschaftler bei Untersuchungen fest, dass EE bei den Tieren zu einer erhöhten Histone-Acetylierung im Hippokampus und teilweise dem

248 | ZWISCHEN GEIST UND GEHIRN

Cortex geführt hatte – einer der beiden gut untersuchten Mechanismen, die mit einer verstärkten Genexpression in Verbindung gebracht werden. Als krönenden Abschluss verabreichten sie daraufhin nicht-trainierten Labortieren mit synaptischer und neuronaler Degeneration ein pharmakologisches Mittel (Natriumbutyrat), das die Histone-Acetylierung fördert (respektive die Histone-Deacetylierung verhindert) – mit durchschlagendem Erfolg. Die Tiere waren nicht nur erfolgreicher in Lerntests als ihre unbehandelten Artgenossen (die einen ähnlichen Grad an Hirnatrophie aufwiesen), sie konnten sich bei einer entsprechend ausgedehnten Behandlungsphase auch an bereits verlorene Erinnerungen wieder erinnern (was, so muss einschränkend gesagt werden, in einem tierexperimentellen Kontext natürlich nur unter sehr eingeschränkten Bedingungen überprüfbar ist). Die Forschungsarbeit von Fischer et al. basiert auf der Idee, unter experimentellen Rahmenbedingungen die Auswirkung von komplexen Umweltbedingungen auf molekulare Prozesse zu untersuchen und so pathologische Prozesse zu erhellen. Das Ziel ist, den Raum zwischen Geno- und Phänotyp und seine »multifaktoriellen« Einflussfaktoren besser in den Griff zu bekommen. Die Befunde deuten darauf hin, dass die Chromatin-Struktur und im Speziellen die HistoneAcetylierung bei verschiedenen psychiatrischen Erkrankungen »ein sehr guter [therapeutischer] Ansatzpunkt [sein könnte]« (Interview Fischer; vgl. auch Alarcón et al. 2004; Levenson et al. 2004; Vecsey et al. 2007; Sananbenesi/Fischer 2009). Im Fall von AD konnten bei Post-mortem-Analysen von menschlichem Gehirnmaterial epigenetische Modifikationen nachgewiesen werden (Chouliaras et al. 2010). Dies gilt offenbar nicht nur für neurodegenerative Störungen, eine positive Wirkung wurde auch bei Schizophrenie-Patienten (Sharma et al. 2006) und bei Tiermodellen der Furchtreduktion beobachtet (Lattal et al. 2007; Bredy/Barad 2008). Solche direkten Hinweise fehlen zurzeit bei PTSD, epidemiologische Studien lassen jedoch vermuten, dass die Kinder von HolocaustÜberlebenden ein erhöhtes PTSD-Risiko aufweisen (Kellerman 2001); viele Wissenschaftler sind deshalb davon überzeugt, dass epigenetische Modifikationen auch bei posttraumatischen Störungen eine wichtige Rolle spielen (Yehuda/Bierer 2009; Yehuda/LeDoux 2007). Sollten sich diese Vermutungen bestätigen, könnte sich das Epigenom als eines der Scharniere erweisen, wo sich Umwelt- und genetische Faktoren krankheitsspezifisch in einer »distinct epigenetic signature« manifestieren (Sananbenesi/Fischer 2009: 1151). »Und wir versuchen zu beschreiben, bei verschiedenen neuropsychiatrischen Erkrankungen, was eigentlich auf der Chromatin-Ebene dereguliert ist« (Interview Fischer), so Fischer, der auf dieser Grundlage spekuliert hat, dass epigenetische Prozesse eine Art »bottleneck of neurodegenerative and neuropsychiatric diseases« (Sananbenesi/Fischer 2009: 1151) darstellen. Sie bilden demnach zwar nicht die primäre

D ARSTELLEN

UND

E INGREIFEN | 249

Ursache der Erkrankung, aber »eine [kausale] Schnittstelle, wo die Dysfunktion praktisch immer zusammenläuft« (Interview Fischer).21 All dies sind Schritte auf einem Weg, der offenkundig von dem »genecentrism« (Waters 2006) des 20. Jahrhunderts wegführt. Der biomedizinische Fokus verschiebt sich von den einzelnen, statischen Basensequenzen hin zu den dynamischen Interaktionen, die die Genaktivität und -funktion steuern. Um diese aktuellen Umwälzungen der Forschungslandschaft zu analysieren, hilft ein Hinweis des Philosophen Kenneth Waters weiter. Waters (2006) sieht den Genozentrismus des 20. Jahrhunderts nicht darin begründet, dass Gene über einen herausragenden Erklärungswert verfügen. Vielmehr ist er Ausdruck einer überaus erfolgreichen Forschungsstrategie, die sich zentral auf die DNA abstützt, weil sich diese als ein »causally specific actual difference maker« erwiesen hat (Waters 2007). Als solchen bezeichnet Waters, vereinfacht gesagt, diejenige Ursache unter den myriaden anderen möglichen, die in einer bestimmten Situation tatsächlich den Unterschied ausmacht. Diese Beschreibung trifft im Bereich biologischer Prozesse nun einmal besonders häufig auf Variationen in der DNASequenz zu, weshalb sich Gene als experimentelle Angriffspunkte und ›Manipuliermasse‹ geradezu aufdrängen.22 Dies scheint sich jedoch derzeit zu ändern: Wie die elegante Studie von Fischer et al. (2007) zeigt, rücken aktuell neue difference making causes in den Vordergrund. Tatsächlich erweist sich in der epigenetischen Praxis nicht mehr die DNA, sondern die Chromatin-Struktur – mittels pharmakologischer Intervention – als die zentrale Kontrolleinheit. Diese Entwicklung wird unterstützt von Hochdurchsatz-Sequenziermethoden wie der DNA-Chip-Technologie oder ChIP-Sequenzierung einerseits (vgl. Ozsolak et al. 2009; Visel et al. 2009), sowie der Förderung mehrerer epigenetischer Großprojekte nach dem Vorbild des Humangenomprojektes andererseits. Im Januar 2010 hat sich in Paris das »International Human Epigenome Consortium« formiert, ein

21 Im Fall von AD wird diese These durch eine aktuelle Studie bestätigt. Es konnte sowohl bei AD-Mäusen als auch bei (bereits verstorbenen) Patienten gezeigt werden, dass im dementen Gehirn eine (unter Umständen) reversible »epigenetische Blockade« auftritt, die für die rapide Verschlechterung der Gedächtnisfunktionen verantwortlich ist (Gräff et al. 2012). 22 Einen ähnlichen Punkt macht auch Kelly C. Smith in Bezug auf den Begriff der genetischen Krankheit: »The manipulability criterion says that a disease is genetic if and only if it is best controlled (prevented) through manipulation of the genes.« (Smith 2001: 22)

250 | ZWISCHEN GEIST UND GEHIRN

Zusammenschluss von privaten und öffentlichen Instituten, die sich vorgenommen haben, »1000 Referenz-Epigenome zu entziffern«.23 Trotz der Zunahme an Studien zu Gen-Umwelt-Interaktionen ist festzuhalten, dass die ›Umwelt‹ zwar als experimentelles Konzept in der aktuellen Forschungspraxis auftaucht, als relevanter Faktor dabei aber unspezifisch bleibt. Dies lässt sich unter anderem daran ablesen, dass EE – konträr zu dem ausgeprägten Standardisierungsethos der modernen Neurowissenschaft (siehe viertes Kapitel) – überraschenderweise keinen wesentlichen Standardisierungsbemühungen unterworfen ist (vgl. Nithianantharajah/Hannan 2006). Fischer hält dies auch für nicht wirklich notwendig: »Enrichment ist nicht wirklich standardisiert, aber vielleicht muss es das auch gar nicht sein. Im Endeffekt ist es so, dass man bei den Tieren immer einen starken Effekt sieht. Wieso? Weil sie halt normalerweise in einem relativ langweiligen Käfig wohnen.« (Interview Fischer) Gerd Kempermann geht in eine ähnliche Richtung: In den 70er-Jahren, als die Hochzeit der Enrichment-Forschung war, standen sich zwei psychologische Schulen gegenüber. Die eine hat das mehr unter einem Lerngesichtspunkt gesehen, die andere eher unter einem Entwicklungsgesichtspunkt. […] Dass man sich nie hat darauf einigen können, was denn jetzt die Quintessenz der Sache ist, ist nicht wirklich relevant. Man definiert das einfach operational. Das ist ja auch die Stärke, dass diese reizreichen Umgebungen a priori keine Annahmen machen. Hinterher ist es interessant auszutüfteln, was genau der wirksame Bestandteil ist. (Interview Kempermann)

Angesichts solcher Bemerkungen drängt sich der Schluss auf, dass auch die aktuellen Studien zu Gen-Umwelt-Interaktionen in eine (in einem pragmatischen Sinn) reduktionistisch agierende Forschungspraxis eingebettet sind. Mit EE gewinnen zwar Umweltkonzepte in der experimentellen Praxis an Bedeutung, der Wille zum difference making ist aber auf dieser Ebene offenbar nur schwach ausgeprägt. Systematische experimentelle Variationen der Umweltbedingungen 23 Vgl. http://www.biotechnologie.de/BIO/Navigation/DE/root,did=108022.html (Stand: 14.2.2011). Ein anderes, bereits etwas älteres Großprojekt ist das »Human Epigenome Project«, eine Initiative von privaten und öffentlichen Instituten. Ziel des Projektes ist es »to identify, catalogue and interpret genome-wide DNA methylation patterns of all human genes in all major tissues« (vgl. http://www.epigenome.org, Stand: 14.2.2011, und Mayo Clinic 2009; Novik et al. 2002; Weaver et al. 2004). Derartige Kartierungsprojekte sind zurecht von verschiedener Seite kritisiert worden, da sie mit ihrem strukturalistischen Fokus dem dynamischen Charakter epigenetischer Modifikationen zuwiderlaufen (Niewöhner 2011).

D ARSTELLEN

UND

E INGREIFEN | 251

würden eine Standardisierung von EE erforderlich machen,24 da difference making causes als solche erst vor einem homogenen Bezugsrahmen definiert sind. Nur so lassen sich die Differenzen, die erzeugt werden, einem spezifischen Eingriff zuordnen, was deutlich macht, dass Standardisierung im Rahmen einer mechanistischen Praxis nicht nur der Replizierbarkeit der Befunde dient, sondern auch der Logik von Manipulation und Kontrolle entspricht. Die Epigenetik, von der viele behaupten, dass sie den Raum zwischen Geno- und Phänotyp bearbeitet, hat folglich immer noch eine deutliche Schlagseite in Richtung Genotyp. Auf der experimentellen Bühne dominieren standardisierte Tiermodelle und molekular ausgerichtete Pharmakotherapien. Wie Fischer sagt, zielt das Forschungsinteresse darauf ab »zu verstehen, was auf molekularer Ebene [passiert]« (Interview Fischer), sodass die Enrichment-Effekte irgendwann vielleicht mit pharmakotherapeutischen Methoden induziert werden können (sogenannte »Enviromimetics«, vgl. Nithianantharajah/Hannan 2006). Die Umwelt kommt dabei als eine unspezifische Hintergrundbedingung respektive als ein diffuser Risikofaktor zum Tragen, nicht jedoch als relevanter Bereich experimenteller Kontrolle und Intervention. Die Gleichung zwischen Innen und Außen symmetrischer zu gestalten, würde (gemäß einer mechanistischen Logik) voraussetzen, dass man in einem experimentellen Rahmen fein abgestufte Umweltkonzepte entwickelt, um auch auf dieser Ebene Interventionsmöglichkeiten zu eröffnen.25 Damit will ich nicht den oben skizzierten postgenomischen Denk- und Praxiswandel infrage stellen. Es gibt eine wachsende Erkenntnis der vielfältigen und dynamischen Faktoren, denen Krankheitsprozesse unterworfen sind, die in neuen Paradigmen wie EE verankert ist. Die Epigenetik erschüttert herkömmliche Vorstellungen von Kausalität, die sich an linearen, deterministischen Interaktionen zwischen einzelnen, klar abgrenzbaren Entitäten orientieren (das sogenannte Billardkugelmodell, vgl. Wagner 1999). Gerd Kempermann resümiert die Entwicklung im Hinblick auf die kausalen Denkmuster wie folgt: In der Physik spielen stochastische Elemente schon seit anfangs des 20. Jahrhunderts eine größere Rolle. Diesen Schritt in die Unanschaulichkeit macht jetzt auch die Biologie. Auf 24 Zwar ist die Tierhaltung in Laboratorien hochgradig standardisiert, es handelt sich dabei aber um eine rein willkürliche Homogenisierung, welche die Umwelt als Einflussfaktor gerade unsichtbar machen soll. 25 In den 1970er Jahren gab es solche Ansätze bereits (vgl. Bennett et al. 1974). Man entwickelte damals verschiedene Enrichment-Konzepte, um die Auswirkungen von verschiedenen Umwelten auf die Neurobiologie und das Verhalten der Tiere zu überprüfen (vgl. für einen der wenigen neueren Texte dazu Marashi et al. 2003).

252 | ZWISCHEN GEIST UND GEHIRN

der Ebene des einzelnen Gens gibt es natürlich nach wie vor Kausalität, aber auf der Ebene des Netzwerks kann aus der Funktion einzelner Gene nicht automatisch auf das Verhalten des Netzwerks geschlossen werden, und umgekehrt auch nicht. Diese Komplexität dennoch verstehen zu lernen, ist, glaube ich, der entscheidende Schritt. (Interview Kempermann)

Mit ansteigender systemischer Komplexität und unter dynamischen Rahmenbedingungen wird es immer schwieriger, Phänomene zu stabilisieren, gezielt zu manipulieren und die relevanten Signale aus dem Datenrauschen herauszufiltern. Das epigenetische Methodenarsenal mit seinem Schwerpunkt auf pharmakologischen Methoden ist im Vergleich zu den anfangs zitierten Verfahren der Gendeletion unpräzise. Gene lassen sich mithilfe von optogenetischen Methoden wie Lichtschalter ein- oder ausschalten, Eingriffe in die Chromatin-Struktur und die Methylierung der DNA lösen hingegen Prozesse aus, die wesentlich diffuser sind und »nicht nur ein oder zwei Gene anschalten, sondern vielleicht hundert oder zweihundert« (Interview Fischer; Niewöhner 2011). Die Beobachtung, dass sich die Inhibition der Histone-Deacetylierung bei so unterschiedlichen Krankheiten wie AD oder Schizophrenie in einem tierexperimentellen Kontext als heilsam erwiesen hat (Sananbenesi/Fischer 2009: 1151), könnte ein Hinweis sein auf die unspezifischen Wirkungen, die man bei Eingriffen in das Epigenom erzeugt. Die Konsequenz davon ist, dass Epigenetiker im Vergleich zu herkömmlichen Molekularbiologen mit weniger anschaulichen und eindeutigen Daten zu kämpfen haben. »This variance needs to be contained post-hoc through building thick significance«, so Jörg Niewöhner (2011), dessen Schlussfolgerungen sich mit den Thesen des vierten Kapitels decken. Eine fluidere biologische Praxis, in der Forscher gezwungen sind, ihre experimentellen Daten stärker zu kontextualisieren, könnte letzten Endes sogar zu valideren Befunden kommen. Kognitionspsychologie: Plastische Erinnerungen Die postgenomische »Re-Kontextualisierung« (Moss 2002: 229) des Genoms findet eine Entsprechung im Bereich der Kognitionspsychologie. Während die Molekularbiologie die DNA zunehmend als eine formbare Struktur beschreibt, so wächst dort parallel dazu die Erkenntnis, dass »das Gehirn […] plastisch [ist]« (Interview Brand). Technologien wie die funktionelle Magnetresonanztomografie (fMRT) oder Positronen-Emissions-Tomografie (PET), mit denen sich funktionelle Zusammenhänge auf Gehirnebene sichtbar machen lassen, haben seit Mitte der 1990er Jahre entscheidend dazu beigetragen, »sensitive Marker für diese plastischen Vorgänge« (Interview Brand) zu bestimmen. Besonders bei den

D ARSTELLEN

UND

E INGREIFEN | 253

sogenannten »sociomedical disorders« (Dumit 2000), die über eine umstrittene »biomentale« Ätiologie verfügen und zu denen auch PTSD gezählt werden kann, hat sich dieser Forschungszweig als wegweisend erwiesen. Forschungsarbeiten im Traumabereich kreisen um ein epistemisches Objekt, das ich im fünften Kapitel vorgestellt habe: das autobiografisch-episodische Gedächtnissystem. Seit den memory wars beschäftigen sich Psychologen, Psychotherapeuten und Psychiater mit der Frage, wie fragil autobiografische Erinnerungen sind. Können unterdrückte, unbewusste Traumata als relevante Ursachen einer ganzen Reihe post-traumatischer Syndrome – darunter fällt neben PTSD auch die Dissoziative Amnesie – anerkannt werden? Viele Psychotherapeuten sind der Ansicht, dass Patienten, die eine überwältigende emotionale Erfahrung gemacht haben, die Erinnerungen daran verdrängen oder vom restlichen Selbst abspalten können (van der Kolk 1994). Da die pathogene Erinnerung den Betroffenen selber nicht mehr zugänglich ist, so ihr Credo, kann sie aus dem Unterbewusstsein nur mit therapeutischer Hilfe ›hervorgeholt‹ und unschädlich gemacht werden. Unter Neuropsychologen besteht hingegen Konsens, dass das autobiografisch-episodische Gedächtnissystem nicht »like a wire-recorder or a taperecorder« funktioniert, wie etwa Wilder Penfield in den 1960er Jahren spekulierte (Penfield 1968: 840), sondern »sich notwendig in einem steten Wandlungsprozess [befindet]« (Markowitsch/Welzer 2005: 33; Welzer 2008). Mithilfe der Bildgebung ist es gelungen, unterschiedliche neuronale Verarbeitungsprozesse, die episodischen Erinnerungsvorgängen zugrunde liegen, im Gehirn zu verorten (vgl. zum Beispiel Tulving et al. 1994; Nyberg et al. 1996; Yancey/Phelps 2001). Es konnte gezeigt werden, dass falsche Erinnerungen in anderen Gehirnregionen prozessiert werden als wahre und – zumindest in einem experimentellen Rahmen – sogar anhand ihrer Hirnkorrelate prognostizierbar sind (Okado/Stark 2005). Auch eine Lösung für das Problem, dass »individuals ›choose‹ PTSD […] to reorganize their life-worlds« (Young 1996: 98), scheint mit diesen neuen Technologien nicht mehr utopisch.26 Diese Bemerkungen deuten in Richtung einer Somatisierung traumatischer Erfahrungen unter Zuhilfenahme der funktionellen Bildgebung. Auf der Basis von neuronalen Markern, dem sogenannten »bodily 26 Da episodische Erinnerungen nicht festgefügt sind wie eine Fotografie, ist es nicht ausgeschlossen, dass die traumatische Erinnerung nicht die Ursache des Syndroms ist, sondern bloß der Grund respektive die Erklärung dafür (Young 1996, 2000). Das heißt, die traumatische Zeit kann in zwei Richtungen fließen: von der Erinnerung zu den Symptomen, aber auch – etwa qua Auto-Suggestion – von den Symptomen zur Erinnerung. Die häufigen Fälle von Pseudo-PTSD, die daraus resultieren, machen die Diagnose der Krankheit problematisch (Rosen/Taylor 2007).

254 | ZWISCHEN GEIST UND GEHIRN

memory« (Young 1996), scheinen die unklaren psychischen Traumafolgen in einem neuen, objektiveren Licht beurteilbar (vgl. Lanius et al. 2010). Bedeutet das, dass das Schisma zwischen psychogenen (oder funktionellen) und organischen Störungen, das seit den Zeiten Freuds und Kraepelins das psychiatrische Denken beherrscht (siehe fünftes Kapitel), damit bald überwunden ist? Die Antwort fällt nicht so eindeutig aus, wie man auf den ersten Blick vermuten würde. Wie ich im Folgenden zeigen will, führen funktionelle bildgebende Verfahren dazu, dass die traditionelle Abgrenzung zwischen funktionellen und organischen Krankheitsbildern nicht völlig aufgelöst, sondern vielmehr in einen hirnphysiologischen Rahmen verlegt wird. Zuvor gehe ich kurz auf die Methodologie der funktionellen Bildgebung ein. Die funktionelle Bildgebung ist der Oberbegriff für eine Reihe unterschiedlicher Verfahren, die den zentralen methodischen Eckpfeiler der kognitiven Neurowissenschaften bilden, einer Teildisziplin der Psychologie, in der neuropsychologische und kognitiv-psychologische Fragestellungen miteinander verschmolzen sind (vgl. Feinberg/Farah 2000). Es gibt zwei maßgebliche Technologien, PET und fMRT, die sich im Laufe der 1990er Jahre als Routineverfahren etabliert haben. Im Falle von PET, der älteren und heute weniger gebräuchlichen Methode, wird ein radioaktiver Marker ins Blut injiziert, dessen Zerfallsprodukte Rückschlüsse auf die Verteilung des Markers im Körperinneren erlauben. Bei fMRT macht man sich die magnetischen Eigenschaften von Hämoglobin zunutze. Mithilfe eines äußerst starken Magnetfeldes können Unterschiede im Sauerstoffgehalt des Blutes gemessen werden (BOLD-Effekt). Da fMRT im Vergleich zu PET auf nichtinvasiven Methoden beruht und hochauflösendere Bilder resultieren, gilt es inzwischen als Goldstandard im Imaging-Bereich.27 Trotz der technischen Unterschiede mit ihren jeweiligen Stärken und Schwächen ist die Grundidee beider Verfahren die gleiche: Es wird die Gehirnaktivität (als unabhängige Variable) mit psychischer Aktivität (als abhängige Variable) gekoppelt, um kognitive Funktionen in bestimmten Gehirnmodulen zu lokalisieren. Wie weiter oben dargelegt, handelt es sich hier um eine Top-down-Strategie (vgl. Abbildung 8, S. 237). Der experimentelle Ausgangspunkt bildet ein kognitives Paradigma, das komplexe psychische Prozesse in möglichst feinkörnige »pieces of mind« (Van Orden/Paap 1997) zerlegt: 27 Gerade im diagnostischen Bereich gibt es Anwendungsgebiete wie das AmyloidImaging, wo man nicht auf invasive Methoden wie PET verzichten kann (vgl. Rabinovici/Jagust 2009). Solche Verfahren – die sich nicht mit der Lokalisierung kognitiver Funktionen beschäftigen, sondern mit der In-vivo-Darstellung bestimmte Biomarker – sind hier nicht Thema.

D ARSTELLEN

UND

E INGREIFEN | 255

In der Forschung behilft man sich in der Regel damit, dass man relativ einfache Situationen wählt. Zum Beispiel, jemand kann sich zwischen zwei verschiedenen Handlungsplänen entscheiden. Das stellt eine reduzierte Komplexität der Situation dar, die man untersucht, und in dieser reduzierten Situation ist es relativ leicht festzustellen, was jemand gerade denkt. Es kann natürlich viele Gedanken geben, die jemandem durch den Kopf schießen, aber wenn überhaupt, dann würden die als Störungen wirken und würden unsere Messungen nicht systematisch verfälschen. (Interview Haynes)

Je feingliedriger die Operationalisierung gelingt, desto größer die Chance, dass mentale Funktionen eindeutig auf bestimmte Gehirnmodule abgebildet werden können – vorausgesetzt, sowohl die Psyche als auch das Gehirn sind modular aufgebaut, was eine unhintergehbare Prämisse dieser Art Forschung ist (Young 2006). Das ist einer der Gründe, wieso die im zweiten Kapitel skizzierte »functional decomposition« (Roskies 2010: 649) der abstrakten Entität »Gedächtnis« in verschiedene, operational definierte Systeme für die biomedizinische Gedächtnisforschung so entscheidend war (Lockhart 2000). Auf der Basis dieser operational definierten Gedächtnismodule lassen sich komplexe Aufgaben entwerfen, deren neuronale Korrelate mithilfe der funktionellen Bildgebung bestimmbar sind. Sei es, indem gesunde Probanden verschiedene Gedächtnistests absolvieren, um die Verarbeitung unterschiedlicher Gedächtnisinhalte hirnphysiologisch zu verorten (vgl. Nyberg et al. 1996). Sei es, indem eine Patientengruppe (oder Risikopersonen) einem validierten Gedächtnistest unterzogen wird, der selektiv bestimmte neuronale Strukturen aktiviert (kognitive Aktivierungsaufgabe, vgl. Liberzon/Garfinkel 2009); vergleicht man die Daten anschließend mit denen von gesunden Probanden, lassen sich eventuell krankheitsspezifische funktionale Veränderungen in diesen Hirnregionen sichtbar machen (vgl. zum Beispiel Shin et al. 2004; Bassett et al. 2006). Auch wenn die funktionelle Bildgebung derzeit noch zu unausgereift ist, um als Diagnoseinstrument routinemäßig eingesetzt zu werden, so spielen Imaging-Studien eine wichtige Rolle bei der Abgrenzung, Differenzierung und Weiterentwicklung psychiatrischer Krankheitskategorien (vgl. Ibáñez/Deiber 2009; Lanius et al. 2010). Beim Neuroimaging handelt es sich um einen außerordentlich produktiven und exponentiell wachsenden Forschungsbereich: Während 1992 insgesamt vier Artikel erschienen, waren es im Jahr 2007 sieben Artikel pro Tag (Logothetis 2008). Die dreidimensionalen Aktivitätskarten des Gehirns zirkulieren inzwischen nicht nur in Fachjournalen, sondern auch längst in Massenmedien und wurden sogar als Beweismittel in Gerichtsverfahren ins Gespräch gebracht

256 | ZWISCHEN GEIST UND GEHIRN

(Markowitsch/Siefer 2007).28 Wie aber selbst Neurowissenschaftler immer wieder betonen, steht die Überzeugungskraft der Bilder in einem Missverhältnis zu ihrer Aussagekraft. Der Slogan, mit Imaging könne man »dem Gehirn beim ›Denken‹ zuschauen«, sei in erster Linie »eine Verkaufsstrategie von MRTForschern« (Interview Heuser). Die Interpretation der Signale ist »sehr schwierig« (Interview Lüthi) und beruht auf methodologischen Annahmen und Prinzipien, die stark umstritten sind (vgl. Bogen 2001; Van Orden/Paap 1997; Roskies 2010; Hardcastle/Stewart 2002). Neuronale Aktivität wird ja nicht direkt gemessen, sondern indirekt aus Änderungen des Blutflusses erschlossen. Bereits der Zusammenhang zwischen Blutfluss und neuronaler Aktivität ist empirisch kompliziert (Logothetis 2008) und Rückschlüsse werden zusätzlich durch die grobe Auflösung der Messungen erschwert: Ein statistisch unbereinigter Datenpunkt gängiger Scanner deckt ein Gehirnvolumen ab, das die unfassbare Zahl von 5,5 Millionen Neuronen umfasst (Logothetis 2008). Die Daten repräsentieren folglich Blutflussänderungen im Zusammenhang mit großen Neuronenpopulationen, sodass eine erhöhte Aktivität einer Gehirnregion nicht bedeutet, dass Einzelzellableitungen aus dieser Region in jedem Fall eine erhöhte neuronale Feuerungsrate feststellen würden – was aber wohl eine beliebte psychologische Lesart der Aktivitätskarten ist (Logothetis 2008). Hinzu kommt, dass aussagekräftige Bilder das Resultat komplexer und teilweise fragwürdiger statistischer Analysen sind: Da das Gehirn sich beständig in Aktivität befindet, wendet man traditionell sogenannte Subtraktionsmethoden an, um das Hintergrundrauschen herauszufiltern und die für eine Aufgabe signifikanten Blutflussprofile abzubilden. Die Idee ist, zwei Aktivitätsmuster miteinander zu vergleichen, die unter minimal veränderten Versuchsbedingungen entstanden sind. Dieses Vorgehen beruht auf Annahmen, die kritisch zu betrachten sind (vgl. Bechtel 2009; Roskies 2010; Van Orden/Paap 1997) und die bei der Interpretation der Bilder in Betracht gezogen werden sollten.29 28 Verschiedene Autoren haben sich mit der Frage beschäftigt, inwiefern solche Visualisierungen des ›denkenden Gehirns‹ Selbstkonzeptionen und Vorstellungen der menschlichen Natur verändern. Vgl. dazu Dumit 2003, 2004; Ortega/Vidal 2007. 29 Ein einfaches Beispiel, das der Komplexität der statistischen Verfahren in keiner Weise gerecht wird: Die Aufgabe I enthält die Prozesse A, B und C und die Aufgabe II die Prozesse A und B. Indem man die Aktivitätsmuster der Aufgabe II von denjenigen der Aufgabe I abzieht, hofft man, nur die für den Prozess C relevanten Hirnregionen zu isolieren. Dabei wird stillschweigend vorausgesetzt, dass es zu keinen wesentlichen Interaktionen zwischen den Einzelkomponenten der einzelnen Prozesse kommt. Angesichts der Komplexität des Gehirns ist dies jedoch höchst fragwürdig (Van Or-

D ARSTELLEN

UND

E INGREIFEN | 257

Psychologische Mechanismen in einem hirnphysiologischen Rahmen Es ist unbestritten, dass funktionelle bildgebende Verfahren heutzutage zu den maßgeblichen Werkzeugen zählen, um Geist und Gehirn miteinander zu verbinden. Ebenso unbestritten ist jedoch, dass sie die Natur dieser Verbindung im Dunkeln lassen. Dies hat nichts mit den neuropsychologischen Untersuchungsmethoden im Allgemeinen zu tun, die ebenfalls »experimentelle Designs [einsetzen], wo es um Kausalitäten geht« (Interview Brand). Auch in psychologischen Experimenten spielen die mechanistischen Prinzipien von Manipulation und Dekomposition eine zentrale Rolle, mit dem Unterschied, dass nicht auf der physiologischen, sondern der psychischen Ebene interveniert wird.30 Vielmehr hängt dies mit einem der wichtigsten Grundsätze der Neurowissenschaft zusammen, nämlich »that a successful theory of the mind will be solely neuroscientific« (Gold/Stoljar 1999). Nach Stoljar und Gold lassen sich eine starke und eine schwache Version dieser, wie sie es nennen, »Neuronen-Doktrin« differenzieren: Die schwache Auslegung besagt, dass es sich beim Geist zwar um ein biologisches Phänomen handelt, das jedoch nicht in rein biologischen Begriffen erklärbar sein muss. Genau dies behauptet im Gegensatz dazu die starke Version, nach der Geistes- und Gehirnzustände identisch sind und demzufolge Geisteszustände rein biologisch erklärbar sind. Beide Versionen der »Neuronen-Doktrin« treffen sich in der fundamentalen Annahme, dass Geist ein Epiphänomen neuronaler Aktivität ist. Stimmt man dem zu – und es ist heutzutage fast unmöglich, einen Psychologen zu finden, der das nicht tut –, so dürfen Änderungen eines kognitiven Systems, wie sie bei der funktionellen Bildgebung herbeigeführt werden, den/Paap 1997). In diesem Zusammenhang ist auch eine neuere Metaanalyse von Interesse, die in der Fachgemeinschaft großes Aufsehen erregte (Vul et al. 2009). Vul et al. kamen zum Schluss, dass die erstaunlich hohen »Voodoo«-Korrelationen zwischen Hirnaktivität und psychischen Faktoren, die viele fMRI-Studien aus den social neuroscience zu Tage fördern, wesentlich auf statistisch unsauberen Analysen beruhen. 30 Brand zieht sogar eindeutige Parallelen zu Läsionsexperimenten: »Zum Beispiel könnte man Personen unter anderen Bedingungen lernen lassen als andere Personen, unter anderen Geräuschbedingungen oder Lichtverhältnissen. Man könnte das dann miteinander vergleichen und hätte quasi eine Intervention, die – wenngleich natürlich nicht vollständig – vergleichbar wäre mit einer Läsionssetzung oder anderen Interventionen bei Ratten.« (Interview Brand) Neuerdings bietet sich die Möglichkeit, mithilfe der Transkraniellen Magnetstimulation Hirngebiete nicht-invasiv zu hemmen, sodass Kausalitäten auch bottom up untersuchbar sind (Mottaghy 2006). Allerdings weist die Methode große Unschärfen auf.

258 | ZWISCHEN GEIST UND GEHIRN

nicht als ursächlich für hirnphysiologische Änderungen gedeutet werden. So glaubt John Dylan Haynes nicht, dass der Gedanke zuerst kommt und dann kommt das Aktivitätsmuster. Zu einer so dualistischen Sichtweise würde ich mich nicht verleiten lassen. Aber das sind alles Grundannahmen, die Forscher haben, die noch einmal bestätigt werden müssten, die sich nicht immer aus der Forschung ableiten, sondern die auch gewisse Grundüberzeugungen widerspiegeln. (Interview Haynes)

Obwohl Imaging-Experimente ebenfalls auf manipulativen Strategien beruhen, gelten die Informationen, die sie bereitstellen, als rein korrelativ. Das bedeutet, ohne eine weitere »funktionelle Triangulation« (Roskies 2010: 640), ohne die Kombination mit anderen Untersuchungsmethoden, können keine mechanistisch-kausalen Schlussfolgerungen gezogen werden. Auf sich allein gestellt sind funktionelle bildgebende Verfahren folglich nicht nutzbar »for explaining the detailed neural mechanisms underlying the studied cognitive capacities« (Logothetis 2008: 870). Ein interessanter Nebeneffekt dieses blinden Flecks tritt besonders in bestimmten Bereichen der klinischen Psychologie zutage, wo die funktionelle Triangulation aufgrund fehlender Tiermodelle praktisch unmöglich ist. Gerade weil die neuronalen Mechanismen im Diffusen bleiben, so meine These, haben Imaging-Verfahren in den letzten Jahren dazu geführt, dass psychologische Mechanismen und psychogene Störungen auf eine neue biomedizinische Grundlage gestellt wurden. Das scheint auf den ersten Blick paradox, schließlich hat gerade die funktionelle Bildgebung wesentlich zu der Etablierung der Tatsache beitragen, dass »jeder psychische Vorgang ein Hirnkorrelat hat« (Interview Brand). Aber das Paradoxon verliert an Schärfe, wenn man bedenkt, dass Hirnkorrelate eben gerade nicht dazu beitragen, »Funktionen, Zusammenhänge genau zu verstehen« (Interview Brand), was viele Psychologen als die zentrale Zielsetzung ihrer Forschung ansehen. Korrelate sagen nichts über mechanistische Zusammenhänge aus. Die funktionelle Bildgebung hat wesentlich dazu beigetragen, den alten Dualismus zwischen funktionellen und organischen Störungen zu überbrücken (siehe fünftes Kapitel). Vor dem Hintergrund von fMRT und PET lässt sich schwerlich behaupten, dass funktionelle Syndrome etwas »rein Psychisches« seien, eine ›Geisteskrankheit‹ durch und durch, lange Zeit die dominante Lesart im Anschluss an Freud (Beer 1996). Aber auch die konträre Lesart, die zum Teil vor Freud und nach der biologistischen Wende der 1980er Jahre vorherrschend war, wird plötzlich fraglich: nämlich, dass das Label »funktionell« gleichbedeutend ist mit etwas, das bloß unbekannten organischen Ursprungs ist – also im Prinzip

D ARSTELLEN

UND

E INGREIFEN | 259

auf organische Krankheiten verweist, »die sich sowohl auf der biologischen Ebene als auch auf der subjektiven Ebene der Gefühle oder der Psyche äußern« (Interview Lüthi). Der Grund ist, dass sich mithilfe bildgebender Verfahren neuerdings eine technologisch definierte Grenzlinie ziehen lässt zwischen Störungen, die auf identifizierbaren strukturellen, also organischen Ursachen beruhen, und Störungen, deren Auffälligkeiten nur mithilfe von fMRT oder PET sichtbar gemacht werden können und denen damit eine psychogene Natur unterstellt werden kann31: [D]ie Überlegung ist, wenn ich auf Hirnebene ein Korrelat dafür finde, dann ist es möglicherweise ein strukturelles Korrelat – etwa bei Patienten mit Hypoxie. Oder es ist ein funktionelles Korrelat, zum Beispiel die Reduktion eines Sauerstoffumsatzes oder die Reduktion des Glukosemetabolismus im mittleren Teil des Schläfenlappens. Und genau dieser Mechanismus wurde bei Patienten mit einer psychogen bedingten Amnesie schon vor über zehn Jahren gefunden und beschrieben […]. (Interview Brand)

Natürlich lässt sich die Abgrenzung zwischen funktionellen und strukturellen Korrelaten kaum eindeutig treffen. Was ist etwa mit Fällen, in denen eine Traumatisierung zufälligerweise mit einer strukturellen hirnphysiologischen Veränderung gekoppelt ist? Außerdem ist die Grenzziehung zwischen funktionellen und strukturellen Veränderungen aufgrund des technologischen Fortschritts immer fraglich: Mithilfe hochauflösender struktureller Techniken wie der DiffusionsTensor-Bildgebung lassen sich heute organische Schäden in der weißen Gehirnsubstanz identifizieren, die noch vor nicht allzu langer Zeit im Verborgenen geblieben wären (Staniloiu et al. 2010). Für die psychologische Kausalität folgt daraus, dass sie sich niemals unumstößlich beweisen lässt (vgl. Lucchelli et al. 1998). Dasselbe trifft aber auch auf die organische Kausalität zu, wie der Neuropsychiater Michael D. Kopelman (2000) zurecht bemerkt hat. Selbst wenn ein organischer Schaden aufgespürt werden kann, heißt das ja noch lange nicht, dass er die relevante oder alleinige Ursache für ein bestimmtes kognitives Defizit sein muss. Was geschehe, wenn man dem »myth of the pure lesion« (Kopelman 2000: 609) verfalle, zeige der Fall H.M., so Kopelman. Aufgrund seines Schicksals galt der Zusammenhang zwischen Gedächtnisverlust und hippokampalen Läsionen lange Zeit als felsenfest bewiesen, bis er durch spätere Forschungsarbeiten überraschend relativiert wurde (zum Beispiel Corkin et al. 1997). Kopelman hält die Differenzierung or31 Vorausgesetzt, eine traumatische Ursache lässt sich eindeutig nachweisen (vgl. Di Renzi et al. 1997).

260 | ZWISCHEN GEIST UND GEHIRN

ganisch/psychogen keineswegs für obsolet, sondern für nach wie vor wichtig, da sie zu reichhaltigeren und damit angemesseneren klinischen und neuropsychologischen Interpretationen der Daten führt. Sein Vorschlag ist, die beiden Pole als ein fließendes Kontinuum, statt wie bislang als distinkte Kategorien zu verstehen. Das heißt, bewusste psychische Prozesse, unbewusste psychische Prozesse und organische Faktoren können in unterschiedlichen Graden interaktiv miteinander verknüpft sein. Auf diese Weise haben bildgebende Verfahren gerade aufgrund ihrer mechanistischen Blindheit neue Möglichkeiten eröffnet, die Psyche, die Umwelt und das Gehirn kausal miteinander zu verknüpfen. »Somatopsychische und psychosomatische Wechselwirkungen werden voraussichtlich in Zukunft die klinische Psychologie weit mehr tangieren, als dies bis vor Kurzem absehbar war« (Markowitsch 2002a: 154), schreibt Hans Markowitsch, der Leiter der Arbeitseinheit »Physiologische Psychologie« an der Universität Bielefeld. Den Gedächtnisstörungen komme dabei eine besondere Bedeutung zu, fügt er hinzu. Hans Markowitsch und Matthias Brand haben in den letzten Jahren gemeinsam in Bielefeld das Störungsbild der psychogenen Amnesie erforscht, das im DSM-IV offiziell unter der Bezeichnung »Dissoziative Amnesie« geführt wird. Patienten, die unter diese diagnostische Kategorie fallen, leiden unter einer umfassenden retrograden Amnesie im Anschluss an ein traumatisches Ereignis (American Psychiatric Association 2000). Die beiden Forscher haben mehrere Fälle von lang anhaltenden Gedächtnisblockaden und Fugue-Zuständen dokumentiert, die sie als eine Folge von psychischen Traumata deuten (Brand et al. 2009; Markowitsch 2003; Staniloiu et al. 2010). Aufgrund der Seltenheit des Krankheitsbilds beschränkt sich »die Forschung mehr oder weniger auf die Darstellung von Einzelfällen« (Interview Brand), die multi-methodisch untersucht werden: mittels Fragebögen, mit Interviews und Gedächtnistests, aber auch mithilfe der funktionellen Bildgebung. Da die Forschungen der Bielefelder Arbeitsgruppe um schwer überprüfbare Einzelschicksale kreisen, führen sie in der scientific community ein Nischendasein und sind zudem hochumstritten – einige meiner Gesprächspartner bezeichneten sie gar als blanken Unsinn, mit dem Hinweis, dass ihnen noch keine solchen klinischen Fälle begegnet seien.32 Aber sie fallen interessanterweise in eine Zeit, in der mehrere Beobachter der Psychiatrie eine Renaissance psychogener Syndrome diagnostiziert haben, die ihre Hochzeit zu Beginn des 20. Jahrhunderts hatten. Die feministische Medizinhistorikerin Elaine 32 Angezweifelt wird nicht, dass traumatisierte Personen unter Erinnerungslücken leiden, sondern man zeigt sich skeptisch gegenüber post-traumatischen Totalamnesien, wie sie seit den 1980er Jahren gehäuft beobachtet werden.

D ARSTELLEN

UND

E INGREIFEN | 261

Showalter etwa hat, fast hundert Jahre nach Freud, eine Explosion von psychogenen Syndromen beobachtet (wie Wandertrieb, Golfkriegssyndrom, Multiple Persönlichkeitsstörung, Chronisches Erschöpfungssyndrom, Satanischer Ritualmissbrauch und andere), was sie als eine Epidemie hysterischer Krankheitsbilder beschrieben hat: »[H]ysteria has not died. It has simply been relabeled for a new era.« (Showalter 1997: 4) Allan Young stimmt zwar nicht mit Showalters Diagnose einer Epidemie der Hysterien überein, sieht aber eine allgemeine Traumaideologie am Werk, einen psychiatrischen Denkstil, der um die Idee einer traumatischen Erinnerung kreist (Young 2000). Und als Dritter im Bunde lässt sich Ian Hacking vermerken, der eines seiner Bücher der auffälligen Vermehrung von Fällen »Multipler Persönlichkeiten« ab den 1980er Jahren gewidmet hat (Hacking 1995). Unter diesen Rahmenbedingungen erscheinen die Forschungen von Markowitsch und Brand nicht mehr so esoterisch wie vielleicht auf den ersten Blick. Umso mehr, wenn man in Betracht zieht, dass nicht nur das Störungsbild der Dissoziativen Amnesie im DSM-5 weiterleben wird, sondern es sich sogar abzeichnet, dass Flashbacks neu als dissoziativer Prozess bezeichnet werden (Chu 2010).33 In einer kürzlich erschienenen Studie haben Lanius et al. (2010) auf Basis von fMRT-Studien dafür plädiert, einen dissoziativen PTSD-Subtypen abzugrenzen, der durch eine chronische emotionale Betäubung charakterisiert ist. Derartige Trends, vor allem aber die umfangreichen Forschungsarbeiten von Markowitsch und Brand, führen vor Augen, wie mittels der funktionellen Bildgebung komplexe psychische Syndrome auf einer hirnphysiologischen Ebene lokalisierbar und damit objektivierbar gemacht werden. Indem traumatische Erinnerungen in Echtzeit beobachtbar werden, lassen sich auf der neuronalen Ebene funktionelle Marker für diese vormals diffusen Krankheitsbilder generieren (vgl. Brand et al. 2009; Markowitsch 1999, 2003). Aufgrund der diffusen Kausalität, die diese Bilder implizieren, findet jedoch gleichzeitig eine Rehabilitierung psychologischer Mechanismen statt – in mehr oder weniger expliziter Anlehnung an die Psychoanalyse (vgl. Markowitsch 2002a; Welzer/Markowitsch 2005; Staniloiu et al. 2010).34 33 Dissoziation – ein auf Janet zurückgehender psychologischer Mechanismus (vgl. Putnam 1989) – ist im DSM-IV definiert als »a disruption in the usually integrated functions of consciousness, memory, identity, or perception of the environment« (American Psychiatric Association 1994: 477). 34 Vgl. dazu auch die Forschungen im aufstrebenden, aber ebenso umstrittenen Bereich der sogenannten Neuropsychoanalyse (Pugh 2007; Mancia 2007; Blass/Carmeli 2007; Kaplan-Solms/Solms 2003; Solms/Turnbull 2002).

262 | ZWISCHEN GEIST UND GEHIRN

Bereits vor mehreren Jahren hat Markowitsch ein stressbedingtes Krankheitsbild vorgestellt, das mnestische Blockadesyndrom, das durch einen blockierten Abrufvorgang resp. die »Repression von Gedächtnis« (Markowitsch 2002a: 151) im episodisch-autobiografischen Bereich gekennzeichnet ist (Markowitsch et al. 1999; Markowitsch 2002b). Die Information ist also noch vorhanden, »nur der Zugang [ist] verloren gegangen« (Markowitsch 2002a: 154). Und in einer neueren Arbeit bezeichnen Markowitsch und Brand psychogene Amnesien als »malady of the constricted self«, das heißt als ein ›verengtes‹ Selbst, das »a failure of integration of various aspects of cognition (memory), self, consciousness and emotion« impliziert (Staniloiu et al. 2010: 793). In diesem Sinne hält es Matthias Brand für möglich, dass Verdrängung [als Mechanismus] eine Rolle spielt, Verdrängung von negativen Lebensereignissen, von traumatischen Erfahrungen. Und der Eindruck kann entstehen, wenn man mit Patienten mit Dissoziativer Amnesie arbeitet. Aber es geht nicht nur um Verdrängung im Sinne Freuds. Es tauchen viele andere Aspekte in den Arbeiten auf, etwa zu neurochemischen Zusammenhängen. (Interview Brand)

Es wird deutlich, wie Geist und Körper in einem hirnphysiologischen Rahmen neu miteinander verknüpft werden. Gekoppelt an eine Traumaideologie und mittels funktionellen Technologien in Echtzeit beobachtbar gemacht, erweist sich das autobiografische Gedächtnis als »susceptible to distortions, misinformation and dynamic reshaping« (Staniloiu et al. 2010: 781). Zusammen mit dem Soziologen Harald Welzer hat Markowitsch ein biopsychosoziales Modell dieses Gedächtnissystems skizziert, das nicht nur neuroanatomische und Verhaltensaspekte beinhaltet, sondern auch die durch soziale und emotionale Einflüsse geprägte Ontogenese berücksichtigt (Welzer/Markowitsch 2005; Markowitsch/Welzer 2005). Das autobiografische Gedächtnis stelle alte Dichotomien von Natur und Kultur, Gehirn und Geist grundlegend infrage, so die beiden Autoren. Die Parallelen zum Epi-Genom der Molekularbiologie sind offensichtlich. Beide Objekte sind kontextualisiert und biografisiert, plastisch und auf verschiedenen Ebenen in komplexe Wechselwirkungen eingebettet. Dass ein biopsychosoziales Modell des autobiografischen Gedächtnisses, der biomedizinischen Bedeutung dieses Gedächtnissystems gemäß (siehe fünftes Kapitel), weitreichende Konsequenzen für verschiedenste Gedächtniskrankheiten und insbesondere die Abgrenzung zwischen funktionellen und organischen Störungen haben dürfte, liegt auf der Hand. Autoren hätten bei organisch bedingten Hirnschädigungen gezeigt, so Matthias Brand, »dass psychologische Faktoren den Krankheitsverlauf und das Wieder-Neulernen von biografischen Episoden beeinflussen können« (Interview

D ARSTELLEN

UND

E INGREIFEN | 263

Brand). Eine derartige Integration psychogener und organischer Mechanismen könnte insbesondere auch Hypothesen neuen Aufschwung verleihen, die in chronischem Stress einen wesentlichen Risikofaktor für Demenzen ausgemacht haben (vgl. Magri et al. 2006; Esch et al. 2002; Rothman/Mattson 2010) – was eine weitere Nivellierung der historisch gewachsenen Unterschiede zwischen den Krankheitskategorien AD und PTSD zur Folge hätte (vgl. Tsolaki et al. 2009). Ausgrenzende Grenzüberschreitungen: Das biopsychosoziale Krankheitsmodell Der Einblick in die beiden Forschungsbereiche – Epigenetik einerseits, Kognitionspsychologie andererseits – hat gezeigt, dass es im Bereich der biomedizinischen Gedächtnisforschung offensichtlich einen starken Trend hin zu funktionalistischen und netzwerkorientierten Forschungsansätzen gibt, der durch neue Werkzeuge angetrieben wird. Die zentralen epistemischen Objekte, das Genom und das autobiografische Gedächtnis, verlieren ihre klaren Konturen und bekommen eine zunehmend unscharfe Form aufgrund der dynamischen Wechselwirkungen, in die sie experimentell eingebettet werden. Nicht nur traumatische Erinnerungen, sondern auch Krankheitsgene oder das Gehirn werden als plastische Entitäten konzeptionalisiert, das heißt als veränderbar »in Antwort auf Umweltfaktoren« (Interview Fischer). Die Sphären von Geist und Gehirn, Umwelt und Genom werden dabei offenbar auf neue Art und Weise miteinander vernetzt. Mit diesen Grenzüberschreitungen erscheinen traditionelle biomedizinische Krankheitsmodelle, die auf einer dualistischen und monokausalen Logik beruhen, als obsolet. In ihrem Artikel »The mindful body« von 1987 – also vor der eigentlichen ›biopsychosozialen Wende‹ – haben die Anthropologinnen Nancy Scheper-Hughes und Margaret Lock der Biomedizin vorgeworfen, tief in cartesianischen Denkmustern verhaftet zu sein. Das cartesianische Erbe »is a rather mechanistic conception of the body and its functions, and a failure to conceptualize a ›mindful‹ causation of somatic states« (Scheper-Hughes/Lock 1987: 210). Die Ursachen von Störungen werden entweder ausschließlich im biologischen oder im psychosozialen Bereich lokalisiert und behandelt, so die Kritik der Autorinnen. Darüber hinaus werden psychosoziale Ursachen als weniger real als organische angesehen und physiologische Erklärungen (sofern vorhanden) folglich psychologischen und soziologischen vorgezogen (vgl. den »Repression Challenge« im fünften Kapitel). Dualistische Denkmuster dieser Art haben auch die biomedizinische Gedächtnisforschung grundlegend geprägt. Symptomatisch dafür

264 | ZWISCHEN GEIST UND GEHIRN

ist die Kritik, die mit der Einführung der Krankheitskategorie »PTSD« zu Beginn der 1980er Jahre aus psychiatrischen Kreisen aufbrandete. So etabliert und fest verankert das PTSD-Konzept heute auch ist,35 viele Psychiater hielten die Kategorie damals für »an unscientific relic of an age of psychiatric ignorance« (Young 2000: 152), basierend auf Ideen, die tief in der Psychoanalyse wurzeln (vgl. auch Young 1995, Kapitel 3). In beiden Forschungsfeldern (zu AD und PTSD) bildeten sich früh eigene methodische Herangehensweisen heraus, die sich weitgehend an der Dichotomie von Psyche und Gehirn orientierten. Aber obwohl die beiden Gedächtniskrankheiten im Hinblick auf ihre Ätiologie zugegebenermaßen »ganz erheblich auseinanderliegen« (Interview Wotjak), haben sich die Psychoanalyse und die biologische Psychiatrie in ihren ätiologischen Modellen dennoch auf ähnliche, nämlich deterministische Kausalprinzipien abgestützt. Charcot, der berühmte Neurologe und Lehrer Freuds, beschrieb traumatische Erinnerungen bereits im 19. Jahrhundert als »a coherent group of associated ideas which install themselves in the mind in the fashion of a parasite« (zitiert nach Young 2000: 145 [Herv. i.O.]; vgl. auch Fischer-Homberger 1999). Allan Young konnte zeigen, dass die Idee einer parasitären Erinnerung von Charcot über Freud (traumatische Neurose) bis zum modernen Krankheitsbild »PTSD« bestimmend ist (Young 1995, 2000; Young/Rosen 2004). Der psychische Determinismus der Psychoanalyse (vgl. Mondrzak et al. 2007) findet seine Entsprechung im geläufigen genetischen Determinismus der Molekularbiologie. Im Fall von AD hat man es zwar nicht mit ›mentalen Parasiten‹ zu tun, die den Geist befallen, dafür aber mit zellulären Läsionen, die sich, so hypostasiert es die Amyloid-Kaskaden-Hypothese, aufgrund einer vermutlich genetisch determinierten Kaskade im Gehirn festsetzen und zu einem schrittweisen Verlust von Erinnerung und Identität führen. Historisch einflussreiche Erklärungsmodelle aus beiden Bereichen beruhen folglich auf der Idee einer linear-deterministischen Pathogenese, die sich in einer der beiden cartesianischen Sphären abspielt (vgl. Davies 2006; Rizzi/Pedersen 1992). Traumatische Erinnerungen sind dabei ebenso wie Gene als fest gefügte Krankheitserreger konzipiert und stellen ideale Ansatzpunkte für medizinische respektive psy-

35 Was nicht bedeutet, dass die Kategorie nicht stärker hinterfragt würde als andere Diagnosen. Kritisch gesehen wird insbesondere der sogenannte »criterion creep«, der dazu geführt hat, dass – je nach Studie und zugrunde gelegter Traumadefinition – mittlerweile fast bis zu 90 Prozent der Bevölkerung als potenziell traumatisiert gelten (vgl. McNally 2005, 2006; Rosen et al. 2008).

D ARSTELLEN

UND

E INGREIFEN | 265

choanalytische Interventionen dar (vgl. Waters 2007).36 Ein solches Krankheitsmodell ist eng mit dem verwandt, was Joseph Dumit das »bacterial-disease model« genannt hat: [A] major twentieth-century way of talking about illnesses was the bacterial-disease model. In this paradigm or worldview, an infectious agent (e.g., a bacterium or virus) was understood as the efficient cause, which caused a change in the material of an inherently healthy body. The form of illness was a disease course: the agent attacks; the healthy body fights the agent, causing symptoms; and sometimes with the help of modern medicine, the healthy body defeats the agent and returns to normal. (Dumit 2002: 124)

Robert Koch, Entdecker des Tuberkulosebakteriums und einer der Begründer des bakteriologischen Paradigmas, formulierte im Jahr 1890 vier Postulate. Demnach gilt ein Erreger dann zweifelsfrei als Verursacher der Krankheit, wenn er typischerweise mit dem klinischen Krankheitsbild assoziiert ist, wenn er isolierbar und kultivierbar ist und imstande ist, die Krankheit unter experimentellen Bedingungen erneut zu erzeugen (vgl. Sutter 1996). Ein solches Kausalmodell verfügt über eine lineare Logik, indem es eine einfache Wechselwirkung zwischen zwei isolierbaren Entitäten postuliert, dem Wirtsorganismus und dem Erreger, während der Interaktionskontext ausgeblendet wird. Wie Peter Conrad überzeugend argumentiert hat, entsprechen auch die konventionellen genetischen Modelle in vielerlei Hinsicht diesem Muster, was sie – so seine These – innerhalb der Medizin so attraktiv und erfolgreich gemacht hat (Conrad 1999). Er hebt vor allem die Idee einer spezifischen Ätiologie und das maschinelle Körperkonzept als verbindende Elemente zwischen dem bakteriologischen und dem genetischen Paradigma hervor. Doch so einfach das Modell ist, so selten sind die Fälle, die es tatsächlich zu erklären vermag, wie man heute weiß: Nur selten lässt sich ein Krankheitsbild eindeutig auf ein klar definiertes Pathogen zurückführen, meistens sind die Zusammenhänge wesentlich komplexer. Mit neuen Krankheitsmodellen versucht man, dieser Tatsache Rechnung zu tragen. Das Interesse an einer Vernetzung der biologischen, psychischen und sozialen Sphäre, die in der epigenetischen und kognitionswissenschaftlichen Forschungspraxis neuerdings zu beobachten ist, hat in der Epidemiologie eine län36 Entscheidend dafür ist nicht, dass die Ursachen mit den derzeitigen Methoden kontrollierbar sind, sondern dass sie es wären, würden die geeigneten Methoden (zum Beispiel die Gentherapie bei genetisch verursachten Formen von AD etc.) vorliegen. Diese Idee bildet eine wesentliche Triebkraft des medizinischen und biotechnologischen Fortschritts.

266 | ZWISCHEN GEIST UND GEHIRN

gere Vorgeschichte.37 Bereits Mitte des 20. Jahrhunderts taucht dort der Begriff »biopsychosozial« auf und kommt in den 1990er Jahren vollends in Blüte (Krieger 2001). Heute ist die Rede von biopsychosozialen Phänomenen in verschiedenen Bereichen der Biomedizin – von der Epidemiologie bis hin zur Neurowissenschaft – fest etabliert, wie hybride disziplinäre Gebilde wie die Neuropsychopharmakologie, Psychoneuroendokrinologie oder social neuroscience andeuten (Krieger 2001). Dabei hat sich das Stresskonzept als ein zentraler Dreh- und Angelpunkt erwiesen, auf das sich sowohl Kliniker als auch Grundlagenforscher beziehen, um die Auswirkungen aversiver Umwelteinflüsse auf den Körper zu konzeptionalisieren (vgl. Esch 2008). Walter Cannon und Hans Selye haben Anfang bis Mitte des 20. Jahrhunderts die Grundlagen für das moderne medizinische Verständnis dieses Begriffs gelegt, dessen Bedeutungshorizont weit über den medizinischen Fachbereich hinausreicht und entsprechend diffus ist: »Stress ist ja mittlerweile ein völlig entleerter Begriff. Was ist nicht alles Stress? Da gibt es die psychologische Bedeutung, dann gibt es aber auch die medizinische Bedeutung.« (Interview Heuser) Doch gerade diese begriffliche Unschärfe könnte maßgeblich zum Erfolg dieses Konzeptes beigetragen haben. Als lose strukturiertes »Grenzobjekt« (Star/Griesemer 1989) steht es zwischen Umwelt, Psyche und Körper und bildet so ein Anknüpfungspunkt für die Praktiker, die diese Domänen bearbeiten, ohne ihnen allzu restriktive Einschränkungen und Anpassungen an die etablierten Aktivitäten aufzubürden. Die moderne Geschichte des Stresskonzepts ist verwickelt und kann hier nur am Rande gestreift werden (vgl. etwa Niewöhner et al. 2008): Sie beginnt Anfang des 20. Jahrhunderts, als der Physiologe Walter Cannon den Körper als ein homöostatisches, selbst-reguliertes System beschrieb, das um einen physiologischen Gleichgewichtszustand pendelt (vgl. Niewöhner et al. 2008). Cannon arbeitete die bekannte fight-or-flight response aus, eine Reaktion des autonomen Nervensystems auf externe Stressoren, mit der der Körper kurzfristig Ressourcen mobilisiert (Cannon 1929). Diese Konzeption ist im Rahmen kurzfristig überlebensnotwendiger Maßnahmen angemessen, wird jedoch chronischen Belastungen nicht gerecht, weshalb sie von Hans Selye in Richtung eines allostatischen Körpers weiterentwickelt wurde (Selye/Ogilvie 1956). Beim allostatischen Körper handelt es sich um ein dynamisches, nicht-lineares System, das in der Lage 37 Auffallend ist, dass sich Epidemiologen bereits sehr früh und wesentlich selbstkritischer als Laborforscher mit ihren Kausalitätskonzepten auseinandergesetzt haben. In vielerlei Hinsicht als bahnbrechend haben sich die Arbeiten von Mervyn Susser erwiesen, der Anfang der 1970er Jahre einen grundlegenden holistischen Paradigmenwechsel anregte (vgl. Susser 1973, 1991; Kaufman/Poole 2000; Schwartz et al. 1999).

D ARSTELLEN

UND

E INGREIFEN | 267

ist, seinen physiologischen Normalzustand dynamisch und auf Dauer an veränderte Umweltbedingungen anzupassen, was jedoch seinen Preis fordert (allostatic load, vgl. McEwen 2000). Chronischer Stress wird für vielfältige und ernste körperliche Anpassungsschäden verantwortlich gemacht, zum Beispiel Depressionen, Diabetes, Herz-Kreislauferkrankungen und sogar Demenzen. Mit modernen Stresskonzepten ist somit ein neues Körperkonzept verbunden, das vom maschinellen Körperkonzept des bakteriologischen Modells abrückt. Es entsteht ein wesentlich diffuseres Bild der Pathogenese, was auch die folgende Charakterisierung des biopsychosozialen Krankheitsmodells aus dem Jahr 1978 verdeutlicht: Predicated on the systems approach, the biopsychosocial model dispenses with the scientifically archaic principles of dualism and reductionism and replaces the simple cause-andeffect explanations of linear causality with reciprocal causal models. Health, disease and disability thus are conceptualized in terms of the relative intactness and functioning of each component system on each hierarchical level. Overall health reflects a high level of intra- and intersystemic harmony. Such harmony may be disrupted at any level, at the cellular, at the organ system, at the whole person or at the community levels. (Engel 1978: 178)

Anstelle einer linearen Interaktion zwischen (endo- oder exogenem) Krankheitserreger und Organismus tritt ein komplexes Regime, das über den individuellen Körper hinausreicht. In einem biopsychosozialen Krankheitsmodell ist die Idee der »inhärenten Gesundheit«, die mit dem bacterial-disease model verbunden ist, kaum noch aufrechtzuerhalten. Der Organismus befindet sich nicht mehr in einem natürlichen Gleichgewicht, in das er nach einer Erregerattacke zurückkehrt, sondern seine Gesundheit ist aufgrund der vielfältigen endogenen und exogenen Einflussfaktoren ständig bedroht. Mit anderen Worten: Er ist »inhärent krank« (Dumit 2002), das bedeutet, auch der symptomfreie Körper befindet sich in »a kind of risk-territory« (Dumit 2002: 125). Der von Joseph Dumit diagnostizierte Paradigmenwechsel von der »inhärenten Gesundheit« zur »inhärenten Krankheit«, den ich bereits im fünften Kapitel kurz aufgegriffen habe, deutet auf einen Umschwung in den »causal worldviews« hin. Dahinter stehen unterschiedliche Vorstellungen von kausaler Komplexität und, entsprechend dazu, des Grades an Manipulierbarkeit und Kontrollierbarkeit von Krankheit. Der entscheidende Wendepunkt ist der Übergang von klar greifbaren und damit potenziell therapierbaren singulären Krankheitsursachen (seien es Gene, traumatische Erinnerungen oder Bakterien) zu multifaktoriellen Netzwerken, zu »webs of causation« (Krieger 1994), in denen sich der Ursachenbegriff aufzulösen beginnt. Der inhärent kranke Organismus ist medizinisch bes-

268 | ZWISCHEN GEIST UND GEHIRN

tenfalls beherrschbar, aber kaum noch heilbar, und er wird damit – Dumit zufolge – zum Gegenstand eines medizinischen Überwachungsregimes. Ähnlich hat Armstrong (1995) argumentiert, der ebenfalls eine »surveillance medicine« am Horizont auftauchen sieht: »This includes the problematisation of normality, the redrawing of the relationship between symptom, sign and illness, and the localisation of illness outside the corporal space of the body.« Die Thesen dieser beiden Autoren machen deutlich, dass der so einflussreiche Begriff einer Krankheit, die auf klar identifizierbaren Ursachen beruht, an den Rand gedrängt wird. Solche Verschiebungen in den kausalen Deutungsmustern kommen bei PTSD beispielsweise darin zum Ausdruck, dass das Trauma respektive die traumatische Erinnerung nicht mehr als Ursache, sondern als ein Auslöser der Krankheit bezeichnet wird. Ähnliches gilt für die Spätform der Alzheimer-Krankheit, wo man nicht mehr von genetischen Ursachen, sondern von genetischen Risikofaktoren zu sprechen beginnt. Bei den meisten Krankheiten gehen Biomediziner davon aus, dass sich die individuelle Suszeptibilität aus dem dynamischen, lebenslangen Zusammenspiel von Umwelteinflüssen und genetischen Risikofaktoren ergibt. Folgt daraus, dass reduktionistisch agierende Forschungsprogramme ad acta gelegt sind, da die Pathogenese nun auf einer »fortwährende[n], aufeinander auch aufbauende[n] Interaktion« (Interview Kempermann) und somit nichtlinearen Rückkopplungen beruht? Ein genauerer Blick auf die Forschungslandschaft zeigt, dass von einer integrativen Analyse der Schnittstelle zwischen Biologie und psychosozialer Umwelt wohl noch keine Rede sein kann. Die Suche nach genetischen Risikofaktoren von Krankheiten und die Entwicklung von prädiktiven Gentests ist im vollen Gange, unterstützt durch neue biotechnologische Verfahren wie die genomweite SNP-Analyse (Lambert et al. 2010; Kollek/Lemke 2008). Im Gegensatz dazu nehmen sich die Studien zu Gen-Umwelt-Interaktionen bescheiden aus und »beschränken sich auf ein Gen und einen Umweltfaktor«, so Dominique de Quervain: »Aber man muss sich bewusst sein, dass bei einem bestimmten Phänotyp vermutlich Tausende von Genen untereinander und ebenfalls mit Tausenden von Umweltfaktoren interagieren. Es handelt sich also um ein hochkomplexes System, an welches wir uns gegenwärtig bestenfalls herantasten können.« (Interview de Quervain; vgl. Caspi/Moffitt 2006) Hedgecoe (2006) hat den vorherrschenden Diskurs als »narrative of enlightened geneticization« bezeichnet. Wie er anhand einer Diskursanalyse der Schizophrenieforschung gezeigt hat,38 sprechen Wissenschaftler vordergründig in einer ausgewogenen Weise über Krankheitsursachen und räumen neben genetischen auch nicht-genetischen Faktoren ausrei38 Hedgecoe beschränkte seine Analyse auf die Zeitschrift »Schizophrenia Bulletin«.

D ARSTELLEN

UND

E INGREIFEN | 269

chend Platz ein. Doch letztlich, so Hedgecoes These, wird genetischen Erklärungsmustern auch in diesem »aufgeklärten« Narrativ strategischer Vorrang eingeräumt.39 Offensichtlich fehlt es zurzeit an den geeigneten Forschungsansätzen, um die dynamischen Wechselwirkungen zwischen Sozialität und Materialität angemessen in den Griff zu bekommen, eine Aufgabe, die von der Biomedizin allein kaum geleistet werden kann. Aufgrund der biopsychosozialen Verwicklungen an den Grenzzonen von Natur und Kultur fordern immer mehr Forscher aus dem Bereich der STS oder Medizinanthropologie, dass sich Biomedizin und Sozialwissenschaft annähern und die Schnittstelle zwischen Natur und Kultur verstärkt problematisieren (Lock 2005; Niewöhner 2011; Beck 2008). Es gibt bereits einige Ansätze, die in diese Richtung gehen: In der Sozialepidemiologie werden sogenannte »multi-level frameworks« propagiert, die eine Integration von »social and biological reasoning and a dynamic, historical and ecological perspective« fordern (Krieger 2001: 674). Sie führen aber selbst innerhalb der Epidemiologie, geschweige denn der Biomedizin, ein Nischendasein (vgl. Krieger 2001; Aronowitz 2008). An der Schnittstelle von Psychologie und Neurowissenschaft wiederum sind ko-konstruktivistische Forschungsperspektiven in der Diskussion, die »brain and culture […] in a continuous, interdependent, co-productive transaction and reciprocal determination« sehen (Baltes et al. 2006a: 3). In der Praxis erschweren aber nicht nur institutionelle Strukturen und disziplinäre Spezialisierungen grenzüberschreitende Kooperationen, sondern vor allem die unterschiedlichen Forschungslogiken (vgl. Niewöhner et al. 2008). Passend dazu sind auch biomedizinische Forschungen, die sich einem biopsychosozialen Ansatz verpflichtet fühlen, noch weitgehend mechanistischen Erklärungsmustern verhaftet (vgl. Wynne 2005; Lock 2005; Kollek/Lemke 2008). Dies gilt im Besonderen für die oben dargestellten postgenomischen Forschungen. Die Dekomposition der Phänomene in Einzelkomponenten, die detaillierte Analyse der Funktionszusammenhänge sowie die manipulative Kontrolle bilden sowohl bei der Epigenetik als auch bei der Bildgebung maßgebliche Forschungsstrategien. Dem mechanistischen Forschungsmodus sind im klinischen Bereich mit seinen eingeschränkten experimentellen Möglichkeiten zwar enge 39 An dieser Stelle ist zu bemerken, dass der genetische Determinismus als Ideologie (vgl. Stent 1981) in der Forschungspraxis wahrscheinlich nie die dominierende Stellung hatte, die er im medialen Raum so prominent eingenommen hat. Viele Determinismuskritiker haben sich in ihren Thesen vorschnell auf die öffentliche Rezeption der Forschung abgestützt, sodass ihre Analysen einer genaueren Betrachtung der Forschungspraxis nicht standhalten (vgl. Griffiths/Knight 1998; Schaffner 1998).

270 | ZWISCHEN GEIST UND GEHIRN

Grenzen gesetzt. Die Forschungen von Hans Markowitsch und Matthias Brand zu psychogenen Amnesien beschränken sich auf »klinische Einzelfallbeschreibungen« (Interview Brand), die nach strengen methodologischen Maßstäben keinen experimentellen Charakter haben. Trotzdem gilt: Ihr Ziel ist letztlich ein mechanistisches Verständnis der kausalen Zusammenhänge. Da Manipulation und Dekomposition auf die Ebene der Psyche beschränkt sind, nicht jedoch die Lokalisation der Komponenten im Gehirn, öffnet sich ein Raum für die psychologische Deutung hirnphysiologischer Funktionen. Das ändert aber nichts daran, dass der forschende Blick sich nach wie vor auf das Innere der Phänomene richtet, auf die Endophänotypen, die in Reaktion auf psychosoziale Einflüsse aufleuchten. Dass die Spinne im biopsychosozialen »web of causation« (Krieger 1994) nach wie vor näher bei der Neurobiologie sitzt, macht auch das folgende Zitat deutlich: Wir haben ganz neue und aufregende Erkenntnisse, die besagen, dass wir diese Dichotomie nature/nurture, Umwelt/Anlage überwunden haben. Wir haben heute relativ gute Vorstellungen davon, wie zum Beispiel aversive Umwelterfahrungen unsere Hirnphysiologie verändern, sodass dann etwas entsteht wie zum Beispiel PTSD oder eine Depression. Wir wissen also auf der Basis von biologischen Befunden, dass die Dichotomie überwunden ist. (Interview Heuser)

Der pragmatisch begründete Reduktionismus des mechanistischen Erklärungsstils hat dazu geführt, dass der forschende Blick auf die neuronale Ebene gerichtet ist, während die mittelbaren psychosozialen Ursachen zwar als Einflussvariablen thematisiert, aber dennoch ausgegrenzt bleiben. Im Rahmen eines biopsychosozialen Krankheitsmodells sind die Abgrenzungen zwischen der biologischen und der psychosozialen Sphäre zwar durchlässiger geworden, aber immer noch äußerst wirkmächtig im Hinblick auf die Organisation von Forschungsprozessen.

P RAGMATIK DER E RKLÄRUNG : E INE B RÜCKE ZWISCHEN T HEORIE UND E MPIRIE Die bisherigen Ausführungen lassen darauf schließen, dass der postgenomische Wandel die epistemologischen Normen bislang weitgehend ausgespart hat. Sowohl Forschungswerkzeuge als auch konkrete Kausalmodelle wurden im Rahmen der postgenomischen Dynamik transformiert – das jedoch, was bei Pickering (1995) disciplinary agency heißt, das den einzelnen Akteur disziplinierende

D ARSTELLEN

UND

E INGREIFEN | 271

»Denkkollektiv« mit seinen Normen und Standards der Erklärung (vgl. Collin 2011; Fleck 1980), zeigt im Unterschied zu den anderen Aspekten des Praxisfeldes Beharrungsvermögen. Die epistemologischen Normen der aktuellen experimentellen Praxis halten im Großen und Ganzen daran fest, dass die Welt mechanistisch erklärbar ist. Die vorherrschende experimentelle Logik beharrt darauf, durch geeignete Eingriffe funktionale Module aufzuspüren, deren Kausalkräfte sich aus ihrem Zusammenhang lösen lassen. Exemplarisch offenbart sich diese Heuristik in den molekularbiologischen Knock-out-Methoden oder der Subtraktionsmethode der Kognitionswissenschaft. Die dahinter liegende Annahme ist natürlich, dass die Einzelmodule und ihre Kausalkräfte in einer linear-additiven Weise zum Verhalten des Gesamtsystems beitragen, dass also die Kenntnis der Einzelmodule ausreicht, um das Gesamtsystem und sein Verhalten zu verstehen. Die postgenomische Biomedizin befindet sich damit in einem grundlegenden Spannungsfeld: Einerseits wendet sie sich komplex strukturierten biopsychosozialen Phänomenen zu. Andererseits erweist sich der Großteil der Forschungsprogramme immer noch klassisch experimentellen Normen verhaftet, Normen, die auf Komplexitätsreduktion ausgerichtet sind. Der biotechnologische Fortschritt, durch massive Forschungsförderung am Laufen gehalten, spielt bei diesem Konflikt eine entscheidende, wenn auch ambivalente Schlüsselrolle. Die Innovationen der letzten zwanzig Jahre haben neue, bislang ungeahnte Möglichkeiten geschaffen, Psyche und Gehirn zu manipulieren. Dies hat aber paradoxerweise nicht unwesentlich zum biomedizinischen Kontrollverlust beigetragen. Mithilfe neuer Technologien können Biomediziner »immer komplexere Zusammenhänge darstellen und winzige Moleküle manipulieren« (Interview Heuser). Aber dadurch haben sich auch die möglichen Ansatzpunkte für Manipulationen und die Datenmengen in einer verwirrenden Weise multipliziert. Ein gutes Beispiel hierfür ist das Phänomen der Langzeitpotenzierung (siehe fünftes Kapitel). Die Molekularisierung der Gedächtnisforschung, angetrieben durch neue Methoden wie Genchips, hat die unzähligen molekularen Aspekte dieses Phänomens zutage gefördert und somit die theoretische und empirische Komplexität nicht etwa verringert, sondern problematisch erhöht. In einem Artikel aus dem Jahr 1999 haben Sanes und Lichtman mehr als hundert Moleküle aufgelistet, die in diversen Studien als kausale Determinanten von LTP in Betracht gezogen wurden (vgl. auch Lisman et al. 2003). Alle diese Moleküle sind potenzielle Ansatzpunkte für genetische oder pharmakologische Manipulationen. Neben der Möglichkeit, dass tatsächlich so viele Ursachen in den LTP-Mechanismus zentral involviert sind, weisen die beiden Autoren aber auch auf die methodischen Schwierigkeiten hin. Angesichts der Myriaden von molekularen Wechselwirkungen sei es mit den derzeitigen Methoden fast unmöglich zu entscheiden, welche dieser Moleküle

272 | ZWISCHEN GEIST UND GEHIRN

eine kausale Hauptrolle spielen und welche nur indirekt oder gar als Korrelate einbezogen sind. Die Probleme hängen nicht nur mit den Unschärfen der experimentellen Instrumentarien zusammen. Auch soziale Gründe wie der negative publication bias, theoretische Präferenzen40 oder unklare Definitionen – »there may be a dozen or more forms of hippocampal LTP« (Sanes/Lichtman 1999: 598) – tragen zusätzlich zu der Unübersichtlichkeit bei. Selbst bei einem experimentellen Phänomen wie LTP (von komplexen Krankheiten wie AD oder PTSD gar nicht zu reden), das im Labor in jahrzehntelanger Arbeit stabilisiert wurde, ergibt sich aufgrund des technologischen Fortschritts also ein zunehmend komplexeres Bild. »Die halbe Welt an Proteinen spielt eine Rolle für PTSD, für LTP, für was auch immer.« Das bedeutet, »[w]enn man irgendwo manipuliert, hat es messbare Auswirkungen auf Phänomene wie zum Beispiel LTP, und man kann immer sagen, das ist essenziell für LTP, das ist essenziell fürs Lernen« (Interview Wotjak). Angesichts solcher komplexer Verwicklungen erscheint es zweifelhaft, dass Kausalmodelle und experimentelle Praxis passgenau aufeinander abgestimmt werden können. In den meisten Fällen liegen die Evidenzen so, dass sich keine eindeutige und objektive Entscheidungsgrundlage ergibt, wie komplexe kausale Zusammenhänge theoretisch zu ordnen sind: I know what is interesting for me. I know that within the entire pool of neurons and synapses in the brain there is no real way that I can convince someone that this is what is important and not that it is an epiphenomenon of something else and not that it is redundant because there are twenty thousand other things that can do it in the same way and do it in parallel. (Interview Morris)

Was bei Morris hier aus einer praktischen Perspektive anklingt, die Kontingenz ihrer theoretischen Schwerpunktsetzungen, steht im Einklang mit den Thesen von Wissenschaftsphilosophen wie Bas van Fraassen (1985), Valerie Gray Hardcastle (1996) oder Lisa Gannett (1998; 1999). Alle diese Philosophen sind Anhänger einer sogenannten Pragmatik der Erklärung, die besagt: »Which model to use in explanation does not admit to a principled answer.« (Hardcastle 1996: 27) Bei Erklärungen geht es diesen Autoren zufolge nicht darum, ein umfassendes Bild eines Sachverhalts zu zeichnen, welches die kausalen Zusammenhänge er40 So hat es unter anderem hartnäckige theoretische Differenzen darüber gegeben, ob LTP durch die präsynaptische Transmitterausschüttung oder postsynaptische Prozesse (oder beides) induziert wird (Lisman et al. 2003). Nach dem aktuellen Stand scheint sich die zweite Sichtweise durchgesetzt zu haben (Südhof/Malenka 2008).

D ARSTELLEN

UND

E INGREIFEN | 273

schöpfend darstellt. Eine solche Erklärung wäre aufgrund ihrer Verworrenheit viel zu unübersichtlich, nicht mehr aufschlussreich und damit wertlos. In einem pragmatistischen Weltbild stellen Kausalmodelle Werkzeuge dar, Antworten auf Warum-Fragen, die vor dem Hintergrund spezifischer »means and ends« (Keller 2000: 85) gestellt werden. Angemessen sind Erklärungen nur relativ zu diesen pragmatischen Kontexten, und sie lassen sich somit nicht unabhängig von Faktoren beurteilen, die über den theoretischen Begründungszusammenhang hinausweisen: Dazu gehören die Forschungsinteressen der Akteure, ihre theoretischen Standpunkte und experimentellen Ressourcen sowie die soziopolitischen Kontexte, in die sie eingebettet sind. Auch forschungspolitische Motivationen spielen eine Rolle und tragen dazu bei, dass komplexe Zusammenhänge gerne in möglichst einfache, lineare Modelle gegossen werden. Der Anthropologe James Davies hat in Bezug auf komplexe Ätiologien unter Medizinern eine »discrepancy between thought and practice« diagnostiziert: »Thus, although a practicioner such as a medical doctor or a psychoanalyst may practice as though first causes exist, he or she if pressed will often admit to thinking in more complex ways about aetiology […].« (Davies 2006: 54 [Herv. i.O.]) Lineare, einfache Erklärungsmodelle versprechen Davies zufolge nicht nur Kontrolle über die Welt, sondern denjenigen, die in ihrem Besitz sind, gleichermaßen Autorität und Macht in einer zunehmend unübersichtlicher und kompetitiver werdenden Forschungslandschaft. Eine »doctrine of single causes« (Van Orden/Paap 1997) mit ihrem reduktionistischen Impetus hat den Vorteil, eine klare Botschaft von Machbarkeit und Beherrschbarkeit auszusenden, die potenzielle Geldgeber und politische Entscheidungsträger eher überzeugen dürfte als der schwer fassbare Hinweis auf die Komplexität der Zusammenhänge. Je linearer und einfacher das Erklärungsmodell, desto naheliegender ist seine Handlungsrelevanz.41 Dies gilt ganz besonders für den Bereich der praktischen Wissenschaften, wo die Wissensproduktion unauflösbar mit Anwendungskontexten verknüpft ist. Vor diesem Hintergrund hat Lisa Gannett argumentiert, dass die Dominanz genetischer Erklärungsmuster in der Biomedizin nicht deren »Erklärungspotenzial« (Rheinberger/Müller-Wille 2009: 135) reflektiert, sondern Ausdruck pragmatisch begründeter Bemühungen ist, die technologische Kontrolle von Krankheit und Körper auf die Spitze zu treiben: An appreciation of the pragmatic dimensions of genetic explanations, and hence their contingency […] asks us to examine the aims, interests, and orientations that lie behind the 41 Vgl. dazu die maßgebliche Rolle, welche die einfache und klare Amyloid-KaskadenHypothese im Bereich der Alzheimerforschung gespielt hat (siehe drittes Kapitel).

274 | ZWISCHEN GEIST UND GEHIRN

choices that are being made. In this way, the debate […] is recast: the focus moves from questions concerning the veracity of different representations of reality to questions concerning preferences for certain kinds of interventions over others. (Gannett 1998, zitiert nach Fox Keller 1998)

Im Zeitalter der Postgenomik ist jedoch zu beobachten, dass auch das »Forschungspotenzial« des Genbegriffs zunehmend zur Debatte steht (Rheinberger und Müller-Wille 2009). Es erscheint zunehmend fraglich, ob Gene der richtige Ansatzpunkt sind, um die »Verfügungsmacht über das Leben« (Rheinberger/Müller-Wille 2009: 133) zu gewinnen. Es sei ein anerkanntes Problem, »ob man einen Phänotyp tatsächlich kausal mit dem Gen, das man verändert hat, verknüpfen kann«, meint André Fischer (Interview Fischer; vgl. Schalkwyk et al. 2007). Wie bereits im vierten Kapitel diskutiert, weiß man, dass die Verhaltenseffekte von Knock-outs stark vom experimentellen Kontext (zum Beispiel den Haltungsbedingungen) abhängen, sodass »die Manipulation gar keine sichtbare Konsequenz mehr hatte im Verhaltenstest, weil quasi nur die Manipulation zusammen mit der Deprivation zu einem Unterschied führt« (Interview Wolfer; vgl. Crabbe et al. 1999). Aber nicht nur die experimentellen Umweltbedingungen, auch der genetische Kontext spielt offenbar eine wesentliche Rolle (vgl. Keller 2001): In etwa 30 Prozent der Fälle bleiben Gendeletionen praktisch ohne erkennbare Auswirkungen, während in anderen Fällen die Ausschaltung eines einzelnen Gens tödliche Wirkung hat (Edelman/Gally 2001; Ihle 2000; Schalkwyk et al. 2007). Heißt das, dass im ersten Fall das Gen kausal völlig irrelevant ist, während es im zweiten Fall kausal für alles verantwortlich ist? Mit großer Wahrscheinlichkeit ist weder das eine noch das andere der Fall. Solche verwirrenden experimentellen Befunde haben nicht nur unter Determinismuskritikern, sondern auch unter Biomedizinern zunehmend Zweifel geweckt, ob die mechanistische Logik der Komplexität lebender Organismen angemessen ist. Man erklärt sich die Anomalien damit, dass komplexe Gennetzwerke über eine sogenannte Robustheit gegenüber Mutationen verfügen, sodass Ausfälle von Einzelkomponenten des Systems durch andere Komponenten aufgefangen werden (Wagner 2005; Edelman/Gally 2001; Keller 2001). Fox Keller bemerkt dazu: Zunächst belegt die Unsichtbarkeit eines phänotypischen Effekts in »Null«-Mutanten, dass der Nutzen der genetischen Analyse bei der Untersuchung der Entwicklungsdynamik klare Grenzen hat. Die Schlüsseltechniken der Genetik hängen von dem Nachweis von Mutanten durch ihre phänotypischen Effekte ab (Mutantenscreening), doch da diesen Mutanten ein charakteristischer phänotypischer Marker fehlt, sind sie durch solche Screenings nicht

D ARSTELLEN

UND

E INGREIFEN | 275

sichtbar zu machen. Die Genetik ist, wie man manchmal sagt, blind für Redundanz. Und was noch besorgniserregender ist: Redundanz stellt das ganze explanatorische Bezugssystem des genetischen Paradigmas auf den Prüfstand. (Keller 2001: 146)

Komplexe Einsichten: Vom Körper zum Datenkörper? Bereits in den 1960er Jahren hob der Biologe Mayr (1961) die besondere Verworrenheit und Komplexität biologischer Phänomene hervor, welche deterministische und mechanistische Kausalerklärungen, wie sie in der Physik vorherrschen, in den meisten Fällen verunmöglicht. Die Biologie ist nach Mayr deshalb unbestimmt. Das heißt: Vorhersage ist im Unterschied zur Physik nur selten möglich, da mechanistische, lineare oder deterministische Kausalitäten in den seltensten Fällen vorkommen. Die Biologie steht damit aber nicht im Gegensatz zur Gesetzmäßigkeit der Physik. Jene stellt vielmehr nur ein Sonderfall dar, der in der Biologie kaum erreicht wird. Auf der molekularen, biochemischen und zellulären Ebene, der Domäne des Laborforschers, ist das Ideal mechanistischer Kausalität zum Teil noch erreichbar, aber dies auch nur im Experiment und nur dann, wenn eine artifizielle Teilwelt geschaffen wird, in der viele Faktoren gezielt ausgeblendet werden. Dass man mit den bestehenden Methoden zunehmend an Grenzen stößt, kam auch in meinen Interviews immer wieder zur Sprache. Ein Wissenschaftler bemerkte mir gegenüber, er wisse nicht, »was passieren muss, damit man einen großen Schritt macht« (Interview Gräff). Das Fach ist offenbar in einer kritischen Übergangsphase, was sich auch aus dem folgenden Zitat ablesen lässt: Wir beschäftigen uns nun mal nicht mit der Pankreaszelle, sondern mit dem komplexesten Organ, das wir haben, dem Gehirn. Insofern werden wohl in hundert Jahren manche Dinge, die wir gemacht haben, wie das rudimentäre Herausschneiden von Transistoren aus Radios erscheinen, in der Hoffnung zu verstehen, wie Beethoven gespielt wird. […] Wir sind natürlich absolut unzufrieden über das methodische Repertoire, das wir im Moment haben, aber wir werden besser. (Interview Wotjak; vgl. auch Lazebnik 2002)

Das klassische biomedizinische Methodenarsenal wird derzeit um systembiologische Werkzeuge ergänzt, die das emergente Verhalten des Gesamtsystems anhand verschiedener Systemvariablen in den Blick nehmen und mit Simulationsmethoden rechenintensiv zu modellieren versuchen (Sauer et al. 2007; Kitano 2002). Der Begriff »Systembiologie« wurde im Jahr 1999 von einem japanischen Labor um Hiroaki Kitano geprägt und hat seither viel Resonanz in der Fachliteratur und Forschungspolitik hervorgerufen. Nicht wenige Biomediziner

276 | ZWISCHEN GEIST UND GEHIRN

halten diesen Ansatz für zukunftsweisend, vielerorts entstehen neue Forschungszentren und Institute, die sich dem systemischen Trend verschrieben haben. Systembiologen machen sich neue biotechnologische Methoden wie DNA-Chips zunutze, mit denen große Datenmengen auf möglichst vielen »Omik«-Ebenen (Genomik, Transkriptomik, Proteomik etc.) erhoben und anschließend integriert werden (was bislang noch nicht wirklich gelungen ist, vgl. Kempermann et al. 2006; Ishii et al. 2007). Dabei macht man sich durchaus auch experimentelle Befunde zunutze, die aber nur als ein Aspekt unter vielen in die Simulation einfließen. Als zentrales Merkmal des Ansatzes gilt, dass a system-level understanding requires a shift in our notion of ›what to look for‹ in biology. While an understanding of genes and proteins continues to be important, the focus is on understanding a system’s structure and dynamics. Because a system is not just an assembly of genes and proteins, its properties cannot be fully understood merely by drawing diagrams of their interconnections. Although such a diagram represents an important first step, it is analogous to a static roadmap, whereas what we really seek to know are the traffic patterns, why such traffic patterns emerge, and how we can control them. (Kitano 2002: 1663)

Entscheidend ist nach dieser Darstellung also, dass die relevante Beobachtungsebene nicht auf der Ebene der Einzelkomponenten und ihrer Interaktion, sondern auf der Ebene der Organisation des Gesamtsystems und seiner emergenten Eigenschaften liegt.42 Fast alle meine Interviewpartner haben – für mich erst einmal überraschend – skeptisch auf den systembiologischen Forschungsboom reagiert. Dies könnte damit zu tun haben, dass systemische Ansätze mit den bestehenden Standards experimenteller Praxis nur schwer vereinbar sind. Die Analyse der »riesigen Da42 In den letzten Jahren haben komplexitätstheoretische Ansätze dem Emergenzbegriff zu einer Renaissance verholfen, und zwar sowohl in sozial- wie auch naturwissenschaftlichen Forschungskontexten (Bruggeman et al. 2002; Ellis 2005; Manson 2001; Urry 2005; Wynne 2005). Emergenz bedeutet, dass in Systemen ab einer gewissen Komplexität Makrophänomene entstehen, die von den Mikrostrukturen und den für sie geltenden Naturgesetzen nicht determiniert werden. Der Biologe Donald Campbell stellte vor über 30 Jahren die These auf, dass diese emergenten Makrophänomene (dazu gehören beispielsweise das Bewusstsein oder soziale Organisationsformen) Mikrostrukturen und -ereignisse beeinflussen können, eine Einwirkung, die unter dem Schlagwort »downward causation« diskutiert wird (Campbell 1974; Andersen et al. 2000).

D ARSTELLEN

UND

E INGREIFEN | 277

tenflut« (Interview Wolfer) erfolgt mit bioinformatischen und mathematischen Methoden, die Kompetenzen erfordern, über die ein klassisch ausgebildeter Biologe in der Regel nicht verfügt. Im Vordergrund stehen nicht die molekularen Maschinerien, sondern das dynamische Verhalten des Gesamtsystems, das man in silicio zu modellieren versucht.43 Anstatt »biocomplexity« (Bruggeman et al. 2002) qua Manipulation, Dekomposition, und Lokalisation zu dekonstruieren, wie es herkömmliche mechanistische Ansätze tun, versuchen systemische Ansätze »herauszufinden, wie man Komplexität beschreiben kann« (Interview Kempermann). Inwiefern dies einen grundlegenden Bruch mit bestehenden Praktiken impliziert, ist eine lohnenswerte Frage für zukünftige Untersuchungen, die ich hier offen lassen muss. Bei der Systembiologie handelt es sich um ein ebenso dynamisches wie heterogenes Forschungsfeld, dessen Tragweite schwierig zu beurteilen und Gegenstand laufender Untersuchungen ist (vgl. Kollek et al. 2011). Sowohl unter den beteiligten Akteuren wie auch unter Wissenschaftsforschern bestehen unterschiedliche Ansichten darüber, wie dieser Ansatz zu definieren und von herkömmlichen experimentellen Herangehensweisen abzugrenzen ist (Calvert 2008; Fujimura 2005; Boogerd et al. 2007). Kaum zu bestreiten ist jedoch, dass »Computerexperimente« eine neue »symbolische Form des Forschens« (Gramelsberger 2010: 255) mit sich bringen, in der statt mit einem materiellen Körper mit einem ephemeren Datenkörper hantiert wird.44 Die Schnittstelle zwischen Theorie und Experiment wird dabei neu definiert (Gramelsberger 2010). Insbesondere ist die systemische Forschung, wie Beattie (2004) argumentiert hat, theoretischer angelegt und beschäftigt sich aus methodologischen Gründen mehr mit dem Generieren statt dem Falsifizieren von Hypothesen. Dies halten aber viele Biomediziner aus epistemologischen Gründen für nicht erstrebenswert: Linear theories are friendly theories. When you have highly complex stories, your degrees of freedom are usually so high, that you will produce predictions that would be unfalsifiable according to Karl Popper’s scientific positivism. (Interview Yee)

Unter der Oberfläche solcher Aussagen wirken nicht zuletzt gedächtnispolitische Kräfte. Hacking zufolge treibt die heterogene Gedächtnisforschung die (natürlich in den wenigsten Fällen explizite) Motivation an, unserem innersten Wesen hab43 Vgl. dazu das ambitionierte Blue-Brain-Projekt, das nichts weniger anstrebt als die Modellierung des Gehirns (Markram 2006). 44 Vgl. im Gegensatz dazu Parker (2009), die der Ansicht ist, »[…] that computer simulation studies are material experiments in a straightforward sense«.

278 | ZWISCHEN GEIST UND GEHIRN

haft zu werden (siehe fünftes Kapitel). Das Ziel ist nichts weniger als die Verkörperung und wissenschaftliche Kontrolle der menschlichen Seele. Vor dem Hintergrund des in diesem Kapitel dargelegten mechanistischen Erklärungsstils, der die biomedizinische Praxis nach wie vor dominiert, will ich diese inhärent politische Facette der Gedächtnisforschung zum Abschluss auf einer theoretischen Ebene beleuchten. Gleichzeitig ergibt sich so eine Begründung dafür, wieso die mechanistischen Ideale auch im postgenomischen Zeitalter fest in der biomedizinischen Gedächtnisforschung verankert sind. Carl Craver (2007) hat postuliert, dass die wechselseitige Manipulierbarkeit (mutual manipulability) eine der zentralen Normen mechanistischer Erklärungen darstellt. Diese normative Bedingung ergibt sich für Craver aus der Tatsache, dass mechanistische Erklärungen konstitutiv sind, das heißt, sie führen das Verhalten eines Gesamtsystems auf die Funktionen seiner Komponenten zurück. Erst im Rahmen wechselseitiger Eingriffe auf den unterschiedlichen Ebenen des Systems lässt sich feststellen, ob eine spezifische Komponente de facto mechanistische Relevanz aufweist. Eine Komponente ist demzufolge relevant to the behavior of a mechanism as a whole when one can wiggle the behavior of the whole by wiggling the behavior of the component and one can wiggle the behavior of the component by wiggling the behavior as a whole. (Craver 2007: 153 [Herv. i.O.])

Dies setzt zum einen voraus, dass es sich um ein Phänomen handelt, dessen biologische Maschinerie einigermaßen verstanden ist. Zweitens sollte sein Verhalten gut messbar sein, um die Wirkungen von experimentellen Eingriffen möglichst genau erfassen zu können. Weiterhin sollte das Phänomen in funktionale Module zerlegbar sein, um Kontrolle auf der systemischen Ebene ausüben zu können. Es gibt wohl kaum einen psychologischen Gegenstand, auf den diese experimentellen Bedingungen so gut zutreffen wie das Gedächtnis. Im Vergleich zu anderen biopsychologischen Konstrukten wie Stress oder Emotion stehen beim Gedächtnis, trotz der vielen Fallstricke, die Thema dieser Arbeit waren (siehe zweites und viertes Kapitel), relativ ausgefeilte psychologische und verhaltensbiologische Messmethoden zur Verfügung, mit denen sich sowohl beim Menschen als auch beim Tier kleinste Verhaltensänderungen in Reaktion auf experimentelle Läsionen erfassen lassen. Ergänzt wird das auf einer theoretischen Ebene durch eine feingliedrige psychologische Ausdifferenzierung, eine »funktionale Dekomposition« (Roskies 2010: 649), dank der sich fein abgestimmte kognitive Aufgaben entwerfen lassen, um top down die neuronalen Korrelate zu bestimmen.

D ARSTELLEN

UND

E INGREIFEN | 279

Ian Hacking hat plausibel argumentiert, dass die Ausübung von Kontrolle durch Manipulation in einem engen Zusammenhang mit unseren Wirklichkeitsvorstellungen steht. Er wurde nach eigener Aussage zum Realisten bekehrt durch die Beobachtung, dass man Elektronen versprühen kann, sie also als Werkzeuge benutzen kann: »Was mich betrifft, gilt: Wenn man sie versprühen kann, sind sie real. [...] Wir verstehen die Wirkungen, wir verstehen die Ursachen, und wir machen von diesen Gebrauch, um etwas anderes herauszufinden.« (Hacking 1996a: 47f.) Hacking geht es nach eigener Aussage um die in der Wissenschaft längst manifeste »Verzahnung« (Hacking 1996a: 246) der philosophisch lange Zeit separierten Tätigkeitsbereiche Darstellen und Eingreifen. Auch bei ihm kristallisiert sich die Kausalität als entscheidende Schnittstelle heraus, wobei ihn seine Überlegungen weg von einem Theorien-Realismus und hin zu einem EntitätenRealismus führen. Die Realität abstrakter Entitäten ist Hacking zufolge unabhängig von der Wahrheit der Theorien, in denen sie auftauchen. Entitäten werden vielmehr dadurch wirklich, dass man in praktischem Sinne etwas mit ihnen anzustellen lernt. Stimmt man Hacking zu, so bekommt das Streben nach mechanistischen Erklärungen im Bereich der Gedächtnisforschung eine gedächtnispolitische Facette. Kaum ein anderer Erklärungsansatz fordert eine so enge Verzahnung von Eingreifen und Darstellen wie der mechanistische. Einen Gegenstand erfolgreich mechanistisch zu erklären, heißt, ihn manipulierbar und kontrollierbar zu machen. Legt man gedächtnispolitisches Tiefenwissen zugrunde – die Idee, dass die Seele ein Teil der biologischen Realität ist und nicht bloß ein metaphysisches Konstrukt –, erweisen sich mechanistische Erklärungsansätze aufgrund der engen Verflechtung theoretischer Kategorien mit der materiellen Welt gegenüber systemischen Forschungsansätzen weit überlegen, die sich primär mit einem ephemeren Datenköper beschäftigen.

F AZIT : E INE

DIALEKTISCHE

G ESCHICHTE

Im Zusammenhang einer Pragmatik der Erklärung erweist sich Kausalität als ein idealer Fokus für eine integrative Analyse der wissenschaftlichen Praxis und ihrer Dynamik. Sie ist das Scharnier, das die Darstellungspraxis in die »intentionale Struktur menschlichen Handelns« einbindet (Pickering 2007: 51). Erklärungsmodelle verfügen in einem pragmatistischen Rahmen sowohl über eine theoretische als auch eine empirische und soziale Dimension: Sie sind disziplinär verankerten Standards der Erklärung unterworfen, aber ob es sich um gute oder schlechte Erklärungen handelt, lässt sich aus einer rein epistemologischen Warte

280 | ZWISCHEN GEIST UND GEHIRN

nicht beantworten. Das bedeutet nicht, dass epistemologische Normen für ein Verständnis der biomedizinischen Dynamik irrelevant sind – die Theorieentwicklung, das Erklären kausaler Zusammenhänge sind zentrale Elemente und treibende Kraft der biomedizinischen Praxis, was ich in diesem Kapitel hoffentlich plausibel gemacht habe. Vielmehr bedeutet das, dass Standards der Erklärung die Wissensproduktion nicht so stark regulieren, wie es manche Philosophen vielleicht gerne hätten. Pickering schreibt: »[E]verything in scientific culture is itself at stake in practice; there is nothing concrete to hang onto there.« (Pickering 1995: 112) Ob Craver und andere mechanistische Philosophen diesem Satz zustimmen, wird aus ihren Schriften nicht ganz klar. Die Wissenschaftsphilosophen, die sich in den letzten Jahren mit lebenswissenschaftlichen Erklärungsmodellen beschäftigt haben, interessieren sich in der Regel für »the ideals of explanation implicit in the practice of neuroscience«.45 Das bedeutet gemäß Craver: »The account of explanation that I give is idealized and normative, but it is modeled upon the ideals of neuroscientists rather than those of philosophers or physicists.« (Craver 2007: 19f.) Das philosophische Projekt einer deskriptiv akkuraten Analyse der Wissenschaftsideale ist ein schwieriger Spagat: Einerseits werden damit viele Grundsätze der klassischen Wissenschaftstheorie für obsolet erklärt, die sich traditionell auf die Physik, vor allem aber auf die wissenschaftliche Rationalität abgestützt hatten. Vor allem die empirische Praxis gewinnt deutlich an Gewicht. Die zunehmende Verbreitung manipulationistischer Kausaltheorien, die Thema dieses Kapitels waren, illustriert diese Entwicklung. Das allgemeine Ziel ist, so Bechtel, »a realistic account of the development of science« (Bechtel/Richardson 1993: 243 [Herv. CK]). Diese Art Wissenschaftsphilosophie lässt ihren Absolutheitsanspruch zunehmend fallen und erkennt die Heterogenität der wissenschaftlichen Methodologien und Epistemologien an. Die Worte Cravers – »the account of explanation that I give is idealized and normative« – machen andererseits aber auch deutlich, dass sein Ansatz genuin erkenntnistheoretischer Natur ist und damit immer noch asymmetrisch im Sinne des Strong Programme (siehe erstes Kapitel). Der Fokus liegt auf den guten Theorien und den epistemologischen Normen und Idealen, die deren Genese regulieren. Eine solche Perspektive ist ja auch durchaus von Belang, um die Darstellungswirklichkeit der Forschungspraxis zu beleuchten. Problematisch ist das nur, wenn man meint, in der Darstellungswirklichkeit einen archimedischen Punkt 45 Vgl. etwa auch Hardcastle, die schreibt: »[The book] is partly descriptive and partly normative. I describe how cognitive science is actually done, at the same time that I implicitely recommend how it should be done.« (Hardcastle 1996: 9)

D ARSTELLEN

UND

E INGREIFEN | 281

außerhalb der Praxis gefunden zu haben. Sein Ziel sei, so Craver, »to clarify the distinction between good explanations and bad« (Craver 2007: viii), und eine solche normative Unterscheidung läuft Gefahr, den Erklärungsstil und seine Standards zu transzendieren. Es handelt sich um ein normatives Regulativ, das nur dann Sinn macht, wenn es nicht Teil der Praxis ist, da es ja gerade ihrer Bewertung dienen soll. Mol trifft den kritischen Punkt, wenn sie darauf hinweist, dass »even if interference was important, interfering was not the point. The crucial issue in relating to objects was to get to know them« (Mol 2002: 192). Die meisten Wissenschaftsphilosophen, selbst solche, die für die Bedeutung der Praxis sensibilisiert sind, neigen aus diesem Grund zu einem stark idealisierenden Blick auf das empirische Geschehen. Nachdem er anhand von LTP einige neurowissenschaftliche Erklärungskriterien hergeleitet hat, schreibt Craver: Of course, experiments are rarely so clean in the real world. […] But these practical difficulties, which are part of what make science challenging and rewarding, do not impugn the overall idea that what one ideally wants to establish is precisely such well-controlled relationships of manipulability. (Craver 2007: 103)

Dieser Blickwinkel deckt aber nur eine Seite der Medaille ab. Denn auch disziplinäre Normen und Rationalitäten sind in den Tanz der Wirkungsmächte eingebunden und damit kein stabiler Anker. Anstatt die Forschungspraxis durch die normative Brille der Epistemologie zu betrachten, wie Philosophen es gerne tun, kann man den Spieß auch umdrehen und den Fokus auf die politischen Implikationen von Theorien lenken. Das ist die Perspektive von empirischen Wissenschaftsforschern wie Annemarie Mol (1999, 2008), die zurecht darauf aufmerksam gemacht hat, dass sich Theorien in der Experimentalpraxis, in den Forschungsobjekten ebenso wie den Routinen und experimentellen Designs manifestieren. Die Wissenschaftspraxis ist dabei, die Welt, und nicht nur die Laborwelt, ganz konkret zu verändern: Der Gegenstand »Gedächtnis« ist der experimentellen Praxis nicht vorgängig, wie das zweite und vierte Kapitel gezeigt haben. Vielmehr wird er erst durch die praktische Vereinnahmung messbar, manipulierbar und kontrollierbar gemacht und erhält in diesem Translationsprozess seine spezifischen wissenschaftlichen Konturen. Der Versuch, mechanistische »Verfügungsmacht über das Leben« zu gewinnen, hat zu medizinischen Interventions- und Überwachungsregimes geführt, die weitreichende gesundheitspolitische Implikationen haben. Wenn Realitäten in der Praxis allererst gemacht werden, dann gibt es Mol zufolge keinen Standpunkt außerhalb der Praxis, der uns die Frage beantworten kann, welche dieser Realitäten wir hervorbringen sollen und wollen. Sie schreibt:

282 | ZWISCHEN GEIST UND GEHIRN

And the expectation that technologies subordinate themselves as obedient means to their valuable ends, makes us all too surprised, time and again, when these technologies come with unexpected, undesired effects. So, instead of dreaming that we are outsiders, it might be better to realise that we act, and to try to improve, from the inside. (Mol 2008: 93)

Sowohl der Blickwinkel Mols, die sich für die politischen Dimensionen der Praxis interessiert, als auch der Blickwinkel Cravers, der auf deren epistemologischen Hintergründe fokussiert, haben ihre Berechtigung. Einer zu eindimensionalen Praxisanalyse gelingt es jedoch nicht, Umbrüche wie die Postgenomik zu verstehen, die sich an der Schnittstelle von Theorie und Praxis abspielen. »Wanting, knowing and doing are all mutually implicated.« (Keller 1992: 92 [Herv. i.O.]) Während Mol die disziplinäre Widerständigkeit der Darstellungswirklichkeit vernachlässigt, der sich der einzelne Forscher nicht so einfach entziehen kann, ignoriert Craver die pragmatischen und politischen Dimensionen der Eingreifwirklichkeit. Dabei sind es gerade die Reibungen zwischen den verschiedenen Dimensionen der heterogenen Forschungspraxis, dieses »supercyborgs« (Pickering 1995: 145), die sich als wichtig erweisen. Im Zeitalter der Postgenomik lassen sich spannende epistemische und methodische Umwälzungen beobachten, durch die sich Biomediziner gezwungen sehen, zwischen disziplinären Denkzwängen, materiellen Sachzwängen und sozialen Handlungszwängen zu manövrieren und deren Konturen zu transformieren. Reduktionistische Forschungsansätze sind auf materielle Widerstände geprallt, die in einer dialektischen Weise die Notwendigkeit systemischerer Perspektiven aufgezeigt haben, einen Punkt, den auch Hans-Jörg Rheinberger und Staffan Müller-Wille in ihrer wissenschaftshistorischen Studie zum Genbegriff hervorgehoben haben (Rheinberger/Müller-Wille 2009). Die Tatsache, dass viele Forscher weiter an reduktionistischen Strategien festhalten, lässt sich nicht zuletzt gedächtnispolitisch begründen. Diese »Dialektik von Widerstand und Anpassung« (Pickering) wird niemals an ein Ende gelangen. Nach der Dekade des Gehirns, »which dramatically increased the visibility of neuroscience« (Albus et al. 2007: 1321), wurde vor einigen Jahren die Lancierung einer Dekade des Geistes gefordert, die stärker transdisziplinär ausgerichtet sein soll: »Success will require research that reaches across disparate fields such as cognitive science, medicine, neuroscience, psychology, mathematics, engineering, and computer science. Additional important insights will need to come from areas as diverse as systems biology, cultural anthropology, social science, robotics, and automation technology.« (Albus et al. 2007: 1321) Es häufen sich die Forderungen nach integrativen, ko-konstruktivistischen oder systemischeren Forschungsansätzen, erhoben von Wissenschaftsphilosophen (Mitchell 2008),

D ARSTELLEN

UND

E INGREIFEN | 283

von Psychologen und Psychiatern (Baltes et al. 2006a; Kendler 2005b), Medizinanthropologen (Lock 2005) und nicht zuletzt von einflussreichen Gesundheitsinstitutionen (NIH 2003). Auch wenn bislang völlig unklar ist, wie sich derartige interdisziplinäre Kooperationen in der Praxis umsetzen lassen, sind sie ein Fanal für die Phase kritischer Umwälzungen, in der sich die Biomedizin derzeit befindet.

Schluss

Den Untersuchungsgegenstand dieser Arbeit bildete die biomedizinische Gedächtnisforschung. Es wurde deutlich, dass es sich dabei um ein Forschungsfeld handelt, das sich aus verschiedenen, in sich wiederum heterogenen Forschungsplattformen und Akteursgruppen zusammensetzt, die weder über eine kulturelle Identität noch ein stabiles Zentrum verfügen. Der einzig relevante Berührungspunkt zwischen den verschiedenen Praktiken, die die Rede von einem »Feld« überhaupt erst sinnvoll erscheinen lassen, ist ihre Fokussierung auf das Gedächtnis als Gegenstand des Wissens und der Erkenntnis. Meine Arbeit verfolgte zwei Forschungsanliegen: Erstens nachzuzeichnen, wie und mit welchen Konsequenzen man dieses ephemeren Phänomens experimentell habhaft wird. Zweitens ging es mir darum, vor dem Hintergrund dieses Forschungshorizonts das »Abenteuer der Verzahnung von Darstellen und Eingreifen« (Hacking 1996a: 245) aus einer praxistheoretischen Perspektive zu analysieren. Ich habe die Diskurse und Forschungspraktiken im Zusammenhang mit zwei Gedächtnispathologien erforscht, die seit einiger Zeit weit oben auf der gesundheitspolitischen Agenda stehen. Personen werden heutzutage als »dement« oder »traumatisiert« bezeichnet, bei denen dies vor wenigen Jahren kaum vorgekommen wäre. Beide Diagnosen sind ein »Symptom unserer Zeit« (Will 2009: 222), und entsprechend günstig ist das finanzielle Milieu, in dem die medizinischen Forschungsbemühungen jeweils gedeihen. Mein eigentlicher Ausgangspunkt war aber weniger die gesundheitspolitische Relevanz als vielmehr die historisch begründete Differenz der Krankheitskategorien, eine Differenz, die bis heute nachwirkt und spürbar ist. Man kann dies beispielsweise an den Kommentaren von Gesundheitsexperten zu den soeben beschriebenen Entwicklungen ablesen. Während die starke Zunahme der PTSD-Diagnose von nicht wenigen äußerst skeptisch beurteilt wird – es handle sich hier um ein »interessengesteuertes Modekonstrukt« (Dörner 2004: S327) –, käme es bei AD kaum jemandem in den Sinn, die Realität der Krankheit infrage zu stellen. AD bildet seit Alois Alzhei-

286 | ZWISCHEN GEIST UND GEHIRN

mer eine der zentralen Arenen der Bio-Experten. Der Ort der Krankheit ist das Gehirn, wo sie sich in konkreten Läsionen manifestiert. PTSD und ihre Vorläufer hingegen haben nach Ansicht vieler einen viel problematischeren Wirklichkeitsstatus: Von Anbeginn an waren sie fest in der Hand sogenannter PsyExperten (Rose), welche die Deutungshoheit über die Leidenserfahrungen ›verwundeter‹ Seelen beanspruchten und die Diagnose- und Behandlungsmethoden dafür entwickelten. So entstand eine Gruppe von Syndromen, die vom Ersten Weltkrieg bis in die Gerichtssäle und Ausländerbehörden unserer Zeit (vgl. Will 2009) immer wieder Gegenstand heftiger gesellschaftlicher Auseinandersetzungen waren, und – so die Kritiker – »in der Praxis nicht von politischen und historischen Bedingungen sowie von ökonomischen Interessen der Patienten […] zu trennen [sind]« (Dörner 2004: S328). Solche skeptischen Stimmen ändern nichts daran, dass beide Pathologien zum festen medizinischen Inventar unserer Zeit gehören, sie machen jedoch deutlich, wie unterschiedlich die wissenschaftlichen, politischen und gesellschaftlichen Entwicklungen sind, in deren Schnittpunkt sie stehen. Der Kontrast dieser beiden Forschungsbereiche hat es mir ermöglicht, die Heterogenität des Praxisfeldes herauszuarbeiten. Bei genauerem Hinsehen zeigt sich jedoch eine grundlegende Gemeinsamkeit: Hier wie dort ist man der festen Überzeugung, »der gestörte Geist könne durch eine bessere Kenntnis der Natur der Erinnerung verstanden werden« (Hacking 2001: 30). Gemäß Ian Hacking verweist dies auf das Tiefenwissen, auf dem die verschiedenen Richtungen der Gedächtnisforschung gemeinsam aufbauen: nämlich der Überzeugung, dass das Gedächtnis die geeignete Bühne ist, auf der sich wissenschaftliche Fakten über das menschliche Wesen generieren lassen. Hacking sieht in diesem Tiefenwissen einen dritten foucaultschen Machtpol am Werk, den er – in Abgrenzung zur Körper- und Biopolitik – als Gedächtnispolitik definiert hat. Seine These bildete den Dreh- und Angelpunkt meiner Arbeit, die im Grunde genommen eine Abhandlung darüber ist, wie sich die moderne Wissenschaft dieses schillernden Phänomens bemächtigt hat. Im fünften Kapitel habe ich versucht, die gedächtnispolitische Dimension bestehender Forschungspraktiken zu plausibilisieren, indem ich die dominierende Rolle des Hippokampus hinterfragt habe. Wie sich gezeigt hat, lässt sich die Allgegenwärtigkeit des Hippokampus dadurch verständlich machen, dass er sich wie kaum ein anderes Objekt dazu anbietet, »die Seele zu säkularisieren« (Hacking 2001: 12). Der Hippokampus eröffnet die Möglichkeit, eine neuropsychologische Theorie des Selbst mit einem konkreten Ort im Gehirn zu verbinden. Er steht exemplarisch für die »widespread mutation in which we in the West […] have come to understand our minds and selves in terms of our brains and bodies« (Rose 2003: 46). Dass Geist und Gehirn eine on-

SCHLUSS | 287

tologische Einheit bilden, ist sowohl unhintergehbare Prämisse als auch Forschungsprogramm nicht nur der zeitgenössischen Neurowissenschaft, sondern auch des Mainstreams der Psy-Wissenschaften, die sich immer mehr als Naturwissenschaft begreifen. Die historische Polarität zwischen Geist und Gehirn, die der Psychiatrie in die Wiege gelegt war, scheint damit überwunden: Hatten psychoanalytische Gedächtniskonzeptionen noch vor wenigen Jahrzehnten einen einflussreichen Platz im psychiatrischen Diskurs inne, so wurden sie bis heute weitgehend durch einen sogenannten »technosomatic imperative« (Pickersgill 2009) verdrängt, einen anatomischen Denkstil, in dessen Rahmen sich der Hippokampus als wichtiger Forschungsattraktor herauskristallisiert hat. Das Versprechen lautet, den hybriden Gegenstand »Gedächtnis« manipulierbar, kontrollierbar und beherrschbar zu machen. Neuro-X-Disziplinen schießen wie die sprichwörtlichen Pilze aus dem Boden, und sie haben neben vielen uneingelösten Versprechen auch beeindruckende Resultate vorzuweisen. Man kann diese Verschiebung als »Reinigungsarbeit« im Latour’schen Sinne interpretieren (vgl. Latour 1995), eine Enthybridisierung, die zum Ziel hat, die menschliche Seele zu naturalisieren und der biomedizinischen Verfügungsgewalt zu überantworten. Im Rahmen dieser Verschiebung scheint den Psy-Vertretern ihre Deutungshoheit über psychische Phänomene immer mehr zu entgleiten, was aber nur vordergründig stimmt. Passend zu Latours Diagnose, dass die Reinigungsarbeit auf vielfältigen Übersetzungsprozessen beruht, hat das Beispiel des Hippokampus klar gemacht, dass eine Vielzahl von Geist/Gehirn-Hybriden das Feld der biomedizinischen Gedächtnisforschung bevölkert. Wie der Hippokampus so konstituieren sich die meisten der grundlegenden Untersuchungsobjekte und Experimentalsysteme erst im Zusammenspiel von psychologischen und biologischen Methoden. Ohne die psychologische Translation von Gedächtnis in einen objektivierbaren und messbaren Gegenstand, eine Entwicklung, die im 19. Jahrhundert einsetzte, wäre die neurobiologische Fundierung des Gegenstandes nicht denkbar, geschweige denn machbar gewesen (siehe zweites Kapitel). Daran hat sich bis heute nichts geändert: Es sind in erster Linie Psychologen, welche die psychometrischen Werkzeuge und statistischen Verfahren perfektioniert haben, um den Gegenstand wissenschaftlich sichtbar und greifbar zu machen. Es liegt also im Wesentlichen eine unreine Dynamik vor. Auch wenn die Psychologie als Forschungsinstitution ihre ehemals dominante Stellung prima facie verloren hat, als neurowissenschaftliche Hilfswissenschaft ist sie omnipräsent und ihre Konzepte und Methoden sind überall in die neurowissenschaftlichen Praktiken hineindiffundiert. Gedächtnis- und Verhaltenstests bilden unerlässliche Messinstrumentarien, auf denen die Übersetzungsarbeit zwischen Gehirn und Geist beruht.

288 | ZWISCHEN GEIST UND GEHIRN

Es gehört zur Ironie der Geschichte, dass gerade diese Übersetzungsarbeit tendenziell in den Hintergrund gedrängt wird. Wie ich im vierten Kapitel gezeigt habe, zählt sie zu den neuralgischen Punkten biomedizinischer Forschungen zum Gedächtnis. Was beim Menschen durch rigide Standardisierung und Normierung einigermaßen gelingt, nämlich die Blackboxierung der psychologischen Messverfahren und damit die Objektivierung der Messresultate, ist in der tierexperimentellen Praxis problematisch. Bei sprachlosen Lebewesen, die natürliche Verhaltensweisen aufgrund ihrer Rekonfiguration im Labor weitgehend verloren haben, erweist sich die Quantifizierung von Gedächtnis als schwieriger, fluider Akt. Die Kontrollmacht der Wissenschaft gerät hier an ihre Grenzen: Es häufen sich die Befunde, dass Knock-out-Mäuse in Verhaltenstests in unvorhersehbarer Weise reagieren, meist beeinflusst vom spezifischen Laborkontext, und die Bemühungen, Tierexperimente objektiver zu machen, indem man die verschiedenen Elemente der Experimentalpraxis rigide standardisiert, könnten sich als kontraproduktiv herausstellen. Je stärker man die biologischen Grundlagen von Gedächtnis im Forschungsprozess kontrolliert und homogenisiert, desto unschärfer zeichnen sich die psychologischen Konturen des Gegenstands ab. All dies zwingt die Forscher dazu, die psychologische Ebene im Forschungsprozess stärker zu problematisieren, als es der Logik einer reduktionistischen Forschungsagenda entsprechen würde. Die Abgrenzungen zwischen Geist und Gehirn und den mit diesen Zonen befassten Disziplinen werden paradoxerweise je diffuser, desto schärfer man sie zu ziehen versucht. Diese Unschärferelation bildet einen der großen Widersprüche der biomedizinischen Gedächtnisforschung. All dies sind Momentaufnahmen auf ein sich in rasantem Tempo verschiebendes Feld. Es wäre ein von vornherein aussichtsloses Unterfangen gewesen, ein so vielschichtiges und dynamisches Geschehen, in dem sich verschiedene Entwicklungslinien kreuzen, umfassend beschreiben zu wollen. Meine Arbeit erhebt deshalb keinen Anspruch auf Vollständigkeit. Aus der Vielzahl von wichtigen Akteuren der Gedächtnisforschung musste ich notgedrungen eine Auswahl treffen, was meine Perspektive entsprechend geprägt hat. Die Brüche und Kontinuitäten, die in meinem Material sichtbar wurden, sind auch das Produkt meiner persönlichen Interaktion und Auseinandersetzung mit dem Feld. Viele wichtige Entwicklungen und Aspekte musste ich aus Platzgründen weglassen. Trotz dieser Einschränkungen habe ich versucht, anhand von Interviews mit zentralen Akteuren, durch den Besuch von Konferenzen und das Studium historischer und aktueller Fachliteratur das experimentelle Geflecht und seine Entwicklungslinien möglichst dicht zu beschreiben, charakteristische Muster aufzuzeigen, ohne zu verallgemeinern oder zu zementieren. Dabei habe ich von der antiessenzialistischen und relationalen STS-Perspektive, »which includes ontology rather than

SCHLUSS | 289

precludes it« (Mol 2002: 184), fruchtbar Gebrauch gemacht. Es gehört zu den wesentlichen Verdiensten der empirischen Wissenschaftsforschung, die Konzepte und Ansätze entwickelt zu haben, mit denen ein so vielschichtiges Praxisfeld wie die Gedächtnisforschung analysiert und beschrieben werden kann. Im dritten Kapitel habe ich mich mit den Tiermodellen beschäftigt. Diese grundlegenden Forschungseinheiten ermöglichen es Wissenschaftlern, die »unvorhersagbare Lebendigkeit der Welt und die Prozesse ergebnisoffenen Werdens« (Pickering 2007: 123) biotechnologisch einzufangen. Tiermodelle verdeutlichen den anwendungsorientierten Charakter der Biomedizin, sie stehen im Zentrum einer mangelartigen Dynamik, die weit über die engen Grenzen des Forschungslabors hinausweist. STS-Forscher haben zurecht darauf hingewiesen, dass diese Organismen weder Natur noch Kultur, weder Tier noch Mensch eindeutig zuzuordnen sind und eine Art Kristallisationskeim bilden, an denen diese ontologischen Sphären miteinander verschmelzen und ihre Begrenzungen dynamisch verhandelt werden können. Bei meiner Analyse habe ich jedoch die herkömmlichen Pfade der empirischen Wissenschaftsforschung verlassen, um die Nahtstelle zwischen Theorie und Experiment genauer in den Blick zu nehmen. Tiermodelle zeichnen sich dadurch aus, dass sie sich erst an den Schnittstellen zwischen theoretischer und empirischer Praxis konstituieren. Sie können nur deshalb mit Fug und Recht als Modelle bezeichnet werden, weil sie bestimmte »Vorstellungen von Wirklichkeit« (Rheinberger) materialisieren, und sie sind als Forschungswerkzeuge so wertvoll, weil mit ihnen diese Prämissen empirisch problematisiert werden können. Ich ziehe daraus den Schluss, dass es in vielen Fällen zu kurz greift, wenn man den Lauf der Wissenschaft materiell-semiotisch auf den Lauf der Dinge zurückführt. An diese These anknüpfend habe ich im sechsten Kapitel die Blickrichtung von den Instrumenten auf die epistemologische Dimension biomedizinischer Erklärungsmodelle und ihre praktischen Implikationen gerichtet. Die vorherrschende Experimentalpraxis hat sich dabei als Bestandteil eines mechanistischen Erklärungsprogramms erwiesen, das den Blick auf das Innere der Phänomene richtet und Kausalität mit Manipulierbarkeit verknüpft. Diese theoretische Dimension der Praxis, die in disziplinären Normen und Standards verankert ist, erweist sich als äußerst wirkmächtig: Sie manifestiert sich nicht nur in den Kausalmodellen, sondern schreibt sich auch in die Routinen, Objekte und Werkzeuge der Forschungspraxis ein. Es hat sich aber auch gezeigt, dass diese Darstellungspraxis nicht losgelöst von ihren pragmatischen Kontexten analysiert werden kann, das heißt, sie vollzieht sich immer abhängig von spezifischen »means and ends« (Keller 2000). Meine Lehre daraus ist: Forschungswerkzeuge wie Tiermodelle verfügen über eine theoretische Dimension, Erklärungsmodelle weisen im Gegenzug eine praktische Seite auf. Die

290 | ZWISCHEN GEIST UND GEHIRN

Tätigkeiten des Eingreifens und Darstellens sind reziprok aufeinander bezogen, können aber nicht, was wichtig ist, aufeinander reduziert werden. Was ist der Sinn und Zweck einer solchen integrativen Analyse an der Schnittstelle von Theorie und Experiment? Wie Pickering sehe ich ihn hauptsächlich darin, reichhaltigere »Geschichten über Zeit, Zufall und Werden« (Pickering 2007: 153) zu erzählen, als es bislang geschieht. Rheinberger hat darauf hingewiesen, dass die epistemische Proliferation paradoxerweise darauf beruht, dass »Bedingungen aufrechterhalten [werden] – epistemische Objekte, Registriervorrichtungen, Modellorganismen, verkörpertes Wissen, Erfahrenheit […]« (Rheinberger 2001: 77). In dem turbulenten Ozean Wissenschaft lassen sich also zu jedem Zeitpunkt viele Inseln relativer Stabilität ausmachen, die sich allerdings verschieben, auftauchen und untergehen. Die Wissenschaftsforschung ist aufgrund ihrer disziplinären Fragmentierung zu wenig gerüstet, um das Spannungsfeld zwischen Denkzwängen, Sachzwängen und Handlungszwängen, in dem sich der Forschungsprozess bewegt, fruchtbar zu beleuchten. So neigen Wissenschaftsphilosophen dazu, die theoretische und empirische Dynamik auf der Ebene allgemeiner epistemologischer Prinzipien auszuhebeln, sie rekurrieren auf zeitlose theoretische Ordnungsprinzipien (»mosaic unity«, vgl. Craver 2007). Das Strong Programme macht einen ähnlichen Zug, indem es sich auf invariante Einflussfaktoren der sozialen Sphäre abstützt, um die Variabilität des Wissens zu erklären. Auch Knorr-Cetinas Konzept der »epistemischen Kultur« ist in dieser Hinsicht keine Hilfe, da es bestehende »Wissensmaschinerien« (Knorr-Cetina 2002: 22) stabilisiert. Mit der Verschiebung der Perspektive von den Wissenskonfigurationen zu den Materialitäten, die sich in STS-Ansätzen vollzogen hat, erweist man sich zwar empfänglich für die ontologischen und politischen Konsequenzen des Forschungsprozesses, verliert dabei aber die wirkmächtige Darstellungswirklichkeit aus dem Blick. In einem materiell-semiotischen Bild treten Multiplizität, Fluidität und »mess« (Law 2006) an die Stelle von »patterns that we can grasp« (Pickering 1995: 24). Jede dieser Perspektiven ist von den spezifischen Eigenheiten des Feldes geprägt, auf das hauptsächlich fokussiert wird. In klinischen Kontexten, wo »the technicity of intervening is more important than the consistency of facts« (Mol 2002: 88), kommt es in der Tat zu stärkeren praktischen Verwerfungen und Brüchen, als in der auf Wissensproduktion und theoretische Akkuratheit bedachten Grundlagenforschung. Aufgrund dessen jedoch a priori zwischen angewandten und theoretischen Praxisfeldern zu trennen, wäre ein gefährlicher Rückschritt. Dies würde nicht nur die im ersten Kapitel verworfene Dichotomie zwischen Kontexten von Entstehung und Begründung von Wissen über die Hintertür wieder einführen, sondern auch die im dritten Kapitel diskutierte, enge Verflechtung von Grundlagenforschung und Klinik ignorieren.

SCHLUSS | 291

Zweifelsohne gehört die rasante Dynamik zu den hervorstechenden Merkmalen der modernen Technowissenschaften, und die biomedizinische Gedächtnisforschung ist davon nicht ausgenommen. Tausende Wissenschaftler produzieren jedes Jahr Hunderte Forschungsartikel, das Feld befindet sich derzeit in einem Transformationsprozess: Krankheitskategorien und die Konturen des Wissensobjekts »Gedächtnis« befinden sich im Fluss, institutionelle Strukturen verändern sich, neue Technologien tauchen auf und eröffnen neue Möglichkeiten der Intervention. Biomediziner stoßen dabei verstärkt auf Mischwesen, die sich ihrer Enthybridisierung wirkungsvoll widersetzen. Sogenannte Gen-Umwelt-Interaktionen und die mit ihnen verbundenen epigenetischen Modifikationen gelten inzwischen als konstitutiv für die Entstehung und den Verlauf der meisten psychiatrischen Syndrome. Es ist zu beobachten, dass die problematischen Übersetzungsprozesse zwischen Labor und Klinik, zwischen Geist und Gehirn, zwischen Natur und Kultur im Feld zunehmend wahrgenommen und reflektiert werden. Im Zeitalter der Postgenomik beginnen sich neue Forschungsansätze durchzusetzen, die ein komplexeres Bild der Pathogenese zeichnen, als es zur Blüte des genetischen Determinismus in den 1990er Jahren üblich war. Verschiedene Analyseebenen, vom Molekularen bis hin zum Psychosozialen werden in »biopsychosoziale« Modelle integriert und es wird der zeitlichen Entfaltung pathogener Prozesse, ihren vielfältigen Einflussfaktoren und ihrer Prävention mehr Aufmerksamkeit geschenkt. Der Kontrollanspruch, der mit linear-deterministischen Krankheitsmodellen verbunden ist, macht einem diffusen Risikomanagement Platz, das zunehmend die präklinische Phase in Beschlag nimmt. Diese Umwälzung, die sich auf verschiedenen Ebenen abspielt und von biotechnologischen Innovationen angetrieben wird, hat zur Folge, dass auch die Trennlinien zwischen psychiatrischen Krankheitskategorien (und damit zwischen AD und PTSD) zunehmend durchlässiger werden. Viele Biomediziner zeigen sich überzeugt davon, dass psychiatrische Störungen »Teil eines Spektrums, eines Kontinuums« (Interview Wotjak) sind. Zu beobachten ist, dass es parallel zu der bereits erwähnten Anatomisierung von PTSD im Bereich der Alzheimerforschung zu einer Hinwendung zu funktionalistischeren Forschungsansätzen kommt. Die beiden ehemals polaren Forschungsfelder beginnen, sich immer mehr zu überlappen. In der Phase tief greifender Umbrüche, in der sich die Lebenswissenschaften derzeit befinden, ist ihre Praxis besonders starken internen Friktionen ausgesetzt. Die meisten Biomediziner sind sich bewusst, dass sie mit wirkmächtigen, dafür aber umso unklareren Konzepten arbeiten. Ihnen stehen neue HochdurchsatzTechnologien zur Verfügung, sie haben aber keine klaren Vorstellungen, wie sie mit der Unmenge an Daten umgehen sollen. Dass ihre mechanistische For-

292 | ZWISCHEN GEIST UND GEHIRN

schungslogik der Komplexität ihrer biopsychosozialen Wissensobjekte kaum gerecht wird, sind sich viele Biomediziner durchaus bewusst, ohne aber den neuen systemischen Methodenarsenalen über den Weg zu trauen. Unter der Oberfläche dieser Spannungsfelder wirken diffuse wissenschaftspolitische, gesundheitspolitische und gedächtnispolitische Kräfte. Aus einer einseitigen Perspektive wird es kaum gelingen, diese postgenomischen Verschiebungen und ihre vielschichtigen Umstände angemessen zu beschreiben. Fruchtbar sind hier interdisziplinäre Forschungsfelder wie die Technikfolgenabschätzung, die ihren Fokus zunehmend auf Technikgenese und Technikgestaltung ausrichtet (vgl. Kollek/Bora 2011), oder die Forderung nach einer »relationalen Anthropologie«, die »Materialität, Sozialität und Symbolisches symmetrisch zum Thema« macht (Beck 2008: 198 [Herv. i.O.]). In diesen neu entstehenden Feldern kommt der empirischen Wissenschaftsforschung mit ihrem praxiografischen Methodenarsenal eine wichtige Rolle zu. Ethnografische Wissenschaftsforscher können analysieren, welche neuen Ontologien in postgenomischen Laboren erzeugt werden. Sie können danach fragen, wie Laborwissen in die klinischen und gesellschaftlichen Alltage freigesetzt wird und welche Machtkonfigurationen es dort erzeugt. Und sie können nicht zuletzt analysieren, wie Patienten auf diese neuen Kontrollangebote reagieren, wie sich ihr Selbstbild verändert und welche neuen biosozialen Phänomene dadurch entstehen. Eine Praxisanalyse, die sich dem lebenswissenschaftlichen Wandel ernsthaft stellen will, kommt meines Erachtens aber nicht umhin, neben der politischen und empirisch-materiellen auch die theoretische Praxisdimension einzubeziehen. Nur so lässt sich etwa die Tragweite epigenetischer und systembiologischer Praktiken abschätzen, die Natur und Kultur, aber auch Theorie und Experiment neu miteinander verbinden. Wie die theoretische Analyse gezeigt hat, sind die »traces of continuity« (Fujimura 2005: 199) derzeit noch stark ausgeprägt: Die meisten biopsychosozialen Krankheitsmodelle sind immer noch das Produkt einer mechanistischen Epistemologie, die auf Manipulation, Dekomposition und Lokalisation – und damit letztlich Dekontextualisierung – der Phänomene ausgerichtet ist. Die biomedizinischen Rationalitäten haben sich bislang also nicht grundlegend verändert, sondern sie integrieren eine psychosoziale Einflusssphäre, die allerdings unkonkret bleibt. Ethnografische und theoretische Wissenschaftsforschung können im »Nachdenken über Zeit und Zufall, Ordnung und Werden« (Pickering 2007: 155) nicht nur voneinander profitieren, sondern es braucht den Brückenschlag, um weiterzukommen. Die Chancen für eine Überwindung der historisch begründeten Grabenkämpfe stehen gar nicht schlecht. Die Wissenschaftstheorie hat sich aus dem philosophischen Lehnstuhl erhoben und erkannt, dass Wissensproduktion immer

SCHLUSS | 293

auch Praxis ist. Im Gegenzug sollte die empirische Wissenschaftsforschung meines Erachtens ihren Kampf gegen genuin wissenschaftsphilosophische Fragestellungen ad acta legen. Sowohl Wissenschaftsforscher als auch Wissenschaftler sind konstant damit befasst, zu repräsentieren und sich mit den Repräsentationen anderer zu beschäftigen. Warum eigentlich sollte man diesen grundlegenden Aspekt wissenschaftlicher Aktivität nicht ernst nehmen? Ich meine, es sollte nicht darum gehen, das Repräsentationsidiom zu eliminieren, sondern Repräsentationen den gebührenden Platz zuzuweisen, der ihnen als wesentlicher Bestandteil der Wissenschaftspraxis zukommt. Mein Vorschlag im Anschluss an Pickering lautet, dieses freie Spiel als mangelartige Verwicklungen zwischen Wissen einerseits und »dem Tanz […] menschlicher und nicht-menschlicher Wirkungsmacht […]« (Pickering 2007: 90 [Herv. i.O.]) andererseits zu fassen. Wissenschaftler fordern das komplexe Treiben der Natur heraus, indem sie auf Dinge zugreifen, sie zurechtstutzen und in neue Zusammenhänge stellen. Sinn – der immer nur subjektiv, fragil und vorläufig sein kann – entsteht dann, wenn das, was sie tun, Konsequenzen hat, die im Einklang mit den epistemischen Strukturen stehen, die sie entwickeln. In diesem offenen »Suchprozess« (Pickering) treffen sie auf vielfältige, unvorhersehbare Widerstände, auf die sie wiederum auf vielfältige, unvorhersehbare Weise reagieren können – etwa durch theoretisches framing der materiellen Widerstände oder durch das finetuning des experimentellen Designs. Meine programmatisch ausgerichtete Studie hat hoffentlich einige Anregungen geliefert, wie Fragestellungen an der Schnittstelle zwischen empirischer und theoretischer Wissenschaftsforschung bearbeitet werden können. Wünschenswert wäre, dass eine integrative Analyse sowohl die ethnografische Beobachtung der Praxis als auch die theoretische Analyse der Modelle stärker vertieft, als in meinem Fall geschehen, um ein empirisch und theoretisch reichhaltigeres Bild zu zeichnen. Ich habe im ersten Kapitel dafür plädiert, dass man diesem »Abenteuer der Verzahnung von Eingreifen und Darstellen« am besten nach dem Vorbild eines multidisziplinären Eklektizismus auf den Grund gehen sollte, der nach einer Integration und nicht der Überwindung disziplinärer Zugänge strebt. Damit meine ich aber nicht, dass es sich die beteiligten Akteure in ihrem Spezialistentum gemütlich machen dürfen. Viel ist in den letzten Jahren über die Möglichkeiten und Grenzen interdisziplinärer Kooperationen geschrieben worden. Erfahrungen aus der Praxis zeigen, dass interdisziplinäre Begegnungen in der Regel nur dann erfolgreich sind, wenn die Bereitschaft besteht, eigene Konzepte und Methoden im Rahmen lokaler Grenzüberschreitungen einer selbstkritischen Reflexion zu unterziehen und sich fremden Methodologien und Epistemologien zu öffnen (vgl. Markowitsch/Welzer 2006). Um gemeinsames Terrain zu finden, muss die Phi-

294 | ZWISCHEN GEIST UND GEHIRN

losophie einen Wissensbegriff akzeptieren, der viel stärker historisiert und verkörpert ist, als ihn viele Wissenschaftsphilosophen derzeit vertreten. Die empirische Wissenschaftsforschung ist im Gegenzug aufgefordert, ihren Praxisbegriff stärker epistemisch-normativ zu deuten, als es mit dem derzeit vorherrschenden performativen Idiom möglich ist (vgl. Rouse 2001). Das resultierende Forschungsfeld bietet in seiner Heterogenität und Dynamik ein Pendant zu dem, dessen Erforschung es dient, und ich hoffe, dass es weiter wächst. Für die Zukunft kommt es darauf an, für derartige interdisziplinäre Konstellationen die notwendigen Forschungsimpulse zu generieren und die institutionellen Rahmenbedingungen zu verbessern. Also das Umfeld zu schaffen, in dem die disziplinären Forschungsperspektiven konvergieren und sich einspielen können, was immer noch am besten in der Praxis gelingt – statt in der bloßen Theorie.

Literatur

Abbott, A. (2007): »Model behaviour«, in: Nature 450, S. 6–7 Ackermann, R. (1989): »The new experimentalism«, in: The British Journal for the Philosophy of Science 40, S. 185 Alarcón, J. M. et al. (2004): »Chromatin acetylation, memory, and LTP are impaired in CBP+/- mice: a model for the cognitive deficit in Rubinstein-Taybi syndrome and its amelioration«, in: Neuron 42, S. 947–59 Albus, J. S. et al. (2007): »A proposal for a decade of the mind initiative«, in: Science 317, S. 1321 Alcock, J. (1999): »The myth of genetic determinism–again«, in: Behavioral and Brain Sciences 22, S. 885–886 Allen, G. E. (2005): »Mechanism, vitalism and organicism in late nineteenth and twentieth-century biology: the importance of historical context«, in: Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences 36, S. 261–283 Amann, K. (1994): »Menschen, Mäuse und Fliegen«, in: Hagner, M./ Rheinberger, H. J./Wahrig-Schmidt, B. (Hg.), Objekte, Differenzen, und Konjunkturen: Experimentalsysteme im historischen Kontext. Berlin: Akademie Verlag, S. 259–290 American Psychiatric Association (1980): Diagnostic and Statistical Manual of Mental Disorders (3rd. Edition). Washington, DC: American Psychiatric Association American Psychiatric Association (1994): Diagnostic and statistical manual of mental disorders (4th ed.). Washington, DC: American Psychiatric Association American Psychiatric Association (2000): Diagnostic and statistical manual of mental disorders (4th ed., text revision). Washington, DC: American Psychiatric Association

296 | ZWISCHEN GEIST UND GEHIRN

Amstadter, A./Nugent, N./Koenen, K. (2009): »Genetics of PTSD: fear conditioning as a model for future research«, in: Psychiatric Annals 39, S. 358– 367 Anagnostopoulos, A. et al. (2001): »Transgenic and knockout databases: behavioral profiles of mouse mutants«, in: Physiology & Behavior 73, S. 675–689 Andersen, P. (1997): »LTP–an exciting and continuing Saga«, in: Baudry, M./Davis, J. (Hg.), Long-term potentiation. Cambridge, MA: MIT Press, S. xiii–xvii Andersen, P. et al. (Hg.) (2000): Downward Causation: Minds, Bodies and Matter. Aarhus: Aarhus University Press Anderson, M. L. (2006): »Evidence for massive redeployment of brain areas in cognitive function«, in: Proceedings of the Cognitive Science Society 28, S. 24–29 Anderson, N. (1998): »Levels of analysis in health science. A framework for integrating sociobehavioral and biomedical research«, in: Annals of the New York Academy of Sciences 840, S. 563–576 Andorfer, C. et al. (2003): »Hyperphosphorylation and aggregation of tau in mice expressing normal human tau isoforms«, in: Journal of Neurochemistry 86, S. 582–590 Andreasen, N. C. (2003): »From molecule to mind: genetics, genomics, and psychiatry«, in: The American Journal of Psychiatry 160, S. 613–613 Andreasen, N. C. (2007): »DSM and the death of phenomenology in america: an example of unintended consequences«, in: Schizophrenia Bulletin 33, S. 108–112 Ankeny, R. A. (2007): »Wormy logic: model organisms as case-based reasoning.«, in: Creager A. N. H./Lunbeck, E./Wise, N. (Hg.), Science without Laws. Model Systems, Cases, Exemplary Narratives. Durham, NC: Duke University Press, S. 46–58 Armstrong, D. (1995): »The rise of surveillance medicine«, in: Sociology of Health & Illness 17, S. 393–404 Aronowitz, R. (2008): »Framing-Effekte für soziale Verteilungsmuster von Krankheit: ein unterschätzter Mechanismus«, in: Niewöhner, J./Kehl, C./Beck, S. (Hg.), Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft. Bielefeld: transcript Verlag, S. 171–194 Ashe, K. (2001): »Learning and memory in transgenic mice modeling Alzheimer’s disease«, in: Learning & Memory 8, S. 301–308 Ashe, K. (2005): »Mechanisms of memory loss in abeta and tau mouse models«, in: Biochemical Society Transactions 33, S. 591–594

L ITERATUR | 297

Ashe, K. H./Zahs, K. R. (2010): »Probing the biology of Alzheimer’s disease in mice«, in: Neuron 66, S. 631–45 Ballenger, J. (2006): Self, Senility, and Alzheimer’s Disease in Modern America: a History. Baltimore: The Johns Hopkins University Press Baltes, P./Reuter-Lorenz, P./Rösler, F. (Hg.) (2006a): »Lifespan development and the brain: the perspective of biocultural co-constructivism«. Cambridge: Cambridge University Press Baltes, P./Rösler, F./Reuter-Lorenz, P. A. (2006b): »Prologue: biocultural coconstructivism as a theoretical metascript«, in: Lifespan Development and the Brain: The Perspective of Biocultural Co-Constructivism. Cambridge: Cambridge University Press, S. 3–39 Bannerman, D. et al. (2004): »Regional dissociations within the hippocampus– memory and anxiety«, in: Neuroscience & Biobehavioral Reviews 28, S. 273–283 Barad, K. (1998): »Getting real: technoscientific practices and the materialization of reality«, in: Differences 10, S. 87–128 Barad, K. (2007): Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Durham, NC: Duke University Press Barinaga, E. (2009): »A performative view of language – methodological considerations and consequences for the study of culture«, in: Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 10 Bard, F. et al. (2000): »Peripherally administered antibodies against amyloid beta-peptide enter the central nervous system and reduce pathology in a mouse model of Alzheimer disease«, in: Nature Medicine 6, S. 916–919 Bartus, R. T. et al. (1982): »The cholinergic hypothesis of geriatric memory dysfunction«, in: Science 217, S. 408–414 Bassett, Susan S. et al. (2006): »Familial risk for Alzheimer’s disease alters fMRI activation patterns«, in: Brain 129, S. 1229–39 Baumann, K. et al. (1993): »Abnormal Alzheimer-like phosphorylation of tauprotein by cyclin-dependent kinases cdk2 and cdk5«, in: FEBS Letters 336, S. 417–24 Beattie, A. (2004): »Figures in an epigenetic landscape. Competing paradigms of complexity in epidemiology«, Lancaster University Complexity Network, http://www.lancs.ac.uk/ias/documents/complexity%20workshop/a%20b%20 figures%20in%20an%20epigenetic%20landscape%20d2.doc vom 26.3.2012 Bechtel, W. (2001): »The compatibility of complex systems and reduction: a case analysis of memory research«, in: Minds and Machines 11, S. 483–502

298 | ZWISCHEN GEIST UND GEHIRN

Bechtel, W. (2009): »The epistemology of evidence in cognitive neuroscience«, siehe http://mechanism.ucsd.edu/~bill/epist.evidence.bechtel.july2004.pdf vom 26.3.2012 Bechtel, W./Abrahamsen, A. (2005): »Explanation: A mechanist alternative«, in: Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences 36, S. 421–441 Bechtel, W./Richardson, R. (1993): Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research. Princeton, NJ: Princeton University Press Beck, S. (1997): Umgang mit Technik: kulturelle Praxen und kulturwissenschaftliche Forschungskonzepte. Berlin: Akademie Verlag Beck, S./Niewöhner, J. (2006): »Somatographic investigations across levels of complexity«, in: BioSocieties 1, S. 219–227 Beck, S. (2008): »Natur/Kultur. Überlegungen zu einer relationalen Anthropologie«, in: Zeitschrift für Volkskunde 104, S. 161–200 Beck, S./Niewöhner, J./Sørensen, E. (2012): Science and Technology Studies. Eine sozialanthropologische Einführung. Bielefeld: transcript Verlag Beer, M. D. (1996): »The dichotomies: psychosis/neurosis and functional/organic: a historical perspective«, in: History of Psychiatry 7, S. 231–55 Belliger, A./Krieger, D. J. (Hg.) (2006): ANThology: Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Bielefeld: transcript Verlag Bennett, E. L. et al. (1964): »Chemical and anatomical plasticity of brain changes in brain through experience, demanded by learning theories, are found in experiments with rats«, in: Science 146, S. 610–619 Bennett, E. L./Rosenzweig, M./Diamond, M. (1969): »Rat brain: effects of environmental enrichment on wet and dry weights«, in: Science 163, S. 825–826 Bennett, E. L. et al. (1974): »Effects of successive environments on brain measures.«, in: Physiology & Behavior 12, S. 621–631 Bentley, A. (1941): »The human skin: philosophy’s last line of defense«, in: Philosophy of Science 8, S. 1–19 Berardi, N. et al. (2007): »Environmental enrichment delays the onset of memory deficits and reduces neuropathological hallmarks in a mouse model of alzheimer-like neurodegeneration«, in: Journal of Alzheimer's Disease 11, S. 359–370 Bertram, L./Tanzi, R. E. (2008): »Thirty years of Alzheimer’s disease genetics: the implications of systematic meta-analyses«, in: Nature Reviews Neuroscience 9, S. 768–78 Bilder, R. M. et al. (2009): »Phenomics: the systematic study of phenotypes on a genome-wide scale«, in: Neuroscience 164, S. 30–42

L ITERATUR | 299

Billingsley, M./Kincaid, R. (1997): »Regulated phosphorylation and dephosphorylation of tau protein: effects on microtubule interaction, intracellular trafficking and neurodegeneration«, in: Biochemical Journal 323, S. 577–591 Blacker, D. et al. (2007): »Neuropsychological measures in normal individuals that predict subsequent cognitive decline«, in: Archives of Neurology 64, S. 862–871 Blass, R. et al. (2007): »The case against neuropsychoanalysis. On fallacies underlying psychoanalysis‹ latest scientific trend and its negative impact on psychoanalytic discourse«, in: International Journal of Psychoanalysis 88, S. 19–40 Blechert, J. et al. (2007): »Fear conditioning in posttraumatic stress disorder: evidence for delayed extinction of autonomic, experiential, and behavioural responses«, in: Behaviour Research and Therapy 45, S. 2019–2033 Bliss, T./Lømo, T. (1973): »Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path«, in: The Journal of Physiology 232, S. 331–356 Bliss, T./Lømo, T./Gardner-Medwin, A. (1973): »Synaptic plasticity in the hippocampal formation«, in: Macromolecules and Behaviour, S. 193–203 Bloor, D. (1991): Knowledge and social imagery. Zweite Auflage, Chicago: The University of Chicago Press Bloor, D. (1999a): »Anti-Latour«, in: Studies in the History and Philosophy of Science 30, S. 81–112 Bloor, D. (1999b): »Reply to Bruno Latour«, in: Studies in History and Philosophy of Science 30, S. 131–136 Bloor, D. (2002): Wittgenstein, rules and institutions. London: Routledge BMBF (Hg.) (2004): Der Kampf gegen das Vergessen. Demenzforschung im Fokus. Bonn/Berlin: Bundesministerium für Bildung und Forschung Bock, G. R./Goode, J. (Hg.) (1998): The Limits of Reductionism in Biology (Novartis Foundation Symposium: 213). Chichester u.a.: John Wiley & Sons, Bogen, J. (2001): »Functional imaging evidence: Some epistemic hot spots«, in: Machamer, P./Grush, R./McLaughlin, P. (Hg.), Theory and method in the neurosciences. Pittsburgh: University of Pittsburgh Press, S. 173–199 Bogner, A./Menz, W. (2001): »Deutungswissen und Interaktion: Zu Methodologie und Methodik des theoriegenerierenden Experteninterviews«, in: Soziale Welt 52, S. 477–500 Bolker, J. A. (1995): »Model systems in developmental biology«, in: BioEssays 17, S. 451–455 Bolton, D. (2009): »What is mental disorder?«, in: Psychiatry 8, S. 468–470

300 | ZWISCHEN GEIST UND GEHIRN

Boogerd, F. et al. (Hg.) (2007): Systems Biology: Philosophical Foundations. Amsterdam: Elsevier Boring, E. G. (1923): »Intelligence as the tests test it«, in: New Republic 35, S. 35–37 Böschen, S. (2009): »Kontexte der Forschung – Validierung von Wissen«, in: Halfmann, J./Schützenmeister, F. (Hg.), Organisationen der Forschung. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 92–119 Bourret, P. (2005): »BRCA patients and clinical collectives«, in: Social Studies of Science 35, S. 41 Bourret, P. et al. (2006): »A new clinical collective for french cancer genetics«, in: Science, Technology & Human Values 31, S. 431 Bowden, S. (2004): »The role of factor analysis in construct validity: is it a myth?«, in: Journal of the International Neuropsychological Society 10, S. 1018–9; author reply 1020–1021 Bowker, G. (1993): »How to be universal: Some cybernetic strategies, 1943-70«, in: Social Studies of Science 23, S. 107–127 Bowker, G./Star, S. L. (2005): Sorting Things Out: Classification and Its Consequences. Cambridge, MA: The MIT Press Braak, H./Braak, E. (1991a): »Alzheimer’s disease affects limbic nuclei of the thalamus«, in: Acta Neuropathologica 81, S. 261–268 Braak, H./Braak, E. (1991b): »Neuropathological stageing of Alzheimer-related changes«, in: Acta Neuropathologica 82, S. 239–259 Braak, H./Braak, E. (1998): »Evolution of neuronal changes in the course of Alzheimer’s disease«, in: Journal of Neural Transmission Suppl 53, S. 127– 140 Brand, M. et al. (2009): »Functional brain imaging in 14 patients with dissociative amnesia reveals right inferolateral prefrontal hypometabolism«, in: Psychiatry Research: Neuroimaging 174, S. 32–39 Brandeis, R./Brandys, Y./Yehuda, S. (1989): »The use of the Morris Water Maze in the study of memory and learning«, in: International Journal of Neuroscience 48, S. 29–69 Bredy, T. W./Barad, M. (2008): »The histone deacetylase inhibitor valproic acid enhances acquisition, extinction, and reconsolidation of conditioned fear«, in: Learning & Memory 15, S. 39–45 Bremner, J./Krystal, J./Southwick, S./Charney, D. (1995a): »Functional neuroanatomical correlates of the effects of stress on memory«, in: Journal of Traumatic Stress 8, S. 527–553

L ITERATUR | 301

Bremner, J. D. et al. (1995b): »MRI-based measurement of hippocampal volume in patients with combat-related posttraumatic stress disorder«, in: The American Journal of Psychiatry 152, S. 973–981 Bremner, J. D. et al. (1993): »Deficits in short-term memory in posttraumatic stress disorder«, in: The American Journal of Psychiatry 150, S. 1015–1019 Brewin, C./Andrews, B./Rose, S. (2003): »Diagnostic overlap between acute stress disorder and PTSD in victims of violent crime«, in: The American Journal of Psychiatry 160, S. 783–785 Brewin, C. R./Dalgleish, T./Joseph, S. (1996): »A dual representation theory of posttraumatic stress disorder«, in: Psychological Review 103, S. 670–686 Bridgman, P. W. (1961): The logic of modern physics. New York: Macmillan Broekman, B./Olff, M./Boer, F. (2007): »The genetic background to PTSD«, in: Neuroscience & Biobehavioral Reviews 31, S. 348–362 Bruggeman, F./Westerhoff, H./Boogerd, F. (2002): »Biocomplexity: a pluralist research strategy is necessary for a mechanistic explanation of the ›live‹ state«, in: Philosophical Psychology 15, S. 411–440 Bunge, M. (1979): Causality and Modern Science. Mineola, NY: Dover Publications Buresová, O. et al. (1985): »On-demand platform improves accuracy of the Morris water maze procedure«, in: Journal of Neuroscience Methods 15, S. 63– 72 Bürgy, M. (2008): »The concept of psychosis: historical and phenomenological aspects«, in: Schizophrenia Bulletin 34, S. 1200–10 Busse, A. et al. (2006): »Mild Cognitive Impairment: long-term course of four clinical subtypes«, in: Neurology 67, S. 2176–2185 Butcher, J. (2007): »The hunt for drugs to modify Alzheimer’s disease«, in: Lancet Neurology 6, S. 1038–1039 Calhoun, M. et al. (1998): »Neuron loss in APP transgenic mice«, in: Nature 395, S. 755–756 Callon, M. (1999): »Some elements of a sociology of translation. domestication of the scallops and the fishermen of St. Brieuc bay«, in: Biagioli, M. (Hg.), The Science Studies Reader. London: Routledge, S. 67–83 Callon, M. (2006): »Einige Elemente einer Soziologie der Übersetzung: Die Domestikation der Kammmuscheln und der Fischer der St. Brieuc-Bucht«, in: Belliger, A./Krieger, D. J. (Hg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Bielefeld: transcript Verlag, S. 135–174 Callon, M./Latour, B. (1992): »Don’t throw the baby out with the bath school! A reply to Collins and Yearley«, in: Pickering, A. (Hg.), Science as Practice and Culture. Chicago: The University of Chicago Press, S. 343–368

302 | ZWISCHEN GEIST UND GEHIRN

Calvert, J. (2008): »The commodification of emergence: systems biology, synthetic biology and intellectual property«, in: BioSocieties 3, S. 383–398 Cambrosio, A./Keating, P. (2004): »Does biomedicine entail the successful reduction of pathology to biology?«, in: Perspectives in Biology and Medicine 47, S. 357–371 Cambrosio, A. et al. (2009): »Genomic platforms and hybrid formations«, in: Atkinson, P./Glasner, P./Lock, M. (Hg.), Handbook of Genetics and Society. Mapping the New Genomic Era. London: Routledge Campbell, D. (1974): »Downward causation in hierarchically organized biological systems«, in: Ayala, F./Dobzhansky. T. (Hg.), Studies in the Philosophy of Biology. New York: Macmillan Press Canguilhem, G. (1991): The Normal and the Pathological. New York: Zone Books. Canguilhem, G. et al. (Hg.) (1994): A vital rationalist: selected writings from Georges Canguilhem. New York: Zone Books Cannon, W. (1929): »Organization for physiological homeostasis«, in: Physiological Reviews. 9, S. 399 Capecchi, M. R. (2007): Gene Targeting 1977 – Present. Nobelpreis-Rede vom 7.12.2007 Carcaillon, L. et al. (2009): »A subtest of the MMSE as a valid test of episodic memory? Comparison with the Free and Cued Reminding Test«, in: Dementia and Geriatric Cognitive Disorders 27, S. 429–38 Carroll, J. (1995): »Reflections on Stephen Jay Gould’s the mismeasure of man (1981): »A retrospective review«, in: Intelligence 21, S. 121–134 Cartwright, N. (2004): »Causation: one word, many things«, in: Philosophy of Science 71, S. 805–819 Cartwright, N./Shomar, T./Suarez, M. (1995): »The tool box of science tools for the building of models with a superconductivity example«, in: Herfel, W. E. et al. (Hg.), Theories and Models in Scientific Processes. Amsterdam: Editions Rodopi, S. 137–149 Caspi, A./Moffitt, T. (2006): »Gene-environment interactions in psychiatry: joining forces with neuroscience«, in: Nature Reviews Neuroscience. 7, S. 583– 590 Castellani, R. et al. (2006): »Neuropathology of Alzheimer disease: pathognomonic but not pathogenic«, in: Acta Neuropathologica (Berl) 111, S. 503– 509 Chartier-Harlin, M. et al. (1991): »Early-onset Alzheimer’s disease caused by mutations at codon 717 of the beta-amyloid precursor protein gene«, in: Nature 353, S. 844–846

L ITERATUR | 303

Chouliaras, L. et al. (2010): »Epigenetic regulation in the pathophysiology of Alzheimer’s disease«, in: Progress in Neurobiology 90, S. 498–510 Chu, J. A. (2010): »Posttraumatic stress disorder: Beyond DSM-IV«, in: American Journal of Psychiatry 167, S. 615–617 Church, D. M. et al. (2009): »Lineage-specific biology revealed by a finished genome assembly of the mouse«, in: PLoS Biol 7, S. e1000112 Churchland, P. M./Hooker, C. A. (Hg.) (1985): Images of science: essays on realism and empiricism, with a reply from Bas C. van Fraassen. Chicago: University of Chicago Press Clarke, A./Fujimura, J./Kay, L. (1992) (Hg.): The right tools for the job: at work in twentieth-century life sciences. Princeton, NJ: Princeton University Press Clayton, N./Salwiczek, L./Dickinson, A. (2007): »Episodic memory«, in: Current Biology 17, S. R189–91 Clayton, N. S. et al. (2001): »Elements of episodic-like memory in animals«, in: Philosophical Transactions of the Royal Society B: Biological Sciences 356, S. 1483–1491 Cleary, J. et al. (2005): »Natural oligomers of the amyloid-beta protein specifically disrupt cognitive function«, in: Nature Neuroscience 8, S. 79–84 Cohen, H. et al. (2006): »The contribution of an animal model toward uncovering biological risk factors for PTSD«, in: Annals of the New York Academy of Sciences 1071, S. 335–350 Cohen, H. et al. (2008): »Early post-stressor intervention with high-dose corticosterone attenuates posttraumatic stress response in an animal model of posttraumatic stress disorder«, in: Biological Psychiatry 64, S. 708–717 Cohen, H./Zohar, J. (2004): »An animal model of posttraumatic stress disorder: the use of cut-off behavioral criteria«, in: Annals of the New York Academy of Sciences 1032, S. 167–178 Cohen, L. (2000): No Aging in India: Alzheimer’s, the Bad Family, and other Modern Things. Berkeley: University of California Press Cohen, N./Eichenbaum, H. (1995): Memory, Amnesia, and the Hippocampal System. Cambridge, MA: The MIT Press Collin, F. (2011): »Andrew Pickering and the mangle of practice«, in: Science Studies as Naturalized Philosophy, Synthese Library 348, S. 147–165 Collingwood, R. (1940): Causation in practical natural science: an essay in metaphysics. Oxford: Clarendon Press Collins, H. (1975): »The seven sexes: a study in the sociology of a phenomenon, or the replication of experiments in physics«, in: Sociology 9, S. 205–224 Collins, H. (1981): »Son of seven sexes: the social destruction of a physical phenomenon«, in: Social Studies of Science 11, S. 33–62

304 | ZWISCHEN GEIST UND GEHIRN

Collins, H. (1992): Changing Order: Replication and Induction in Scientific Practice. Chicago: The University of Chicago Press Collins, H./Yearley, S. (1992): »Epistemological chicken«, in: Pickering, A. (Hg.), Science as Practice and Culture. Chicago: The University of Chicago Press, S. 301–26 Conrad, P. (1999): »A mirage of genes«, in: Sociology of Health & Illness 21, S. 228–241 Conway, M. A. (2001): »Sensory-perceptual episodic memory and its context: autobiographical memory«, in: Philosophical Transactions of the Royal Society B: Biological Sciences 356, S. 1375–84 Conway, M. A./Pleydell-Pearce, C. W. (2000): »The construction of autobiographical memories in the self-memory system«, in: Psychological Review 107, S. 261–288 Cook, D./Beckman, T. (2006): »Current concepts in validity and reliability for psychometric instruments: theory and application«, in: American Journal of Medicine 119, S. 166.e7–166.16 Cooke, S. F./Bliss, T. V. (2006): »Plasticity in the human central nervous system«, in: Brain 129, S. 1659–1673 Corkin, S. (2002): »What’s new with the amnesic patient H.M.?«, in: Nature Reviews Neuroscience. 3, S. 153–160 Corkin, S. et al. (1997): »H.M.’s medial temporal lobe lesion: findings from magnetic resonance imaging«, in: Journal of Neuroscience 17, S. 3964–3979 Crabbe, J./Wahlsten, D./Dudek, B. (1999): »Genetics of mouse behavior: interactions with laboratory environment«, in: Science 284, S. 1670–1672 Craver, C. (2002): »Interlevel experiments and multilevel mechanisms in the neuroscience of memory«, in: Philosophy of Science 69, S. 83–97 Craver, C. (2003): »The making of a memory mechanism«, in: Journal of the History of Biology 36, S. 153–195 Craver, C. (2005): »Beyond reduction: mechanisms, multifield integration and the unity of neuroscience«, in: Studies in History and Philosophy of Biologoical and Biomedical Sciences 36, S. 373–395 Craver, C. (2007): Explaining the Brain: Mechanisms and the mosaic unity of neuroscience. Oxford: Oxford University Press Craver, C./Darden, L. (2001): »Discovering mechanisms in neurobiology«, in: Theory and Method in the Neurosciences, S. 112–137 Crawley, J. (2007): What’s wrong with my mouse? Behavioral phenotyping of transgenic and knockout mice. Zweite Auflage, Hoboken, NJ: John Wiley & Sons

L ITERATUR | 305

Crawley, J. et al. (1997): »Behavioral phenotypes of inbred mouse strains: implications and recommendations for molecular studies«, in: Psychopharmacology (Berl) 132, S. 107–124 Cressey, D. (2010): »Fat rats skew research results«, in: Nature 464, S. 19 Crick, F. (1958): »On protein synthesis«, in: Symposia of the Society for Experimental Biology 12, S. 138–63 Crick, F. (1970): »Central dogma of molecular biology«, in: Nature 227, S. 561– 563 Cronbach, L./Meehl, P. (1955): »Construct validity in psychological tests«, in: Psychological Bulletin 52, S. 281–302 Cruz, J. et al. (2003): »Aberrant cdk5 activation by p25 triggers pathological events leading to neurodegeneration and neurofibrillary tangles«, in: Neuron 40, S. 471–483 Dalm, S. et al. (2000): »Quantification of swim patterns in the Morris water maze«, in: Behavior Research Methods, Instruments, & Computers 32, S. 134–139 Dalton, J. E./Pederson, S. L./Ryan, J. J. (1989): »Effects of post-traumatic stress disorder on neuropsychological test performance«, in: International Journal of Clinical Neuropsychology 11, S. 121–124 Dam, D. V./Deyn, P. D. (2006): »Drug discovery in dementia: the role of rodent models«, in: Nature Reviews Drug Discovery 5, S. 956–970 Danziger, K. (1990): Constructing the Subject: Historical Origins of Psychological Research. Cambridge: Cambridge University Press Danziger, K. (2008): Marking the Mind: a History of Memory. Cambridge: Cambridge University Press Daston, L. (1992): »Objectivity and the escape from perspective«, in: Social Studies of Science 22, S. 597–618 Daston, L./Galison, P. (1992): »The image of objectivity«, in: Representations, S. 81–128 Davidson, A. (1999): »Styles of reasoning, conceptual history, and the emergence of psychiatry«, in: Biagioli, M. (Hg.), The Science Studies Reader. London: Routledge, S. 124–136 Davidson, D. (1985): Handlung und Ereignis. Frankfurt/M.: Suhrkamp Davidson, D. (1986): Wahrheit und Interpretation. Frankfurt/M.: Suhrkamp Davidson, D. (1990): »Eine hübsche Unordnung von Epitaphen«, in: Schulte, J./Picardi, E. (Hg.), Die Wahrheit der Interpretation. Frankfurt/M.: Suhrkamp Davidson, D. (2004): Subjektiv, intersubjektiv, objektiv. Frankfurt/M.: Suhrkamp Davidson, D. (2006): Probleme der Rationalität. Frankfurt/M.: Suhrkamp

306 | ZWISCHEN GEIST UND GEHIRN

Davies, J. (2006): »The anthropology of aetiology«, in: Kalitzkus, V./Twohig, P. L. (Hg.), Bordering Biomedicine. Amsterdam: Editions Rodopi BV Davis, M. (1986): »Pharmacological and anatomical analysis of fear conditioning using the fear-potentiated startle paradigm«, in: Behavioral Neuroscience 100, S. 814–824 Davis, M. (1989): Fear-Potentiated Startle as a Model System for Analyzing Learning and Memory (Annual report). New Haven: Yale University Debiec, J./Altemus, M. (2006): »Toward a new treatment for traumatic memories«, in: Cerebrum, S. 2–11 Debiec, J./LeDoux, J. (2006): »Noradrenergic signaling in the amygdala contributes to the reconsolidation of fear memory: treatment implications for PTSD«, in: Annals of the New York Academy of Sciences 1071, S. 521–524 Deisseroth, K. (2011): »Optogenetics«, in: Nature Methods 8, S. 26–29 Delacourte, A./Buee, L. (2005): »[Animal Models of Alzheimer’s Disease: a Road Full of Pitfalls]«, in: Psychologie & NeuroPsychiatrie du Vieillissement 3, S. 261–270 Delis, D. et al. (2003): »The myth of testing construct validity using factor analysis or correlations with normal or mixed clinical populations: lessons from memory assessment«, in: Journal of the International Neuropsychological Society 9, S. 936–946 Dennett, D. C. (1971): »Intentional systems«, in: The Journal of Philosophy 68, S. 87–106 Desgranges, B. et al. (1998): »The neural substrates of episodic memory impairment in Alzheimer’s disease as revealed by FDG-PET: relationship to degree of deterioration«, in: Brain 125, S. 1116–1124 Devanand, D. et al. (2007): »Hippocampal and entorhinal atrophy in mild cognitive impairment: prediction of Alzheimer disease«, in: Neurology 68, S. 828– 836 Dewey, J. (2008 [1938]): Logik: Die Theorie der Forschung. Frankfurt/M.: Suhrkamp Di Renzi, E. et al. (1997): »Is memory loss without anatomical damage tantamount to a psychogenic deficit? The case of pure retrograde amnesia«, in: Neuropsychologia 35, S. 781–94 Dickerson, B. C./Eichenbaum, H. (2010): »The episodic memory system: neurocircuitry and disorders«, in: Neuropsychopharmacology 35, S. 86–104 Dörner, K. (2004): »Posttraumatische Belastungsstörungen. Neues Fass im Gesundheitsmarkt«, in: Trauma und Berufskrankheit 6, S. 327–328 Draaisma, D. (2000): Metaphors of Memory: a History of Ideas About the Mind. Cambridge: Cambridge University Press

L ITERATUR | 307

Dubois, B. et al. (2007): »Research criteria for the diagnosis of Alzheimer’s disease: revising the NINCDS-ADRDA criteria«, in: Lancet Neurology 6, S. 734–746 Dudai, Y. (1989): The Neurobiology of Memory: Concepts, Findings, Trends. Oxford: Oxford University Press Duff, K./Suleman, F. (2004): »Transgenic mouse models of Alzheimer’s disease: how useful have they been for therapeutic development?«, in: Briefings in Functional Genomics and Proteomics 3, S. 47–59 Dumit, J. (2000): »When explanations rest: ›good-enough‹ brain science and the new sociomedical disorders«, in: Lock, M./Young, A./Cambrosio, A. (Hg.), Living and Working with the New Medical Technologies: Intersections of Inquiry. Cambridge: Cambridge University Press, S. 209–232 Dumit, J. (2002): »Drugs for life«, in: Molecular Interventions 2, S. 124–127 Dumit, J. (2003): »Is it me or my brain? Depression and neuroscientific facts«, in: Journal of Medical Humanities 24, S. 35–47 Dumit, J. (2004): Picturing Personhood: Brain Scans and Biomedical Identity. Princeton, NJ: Princeton University Press Dunlap, K. (1935): »The average animal«, in: Journal of Comparative Psychology 19, S. 1–3 Ebbinghaus, H. (1885): Über das Gedächtnis: Untersuchungen zur experimentellen Psychologic. Leipzig: Duncker and Humbolt Edelman, G. M./Gally, J. A. (2001): »Degeneracy and complexity in biological systems«, in: Proceedings of the National Academy of Sciences 98, S. 13763–13768 Ehlers, A./Clark, D. (2000): »A cognitive model of posttraumatic stress disorder«, in: Behaviour Research and Therapy 38, S. 319–345 Eichenbaum, H. (2000): »A cortical–hippocampal system for declarative memory«, in: Nature Reviews Neuroscience. 1, S. 41–50 Ellis, G. (2005): »Physics, complexity and causality«, in: Nature 435, S. 743– 743 Elzinga, B./Bremner, J. (2002): »Are the neural substrates of memory the final common pathway in posttraumatic stress disorder (PTSD)?«, in: Journal of Affective Disorders 70, S. 1–17 Engel, G. L. (1978): »The biopsychosocial model and the education of health professionals«, in: Annals of the New York Academy of the Sciences 310, S. 169–87 Eriksen, J./Janus, C. (2007): »Plaques, tangles, and memory loss in mouse models of neurodegeneration«, in: Behavioral Genetics 37, S. 79–100

308 | ZWISCHEN GEIST UND GEHIRN

Esch, T. (2008): »Vom Verhalten zu den Molekülen: Ein biopsychosoziomolekularer Zugang zu Stress- und Schmerzlinderung«, in: Niewöhner, J./Kehl, C./Beck, S. (Hg.), Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft. Bielefeld: transcript Verlag, S. 209–242 Esch, T. et al. (2002): »The role of stress in neurodegenerative diseases and mental disorders«, in: Neuroendocrinology Letters 23, S. 199–208 Evans, B. et al. (2009): »Long-term statin therapy and CSF cholesterol levels: implications for Alzheimer’s disease«, in: Dementia and Geriatric Cognitive Disorders 27, S. 519–524 Fani, N. et al. (2011): »Increased neural response to trauma scripts in posttraumatic stress disorder following paroxetine treatment: A pilot study«, in: Neuroscience Letters 491, S. 196–201 Feest, U. (2003): »Functional analysis and the autonomy of psychology«, in: Philosophy of Science 70, S. 937–948 Feest, U. (2005): »Operationism in psychology: What the debate is about, what the debate should be about«, in: Journal of the History of the Behavioral Sciences 41, S. 131–149 Feest, U. (2010): »Concepts as tools in the experimental generation of knowledge in cognitive neuropsychology«, in: Spontaneous Generations: A Journal for the History and Philosophy of Science 4, S. 173–190 Feest, U. (2009): »Remembering (short-term) memory: the death of an epistemic object?«, in: Sturm, T./Feest, U. (Hg.), What (good) is Historical Epistemology? (Preprint 386), Berlin: Max-Planck-Institut für Wissenschaftsgeschichte, S. 91–102 Feinberg, T. E./Farah, M. J. (2000): »A historical perspective on cognitive neuroscience«, in: Feinberg, T. E./Farah, M. J. (Hg.), Patient-based Approaches to Cognitive Neuroscience. Cambridge, MA: MIT Press, S. 3–20 Fields, S./Johnston, M. (2005): »Cell biology. Whither model organism research?«, in: Science 307, S. 1885–1886 Finke, C. (2005): Okulomotorische Untersuchungen zur Modulation visueller Aufmerksamkeit durch räumliches Arbeitsgedächtnis beim Menschen. Dissertation, Berlin Fischer, A. et al. (2003a): »Cdk5: a novel role in learning and memory«, in: Neurosignals 12, S. 200–208 Fischer, A. et al. (2003b): »CDK5 in the adult non-demented brain«, in: Current Drug Targets-CNS & Neurological Disorders 2, S. 375–381

L ITERATUR | 309

Fischer, A. et al. (2005): »Opposing roles of transient and prolonged expression of p25 in synaptic plasticity and hippocampus-dependent memory«, in: Neuron 48, S. 825–838 Fischer, A. et al. (2007): »Recovery of learning and memory is associated with chromatin remodelling«, in: Nature 447, S. 178–182 Fischer-Homberger, E. (1999): »Zur Medizingeschichte des Traumas«, in: Gesnerus 56, S. 260–294 Fisher, A./Hanin, I. (1986): »Potential animal models for senile dementia of Alzheimer’s type, with emphasis on AF64A-induced cholinotoxicity«, in: Annual Review of Pharmacology and Toxicology 26, S. 161–181 Fleck, L. (1980 [1935]): Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Frankfurt/M.: Suhrkamp Flier, W. M. van der/Scheltens, P. (2009): »Alzheimer disease: hippocampal volume loss and Alzheimer disease progression«, in: Nature Reviews Neurology 5, S. 361–362 Flower, M. J./Heath, D. (1993): »Micro-anatomo politics: Mapping the human genome project«, in: Culture, Medicine and Psychiatry 17, S. 27–41 Foa, E./Zinbarg, R./Rothbaum, B. (1992): »Uncontrollability and unpredictability in post-traumatic stress disorder: an animal model«, in: Psychological Bulletin 112, S. 218–238 Foa, E. B./Kozak, M. J. (1986): »Emotional processing of fear: exposure to corrective information«, in: Psychological Bulletin 99, S. 20–35 Foucault, M. (1978): Dispositive der Macht: Über Sexualität, Wissen und Wahrheit. Berlin: Merve Foucault, M. (1983): Der Wille zum Wissen. Sexualität und Wahrheit I. Frankfurt/M.: Suhrkamp Foucault, M. (1986): Archäologie des Wissens. Frankfurt/M.: Suhrkamp Foucault, M. (1988): Die Geburt der Klinik. Frankfurt/M.: Fischer Verlag Foucault, M. et al. (1993): Technologien des Selbst. Frankfurt/M.: Fischer Verlag Francis, P. et al. (1999): »The cholinergic hypothesis of Alzheimer’s disease: a review of progress«, in: Journal of Neurology, Neurosurgery & Psychiatry 66, S. 137–147 Freud, S. (1921): Jenseits des Lustprinzips. Leipzig/Wien/Zürich: Internationaler Psychoanalytischer Verlag Fujimura, J. (1992): »Crafting science: standardized packages, boundary objects, and ›translation‹«, in: Pickering, A. (Hg.), Science as Practice and Culture. Chicago: The University of Chicago Press, S. 168–211

310 | ZWISCHEN GEIST UND GEHIRN

Fujimura, J. (2005): »Postgenomic futures: translations across the machinenature border in systems biology«, in: New Genetics and Society 24, S. 195– 225 Fujimura, J./Chou, D. (1994): »Dissent in science: styles of scientific practice and the controversy over the cause of Aids«, in: Social Science & Medicine 38, S. 1017–1036 Gaffan, D. (1974): »Recognition impaired and association intact in the memory of monkeys after transection of the fornix«, in: Journal of Comparative & Physiological Psychology 86, S. 1100–1109 Gailus-Durner, V. et al. (2005): »Introducing the German Mouse Clinic: open access platform for standardized phenotyping«, in: Nature Methods 2, S. 403–404 Gaines, A. D. (1988): »Alzheimer’s disease in the context of black (Southern) culture«, in: Health Matrix 6, S. 33–38 Galison, P. (1999): »Trading zone. Coordinating action and belief«, in: Biagioli, M. (Hg.), The Science Studies Reader. London: Routledge, S. 137–160 Galison, P./Stump, D. (Hg.) (1996): The Disunity of Science: Boundaries, Contexts, and Power. Stanford, CA: Stanford University Press Galison, P. L. (1987): How Experiments End. Chicago: University of Chicago Press Gallagher, M./Colombo, P. J. (1995): »Ageing: the cholinergic hypothesis of cognitive decline«, in: Current Opinion in Neurobiology 5, S. 161–168 Games, D. et al. (1995): »Alzheimer-type neuropathology in transgenic mice overexpressing V717F beta-amyloid precursor protein«, in: Nature 373, S. 523–527 Gannett, L. (1998): Genetic Variation: Difference, Deviation, or Deviance? Unveröffentlichte Dissertation Gannett, L. (1999): »What’s in a cause? The pragmatic dimensions of genetic explanations«, in: Biology and Philosophy 14, S. 349–373 Gardiner, J. M. (2001): »Episodic memory and autonoetic consciousness: a firstperson approach«, in: Philosophical Transactions of the Royal Society B: Biological Sciences 356, S. 1351–61 Gardiner, J. M./Richardson-Klavehn, A. (2000): »Remembering and knowing«, in: Tulving, E./Craik, F. (Hg.), Oxford Handbook of Memory. Oxford: Oxford University Press Gatz, M. (2005): »Educating the brain to avoid dementia: can mental exercise prevent Alzheimer disease?«, in: PLoS Medicine 2, S. e7 Gatz, M. et al. (2006): »Role of genes and environments for explaining Alzheimer disease«, in: Archives of General Psychiatry 63, S. 168–174

L ITERATUR | 311

Gauthier, S./Touchon, J. (2005): »Mild Cognitive Impairment is not a clinical entity and should not be treated«, in: Archives of Neurology 62, S. 1164–6; discussion 1167 Gerlai, R. (2001): »Gene targeting: technical confounds and potential solutions in behavioral brain research«, in: Behavioural Brain Research 125, S. 13–21 Gilbertson, M. et al. (2002): »Smaller hippocampal volume predicts pathologic vulnerability to psychological trauma«, in: Nature Neuroscience 5, S. 1242– 1247 Gilbertson, M. W. et al. (2006): »Neurocognitive function in monozygotic twins discordant for combat exposure: relationship to posttraumatic stress disorder«, in: Journal of Abnormal Psychology 115, S. 484–495 Gillies, D. (2005): »An action-related theory of causality«, in: British Journal for the Philosophy of Science 56, S. 823–842 Gingras, Y. (1997): »The new dialectics of nature«, in: Social Studies of Science 27, S. 317 Ginsburg, B. E. (1992): »Muroid roots of behavior genetic research: A retrospective«, in: Techniques in the Behavioral and Neural Sciences 8, S. 3–14 Glenberg, A. (1997): »What memory is for: Creating meaning in the service of action«, in: Behavioral and Brain Sciences 20, S. 41–50 Glennan, S. (1996): »Mechanisms and the nature of causation«, in: Erkenntnis 44, S. 49–71 Glennan, S. (2002): »Rethinking mechanistic explanation«, in: Philosophy of Science 69, S. 342–353 Glenner, G./Wong, C. (1984): »Alzheimer’s disease and Down’s syndrome: sharing of a unique cerebrovascular amyloid fibril protein«, in: Biochemical and Biophysical Research Communications 122, S. 1131–1135 Glymour, C./Eberhardt, F. (2008): »Hans Reichenbach«, in: The Stanford Encyclopedia of Philosophy, siehe http://plato.stanford.edu/entries/reichenbach/ vom 7.2.2011 Goate, A. et al. (1991): »Segregation of a missense mutation in the amyloid precursor protein gene with familial Alzheimer’s disease«, in: Nature 349, S. 704–706 Goedert, M. et al. (1988): »Cloning and sequencing of the cDNA encoding a core protein of the paired helical filament of Alzheimer disease: identification as the microtubule-associated protein tau«, in: Proceedings of the National Academy of Sciences 85, S. 4051–4055 Gold, I./Stoljar, D. (1999): »A neuron doctrine in the philosophy of neuroscience«, in: Behavioral and Brain Sciences 22, S. 809–830

312 | ZWISCHEN GEIST UND GEHIRN

Goodrich-Hunsaker, N. J./Hopkins, R. O. (2010): »Spatial memory deficits in a virtual radial arm maze in amnesic participants with hippocampal damage«, in: Behavioral Neuroscience 124, S. 405–13 Gottesman, I./Gould, T. (2003): »The endophenotype concept in psychiatry: etymology and strategic intentions«, in: The American Journal of Psychiatry 160, S. 636–645 Götz, J. et al. (1995): »Somatodendritic localization and hyperphosphorylation of tau protein in transgenic mice expressing the longest human brain tau isoform«, in: EMBO Journal 14, S. 1304–1313 Gould, S. J. (1988): Der falsch vermessene Mensch. Frankfurt/M.: Suhrkamp Graf, P./Schacter, D. L. (1985): »Implicit and explicit memory for new associations in normal and amnesic subjects«, in: Journal of Experimental Psychology Learning Memory and Cognition 11, S. 501–18 Gräff, J./Mansuy, I. (2008): »Epigenetic codes in cognition and behaviour«, in: Behavioural Brain Research 192, S. 70–87 Gräff, J./Mansuy, I. (2009): »Epigenetic dysregulation in cognitive disorders«, in: Eur The Journal of Neuroscience 30, S. 1–8 Gräff, J. et al. (2012): »An epigenetic blockade of cognitive functions in the neurodegenerating brain«, in: Nature 483, S. 222–226 Gramelsberger, G. (2010): Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers. Bielefeld: transcript Verlag Green, J./Adey, W. (1956): »Electrophysiological studies of hippocampal connections and excitability«, in: Electroencephalography and Clinical Neurophysiology 8, S. 245 Greenspan, R. (1995): »Understanding the genetic construction of behavior«, in: Scientific American 272, S. 72–78 Griesemer, J. (1992): »The role of instruments in the generative analysis of science«, in: Clarke, A./Fujimura, J./Kay, L. E. (Hg.), The Right Tools for the Job: At Work in Twentieth-Century Life Sciences. Princeton, NJ: Princeton University Press Griesemer, J. (2002): »What is ›epi‹ about epigenetics?«, in: Annals of the New York Academy of Sciences 981, S. 97–110 Griffiths, D./Dickinson, A./Clayton, N. (1999): »Episodic memory: what can animals remember about their past?«, in: Trends in Cognitive Sciences 3, S. 74–80 Griffiths, D. P./Clayton, N. S. (2001): »Testing episodic memory in animals: a new approach«, in: Physiology & Behavior 73, S. 755–762 Griffiths, P./Knight, R. (1998): »What is the developmentalist challenge?«, in: Philosophy of Science 65, S. 253–258

L ITERATUR | 313

Griffiths, P. (2006): »The fearless vampire conservator: Philip Kitcher, genetic determinism and the informational gene«, in: Neumann-Held, E. M./Rehmann-Sutter, C. (Hg.), Genes in Development: Re-reading the Molecular Paradigm. Durham, NC: Duke University Press, S. 175–198 Griffiths, P./Stotz, K. (2006): »Genes in the postgenomic era«, in: Theoretical Medicine and Bioethics 27, S. 499–521 Grillon, C./Southwick, S./Charney, D. (1996): »The psychobiological basis of posttraumatic stress disorder«, in: Molecular Psychiatry 1, S. 278–297 Grundman, M. et al. (2004): »Mild cognitive impairment can be distinguished from Alzheimer disease and normal aging for clinical trials«, in: Archives of Neurology 61, S. 59–66 Habib, R./Nyberg, L./Tulving, E. (2003): »Hemispheric asymmetries of memory: the HERA model revisited«, in: Trends in Cognitive Sciences 7, S. 241–245 Hacking, I. (1988): »The participant irrealist at large in the laboratory«, in: The British Journal for the Philosophy of Science 39, S. 277–294 Hacking, I. (1992a): »The self-vindication of the laboratory sciences«, in: Pickering, A. (Hg.), Science as Practice and Culture. Chicago: The University of Chicago Press Hacking, I. (1992b): »Statistical language, statistical truth and statistical reason: the self-authentification of a style of scientific reasoning«, in: McMullin, E. (Hg.), Social Dimensions of Science. Notre Dame: Notre Dame University Press, S. 130–157 Hacking, I. (1992c): »›Style‹ for historians and philosophers«, in: Studies in History and Philosophy of Science 23, S. 1–20 Hacking, I. (1994): »Memoro-politics, trauma and the soul«, in: History of the Human Sciences 7, S. 29 Hacking, I. (1995): Rewriting the Soul: Multiple Personality and the Sciences of Memory. Princeton, NJ: Princeton University Press Hacking, I. (1996a): Einführung in die Philosophie der Naturwissenschaften. Stuttgart: Reclam Hacking, I. (1996b): »Les alienes voyageurs: how fugue became a medical entity«, in: History of Psychiatry 7, S. 425–49 Hacking, I. (1996c): »Memory sciences, memory politics«, in: Antze, M./Lambek, M. (Hg.), Tense Past. Cultural Essays in Trauma and Memory. London: Routledge, S. 67–88 Hacking, I. (1999a): »Making up people«, in: Biagioli, M. (Hg.), The Science Studies Reader. London: Routledge, S. 161–171 Hacking, I. (1999b): Was heißt soziale Konstruktion? Frankfurt/M.: Fischer

314 | ZWISCHEN GEIST UND GEHIRN

Hacking, I. (2001): Multiple Persönlichkeit. Zur Geschichte Der Seele in Der Moderne. Frankfurt/M.: Fischer Hacking, I. (2004): Historical Ontology. Cambridge: Harvard University Press Hagner, M. (1994): »Lokalisation, Funktion, Cytoarchitektonik. Wege zur Modellierung des Gehirns«, in: Hagner, M./Rheinberger, H./Wahrig-Schmidt, B. (Hg.), Objekte, Differenzen und Konjunkturen: Experimentalsysteme im historischen Kontext. Berlin: Akademie Verlag Hagner, M. (2008): Homo cerebralis: der Wandel vom Seelenorgan zum Gehirn. Frankfurt/M.: Suhrkamp Hagner, M./Rheinberger, H./Wahrig-Schmidt, B. (Hg.) (1994): Objekte, Differenzen und Konjunkturen: Experimentalsysteme im historischen Kontext. Berlin: Akademie Verlag Hall, M.-H./Smoller, J. W. (2010): »A new role for endophenotypes in the GWAS era: functional characterization of risk variants«, in: Harvard Review of Psychiatry 18, S. 67–74 Hall, W./Carter, A. (2007): »Debunking alarmist objections to the pharmacological prevention of PTSD«, in: The American Journal of Bioethics 7, S. 23–25 Hampel, H. et al. (2009): »Biological markers of amyloid beta-related mechanisms in Alzheimer’s disease«, in: Experimental Neurology 223, S. 334–46 Haraway, D. (1997): Modest_Witness@Second_Millennium.FemaleMan_ Meets_OncoMouse: Feminism and Technoscience. London: Routledge Hardcastle, V. (1996): How to Build a Theory in Cognitive Science. Albany, NY: State University of New York Press Hardcastle, V./Stewart, C. (2002): »What do brain data really show?«, in: Philosophy of Science 69, S. S72–S82 Hardy, J. (2006): »Alzheimer’s disease: the amyloid cascade hypothesis: »an update and reappraisal«, in: Journal of Alzheimer's Disease 9, S. 151–153 Hardy, J./Allsop, D. (1991): »Amyloid deposition as the central event in the aetiology of Alzheimer’s disease«, in: Trends in Pharmacological Sciences 12, S. 383–388 Hardy, J./Higgins, G. (1992): »Alzheimer’s disease: the amyloid cascade hypothesis«, in: Science 256, S. 184–185 Harrington, A. (2002): Die Suche nach Ganzheit. Hamburg: Rowohlt Hartmann, A. (1994): »Die Fiktion vom semantischen Vakuum. Zum psychologischen Gedächtnisexperiment der Jahrhundertwende«, in: Hagner, M./Rheinberger, H./Wahrig-Schmidt, B. (Hg.), Objekte, Differenzen, und Konjunkturen: Experimentalsysteme im historischen Kontext. Berlin: Akademie Verlag

L ITERATUR | 315

Harvey, A. G./Bryant, R. A. (1999): »A qualitative investigation of the organization of traumatic memories«, in: British Journal of Clinical Psychology 38, S. 401–405 Hassard, J./Law, J. (Hg.) (1999): Actor Network Theory and After. Oxford: Blackwell Hausman, D. M./Woodward, J. (1999): »Independence, invariance and the causal Markov condition«, in: The British Journal for the Philosophy of Science 50, S. 521 Hebb, D. (1949): The Organization of Behavior: A Neuropsychological Theory. New York: Wiley Hedgecoe, A. (2006): »Pharmacogenetics as alien science: Alzheimer’s Disease, core sets and expectations«, in: Social Studies of Science 36, S. 723 Hempel, C. G. (1965): »Fundamentals of taxonomy«, in: Hempel, C. G. (Hg.), Aspects of Scientific Explanation and Other Essays in the Philosophy of Science. New York: Free Press, S. 137–54 Hempel, C. G./Oppenheim, P. (1948): »Studies in the logic of explanation«, in: Philosophy of Science 15, S. 135–175 Henry, M./Fishman, J./Youngner, S. (2007): »Propranolol and the prevention of post-traumatic stress disorder: is it wrong to erase the sting of bad memories?«, in: The American Journal of Bioethics 7, S. 12–20 Hock, C. et al. (2003): »Antibodies against beta-amyloid slow cognitive decline in Alzheimer’s Disease«, in: Neuron 38, S. 547–554 Hollander, C./Mos, J. (1986): »The old animal as a model in research on brain aging and Alzheimer’s disease/senile dementia of the Alzheimer type«, in: Progress in Brain Research 70, S. 337–343 Holliday, R. (1979): »A new theory of carcinogenesis«, in: British Journal of Cancer 40, S. 513–22 Holmes, A. et al. (2002): »Behavioral profiles of inbred strains on novel olfactory, spatial and emotional tests for reference memory in mice«, in: Genes, Brain & Behavior 1, S. 55–69 Høstaker, R. (2005): »Latour – semiotics and science studies«, in: Science Studies 18, S. 5–25 Hoyningen-Huene, P. (1987): »On the varieties of the distinction between the context of discovery and the context of justification«, in: Studies in History and Philosophy of Science 18, S. 501–515 Hoyningen-Huene, P. (2006): »Context of discovery versus context of justification and Thomas Kuhn«, in: Revisiting Discovery and Justification, S. 119– 131

316 | ZWISCHEN GEIST UND GEHIRN

Hsiao, K. et al. (1996): »Correlative memory deficits, Abeta elevation, and amyloid plaques in transgenic mice«, in: Science 274, S. 99–102 Hull, D. L. (1982): »Philosophy and biology«, in: Floistad, G. (Hg.), Contemporary Philosophy: a New Survey. Philosophy of Science. The Hague: Martinus Nijhoff, S. 281 Hurst, J. L./West, R. S. (2010): »Taming anxiety in laboratory mice«, in: Nature Methods 7, S. 825–826 Hyman, S. (2007): »Can neuroscience be integrated into the DSM-V?«, in: Nature Reviews Neuroscience. 8, S. 725–732 Ibáñez, V./Deiber, M.-P. (2009): »Functional imaging in mild cognitive impairment and early Alzheimer’s disease: is it pertinent?«, in: Frontiers of Neurology and Neuroscience 24, S. 30–38 Ihle, J. N. (2000): »The challenges of translating knockout phenotypes into gene function«, in: Cell 102, S. 131–134 Isaac, C./Cushway, D./Jones, G. (2006): »Is posttraumatic stress disorder associated with specific deficits in episodic memory?«, in: Clin Psychological Review 26, S. 939–955 Ishii, N. et al. (2007): »Multiple high-throughput analyses monitor the response of E. coli to perturbations«, in: Science 316, S. 593–597 Jablonka, E. (2002): »Information: its interpretation, its inheritance, and its sharing«, in: Philosophy of Science 69, S. 578–605 Jablonka, E./Lamb, M. (2002): »The changing concept of epigenetics«, in: Annals of the New York Academy of Sciences 981, S. 82–96 Jack, C. R. et al. (1998): »Hippocampal atrophy and apolipoprotein E genotype are independently associated with Alzheimer’s disease«, in: Annals of Neurology 43, S. 303–10 Jack, C. R. et al. (2005): »Brain atrophy rates predict subsequent clinical conversion in normal elderly and amnestic MCI«, in: Neurology 65, S. 1227–31 Jacob, F. (1988): Die innere Statue. Zürich: Ammann Verlag Jang, H. et al. (2010): »Truncated beta-amyloid peptide channels provide an alternative mechanism for Alzheimer’s Disease and Down syndrome«, in: Proceedings of the National Academy of Sciences 107, S. 6538–43 Janus, C. et al. (2000): »A beta peptide immunization reduces behavioural impairment and plaques in a model of Alzheimer’s disease«, in: Nature 408, S. 979–982 Jelinek, L. et al. (2006): »Everyday memory functioning in obsessive- compulsive disorder«, in: Journal of the International Neuropsychological Society 12, S. 746–749

L ITERATUR | 317

Jenkins, J. (1979): »Four points to remember: A tetrahedral model of memory experiments«, in: Levels of processing in human memory, S. 429–446 Jeste, D. et al. (2006): »Research agenda for DSM-V: diagnostic categories and criteria for neuropsychiatric syndromes in dementia«, in: Journal of Geriatric Psychiatry and Neurology 19, S. 160–171 Jucker, M. (2010): »The benefits and limitations of animal models for translational research in neurodegenerative diseases«, in: Nature Medicine 16, S. 1210–1214 Kaati, G./Bygren, L. O./Edvinsson, S. (2002): »Cardiovascular and diabetes mortality determined by nutrition during parents and grandparents slow growth period«, in: European Journal of Human Genetics 10, S. 682–688 Kandel, E. R. (2006): »Psychotherapie und die einzelne Synapse«, in: Psychiatrie, Psychoanalyse und die neue Biologie des Geistes. Frankfurt/M.: Suhrkamp, S. 39–67 Kandel, E. (2008): Im Bann des Gedächtnisses: Die Entstehung einer neuen Biologie des Geistes. Wien: Picus Verlag Kang, J. et al. (1987): »The precursor of Alzheimer’s disease amyloid A4 protein resembles a cell-surface receptor«, in: Nature 325, S. 733–736 Kaplan-Solms, K./Solms, M. (2003): Neuro-Psychoanalyse: Eine Einführung mit Fallstudien. Stuttgart: Klett-Cotta Kapur, S. et al. (1994): »Neuroanatomical correlates of encoding in episodic memory: levels of processing effect«, in: Proceedings of the National Academy of Sciences 91, S. 2008–2011 Kardiner, A. (1941): The Traumatic Neuroses of War. Washington: National Research Council Karsten, S./Geschwind, D. (2005): »Exercise your amyloid«, in: Cell 120, S. 572–574 Katzman, R. et al. (1988): »Clinical, pathological, and neurochemical changes in dementia: a subgroup with preserved mental status and numerous neocortical plaques«, in: Annals of Neurology 23, S. 138–44 Kaufman, J./Poole, C. (2000): »Looking back on ›causal thinking in the health sciences‹«, in: Annual Review Of Public Health 21, S. 101–119 Kay, L. E./Rossler, G. (2005): Das Buch des Lebens. Frankfurt/M.: Suhrkamp Keating, P./Cambrosio, A. (2000): »Biomedical platforms«, in: Configurations 8, S. 337–387 Keating, P./Cambrosio, A. (2003): Biomedical Platforms: Realigning the Normal and the Pathological in Late-Twentieth-Century Medicine. Cambridge, MA: The MIT Press

318 | ZWISCHEN GEIST UND GEHIRN

Kehl, C. (2008): »Die Verdrängung der Verdrängung. Das Gedächtnis im Spannungsfeld biologischer und psychoanalytischer Deutungsmuster«, in: Niewöhner, J./Kehl, C./Beck, S. (Hg.), Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft. Bielefeld: transcript Verlag, S. 81–112 Kehl, C./Mathar, T. (2012): »Eine neue Wissenschaftssoziologie: Die Sociology of Scientific Knowledge und das Strong Programme«, in: Beck, S./Niewöhner, J./Sørensen, E. (Hg.), Science and Technology Studies. Eine sozialanthropologische Einführung. Bielefeld: transcript Verlag, S. 103–122 Keil, G. (2000): Handeln und Verursachen. Frankfurt/M.: Vittorio Klostermann Keller, E. F. (1992): »Critical silences in scientific discourse: problems of form and re-form«, in: Keller, E. F. (Hg.), Secrets of Life, Secrets of Death: Essays on Language, Gender, and Science. London: Routledge Keller, E. F. (2000): »Models of and models for: theory and practice in contemporary biology«, in: Philosophy of Science 67, S. 72–86 Keller, E. F. (2001): Das Jahrhundert des Gens. Frankfurt/M.: Campus Verlag Keller, E. F. (2006): »Is ›epigenetic inheritance‹ a contradiction in terms?« Vortragsmanuskript zur Tagung »Zwischen Vererbung erworbener Eigenschaften und Epigenetik« am Zentrum für Literatur- und Kulturforschung, Berlin, Februar 2006 Kellerman, N. P. (2001): »Psychopathology in children of Holocaust survivors: a review of the research literature«, in: Israel Journal of Psychiatry & Related Sciences 38, S. 36–46 Kempermann, G. (2006): »Adult neurogenesis«, in: Baltes, P./Reuter-Lorenz, P./Rösler, F. (Hg.), Lifespan development and the brain: the perspective of biocultural co-constructivism. Cambridge: Cambridge University Press Kempermann, G. et al. (2006): »Natural variation and genetic covariance in adult hippocampal neurogenesis«, in: Proceedings of the National Academy of Sciences 103, S. 780–785 Kempermann, G./Gast, D./Gage, F. (2002): »Neuroplasticity in old age: sustained fivefold induction of hippocampal neurogenesis by long-term environmental enrichment«, in: Annals of Neurology 52, S. 135–143 Kendler, K. (2005a): »A gene for: the nature of gene action in psychiatric disorders«, in: The American Journal of Psychiatry 162, S. 1243–1252 Kendler, K. (2005b): »Toward a philosophical structure for psychiatry«, in: The American Journal of Psychiatry 162, S. 433–440 Kendler, K. S./Neale, M. C. (2010): »Endophenotype: a conceptual analysis«, in: Molecular Psychiatry 15, S. 789–97

L ITERATUR | 319

Kida, Y./Sato, T. (2006): »Donepezil for severe Alzheimer’s disease«, in: Lancet 368, S. 361; author reply 362 Kim, D. et al. (2008): »Deregulation of HDAC1 by p25/Cdk5 in neurotoxicity«, in: Neuron 60, S. 803–17 Kim, J./Diamond, D. (2002): »The stressed hippocampus, synaptic plasticity and lost memories«, in: Nature Reviews Neuroscience 3, S. 453–462 Kincaid, H. (1990): »Molecular biology and the unity of science«, in: Philosophy of Science 57, S. 575–593 Kitano, H. (2002): »Systems biology: a brief overview«, in: Science 295, S. 1662–1664 Kitcher, P. (2009): »Epistemology without history is blind«, in: Sturm, Thomas/Feest, Uljana (Hg.), What (good) is Historical Epistemology? Berlin: Max-Planck-Institut für Wissenschaftsgeschichte Kitcher, P./Singh, R. (2001): »Battling the undead: how (and how not) to resist genetic determinism«, in: Singh, R. et al. (Hg.), Thinking about evolution: historical, philosophical, and political perspectives. Cambridge: Cambridge University Press Kleinman, A. (1980): Patients and Healers in the Context of Culture: An Exploration of the Borderland between Anthropology, Medicine, and Psychiatry. University of California Press Kliems, H. (2008): »Vita hyperactiva: ADHS als biosoziales Phänomen«, in: Niewöhner, J./Kehl, C./Beck, S. (Hg.), Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft. Bielefeld: transcript Verlag, S. 143–170 Knecht, M. (2012): »Ethnographische Praxis im Feld der Wissenschafts-, Medizin- und Technikanthropologie«, in: Beck, S./Niewöhner, J./Sørensen, E. (Hg.), Science and Technology Studies. Eine sozialanthropologische Einführung. Bielefeld: transcript Verlag, S. 245–274 Knierim, J. (2003): »Hippocampus and memory. Can we have our place and fear it too?«, in: Neuron 37, S. 372–374 Knorr-Cetina, K. (1984): Die Fabrikation von Wissen. Frankfurt/M.: Suhrkamp Knorr-Cetina, K. (1991): »Laborstudien. Der kultursoziologische Ansatz in der Wissenschaftsforschung«, in: Martinsen, R. (Hg.), Das Auge der Wissenschaft. Zur Emergenz von Realität. Baden-Baden: Nomos, S. 101–135 Knorr-Cetina, K. (1999): Epistemic Cultures: How the Sciences Make Knowledge. Cambridge, MA: Harvard University Press Knorr-Cetina, K. (2001): »Objectual practice«, in: Knorr-Cetina, K./Schatzki, T. R./ von Savigny, E. (Hg.), The Practice Turn in Contemporary Theory. London: Routledge, S. 175–188

320 | ZWISCHEN GEIST UND GEHIRN

Knorr-Cetina, K. (2002): Wissenskulturen. Frankfurt/M.: Suhrkamp Kolk, B. van der (1994): »The body keeps the score: memory and the evolving psychobiology of posttraumatic stress«, in: Harvard Review of Psychiatry 1, S. 253–265 Kolk, B. van der et al. (1985): »Inescapable shock, neurotransmitters, and addiction to trauma: toward a psychobiology of post traumatic stress«, in: Biological Psychiatry 20, S. 314–325 Kollek, R./Lemke, T. (2008): Der medizinische Blick in die Zukunft. Gesellschaftliche Implikationen prädiktiver Gentests. Frankfurt/M.: Campus Verlag Kollek, R./Bora, A. (2011). »Einleitung. Der Alltag der Biomedizin – Interdisziplinäre Perspektiven«, in: Dickel, S./Franzen, M./Kehl, C. (Hg.), Herausforderung Biomedizin – Gesellschaftliche Deutung und soziale Praxis. Bielefeld: transcript Verlag, S. 11–42 Kollek, R. et al. (2011): »Systembiologie: Implikationen für Wissenschaft und Gesellschaft«, in: Technikfolgenabschätzung – Theorie und Praxis 20, S. 60– 64 Kontopodis, M./Niewöhner, J. (Hg.) (2010): Das Selbst als Netzwerk: Zum Einsatz von Körpern und Dingen im Alltag. Bielefeld: transcript Verlag Kopelman, M. D. (2000): »Focal retrograde amnesia and the attribution of causality: An exceptionally critical view«, in: Cognitive Neuropsychology 17, S. 585–621 Korczyn, A. (2008): »The amyloid cascade hypothesis«, in: Alzheimer’s & Dementia: The Journal of the Alzheimer’s Association 4, S. 176–178 Kotilinek, L. et al. (2002): »Reversible memory loss in a mouse transgenic model of Alzheimer’s disease«, in: Journal of Neuroscience 22, S. 6331–6335 Kötter, R./Meyer, N. (1992): »The limbic system: a review of its empirical foundation«, in: Behavioural Brain Research 52, S. 105–27 Kötter, R./Stephan, K. E. (1997): »Useless or helpful? The ›limbic system‹ concept«, in: Reviews in the Neurosciences 8, S. 139–45 Krieger, N. (1994): »Epidemiology and the web of causation: has anyone seen the spider?«, in: Social Science & Medicine 39, S. 887–903 Krieger, N. (2001): »Theories for social epidemiology in the 21st century: an ecosocial perspective«, in: International Journal of Epidemiology 30, S. 668– 677 Kuhn, T. S. (1976): Die Struktur wissenschaftlicher Revolutionen. Frankfurt/M.: Suhrkamp Kukla, R. (2008): »Naturalizing objectivity«, in: Perspectives on Science 16, S. 285–302

L ITERATUR | 321

Kusch, M. (2010): »Hacking’s historical epistemology: a critique of styles of reasoning«, in: Studies in History and Philosophy of Science Part A De Laet, M. D./Mol, A. (2000): »The Zimbabwe bush pump: Mechanics of a fluid technology«, in: Social Studies of Science 30, S. 225–263 Lambert, J.-C. et al. (2010): »Implication of the immune system in Alzheimer’s disease: evidence from genome-wide pathway analysis«, in: Journal of Alzheimer’s Disease 20, S. 1107–18 Laney, C./Loftus, E. (2005): »Traumatic memories are not necessarily accurate memories«, in: Canadian Journal of Psychiatry 50, S. 823–828 Lanius, R. A. et al. (2010): »Emotion modulation in PTSD: Clinical and neurobiological evidence for a dissociative subtype«, in: American Journal of Psychiatry 167, S. 640–647 Larrabee, G. (2003): »Lessons on measuring construct validity: a commentary on Delis, Jacobson, Bondi, Hamilton, And Salmon«, in: Journal of the International Neuropsychological Society 9, S. 947–953 Lashley, K. S. (2000 [1950]): »In search of the engram«, in: Cummins, R./Cummins, D. D. (Hg.), Minds, Brains, Computers: The Foundations of Cognitive Science – An Anthology. Oxford: Blackwell Publishers, S. 333–350 Latour, B. (1986): »Visualization and cognition: thinking with hands and eyes«, in: Knowledge and Society: Studies in the Sociology of Culture, Past and Present 6, S. 1–40 Latour, B. (1987): Science in Action: How to follow Engineers and Scientists through Society. Cambridge, MA: Harvard University Press Latour, B. (1993): The Pasteurization of France. Cambridge, MA: Harvard University Press Latour, B. (1995): Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Frankfurt/M.: Suhrkamp Latour, B. (1998): »Über technische Vermittlung. Philosophie, Soziologie, Genealogie«, in: Rammert, W. (Hg.), Technik und Sozialtheorie. Frankfurt/M: Campus, S. 29–81 Latour, B. (1999a): »For David Bloor… and beyond: a reply to David Bloor’s ›Anti-Latour‹«, in: Studies in the History and Philosophy of Science 30, S. 113–129 Latour, B. (1999b): »One more turn after the social turn«, in: Biagioli, M. (Hg.), The Science Studies Reader. London: Routledge, S. 276–289 Latour, B. (1999c): Pandora’s hope: essays on the reality of science studies. Cambridge, MA: Harvard University Press

322 | ZWISCHEN GEIST UND GEHIRN

Latour, B. (2001): Das Parlament der Dinge: Für eine politische Ökologie. Frankfurt/M.: Suhrkamp Latour, B./Woolgar, S. (1986): Laboratory Life: the Construction of Scientific Facts. Zweite Auflage, Princeton, NJ: Princeton University Press Lattal, K. M./Barrett, R. M./Wood, M. A. (2007): »Systemic or intrahippocampal delivery of histone deacetylase inhibitors facilitates fear extinction«, in: Behavioral Neuroscience 121, S. 1125–31 Laudel, G./Gläser, J. (2004): The Sociological Description of Non-social Conditions of Research, REPP Discussion Paper. Canberra: Research Evaluation and Policy Project Laudel, G./Gläser, J. (2007): »Interviewing scientists«, in: Science, Technology & Innovation Studies 3, S. 91–111 Law, J. (2006): »After method: mess in social science research«. London: Routledge Law, J. (2007): »Actor network theory and material semiotics« (Version vom 25. April 2007), siehe http://www.heterogeneities.net/publications/Law2007 ANTandMaterialSemiotics.pdf vom 25.10.2010 Law, J./Mol, A. (2001): »Situating technoscience: An inquiry into spatialities«, in: Society and Space 19, S. 609–621 Layton, B./Krikorian, R. (2002): »Memory mechanisms in posttraumatic stress disorder«, in: The Journal of Neuropsychiatry & Clinical Neurosciences 14, S. 254–261 Lazarov, O. et al. (2005): »Environmental enrichment reduces Abeta levels and amyloid deposition in transgenic mice«, in: Cell 120, S. 701–13 Lazebnik, Y. (2002): »Can a biologist fix a radio? Or, what I learned while studying apoptosis«, in: Cancer Cell 2, S. 179–182 LeDoux, J. (1993): »Emotional memory systems in the brain«, in: Behavioural Brain Research 58, S. 69–79 LeDoux, J. (2000): »Emotion circuits in the brain«, in: Annual Review of Neuroscience 23, S. 155–184 LeDoux, J. (2003a): »The emotional brain, fear, and the amygdala«, in: Cellular and Molecular Neurobiology 23, S. 727–738 LeDoux, J. (2003b): »The self: clues from the brain«, in: Annals of the New York Academy of Sciences 1001, S. 295–304 LeDoux, J. (2004): Das Netz der Gefühle: Wie Emotionen entstehen. München: Deutscher Taschenbuch Verlag Lee, H. et al. (2004): »Challenging the amyloid cascade hypothesis: senile plaques and amyloid-ß as protective adaptations«, in: Annals of the New York Academy of Sciences 1019, S. 1–4

L ITERATUR | 323

Lee, H. et al. (2006): »Amyloid-beta: the alternate hypothesis«, in: Current Alzheimer Research 3, S. 75–80 Lee, H. et al. (2007): »Amyloid-beta in Alzheimer Disease: the null versus the alternate hypotheses«, in: Journal of Pharmacology and Experimental Therapeutics 321, S. 823–829 Lee, V. (2001): »Biomedicine. Tauists and beta-aptists united–well almost!«, in: Science 293, S. 1446–1447 Legewie, H. (1995): »Im Gespräch: Anselm Strauss«, in: Journal für Psychologie 3, S. 64–75 Leibing, A. (2002): »Flexible hips? On Alzheimer’s disease and aging in Brazil«, in: Journal of Cross-Cultural Gerontology 17, S. 213–232 Leibing, A./Cohen, L. (2006) (Hg.): Thinking about Dementia: Culture, Loss, and the Anthropology of Senility (Studies in Medical Anthropology). New Brunswick: Rutgers University Press Leibold, C. et al. (2008): »Temporal compression mediated by short-term synaptic plasticity«, in: Proceedings of the National Academy of Sciences 105, S. 4417–22 Lemke, T. (2003): »Molekulare Medizin? Anmerkungen zur Ausweitung und Redefinition des Konzepts der genetischen Krankheit«, in: Prokla. Zeitschrift für kritische Sozialwissenschaft 33, S. 471–492 Lesné, S. et al. (2006): »A specific amyloid-beta protein assembly in the brain impairs memory«, in: Nature 440, S. 352–357 Lesné, S./Kotilinek, L./Ashe, K. (2008): »Plaque-bearing mice with reduced levels of oligomeric amyloid-beta assemblies have intact memory function«, in: Neuroscience 151, S. 745–749 Levenson, J./Sweatt, J. (2005): »Epigenetic mechanisms in memory formation«, in: Nature Reviews Neuroscience. 6, S. 108–118 Levenson, J. M. et al. (2004): »Regulation of histone acetylation during memory formation in the hippocampus«, in: Journal of Biological Chemistry 279, S. 40545–59 Lewis, D. K. (2001): Counterfactuals. New York: Wiley-Blackwell Lewis, J. et al. (2000): »Neurofibrillary tangles, amyotrophy and progressive motor disturbance in mice expressing mutant (P301L) tau protein«, in: Nature Genetics 25, S. 402–405 Lewontin, R./Rose, S./Kamin, L. (1984): Not in our Genes: Biology, Ideology, and Human Nature. New York: Pantheon Books Leys, R. (2000): Trauma: A Genealogy. Chicago: University of Chicago Press Liberzon, I./Garfinkel, S. N. (2009): »Functional neuroimaging in post-traumatic stress disorder«, in: Shiromani, P. J./Keane, T. M./LeDoux, J. (Hg.), Post-

324 | ZWISCHEN GEIST UND GEHIRN

Traumatic Stress Disorder: Basic Science and Clinical Practice. Totowa, NJ: Humana Press, S. 297–318 Liberzon, I. et al. (1999): »Differential regulation of hippocampal glucocorticoid receptors mRNA and fast feedback: relevance to post-traumatic stress disorder«, in: Journal of Neuroendocrinology 11, S. 11–17 Liberzon, I./Martis, B. (2006): »Neuroimaging studies of emotional responses in PTSD«, in: Annals of the New York Academy of Sciences 1071, S. 87–109 Lindner, M. D. et al. (1997): »Blind rats are not profoundly impaired in the reference memory Morris water maze and cannot be clearly discriminated from rats with cognitive deficits in the cued platform task«, in: Cognitive Brain Research 5, S. 329–333 Lisman, J./Lichtman, J. W./Sanes, J. R. (2003): »LTP: perils and progress«, in: Nature Reviews Neuroscience 4, S. 926–929 Lock, M. (2005): »Eclipse of the gene and the return of divination«, in: Current Anthropology 46, S. S47–S70 Lock, M. (2006): »The molecularized mind and the search for incipient dementia«, in: Sciences Sociales et Santé 24, S. 21–56 Lock, M. (2008): »Verführt von Plaques und Tangles«, in: Niewöhner, J./Kehl, C./Beck, S. (Hg.), Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft. Bielefeld: transcript Verlag, S. 55–80 Lock, M./Kaufert, P. (2001): »Menopause, local biologies, and cultures of aging«, in: American Journal of Human Biology 13, S. 494–504 Lockhart, R. (2000): »Methods of memory research«, in: Craik, F./Tulving, E. (Hg.), The Oxford Handbook of Memory. Oxford: Oxford University Press Loftus, E. (1993): »The reality of repressed memories«, in: American Psychologist 48, S. 518–537 Loftus, E. (2004): »The memory wars«, in: Science & Spirit 15, S. 28–34 Loftus, E./Ketcham, K. (1994): The Myth of Repressed Memory: False Memories and Allegations of Sexual Abuse. New York: St. Martin’s Griffin Logan, C. (1999): »The altered rationale for the choice of a standard animal in experimental psychology: Henry H. Donaldson, Adolf Meyer, and ›the‹ albino rat«, in: History of Psychology 2, S. 3–24 Logan, C. (2001): »›[A]re norway rats. things?‹: diversity versus generality in the use of albino rats in experiments on development and sexuality«, in: Journal of the History of Biology 34, S. 287–314 Logothetis, N. K. (2008): »What we can do and what we cannot do with fMRI«, in: Nature 453, S. 869–78

L ITERATUR | 325

Lubin, F. D./Roth, T. L./Sweatt, J. D. (2008): »Epigenetic regulation of BDNF gene transcription in the consolidation of fear memory«, in: The Journal of Neuroscience 28, S. 10576–86 Lucchelli, F./Muggia, S./Spinnler, H. (1998): »The syndrome of pure retrograde amnesia«, in: Cognitive Neuropsychiatry 3, S. 91–118 Lynch, M. (1988): »Sacrifice and the transformation of the animal body into a scientific object: laboratory culture and ritual practice in the neurosciences«, in: Social Studies of Science 18, S. 265–289 Lynch, M. (1994): »Representation is overrated: some critical remarks about the use of the concept of representation in science studies«, in: Configurations 2, S. 137–149 Lynch, M./Woolgar, S. (Hg.) (1990): Representation in Scientific Practice. Cambridge, MA: The MIT Press Maccioni, R. B. et al. (2010): »The revitalized tau hypothesis on Alzheimer’s disease«, in: Archives of Medical Research 41, S. 226–31 Machamer, P./Darden, L./Craver, C. (2000): »Thinking about mechanisms«, in: Philosophy of Science 67, S. 1–25 Mackie, J. L. (1980): The Cement of the Universe: A Study of Causation. Oxford: Clarendon Press MacLean, P. D. (1954): »The limbic system and its hippocampal formation«, in: Journal of Neurosurgery 11, S. 29–44 MacLean, P. D. (1952): »Some psychiatric implications of physiological studies on frontotemporal portion of limbic system (visceral brain)«, in: Electroencephalography & Clinical Neurophysiology 4, S. 407–418 Maei, H. R. et al. (2009): »What is the most sensitive measure of Water Maze probe test performance?«, in: Frontiers in Integrative Neuroscience 3 (Article 4), S. 1–9 Maercker, A. (2009): Posttraumatische Belastungsstörungen. Heidelberg: Springer Medizin Verlag Magri, F. et al. (2006): »Stress and dementia: the role of the hypothalamicpituitary-adrenal axis«, in: Aging Clinical and Experimental Research 18, S. 167– 170 Malakoff, D. (2000): »The rise of the mouse, biomedicines model mammal«, in: Science 288, S. 248–253 Malinow, R. (1998): »Silencing the controversy in LTP?«, in: Neuron 21, S. 1226–1227 Mancia, M. (2007): »On: the case against neuropsychoanalysis«, in: International Journal of Psychoanalysis 88, S. 1065–7; author reply S. 1068–70 Mandavilli, A. (2006): »The amyloid code«, in: Nature Medicine 12, S. 747–751

326 | ZWISCHEN GEIST UND GEHIRN

Mangialasche, F. et al. (2010): »Alzheimer’s disease: clinical trials and drug development«, in: Lancet Neurology 9, S. 702–16 Manis, J. P. (2007): »Knock out, knock in, knock down–genetically manipulated mice and the Nobel Prize«, in: The New England Journal of Medicine 357, S. 2426–2429 Mankoff, S. P. et al. (2004): »Lost in translation: obstacles to translational medicine«, in: Journal of Translational Medicine 2, S. 14 Mann, D./Yates, P./Marcyniuk, B. (1984): »Alzheimer’s presenile dementia, senile dementia of Alzheimer type and Down’s syndrome in middle age form an age related continuum of pathological changes«, in: Neuropathology and Applied Neurobiology 10, S. 185–207 Mannheim, K./Wolff, K. H. (Hg.) (1964): Wissenssoziologie: Auswahl aus dem Werk. Neuwied/Berlin: Luchterhand Manson, S. (2001): »Simplifying complexity: a review of complexity theory«, in: Geoforum 32, S. 405–414 Marashi, V. et al. (2003): »Effects of different forms of environmental enrichment on behavioral, endocrinological, and immunological parameters in male mice«, in: Hormones and Behavior 43, S. 281–92 Marcello, A. et al. (2009): »Reduced levels of IgM autoantibodies against Ntruncated pyroglutamate Abeta in plasma of patients with Alzheimer’s disease«, in: Neurobiology of Aging 32, S. 1379–1387 Marincola, F. (2003): »Translational medicine: A two-way road«, in: Journal of Translational Medicine 1, S. 1 Markesbery, W. R. (2010): »Neuropathologic alterations in mild cognitive impairment: a review«, in: Journal of Alzheimer's Disease 19, S. 221–228 Markowitsch, H. J. (1992): Intellectual Functions and the Brain: An Historical Perspective. Göttingen: Hogrefe & Huber Publishers Markowitsch, H. J. (1994): »The memory storehouse«, in: Trends in Neurosciences 17, S. 513–514 Markowitsch, H. J. (1999): »Functional neuroimaging correlates of functional amnesia«, in: Memory 7, S. 561–584 Markowitsch, H. J. (2002a): Dem Gedächtnis auf der Spur. Vom Erinnern und Vergessen. Darmstadt: Wissenschaftliche Buchgesellschaft Markowitsch, H. J. (2002b): »Functional retrograde amnesia–mnestic block syndrome«, in: Cortex 38, S. 651–654 Markowitsch, H. J. (2003): »Psychogenic amnesia«, in: Neuroimage 20 Suppl 1, S. S132–138 Markowitsch, H. J. et al. (1999): »Mnestic block syndrome«, in: Cortex 35, S. 219–230

L ITERATUR | 327

Markowitsch, H. J./Welzer, H. (2005): Das autobiographische Gedächtnis. Hirnorganische Grundlagen und biosoziale Entwicklung. Stuttgart: Klett-Cotta Markowitsch, H. J./Welzer, H. (2006): »Reichweiten und Grenzen interdisziplinärer Gedächtnisforschung«, in: Welzer, H./Markowitsch, H. J. (Hg.), Warum Menschen sich erinnern können: Fortschritte in der interdisziplinären Gedächtnisforschung. Stuttgart: Klett-Cotta Markowitsch, H. J./Siefer, W. (2007): Tatort Gehirn: auf der Suche nach dem Ursprung des Verbrechens. Frankfurt/M.: Campus Verlag Markram, H. (2006): »The blue brain project«, in: Nature Reviews Neuroscience. 7, S. 153–160 Marsella, A./Friedman, M. J./Spain, E. H. (Hg.) (1996): Ethnocultural Aspects of Posttraumatic Stress Disorder: Issues, Research, and Clinical Applications. Washington, DC: American Psychological Association Marx, J. (2005a): »Alzheimer’s disease. Play and exercise protect mouse brain from amyloid buildup«, in: Science 307, S. 1547 Marx, J. (2005b): »Neuroscience. Preventing Alzheimer’s: a lifelong commitment?«, in: Science 309, S. 864–866 Masters, C. et al. (1985): »Amyloid plaque core protein in Alzheimer disease and Down syndrome«, in: Proceedings of the National Academy of Sciences 82, S. 4245–4249 Maurer, K./Maurer, U. (1998): Alzheimer: das Leben eines Arztes und die Karriere einer Krankheit. München: Piper Verlag Mathar, T. (2010): Der digitale Patient: Zu den Konsequenzen eines technowissenschaftlichen Gesundheitssystems. Bielefeld: transcript Verlag Mathar, T. (2012): »Akteur-Netzwerk-Theorie«, in: Beck, S./Niewöhner, J./Sørensen, E. (Hg.), Science and Technology Studies. Eine sozialanthropologische Einführung. Bielefeld: transcript Verlag, S. 173–190 Mayes, R./Horwitz, A. V. (2005): »DSM-III and the revolution in the classification of mental illness«, in: Journal of the History of the Behavioral Sciences 41, S. 249–267 Mayo Clinic (2009): »Beyond the human genome. Meet the epigenome«, in: Mayo Clinic Health Letter 27, S. 4–5 Mayr, E. (1961): »Cause and effect in biology«, in: Science 134, S. 1501–1506 McEwen, B. (2000): »Allostasis and allostatic load: implications for neuropsychopharmacology«, in: Neuropsychopharmacology 22, S. 108–124 McEwen, B./Seeman, T. (1999): »Protective and damaging effects of mediators of stress. Elaborating and testing the concepts of allostasis and allostatic load«, in: Socioeconomic Status and Health in Industrial Nations 896, S. 30– 47

328 | ZWISCHEN GEIST UND GEHIRN

McGowan, P. O. et al. (2009): »Epigenetic regulation of the glucocorticoid receptor in human brain associates with childhood abuse«, in: Nature Neuroscience 12, S. 342–348 McGuinness, B. et al. (2009): »Statins for the prevention of dementia«, in: Cochrane Database of Systematic Reviews, S. CD003160 McKoon, G./Ratcliff, R./Dell, G. S. (1986): »A critical evaluation of the semantic-episodic distinction«, in: Journal of Experimental Psychology Learning Memory and Cognition 12, S. 295–306 McNally, R. (2005): »Troubles in traumatology«, in: Canadian Journal of Psychiatry 50, S. 815–816 McNally, R. (2006): »The expanding empire of posttraumatic stress disorder«, in: Medscape General Medicine 8, S. 9 Menzies, P./Price, H. (1993): »Causation as a secondary quality«, in: The British Journal for the Philosophy of Science 44, S. 187–203 Merton, R. (1973): The Sociology of Science: Theoretical and empirical Investigations. Chicago: University of Chicago Press Merton, R. K. (1968): Social Theory and Social Structure. New York: Free Press Miesenböck, G. (2009): »The optogenetic catechism«, in: Science 326, S. 395– 399 Milgram, N. et al. (2006): »Neuroprotective effects of cognitive enrichment«, in: Ageing Research Reviews 5, S. 354–369 Miller, C./Sweatt, J. (2007): »Covalent modification of DNA regulates memory formation«, in: Neuron 53, S. 857–869 Milner, B. (1998): »Brenda Milner«, in: Squire, L. R. (Hg.), The History of Neuroscience in Autobiography Bd. 2. San Diego: Academic Press, S. 276–305 Milner, B./Corkin, S./Teuber, H. (1968): »Further analysis of the hippocampal amnesic syndrome: »Fourteen year follow-up study of H.M.«, in: Neuropsychologia 6, S. 215–234 Mishkin, M. (1978): »Memory in monkeys severely impaired by combined but not by separate removal of amygdala and hippocampus«, in: Nature, S. 297– 298 Mitchell, S. (2008): Komplexitäten: Warum wir erst anfangen, die Welt zu verstehen. Frankfurt/M.: Suhrkamp Mohajeri, M. (2007): »The underestimated potential of the immune system in prevention of Alzheimer’s disease pathology«, in: BioEssays 29, S. 927–932 Mol, A. (1999): »Ontological politics. A word and some questions«, in: Law, J./Hassard, J. (Hg.), Actor Network Theory and After. Oxford: Blackwell Publishers

L ITERATUR | 329

Mol, A. (2000): »Pathology and the clinic: An ethnographic presentation of two atheroscleroses«, in: Lock, M./Young, A./Cambrosio, A. (Hg.), Living and Working with the New Medical Technologies. Intersections of Inquiry. Cambridge: Cambridge University Press Mol, A. (2002): The Body Multiple: Ontology in Medical Practice. Durham, NC: Duke University Press Mol, A. (2008): The Logic of Care. London: Routledge Mol, A./Law, J. (1994): »Regions, networks and fluids: Anaemia and social topology«, in: Social Studies of Science 24, S. 641–671 Mol, A./Law, J. (2002): »Complexities: an introduction«, in: Mol, A./Law, J. (Hg.), Complexities: social studies of knowledge practices. Durham, NC: Duke University Press, S. 1–22 Mondrzak, V. et al. (2007): »Trauma, causality and time: Some reflections«, in: The International Journal of Psychoanalysis 88, S. 463–474 Monod, J./Jacob, F. (1961): »General conclusions: Teleonomic mechanisms in cellular metabolism, growth, and differentiation«, in: Cold Spring Harbor Symposia on Quantitative Biology Bd. 26. Long Island, NY: Cold Spring Harbor Laboratory Press, S. 389–401 Moreira, T./Palladino, P. (2008): »Squaring the curve: The anatomo-politics of ageing, life and death«, in: Body & Society 14, S. 21 Morgan, D. (2011): »Immunotherapy for Alzheimer’s disease«, in: Journal of Internal Medicine 269, S. 54–63 Morgan, D. et al. (2000): »A beta peptide vaccination prevents memory loss in an animal model of Alzheimer’s disease«, in: Nature 408, S. 982–985 Morgan, H. et al. (2010): »EuroPhenome: a repository for high-throughput mouse phenotyping data«, in: Nucleic Acids Research 38, S. D577–85 Morgan, M. S./Morrison, M. (Hg.) (1999): Models as Mediators. Cambridge: Cambridge University Press Morris, R. (1984): »Developments of a water-maze procedure for studying spatial learning in the rat«, in: Journal of Neuroscience Methods 11, S. 47–60 Morris, R. (2001): »Episodic-like memory in animals: psychological criteria, neural mechanisms and the value of episodic-like tasks to investigate animal models of neurodegenerative disease«, in: Philosophical Transactions: Biological Sciences 356, S. 1453–1465 Morris, R. (2008): »Morris Water Maze«, in: Scholarpedia, siehe http://www.scholarpedia.org/article/Morris_water_maze vom 15.2.2011 Morris, R. et al. (1982): »Place navigation impaired in rats with hippocampal lesions«, in: Nature 297, S. 681–683

330 | ZWISCHEN GEIST UND GEHIRN

Moscovitch, M. et al. (2005): »Functional neuroanatomy of remote episodic, semantic and spatial memory: a unified account based on multiple trace theory«, in: Journal of Anatomy 207, S. 35–66 Moser, I. (2008): »Making Alzheimer’s disease matter. Enacting, interfering and doing politics of nature«, in: Geoforum 39, S. 98–110 Moss, L. (2002): »From representational preformationism to the epigenesis of openness to the world«, in: Annals of the New York Academy of Science 981, S. 219–230 Mottaghy, F. M. (2006): »Interfering with working memory in humans«, in: Neuroscience 139, S. 85–90 Mullan, M. et al. (1992): »A locus for familial early-onset Alzheimer’s disease on the long arm of chromosome 14, proximal to the alpha 1antichymotrypsin gene«, in: Nature Genetics 2, S. 340–342 Müller-Wille, S./Rheinberger, H. J. (2004): Heredity – the Production of an Epistemic Space (Preprint 276). Berlin: Max-Planck-Institut für Wissenschaftsgeschichte Murdoch, J. (2001): »Ecologising sociology: Actor-network theory, coconstruction and the problem of human exemptionalism«, in: Sociology 35, S. 111–133 Nagel, E./Hawkins, D. (1961): »The structure of science«, in: American Journal of Physics 29, S. 716 Nakashiba, T. et al. (2008): »Transgenic inhibition of synaptic transmission reveals role of CA3 output in hippocampal learning«, in: Science 319, S. 1260– 1264 Neale, S. (1999): »On representing«, in: Hahn, L. E. (Hg.), The Philosophy of Donald Davidson. Chicago: Open Court, S. 657–669 Neuron (1997): »Mutant mice and neuroscience: recommendations concerning genetic background. Banbury Conference on genetic background in mice«, in: Neuron 19, S. 755–759 Nicoll, J. A. R. et al. (2003): »Neuropathology of human Alzheimer disease after immunization with amyloid-beta peptide: a case report«, in: Nature Medicine 9, S. 448–52 Niewöhner, J. (2011): »Epigenetics: Embedded bodies and the molecularisation of biography and milieu«, in: BioSocieties, 6, S. 279–298 Niewöhner, J./Kehl, C./Beck, S. (Hg.) (2008): Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft. Bielefeld: transcript Verlag National Institutes of Health (2003): New Horizons in Health. Bethesda, MD: National Institutes of Health

L ITERATUR | 331

Nithianantharajah, J./Hannan, A. (2006): »Enriched environments, experiencedependent plasticity and disorders of the nervous system«, in: Nature Reviews Neuroscience. 7, S. 697–709 Nordberg, A. (2004): »PET imaging of amyloid in Alzheimer’s disease«, in: Lancet Neurology 3, S. 519–527 Nordberg, A. (2008): »Amyloid plaque imaging in vivo: current achievement and future prospects«, in: European Journal of Nuclear Medicine and Molecular Imaging 35 Suppl 1, S. S46–50 Novas, C./Rose, N. (2000): »Genetic risk and the birth of the somatic individual«, in: Economy and Society 29, S. 485–513 Novik, K. L. et al. (2002): »Epigenomics: genome-wide study of methylation phenomena«, in: Current Issues in Molecular Biology 4, S. 111–28 Nyberg, L./Cabeza, R./Tulving, E. (1996): »PET studies of encoding and retrieval: »The HERA model«, in: Psychonomic Bulletin and Review 3, S. 135–148 Oddo, S. et al. (2003): »Triple-transgenic model of Alzheimer’s disease with plaques and tangles: intracellular Abeta and synaptic dysfunction«, in: Neuron 39, S. 409–421 Okado, Yoko/Stark, Craig E. L. (2005): »Neural activity during encoding predicts false memories created by misinformation«, in: Learning & Memory 12, S. 3–11 O’Keefe, J. (1993): »Hippocampus, theta, and spatial memory«, in: Current Opinion in Neurobiology 3, S. 917–924 O’Keefe, J./Dostrovsky, J. (1971): »The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat«, in: Brain Research 34, S. 171–175 O’Keefe, J./Nadel, L. (1978): The Hippocampus as a Cognitive Map. Oxford: Clarendon Press Orgogozo, J. et al. (2003): »Subacute meningoencephalitis in a subset of patients with AD after Abeta42 immunization«, in: Neurology 61, S. 46–54 Ortega, F./Vidal, F. (2007): »Mapping the cerebral subject in contemporary culture«, in: Reciis-Electronic Journal of Communication Information & Innovation in Health 1, S. 255–259 Ozsolak, F. et al. (2009): »Direct RNA sequencing«, in: Nature 461, S. 814–818 Papassotiropoulos, A. et al. (2006): »Common Kibra alleles are associated with human memory performance«, in: Science 314, S. 475–478 Papez, J./Neylan, T. (1995): »A proposed mechanism of emotion«, in: Journal of Neuropsychiatry and Clinical Neurosciences 7, S. 102–112 Parker, W. (2009): »Does matter really matter? Computer simulations, experiments, and materiality«, in: Synthese 169, S. 483–496

332 | ZWISCHEN GEIST UND GEHIRN

Paylor, R. (2009): »Questioning standardization in science«, in: Nature Methods 6, S. 253–254 Pearl, J. (2000): Causality: Models, Reasoning, and Inference. Cambridge: Cambridge University Press Pearson, H. (2006): »Genetics: what is a gene?«, in: Nature 441, S. 399–401 Penfield, W. (1968): »Engrams in the human brain. Mechanisms of memory«, in: Proceedings of the Royal Society of Medicine 61, S. 831–40 Perry, E. (1986): »The cholinergic hypothesis–ten years on«, in: British Medical Bulletin 42, S. 63–69 Petersen, R. C. et al. (1999): »Mild cognitive impairment: clinical characterization and outcome«, in: Archives of Neurology 56, S. 303–308 Pickering, A. (1989): »Living in the material world: On realism and experimental practice«, in: Gooding, D./Pinch, T./Schaffer, S. (Hg.), The Uses of Experiment. Studies of Experimentation in the Natural Sciences. Cambridge: Cambridge University Press, S. 275–298 Pickering, A. (1990): »Knowledge, practice and mere construction«, in: Social Studies of Science 20, S. 682–729 Pickering, A. (1992a): »From science as knowledge to science as practice«, in: Pickering, A. (Hg.), Science as Practice and Culture. Chicago: University of Chicago Press, S. 1–26 Pickering, A. (Hg.) (1992b): Science as Practice and Culture. Chicago: The University of Chicago Press Pickering, A. (1995): The Mangle of Practice: Time, Agency, and Science. Chicago: University of Chicago Press Pickering, A. (1999): Constructing Quarks: A Sociological History of Particle Physics. Chicago: University of Chicago Press Pickering, A. (2007): Kybernetik und neue Ontologien. Berlin: Merve Pickersgill, M. (2009): »Between soma and society: neuroscience and the ontology of psychopathy«, in: BioSocieties 4, S. 45–60 Pievani, M. et al. (2011): »APOE4 is associated with greater atrophy of the hippocampal formation in Alzheimer’s disease«, in: Neuroimage 55, S. 909–919 Pimplikar, S. (2009): »Reassessing the amyloid cascade hypothesis of Alzheimer’s disease«, in: The International Journal of Biochemistry & Cell Biology 41, S. 1261–1268 Piolino, P./Desgranges, B./Eustache, F. (2009): »Episodic autobiographical memories over the course of time: cognitive, neuropsychological and neuroimaging findings«, in: Neuropsychologia 47, S. 2314–2329 Plomin, R./Defries, J. C./McClearn, G. E. (1990): Behavioral Genetics: A Primer. New York: WH Freeman

L ITERATUR | 333

Ploner, C. J. et al. (1999): »Errors of memory-guided saccades in humans with lesions of the frontal eye field and the dorsolateral prefrontal cortex«, in: Journal of Neurophysiology 82, S. 1086–90 Ploner, C. J. et al. (2000): »Lesions affecting the parahippocampal cortex yield spatial memory deficits in humans«, in: Cerebal Cortex 10, S. 1211–1216 Ploner, C. J. et al. (2005): »The prefrontal substrate of reflexive saccade inhibition in humans«, in: Biological Psychiatry 57, S. 1159–65 Polanyi, M./Brühmann, H. (1985): Implizites Wissen. Frankfurt/M.: Suhrkamp Pope, H. et al. (2007): »Is dissociative amnesia a culture-bound syndrome? findings from a survey of historical literature«, in: Psychological Medicine 37, S. 225–233 Popper, K. R. (1934): Logik der Forschung. Wien: Julius Springer Verlag Popper, K. R. (1959): The Logic of Scientific Discovery. London: Hutchinson Post, S. (2003): »The concept of Alzheimer disease in a hypercognitive society«, in: Whitehouse, P./Maurer, K./Ballenger, J. (Hg.), Concepts of Alzheimer Disease: Biological, Clinical, and Cultural Perspectives. Baltimore: The Johns Hopkins University Press, S. 245–256 Praag, H. van/Kempermann, G./Gage, F. (2000): »Neural consequences of environmental enrichment«, in: Nature Reviews Neuroscience 1, S. 191–198 Pray, L. (2004): »Epigenetics: Genome, meet your environment«, in: The Scientist 18, S. 14–20 Price, H. (2002): »Agency and probabilistic causality«, in: The British Journal for the Philosophy of Science 42, S. 157–176 Pugh, G. (2007): »On: the case against neuropsychoanalysis«, in: International Journal of Psychoanalysis 88, S. 1067–8; author reply 1068–70 Putnam, F. W. (1989): »Pierre Janet and modern views of dissociation«, in: Journal of Traumatic Stress 2, S. 413–429 De Quervain, D. et al. (2003): »A functional genetic variation of the 5-HT2a receptor affects human memory«, in: Nature Neuroscience 6, S. 1141–1142 De Quervain, D./Margraf, J. (2008): »Glucocorticoids for the treatment of posttraumatic stress disorder and phobias: a novel therapeutic approach«, in: European Journal of Pharmacology 583, S. 365–371 De Quervain, D./Papassotiropoulos, A. (2006): »Identification of a genetic cluster influencing memory performance and hippocampal activity in humans«, in: Proceedings of the National Academy of Sciences 103, S. 4270–4274 Rabinovici, G. D./Jagust, W. J. (2009): »Amyloid imaging in aging and dementia: testing the amyloid hypothesis in vivo«, in: Behavioural Neurology 21, S. 117–28

334 | ZWISCHEN GEIST UND GEHIRN

Rabinow, P. (2004): »Artifizialität und Aufklärung. Von der Soziobiologie zur Biosozialität«, in: Anthropologie der Vernunft: Studien zu Wissenschaft und Lebensführung. Frankfurt/M.: Suhrkamp Rabinow, P./Rose, N. (2006): »Biopower today«, in: BioSocieties 1, S. 195–217 Radde, R. et al. (2008): »The value of incomplete mouse models of Alzheimer’s disease«, in: European Journal of Nuclear Medicine and Molecular Imaging 35 Suppl 1, S. S70–74 Rader, K. (2004): Making Mice: Standardizing Animals for American Biomedical Research, 1900-1955. Princeton, NJ: Princeton University Press Rampon, C. et al. (2000): »Enrichment induces structural changes and recovery from nonspatial memory deficits in CA1 NMDAR1-knockout mice«, in: Nature Neuroscience 3, S. 238–44 Redish, A. (2001): »The hippocampal debate: are we asking the right questions?«, in: Behavioural Brain Research 127, S. 81–98 Redish, A. D. (1999): Beyond the Cognitive Map: From Place Cells to Episodic Memory. Cambridge, MA: The MIT Press Rees, T. (2010): »Being neurologically human today: Life and science and adult cerebral plasticity (an ethical analysis)«, in: American Ethnologist 37, S. 150–166 Refolo, L. et al. (2001): »A cholesterol-lowering drug reduces beta-amyloid pathology in a transgenic mouse model of Alzheimer’s disease«, in: Neurobiology of Disease 8, S. 890–899 Reichenbach, H. (2006 [1938]): Experience and Prediction: An Analysis of the Foundations and the Structure of Knowledge. Notre Dame, IN: University of Notre Dame Press Reischies, F. M./Bürker, B. S. (2005): »Leichte Kognitive Störung und Mild Cognitive Impairment«, in: Zeitschrift für Gerontopsychologie und Gerontopsychiatrie 18, S. 203–225 Reitz, C./Mayeux, R. (2009): »Endophenotypes in normal brain morphology and Alzheimer’s disease: a review«, in: Neuroscience 164, S. 174–190 Rheinberger, H. J. (1992): Experiment, Differenz, Schrift: Zur Geschichte epistemischer Dinge. Marburg: Basilisken-Presse Rheinberger, H. J. (1995): »Beyond nature and culture: a note on medicine in the age of molecular biology«, in: Science in Context 8, S. 249–263 Rheinberger, H. J. (1997): »Experimental complexity in biology: some epistemological and historical remarks«, in: Philosophy of Science 64, S. S245–S254 Rheinberger, H. J. (1999): »Reenacting history«, in: Studies in History and Philosophy of Science 30, S. 163–166

L ITERATUR | 335

Rheinberger, H. J. (2001): Experimentalsysteme und epistemische Dinge: Eine Geschichte der Proteinsynthese im Reagenzglas. Göttingen: Wallstein Verlag Rheinberger, H. J. (2005): »Gaston Bachelard and the notion of ›phenomenotechnique‹«, in: Perspectives on Science 13, S. 313–328 Rheinberger, H. J. (2007a): Historische Epistemologie zur Einführung. Hamburg: Junius Rheinberger, H. J. (2007b): »Man weiss nicht genau, was man nicht weiss«, in: Neue Zürcher Zeitung, 5. Mai Rheinberger, H. J./Müller-Wille, S. (2009): Das Gen im Zeitalter der Postgenomik: Eine wissenschaftshistorische Bestandsaufnahme. Frankfurt/M.: Suhrkamp Richter, S./Garner, J./Würbel, H. (2009): »Environmental standardization: cure or cause of poor reproducibility in animal experiments?«, in: Nature Methods 6, S. 257–261 Richter, S. H. et al. (2010): »Systematic variation improves reproducibility of animal experiments«, in: Nature Methods 7, S. 167–168 Ritchie, K./Touchon, J. (2000): »Mild Cognitive Impairment: Conceptual Basis and Current Nosological Status«, in: Lancet 355, S. 225–228 Rizzi, D./Pedersen, S. (1992): »Causality in medicine: towards a theory and terminology«, in: Theoretical Medicine and Bioethics 13, S. 233–254 Roediger, H. L. (1990): »Implicit memory: A commentary«, in: Bulletin of the Psychonomic Society 28, S. 373–380 Roediger, H. L. (2008): »Relativity of remembering: why the laws of memory vanished«, in: Annual Review of Psychology 59, S. 225–254 Roediger, H. L./Wertsch, J. (2008): »Creating a new discipline of memory studies«, in: Memory Studies 1, S. 9–22 Roediger, H. L./Marsh, E. J./Lee, S. C. (2002): »Kinds of memory«, in: Stevens Handbook of Experimental Psychology 2, S. 1–41 Roepstorff, A. (2002): »Transforming subjects into objectivity: an ›ethnography of knowledge‹ in a brain imaging laboratory«, in: FOLK 44, S. 145–170 Roepstorff, A./Bubandt, N. (2003): »General introduction. The critique of culture and the plurality of nature«, in: Imagining Nature. Practices of Cosmology and Identity, S. 9–30 Rorty, R. (1981): Der Spiegel der Natur: Eine Kritik der Philosophie. Frankfurt/M.: Suhrkamp Rorty, R. (1986): »Pragmatism, Davidson and truth«, in: LePore, E. (Hg.), Truth and Interpretation: Perspectives on the Philosophy of Donald Davidson, S. 338–68

336 | ZWISCHEN GEIST UND GEHIRN

Rorty, R. (1991): Objectivity, Relativism, and Truth. Cambridge: Cambridge University Press Rose, N. (1988): »Calculable minds and manageable individuals«, in: History of the Human Sciences 1, S. 179–200 Rose, N. (1992): »Engineering the human soul: analyzing psychological expertise«, in: Science in Context 5, S. 351–369 Rose, N. (1996): Inventing Our Selves: Psychiatry Power and Personhood. Cambridge: Cambridge University Press Rose, N. (2001): »The politics of life itself«, in: Theory, Culture & Society 18, S. 1–30 Rose, N. (2003): »Neurochemical selves«, in: Society 41, S. 46–59 Rose, S. (1982): Against Biological Determinism. London/New York: Allison & Busby Rose, S. (2011): »The need for a critical neuroscience: from neuroideology to neurotechnology«, in: Choudhury, S./Slaby, J. (Hg.), Critical Neuroscience: A Handbook of the Social and Cultural Contexts of Neuroscience. Oxford: Wiley-Blackwell, S. 53–66 Rosen, G./Lilienfeld, S. (2007): »Posttraumatic stress disorder: an empirical evaluation of core assumptions«, in: Clinical Psychology Review 28, S. 837– 868 Rosen, G./Spitzer, R./McHugh, P. (2008): »Problems with the post-traumatic stress disorder diagnosis and its future in DSM V«, in: British Journal of Psychiatry 192, S. 3–4 Rosen, G./Taylor, S. (2007): »Pseudo-PTSD«, in: Journal of Anxiety Disorders 21, S. 201–210 Rosenbaum, R. et al. (2005): »The case of K. C.: contributions of a memoryimpaired person to memory theory«, in: Neuropsychologia 43, S. 989–1021 Roskies, A. L. (2010): »Saving subtraction: A reply to Van Orden and Paap«, in: The British Journal for the Philosophy of Science 61, S. 635–665 Roth, T. L./Sweatt, J. D. (2009): »Regulation of chromatin structure in memory formation«, in: Current Opinion in Neurobiology 19, S. 336–42 Rothman, S. M./Mattson, Mark P. (2010): »Adverse stress, hippocampal networks, and Alzheimer’s disease«, in: NeuroMolecular Medicine 12, S. 56–70 Rouse, J. (1996): Engaging Science: How to Understand its Practices Philosophically. Ithaka, NY: Cornell University Press Rouse, J. (2001): »Two concepts of practices«, in: Schatzki, T/Knorr-Cetina, K. (Hg.), The Practice Turn in Contemporary Theory, S. 189–99 Russell, B. (1912): »On the notion of cause«, in: Proceedings of the Aristotelian Society 13, S. 1–26

L ITERATUR | 337

Salmon, D. P./Bondi, M. W. (2009): »Neuropsychological assessment of dementia«, in: Annual Review of Psychology 60, S. 257–282 Salmon, W. (1998): Causality and Explanation. New York: Oxford University Press Sananbenesi, F./Fischer, A. (2009): »The epigenetic bottleneck of neurodegenerative and psychiatric diseases«, in: Biological Chemistry 390, S. 1145–1153 Sananbenesi, F. et al. (2007): »A hippocampal Cdk5 pathway regulates extinction of contextual fear«, in: Nature Neuroscience 10, S. 1012–1019 Sandkühler, H. J. (2002): »›Repräsentation‹. Oder: Wie man ›Wirklichkeit‹ philosophisch verstehen kann«, siehe http://www.repraesentation.uni-bremen .de/Texte/Repr%E4sentation%20und%20%B4Wirklichkeit%B4.pdf vom 17.2.2012 Sandkühler, H. J. (2009): Kritik der Repräsentation. Einführung in die Theorie der Überzeugungen, der Wissenskulturen und des Wissens. Frankfurt/M.: Suhrkamp Sanes, J./Lichtman, J. (1999): »Can molecules explain long-term potentiation?«, in: Nature Neuroscience 2, S. 597–604 Sapolsky, R./Krey, L./McEwen, B. (1986): »The neuroendocrinology of stress and aging: The glucocorticoid cascade hypothesis«, in: Endocrine Reviews 7, S. 284–301 Sapolsky, R. M. et al. (1990): »Glucocorticoid feedback inhibition of adrenocorticotropic hormone secretagogue release. Relationship to corticosteroid receptor occupancy in various limbic sites«, in: Neuroendocrinology 51, S. 328–36 Sauer, U./Heinemann, M./Zamboni, N. (2007): »Genetics. Getting closer to the whole picture«, in: Science 316, S. 550–551 Schacter, D. (1987): »Implicit memory: history and current status«, in: Journal of Experimental Psychology: Learning, Memory, and Cognition 13, S. 501–518 Schacter, D./Tulving, E. (Hg.) (1994): Memory Systems 1994. Cambridge, MA: The MIT Press Schacter, D./Wagner, A./Buckner, R. (2000): »Memory systems of 1999«, in: Tulving, F. (Hg.), The Oxford Handbook of Memory. Oxford: Oxford University Press, S. 627–643 Schaffner, K. (1969): »The Watson-Crick model and reductionism«, in: The British Journal for the Philosophy of Science 20, S. 325–348 Schaffner, K. (1998): »Genes, behavior, and developmental emergentism: One process, indivisible?«, in: Philosophy of Science 65, S. 209–252 Schalkwyk, L. et al. (2007): »Interpretation of knockout experiments: the congenic footprint«, in: Genes, Brain and Behavior 6, S. 299–303

338 | ZWISCHEN GEIST UND GEHIRN

Schelling, G. (2002): »Effects of stress hormones on traumatic memory formation and the development of posttraumatic stress disorder in critically ill patients«, in: Neurobiology of Learning & Memory 78, S. 596–609 Schenk, D. et al. (1999): »Immunization with amyloid-beta attenuates Alzheimer-disease-like pathology in the PDAPP mouse«, in: Nature 400, S. 173–177 Schenk, Dale (2002): »Amyloid-beta immunotherapy for Alzheimer’s disease: the end of the beginning«, in: Nature Reviews Neuroscience 3, S. 824–828 Scheper-Hughes, N./Lock, M. (1987): »The mindful body: a prolegomenon to future work in medical anthropology«, in: Medical Anthropology Quarterly 1, S. 6–41 Scherrer, Klaus/Jost, Jürgen (2007): »The gene and the genon concept: a functional and information-theoretic analysis«, in: Molecular Systems Biology 3, S. 87 Scheuner, D. et al. (1996): »Secreted amyloid beta-protein similar to that in the senile plaques of Alzheimer’s disease is increased in vivo by the presenilin 1 and 2 and APP mutations linked to familial Alzheimer’s disease«, in: Nature Medicine 2, S. 864–870 Schmidt, K. (2009): »Morbiditätsprognose 2050: schlechte Aussichten – Herausforderung an die Gesundheitspolitik«, in: Notfall & Hausarztmedizin 35, S. 519–519 Schmidt, S. D./Nixon, R. A./Mathews, P. M. (2005): »ELISA method for measurement of amyloid-beta levels«, in: Methods in Molecular Biology 299, S. 279–297 Schuff, N. et al. (1997): »Reduced hippocampal volume and n-acetyl aspartate in posttraumatic stress disorder«, in: Annals of the New York Academy of the Sciences 821, S. 516–20 Schuff, N. et al. (2008): »Abnormal N-acetylaspartate in hippocampus and anterior cingulate in posttraumatic stress disorder«, in: Psychiatry Research 162, S. 147–57 Schulze-Rauschenbach, S. (2007): Neuropsychologische Endophänotypen der Schizophrenie. Siehe http://hss.ulb.uni-bonn.de/2007/0996/0996.pdf vom 26.3.2012. Dissertation, Bonn Schwartz, B. L. (2006): »Annäherungen an eine vergleichende Psychologie des episodischen Gedächtnisses«, in: Welzer, H./Markowitsch, H. J. (Hg.), Warum Menschen sich erinnern können: Fortschritte in der interdisziplinären Gedächtnisforschung. Stuttgart: Klett-Cotta, S. 189–205 Schwartz, M. A./Wiggins, O. P. (1986): »Logical empiricism and psychiatric classification«, in: Comprehensive Psychiatry 27, S. 101–14

L ITERATUR | 339

Schwartz, S./Susser, E./Susser, M. (1999): »A future for epidemiology?«, in: Annual Review of Public Health 20, S. 15–33 Schyfter, P. (2009): »The bootstrapped artefact: a collectivist account of technological ontology, functions, and normativity«, in: Studies in History and Philosophy of Science 40, S. 102–111 Scoville, W./Milner, B. (1957): »Loss of recent memory after bilateral hippocampal lesions«, in: Journal of Neurology, Neurosurgery & Psychiatry 20, S. 11–21 Seidl, U./Markowitsch, H. J./Schröder, J. (2006): »Die verlorene Erinnerung: Störungen des autobiografischen Gedächtnisses bei leichter kognitiver Beeinträchtigung und Alzheimer-Demenz«, in: Welzer, H./Markowitsch, H. J. (Hg.), Warum Menschen sich erinnern können: Fortschritte in der interdisziplinären Gedächtnisforschung. Stuttgart: Klett-Cotta, S. 286–302 Selkoe, D. J. (2004): »Alzheimer disease: mechanistic understanding predicts novel therapies«, in: Annals of Internal Medicine 140, S. 627–38 Selkoe, D. J. (1991): »The molecular pathology of Alzheimer’s disease«, in: Neuron 6, S. 487–498 Selye, H./Ogilvie, H. S. (1956): The Stress of Life. New York: McGraw-Hill Seshadri, S. et al. (2007): »Genetic correlates of brain aging on MRI and cognitive test measures: a genome-wide association and linkage analysis in the Framingham Study«, in: BMC Medical Genetics 8 Suppl 1, S. S15 Shapin, S. (1995): »Here and everywhere: Sociology of scientific knowledge«, in: Annual Review of Sociology 21, S. 289–321 Shapin, S./Schaffer, S. (1985): Leviathan and the Air-Pump: Hobbes, Boyle, and the Experimental Life. Princeton, NJ: Princeton University Press Sharma, R. P. et al. (2006): »Valproic acid and chromatin remodeling in schizophrenia and bipolar disorder: preliminary results from a clinical population«, in: Schizophrenia Research 88, S. 227–31 Shimizu, K. et al. (2006): »[An animal model of posttraumatic stress disorder in rats using a shuttle box]«, in: Nihon Shinkei Seishin Yakurigaku Zasshi 26, S. 93–99 Shin, L. M. et al. (2004): »Hippocampal function in posttraumatic stress disorder«, in: Hippocampus 14, S. 292–300 Shors, T./Matzel, L. (1997): »Long-term potentiation: What’s learning got to do with it?«, in: Behavioral and Brain Sciences 20, S. 597–614 Showalter, E. (1997): Hystories: Hysterical epidemics and Modern Culture. New York: Columbia University Press

340 | ZWISCHEN GEIST UND GEHIRN

Siegmund, A. et al. (2008): »Hippocampal N-Acetylaspartate levels before trauma predict the development of long-lasting posttraumatic stress disorder-like symptoms in mice«, in: Biological Psychiatry 65, S. 258–262 Siegmund, A./Wotjak, C. (2006): »Toward an animal model of posttraumatic stress disorder«, in: Annals of the New York Academy of Sciences 1071, S. 324–334 Siegmund, A./Wotjak, C. (2007): »A mouse model of posttraumatic stress disorder that distinguishes between conditioned and sensitised fear«, in: Journal of Psychiatric Research 41, S. 848–860 Sismondo, S. (1993): »Some social constructions«, in: Social Studies of Science 23, S. 515–553 Skinner, B. F. (1965): Science and Human Behavior. New York: Free Press Skrede, K./Westgaard, R. (1971): »The transverse hippocampal slice: a welldefined cortical structure maintained in vitro«, in: Brain Research 35, S. 589 Small, G. et al. (2008): »Current and future uses of neuroimaging for cognitively impaired patients«, in: Lancet Neurology 7, S. 161–172 Smith, C. (1982): »Evolution and the problem of mind: Part I. Herbert Spencer«, in: Journal of the History of Biology 15, S. 55–88 Smith, J. (2000): »The concept of information in biology«, in: Philosophy of Science 67, S. 177–194 Smith, K. C. (2001): »A disease by any other name: musings on the concept of a genetic disease«, in: Medicine, Health Care and Philosophy 4, S. 19–30 Snowdon, D. (2003): »Healthy aging and dementia: findings from the Nun Study«, in: Annals of Internal Medicine 139, S. 450–454 Solms, M./Turnbull, O. (2002): The Brain and the Inner World: An Introduction to the Neuroscience of Subjective Experience. New York: Other Press Sørensen, E. (2012): »Akteur-Netzwerk-Theorie überdacht«, in: Beck, S./Niewöhner, J./Sørensen, E. (Hg): Science and Technology Studies. Eine sozialanthropologische Einführung. Bielefeld: transcript Verlag, S. 327–344 Spearman, C. (1914): »The theory of two factors«, in: Psychological Review 21, S. 101–115 Speybroeck, L. V. (2000): »The organism: A crucial genomic context in molecular epigenetics?«, in: Theory in Biosciences 119, S. 187–208 Speybroeck, L. V. (2002): »Philosophers and biologists exploring epigenetics«, in: Biology and Philosophy 17, S. 743–746 Spires, T. L./Hannan, A. J. (2005): »Nature, nurture and neurology: geneenvironment interactions in neurodegenerative disease. FEBS Anniversary Prize Lecture delivered on 27 June 2004 at the 29th FEBS Congress in Warsaw«, in: FEBS Journal 272, S. 2347–61

L ITERATUR | 341

Spooner, R. I. et al. (1994): »The Atlantis platform: a new design and further developments of Buresova’s on-demand platform for the water maze«, in: Learning & Memory 1, S. 203–211 Squire, L. R./Zola, S. M. (1996): »Structure and function of declarative and nondeclarative memory systems«, in: Proceedings of the National Academy of Sciences 93, S. 13515–22 ST George-Hyslop, P. H. et al. (1990): »Genetic linkage studies suggest that Alzheimer’s disease is not a single homogeneous disorder«, in: Nature 347, S. 194–197 Staay, F./Steckler, T. (2002): »The fallacy of behavioral phenotyping without standardisation«, in: Genes, Brain & Behavior 1, S. 9–13 Staniloiu, A./Markowitsch, H. J./Brand, M. (2010): »Psychogenic amnesia. A malady of the constricted self«, in: Consciousness and Cognition 19, S. 778– 801 Star, S. L./Bowker, G./Neumann, L. J. (2003): »Transparency beyond the individual level of scale: Convergence between information artifacts and communities of practice«, in: Bishop, A. P./Van House, N. A./Buttenfield, B. P. (Hg.), Digital Library Use: Social Practice in Design and Evaluation. Cambridge, MA: The MIT Press, S. 241–270 Star, S. L./Griesemer, J. (1989): »Institutional ecology, ›translations‹ and boundary objects: Amateurs and professionals in Berkeley’s Museum of Vertebrate Zoology, 1907-39«, in: Social Studies of Science 19, S. 387–420 Star, S. L./Ruhleder, K. (2000): »Steps toward an ecology of infrastructure: Design and access for large information spaces«, in: Yates, J./Maanen, J. V. (Hg.), Information technology and organizational transformation: history, rhetoric, and practice. London: Sage Publications, S. 305–346 Steele, R. J./Morris, R. G. (1999): »Delay-dependent impairment of a matchingto-place task with chronic and intrahippocampal infusion of the NMDAantagonist D-AP5«, in: Hippocampus 9, S. 118–136 Stein, D. J. (1991): »Philosophy and the DSM-III«, in: Comprehensive Psychiatry 32, S. 404–415 Stent, G. S. (1981): »Strength and weakness of the genetic approach to the development of the nervous system«, in: Annual Reviews of Neuroscience 4, S. 163–94 Stern (2007): »Das große Vergessen«, in: Stern Magazin 49 vom 29.11.2007 Stern, Y. (2002): »What is cognitive reserve? Theory and research application of the reserve concept«, in: Journal of the International Neuropsychological Society 8, S. 448–460

342 | ZWISCHEN GEIST UND GEHIRN

Stevens, C. (1998): »A million dollar question: does LTP = memory?«, in: Neuron 20, S. 1–2 Stevens, C. F. (1996): »Spatial learning and memory: the beginning of a dream«, in: Cell 87, S. 1147–1148 Stoppe, G. (2007): Demenz: Diagnostik-Beratung-Therapie. München: Ernst Reinhardt Verlag Stotz, K./Bostanci, A./Griffiths, P. (2006): »Tracking the shift to ›postgenomics‹«, in: Community Genetics 9, S. 190–196 Strauss, A. (1978): »A social worlds perspective«, in: Studies in Symbolic Interaction 1, S. 19–28 Strauss, A. L./Corbin, J. (1996): Grounded Theory: Grundlagen qualitativer Sozialforschung. Weinheim: Beltz Strohman, R. (2001): »A new paradigm for life, beyond genetic determinism«, in: California Monthly vom April 2001, S. 24–27 Strübing, J. (2004): Grounded Theory: Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden: VS Verlag für Sozialwissenschaften Strübing, J. (2005): Pragmatistische Wissenschafts- und Technikforschung: Theorie und Methode. Frankfurt/M.: Campus Verlag Strübing, J. (2008): »Pragmatismus als epistemische Praxis. Der Beitrag der Grounded Theory zur Empirie-Theorie-Frage«, in: Kalthoff, H./Hirschauer, S./ Lindemann, G. (Hg.), Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt/M.: Suhrkamp, S. 279–311 Suárez, M./Cartwright, N. (2008): »Theories: Tools versus models«, in: Studies in History and Philosophy of Modern Physics 39, S. 62–81 Suchman, L. (1987): Plans and Situated Actions: The Problem of HumanMachine Communication. Cambridge: Press Syndicate Südhof, T. C./Malenka, R. C. (2008): »Understanding synapses: past, present, and future«, in: Neuron 60, S. 469–76 Susser, M. (1973): Causal Thinking in the Health Sciences; Concepts and Strategies of Epidemiology. New York: Oxford University Press Susser, M. (1991): »What is a cause and how do we know one? A grammar for pragmatic epidemiology«, in: Anerican Journal of Epidemiology 133, S. 635–648 Sutter, M. (1996): »Assigning causation in disease: beyond Koch’s postulates«, in: Perspectives in Biology and Medicine 39, S. 581–592 Terry, R. et al. (1991): »Physical basis of cognitive alterations in Alzheimer’s disease: synapse loss is the major correlate of cognitive impairment«, in: Annals of Neurology 30, S. 572–580

L ITERATUR | 343

Thompson, P. M. et al. (2001): »Genetic influences on brain structure«, in: Nature Neuroscience 4, S. 1253–1258 Thompson, P. M. et al. (2007): »Tracking Alzheimer’s disease«, in: Annals of the New York Academy of Sciences 1097, S. 183–214 Thurley, K. et al. (2008): »Phase precession through synaptic facilitation«, in: Neural Computation 20, S. 1285–324 Timmermans, S./Berg, M. (1997): »Standardization in action: Achieving local universality through medical protocols«, in: Social Studies of Science 27, S. 273–305 Timmermans, S./Berg, M. (2003): The Gold Standard: the Challenge of Evidence-based Medicine and Standardization in Health Care. Philadelphia: Temple University Press Traweek, S. (1992): Beamtimes and Lifetimes: The World of High Energy Physicists. Cambridge, MA: Harvard University Press Tsolaki, M./Eleftheriou, M./Karavida, N. (2009): »Alzheimer’s dementia and post-traumatic stress disorder differences and similarities in neuroimaging«, in: Hellenic Journal of Nuclear Medicine 12, S. 41–46 Tucker, P. et al. (2001): »Paroxetine in the treatment of chronic posttraumatic stress disorder: results of a placebo-controlled, flexible-dosage trial«, in: Journal of Clinical Psychiatry 62, S. 860–868 Tulving, E. (1972): »Episodic and Semantic Memory«, in: Tulving, E./Donaldson, W. (Hg.), Organization of Memory. New York: Academic Press, S. 381–403 Tulving, E. (1983): Elements of Episodic Memory. Oxford: Clarendon Press Tulving, E. (1985): »How many memory systems are there?«, in: The American Psychologist 40, S. 385–398 Tulving, E. (1995): »Organization of memory: Quo vadis«, in: The cognitive Neurosciences, S. 839–847 Tulving, E. (2001): »Episodic memory and common sense: how far apart?«, in: Philosophical Transactions of the Royal Society B: Biological Sciences 356, S. 1505–1515 Tulving, E. (2002): »Episodic memory: from mind to brain«, in: Annual Review of Psychology 53, S. 1–25 Tulving, E. (2005): »Episodic memory and autonoesis: Uniquely human«, in: The missing link in cognition: Origins of self-reflective consciousness, S. 3– 56 Tulving, E. (2006): »Das episodische Gedächtnis: Vom Geist zum Gehirn«, in: Welzer, H./Markowitsch, H. (Hg.), Warum Menschen sich erinnern können:

344 | ZWISCHEN GEIST UND GEHIRN

Fortschritte in der Interdisziplinären Gedächtnisforschung. Stuttgart: KlettCotta, S. 50–77 Tulving, E.: »Are there 256 kinds of memory«, in: The Foundations of Remembering: Essays in Honor of Henry L. Roediger, III. Psychology Press, 2007 (Psychology Press Festschrift Series), S. 39–52 Tulving, E. et al. (1994): »Hemispheric encoding/retrieval asymmetry in episodic memory: positron emission tomography findings«, in: Proceedings of the National Academy of Sciences 91, S. 2016–2020 Tulving, E./Markowitsch, H. J. (1997): »Memory beyond the hippocampus«, in: Current Opinion in Neurobiology 7, S. 209–216 Tulving, E./Markowitsch, H. J. (1998): »Episodic and declarative memory: role of the hippocampus«, in: Hippocampus 8, S. 198–204 Upchurch, M./Wehner, J. (1988): »Differences between inbred strains of mice in Morris water maze performance«, in: Behavior Genetics 18, S. 55–68 Urry, J. (2005): »The complexity turn«, in: Theory, Culture & Society 22, S. 1– 14 Van Orden, G. C./Paap, K. R. (1997): »Functional neuroimages fail to discover pieces of mind in the parts of the brain«, in: Philosophy of Science 64, S. 85– 94 Vargha-Khadem, F. et al. (1997): »Differential effects of early hippocampal pathology on episodic and semantic memory«, in: Science 277, S. 376–380 Vecsey, C. et al. (2007): »Histone deacetylase inhibitors enhance memory and synaptic plasticity via CREB: CBP-dependent transcriptional activation«, in: Journal of Neuroscience 27, S. 6128–6140 Visel, A. et al. (2009): »ChIP-seq accurately predicts tissue-specific activity of enhancers«, in: Nature 457, S. 854–858 Visser, P./Brodaty, H. (2006): »MCI is not a clinically useful concept«, in: International Psychogeriatrics 18, S. 402–9; discussion 409–14 Visser, P./Verhey, F. (2008): »Mild Cognitive Impairment as predictor for Alzheimer’s Disease in clinical practice: effect of age and diagnostic criteria«, in: Psychological Medicine 38, S. 113–122 Vorhees, C./Williams, M. (2006): »Morris Water Maze: Procedures for assessing spatial and related forms of learning and memory«, in: Nature Protocols 1, S. 848–858 Vul, E. et al. (2009): »Puzzlingly high correlations in fMRI studies of emotion, personality, and social cognition«, in: Perspectives on Psychological Science, 4, S. 274–290 Waddington, C. H. (1953): »Epigenetics and evolution«, in: Symposia of the Society for Experimental Biology 7, S. 186–199

L ITERATUR | 345

Wagner, A. (1999): »Causality in complex systems«, in: Biology and Philosophy 14, S. 83–101 Wagner, A. (2005): Robustness and Evolvability in Living Systems. Princeton, NJ: Princeton University Press Wahlsten, D. (2001): »Standardizing tests of mouse behavior: reasons, recommendations, and reality«, in: Physiology & Behavior 73, S. 695–704 Wahlsten, D. et al. (2003a): »Different data from different labs: lessons from studies of gene-environment interaction«, in: Journal of Neurobiology 54, S. 283–311 Wahlsten, D. et al. (2003b): »In search of a better mouse test«, in: Trends in Neurosciences 26, S. 132–136 Wakizono, T. et al. (2007): »Stress vulnerabilities in an animal model of posttraumatic stress disorder«, in: Physiology & Behavior 90, S. 687–695 Walsh, D./Selkoe, D. (2007): »A beta oligomers – a decade of discovery«, in: Journal of Neurochemistry 101, S. 1172–1184 Warrington, E./Weiskrantz, L. (1970): »Amnesic syndrome: consolidation or retrieval«, in: Nature 228, S. 628–630 Waters, C. K. (2006): »A pluralist interpretation of gene-centered biology«, in: Kellert, S. H./Longino, H. E./Waters, C. K. (Hg.), Scientific Pluralism. Minneapolis, MN: University of Minnesota Press, S. 190–214 Waters, C. K. (2007): »Causes that make a difference«, in: Journal of Philosophy 104, S. 551-579 Weaver, I. et al. (2004): »Epigenetic programming by maternal behavior«, in: Nature Neuroscience 7, S. 847–854 Weber, M. (2001): »Under the lamppost: Commentary on Schaffner«, in: Theory and Method in the Neurosciences, University of Pittsburgh Press: Pittsburgh, S. 231–249 Webster, J. et al. (2008): »Sorl1 as an Alzheimer’s disease predisposition gene?«, in: Neurodegener Dis 5, S. 60–64 Wechsler, D./Stone, C. P. (1945): Wechsler Memory Scale. San Antonio, TX: The Psychological Corporation Welzer, H. (2008): Das kommunikative Gedächtnis: Eine Theorie der Erinnerung. München: Beck Welzer, H./Markowitsch, H. J. (2005): »Towards a bio-psycho-social model of autobiographical memory«, in: Memory 13, S. 63–78 Whitehouse, P. et al. (2005): »Anthropological contributions to the understanding of age-related cognitive impairment«, in: Lancet Neurology 4, S. 320– 326

346 | ZWISCHEN GEIST UND GEHIRN

Whitehouse, P./Maurer, K./Ballenger, J. (Hg.) (2003): Concepts of Alzheimer Disease: Biological, Clinical, and Cultural Perspectives. Baltimore: The Johns Hopkins University Press Whitehouse, P. J./Moody, H. R. (2006): »Mild cognitive impairment«, in: Dementia 5, S. 11–25 Wiesner-Steiner, A. (2004): Wissenschaftsforschung und Humangenomprojekt: Eine Analyse menschlicher und genetischer Autorschaften. Siehe http://tuprints.ulb.tu-darmstadt.de/602/1/Pubdiss.pdf vom 26.3.2012. Dissertation, Darmstadt Will, A.-K. (2009): Verhandeln und Behandeln = Psychologisierung menschlicher Leidenserfahrung. Therapieerfahrungen bosnischer Flüchtlinge in Berlin. Siehe http://edoc.hu-berlin.de/dissertationen/will-anne-kathrin-2009-0624/PDF/will.pdf vom 26.3.2012. Dissertation, Berlin Willner, P. (1984): »The validity of animal models of depression«, in: Psychopharmacology (Berl) 83, S. 1–16 Wiltfang, J. (2006): Alzheimer-Demenz: Prädiktive Diagnostik als Voraussetzung für präventive Therapie. Vortrag auf dem Presseworkshop »Demenzen« am 19.9.2006, Berlin Winblad, B. et al. (2004): »Mild cognitive impairment–beyond controversies, towards a consensus: Report of the international working group on mild cognitive impairment«, in: Journal of Internal Medicine 256, S. 240–246 Winblad, B. et al. (2006): »Donepezil in patients with severe Alzheimer’s disease: double-blind, parallel-group, placebo-controlled study«, in: Lancet 367, S. 1057–65 Wirths, O./Bayer, T. A. (2009): »Die modifizierte Amyloid-Hypothese der Alzheimer-Demenz–intraneuronales Abeta induziert Neurodegeneration«, in: Neuroforum 3, S. 76–82 Wisniewski, T./Konietzko, U. (2008): »Amyloid-beta immunisation for Alzheimer’s disease«, in: Lancet Neurology 7, S. 805–811 Wolf, H. et al. (2004): »Structural correlates of mild cognitive impairment«, in: Neurobiol Aging 25, S. 913–24 Wolfer, D./Lipp, H. (1992): »A new computer program for detailed off-line analysis of swimming navigation in the Morris water maze«, in: Journal of Neuroscience Methods 41, S. 65–74 Wolfer, D. et al. (1998): »Spatial memory and learning in transgenic mice: fact or artifact?«, in: News in Physiological Sciences 13, S. 118–123 Wolfer, D. P. et al. (2004): »Laboratory animal welfare: cage enrichment and mouse behaviour«, in: Nature 432, S. 821–822

L ITERATUR | 347

Woodward, J. (2003): Making Things Happen: a Theory of Causal Explanation. Oxford: Oxford University Press Wotjak, C. (2004): »Of mice and men«, in: BIF Futura 19, S. 158–169 Wright, C./Bechtel, W. (2007): »Mechanisms and psychological explanation«, in: Thagard, P. (Hg.), Philosophy of Psychology and Cognitive Science. Amsterdam: Elsevier Wu, C. T./Morris, J. R. (2001): »Genes, genetics, and epigenetics: a correspondence«, in: Science 293, S. 1103–1105 Würbel, H. (2001): »Ideal homes? Housing effects on rodent brain and behaviour«, in: Trends in Neurosciences. 24, S. 207–211 Würbel, H. (2002): »Behavioral phenotyping enhanced–beyond (environmental) standardization«, in: Genes, Brain and Behavior 1, S. 3–8 Würbel, H./Garner, J. (2007): »Refinement of rodent research through environmental enrichment and systematic randomization«, in: National Centre for the Replacement, Refinement and Reduction of Animals in Research 9, S. 1– 9 Wynne, B. (2005): »Reflexing complexity: post-genomic knowledge and reductionist returns in public science«, in: Theory, Culture & Society 22, S. 67–94 Yamamoto, A./Hen, R./Dauer, W. T. (2001): »The ons and offs of inducible transgenic technology: a review«, in: Neurobiology of Disease 8, S. 923–32 Yamamoto, S. (2009): »[A novel therapeutic approach for the treatment of posttraumatic stress disorder (PTSD): enhancing the impaired extinction of fear memory]«, in: Nihon Shinkei Seishin Yakurigaku Zasshi 29, S. 135–139 Yancey, S. W./Phelps, E. A. (2001): »Functional neuroimaging and episodic memory: a perspective«, in: Journal of Clinical and Experimental Neuropsychology 23, S. 32–48 Yehuda, R. (2002): »Clinical relevance of biologic findings in PTSD«, in: Psychiatric Quarterly 73, S. 123–133 Yehuda, R. (2006a): »Advances in understanding neuroendocrine alterations in PTSD and their therapeutic implications«, in: Annals of the New York Academy of Sciences 1071, S. 137–166 Yehuda, R. (Hg.) (2006b): Psychobiology of Posttraumatic Stress Disorder: A Decade of Progress (Annals of the New York Academy of Sciences). New York: Wiley-Blackwell Yehuda, R./Antelman, S.: »Criteria for rationally evaluating animal models of posttraumatic stress disorder«, in: Biological Psychiatry 33 (1993), S. 479– 486 Yehuda, R./Bierer, L. (2009): »The relevance of epigenetics to PTSD: Implications for the DSM-V«, in: Journal of Traumatic Stress 22, S. 427–434

348 | ZWISCHEN GEIST UND GEHIRN

Yehuda, R./LeDoux, J. (2007): »Response variation following trauma: a translational neuroscience approach to understanding PTSD«, in: Neuron 56, S. 19– 32 Young, A. (1995): The Harmony of Illusions: Inventing Post-traumatic Stress Disorder. Princeton, NJ: Princeton University Press Young, A. (1996): »Bodily memory and traumatic memory«, in: Antze, P./Lambek, M. (Hg.), Tense Past. Cultural Essays in Trauma and Memory. London: Routledge, S. 89–101 Young, A. (2000): »History, hystery and psychiatric reasoning«, in: Lock, M./Young, A./Cambrosio, A. (Hg.), Living and Working with the New Medical Technologies. Intersections of Inquiry. Cambridge: Cambridge University Press Young, A. (2006): »[Psychiatry’s search for a post-genomic mind]«, in: Sciences Sociales et Santé 24, S. 117–146 Young, A./Rosen, G. (2004): »When traumatic memory was a problem: on the historical antecedents of PTSD«, in: Rosen, G. (Hg.), Posttraumatic Stress Disorder: Issues and Controversies. Hoboken, NJ: John Wiley & Sons, S. 127–146 Zahs, K. R./Ashe, K. H. (2010): »›Too much good news‹ – are Alzheimer mouse models trying to tell us how to prevent, not cure, Alzheimer’s disease?«, in: Trends in Neurosciences 33, S. 381–389 Zetterberg, H./Blennow, K. (2006): »Plasma Abeta in Alzheimer’s disease – up or down?«, in: Lancet Neurology 5, S. 638–639 Zetterberg, H./Wahlund, L.-O./Blennow, K.: »Cerebrospinal fluid markers for prediction of Alzheimer’s disease«, in: Neuroscience Letters 352 (2003), S. 67–69 Zobel, A./Maier, W. (2004): »Endophänotypen – ein neues Konzept zur biologischen Charakterisierung psychischer Störungen«, in: Der Nervenarzt 75, S. 205–214

VerKörperungen/MatteRealities – Perspektiven empirischer Wissenschaftsforschung Stefan Beck, Jörg Niewöhner, Estrid Sörensen Science and Technology Studies Eine sozialanthropologische Einführung Juni 2012, 364 Seiten, kart., 29,80 €, ISBN 978-3-8376-2106-8

Sascha Dickel, Martina Franzen, Christoph Kehl (Hg.) Herausforderung Biomedizin Gesellschaftliche Deutung und soziale Praxis 2011, 368 Seiten, kart., 32,80 €, ISBN 978-3-8376-1946-1

Martin Lengwiler, Jeannette Madarász (Hg.) Das präventive Selbst Eine Kulturgeschichte moderner Gesundheitspolitik 2010, 390 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-1454-1

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

VerKörperungen/MatteRealities – Perspektiven empirischer Wissenschaftsforschung Jörg Niewöhner, Christoph Kehl, Stefan Beck (Hg.) Wie geht Kultur unter die Haut? Emergente Praxen an der Schnittstelle von Medizin, Lebens- und Sozialwissenschaft 2008, 246 Seiten, kart., 25,80 €, ISBN 978-3-89942-926-8

Jörg Niewöhner, Janina Kehr, Joëlle Vailly (Hg.) Leben in Gesellschaft Biomedizin – Politik – Sozialwissenschaften 2011, 366 Seiten, kart., 32,80 €, ISBN 978-3-8376-1744-3

Willy Viehöver, Peter Wehling (Hg.) Entgrenzung der Medizin Von der Heilkunst zur Verbesserung des Menschen? 2011, 312 Seiten, kart., zahlr. Abb., 29,80 €, ISBN 978-3-8376-1319-3

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

VerKörperungen/MatteRealities – Perspektiven empirischer Wissenschaftsforschung Susanne Bauer, Christine Bischof, Stephan Gabriel Haufe, Stefan Beck, Leonore Scholze-Irrlitz (Hg.) Essen in Europa Kulturelle »Rückstände« in Nahrung und Körper 2010, 196 Seiten, kart., 24,80 €, ISBN 978-3-8376-1394-0

Michalis Kontopodis, Jörg Niewöhner (Hg.) Das Selbst als Netzwerk Zum Einsatz von Körpern und Dingen im Alltag 2010, 228 Seiten, kart., 24,80 €, ISBN 978-3-8376-1599-9

Katharina Liebsch, Ulrike Manz (Hg.) Leben mit den Lebenswissenschaften Wie wird biomedizinisches Wissen in Alltagspraxis übersetzt? 2010, 282 Seiten, kart., 28,80 €, ISBN 978-3-8376-1425-1

Thomas Mathar Der digitale Patient Zu den Konsequenzen eines technowissenschaftlichen Gesundheitssystems 2010, 284 Seiten, kart., zahlr. Abb., 28,80 €, ISBN 978-3-8376-1529-6

Sonja Palfner Gen-Passagen Molekularbiologische und medizinische Praktiken im Umgang mit Brustkrebs-Genen. Wissen – Technologie – Diagnostik 2009, 390 Seiten, kart., 33,80 €, ISBN 978-3-8376-1214-1

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de