Der Mensch als neuronale Maschine?: Zum Einfluss bildgebender Verfahren der Hirnforschung auf erziehungswissenschaftliche Diskurse [1. Aufl.] 9783839420331

Das Gehirn beim Denken zu beobachten - dieser jahrhundertealte Traum scheint mithilfe der modernen bildgebenden Verfahre

171 20 2MB

German Pages 226 Year 2014

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Der Mensch als neuronale Maschine?: Zum Einfluss bildgebender Verfahren der Hirnforschung auf erziehungswissenschaftliche Diskurse [1. Aufl.]
 9783839420331

Table of contents :
Inhalt
1. HIRNFORSCHUNG UND ERZIEHUNGSWISSENSCHAFT
1.1 Diagnosen der Erziehungswissenschaft im Lichte geringen Ansehens
1.2 Bildgebung und Metaphorik
1.3 Zielsetzung der Arbeit
1.4 Vorgehen
2. MENSCH UND MASCHINE
2.1 Der Mensch als mechanischer Automat
2.2 Der Mensch als Industriepalast
2.3 Bilder und Modelle
2.4 Der Mensch als neuronale Maschine
2.5 Selbstdeutung im Zeichen der Neurochemie
3. WELTBILDER UND WISSENSCHAFTSTRADITIONEN
3.1 Epistemologische Überlegungen zur Generierung von Wissen
3.1.1 Naturalismus und Reduktionismus
3.1.2 Realismus, Nominalismus und Experimentalsysteme
3.2 Komplexität von Rahmenbedingungen bei Experimenten an Menschen
3.3 Zwischenbilanz
4. ZWISCHEN GEGENSTÄNDEN, INSTRUMENTEN UND BILDERN
4.1 Mikroskopieren
4.1.1 Lebenswelt und Beobachtung
4.1.2 Optik
4.1.3 Präparation und Konservierung
4.2 Erfahrungen vervielfältigen
4.2.1 Abbilden
4.2.2 Darstellungsstile und Objektivität
4.2.3 Wissenschaftliches Sehen
4.3 Beugung und mikroskopisches Sehen
4.4 Mikroskopieren mit anderen Wellenlängen
4.5 Bewertung von Interaktionsprozessen bei der Lichtmikroskopie
4.6 Irrtümer der Biomikroskopie
5. BASISTHEORIEN UND TECHNIKEN DER MAGNETRESONANZTOMOGRAPHIE
5.1 Exkurs: Vorstellungen und Unvorstellbares aus der Teilchenphysik
5.1.1 Punktförmige Teilchen
5.1.2 Quanten und Spins
5.1.3 Rekapitulation und Interpretation
5.2 Physikalische Grundlagen der Kernspinresonanz
5.2.1 Magnetismus, Drehmoment, Präzession, An-/Isotropie
5.2.2 Longitudinale und transversale Magnetisierung
5.3 Strukturelle MR-Tomographie
5.3.1 Parameter der Signalentstehung: PD, T1, T2
5.3.2 Gradienten
5.4 Bildrekonstruktion und Bildqualität bei der strukturellen MRT
5.5 Bildrepräsentation der strukturellen MRT
5.6 Funktionelle MR-Tomographie
5.6.1 Paramagnetismus und EPI
5.6.2 Neurovaskuläre Kopplung, BOLD und Auflösung
6. BILDGENESE UND INTERPRETATION DER FMRT
6.1 Versuchsdurchführung
6.2 Ergebnisinterpretation – Fallbeispiel Gedankenlesen
6.3 Korrelative Beziehungen
6.4 Darstellungsstile – MRT-Bilder als Komposita
6.5 Zusammenfassung und Bewertung
7. RESÜMEE UND AUSBLICK
LITERATUR
DANKSAGUNG

Citation preview

Ulrich Salaschek Der Mensch als neuronale Maschine?

Ulrich Salaschek (Dr. phil.) forscht zu Möglichkeiten und Voraussetzungen interdisziplinärer Zusammenarbeit bzw. Kommunikation sowie zu (Technik-) Anthropologie.

Ulrich Salaschek

Der Mensch als neuronale Maschine? Hirnbilder, Menschenbilder, Bildungsperspektiven

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2012 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Lothar Heuser, Institut für Diagnostische Radiologie, Interventionelle Radiologie, Neuroradiologie und Nuklearmedizin der RuhrUniversität Bochum, Ulrich Salaschek Lektorat & Satz: Ulrich Salaschek Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-2033-7 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

1. HIRNFORSCHUNG UND E RZIEHUNGSWISSENSCHAFT | 9 1.1

Diagnosen der Erziehungswissenschaft im Lichte geringen Ansehens | 10

1.2

Bildgebung und Metaphorik | 15

1.3

Zielsetzung der Arbeit | 21

1.4

Vorgehen | 24

2. MENSCH UND MASCHINE | 27 2.1

Der Mensch als mechanischer Automat | 28

2.2

Der Mensch als Industriepalast | 31

2.3

Bilder und Modelle | 36

2.4

Der Mensch als neuronale Maschine | 38

2.5

Selbstdeutung im Zeichen der Neurochemie | 44

3. WELTBILDER UND WISSENSCHAFTSTRADITIONEN | 53 3.1

Epistemologische Überlegungen zur Generierung von Wissen | 54 3.1.1 Naturalismus und Reduktionismus | 55

3.1.2 Realismus, Nominalismus und Experimentalsysteme | 61 3.2

Komplexität von Rahmenbedingungen bei Experimenten an Menschen | 66

3.3

Zwischenbilanz | 69

4. ZWISCHEN GEGENSTÄNDEN, I NSTRUMENTEN UND BILDERN | 75 4.1

Mikroskopieren | 77

4.1.1 Lebenswelt und Beobachtung | 78 4.1.2 Optik | 78 4.1.3 Präparation und Konservierung | 83 4.2

Erfahrungen vervielfältigen | 88

4.2.1 Abbilden | 89 4.2.2 Darstellungsstile und Objektivität | 93 4.2.3 Wissenschaftliches Sehen | 97 4.3

Beugung und mikroskopisches Sehen | 100

4.4

Mikroskopieren mit anderen Wellenlängen | 102

4.5

Bewertung von Interaktionsprozessen bei der Lichtmikroskopie | 105

4.6

Irrtümer der Biomikroskopie | 109

5. BASISTHEORIEN UND TECHNIKEN DER M AGNETRESONANZTOMOGRAPHIE | 111 5.1

Exkurs: Vorstellungen und Unvorstellbares aus der Teilchenphysik | 113 5.1.1 Punktförmige Teilchen | 114 5.1.2 Quanten und Spins | 116 5.1.3 Rekapitulation und Interpretation | 118 5.2

Physikalische Grundlagen der Kernspinresonanz | 120

5.2.1 Magnetismus, Drehmoment, Präzession, An-/Isotropie | 121 5.2.2 Longitudinale und transversale Magnetisierung | 123 5.3

Strukturelle MR-Tomographie | 128

5.3.1 Parameter der Signalentstehung: PD, T1, T2 | 128 5.3.2 Gradienten | 130 5.4

Bildrekonstruktion und Bildqualität bei der strukturellen MRT | 136

5.5

Bildrepräsentation der strukturellen MRT | 143

5.6

Funktionelle MR-Tomographie | 150

5.6.1 Paramagnetismus und EPI | 151 5.6.2 Neurovaskuläre Kopplung, BOLD und Auflösung | 152

6. BILDGENESE UND I NTERPRETATION DER FMRT | 159 6.1

Versuchsdurchführung | 159

6.2

Ergebnisinterpretation – Fallbeispiel Gedankenlesen | 164

6.3

Korrelative Beziehungen | 168

6.4

Darstellungsstile – f MRT-Bilder als Komposita | 175

6.5

Zusammenfassung und Bewertung | 181

7. RESÜMEE UND AUSBLICK | 189 LITERATUR | 201 DANKSAGUNG | 223

1. Hirnforschung und Erziehungswissenschaft

An der Beurteilung des Verhältnisses der Erziehungswissenschaft zur Hirnforschung1 scheiden sich die Geister. Zwischen den Exponenten der beiden vertretenen Positionen – einerseits Befürwortern einer Hinwendung zu neurowissenschaftlichen Theorien und andererseits klaren Gegnern der Beschäftigung mit gehirnbezogenen ›Gebrauchsanweisungen‹2 – ist eine sehr heterogene Diskurslandschaft entstanden. Im Diskurs bezüglich der Frage, welchen Stellenwert Hirnforschung in Pädagogik und Erziehungswissenschaft3 hat und haben sollte, finden sich auch Elemente eines bereits betagten und dennoch stets aktuellen Themas der Erziehungswissenschaft: die Selbst- und Fremdwahrnehmung der Disziplin, deren sich stets wandelnder Gegenstandsbereich nicht eindeutig definierbar ist und weder exklusiv noch autonom von ihr bearbeitet werden kann.

1

Es gilt zu beachten, dass es sich bei »Neurowissenschaften« und »Hirnforschung« um Sammelbegriffe handelt, die sich am Gegenstand der Forschung orientieren und nicht auf bestimmte Fakultäten begrenzt sind. Unschärfen, die bei der Verwendung dieser Begriffe unumgänglich sind, werden diskutiert bei Becker 2006a, S. 18f.

2 3

Vgl. Birkenbiehl 1983; Hüther 2001; Ratey 2001; Spitzer 2007a. Unter Pädagogik wird hier und im Folgenden die Tätigkeit des Anleitens verstanden, während mit Erziehungswissenschaft die wissenschaftliche Untersuchung verschiedener Bereiche der Bildungsinstitutionen und -einrichtungen (Familie, Schulen, Universitäten) bezeichnet wird.

10 | DER M ENSCH ALS NEURONALE M ASCHINE ?

1.1 D IAGNOSEN DER E RZIEHUNGSWISSENSCHAFT IM L ICHTE GERINGEN A NSEHENS Bereits in den 1980er Jahren attestieren Herrmann et al. der Erziehungswissenschaft eine »chronisch schlechte Reputation […] in Öffentlichkeit und Wissenschaft«4 und führen diese (unter anderem) auf die »Muster erziehungswissenschaftlicher Theorieproduktion und -verbreitung« und die »Funktion und Wirkung der Erziehungswissenschaft in pädagogischen Handlungsfeldern«5 zurück. Es seien »Theoriekonjunkturen« zu beobachten, die mangels Kontinuität und systematischer Theoriekritik regelmäßig in »Theoriekonkursen« endeten, ohne einen Erkenntnisfortschritt stabilisieren zu können.6 Die Frage nach Konjunkturperioden stellt sich gegenwärtig bei neurobiologischen ›Impulsen‹ an die Erziehungswissenschaft: Dort scheint ein Konjunkturhoch von einem -tief abgelöst worden zu sein. Zumindest die affirmative Rezeption und Bearbeitung von ›Ergebnissen der Hirnforschung‹ haben, nach einer Phase der »Hirnforschungseuphorie«7 ihren (ersten?) Zenit in der Erziehungswissenschaft überschritten.8 Die Anzahl einschlägiger Publikationen ist seit einigen Jahren rückläufig, der Forschungsstand der ›Neuropädagogik‹ stagniert, wie Herrmanns Vorwort zur zweiten Auflage des von ihm herausgegebenen Sammelbandes Neurodidaktik darlegt: »Die Forschungs- und Diskussionslage, die die vor vier Jahren zusammengestellten Beiträge dieses Bandes dokumentieren, ist unverändert. Neurowissenschaftler arbeiten an der Aufklärung von Lern- und Gedächtnisprozessen, Kognitionspsychologen an der Modellierung von höheren kognitiven Leistungen. Von gemeinsamen Fragestellungen sind sie weit entfernt, auch das NIL-Programm des BMBF hat sich – von seinen ursprünglichen Absichten her gesehen – insoweit als Fehlschlag erwiesen.«

4

Herrmann et al. 1983, S. 444.

5

Ebd.

6

Vgl. ebd., S. 452.

7

Vgl. Löwenstein 2007, S. 158f.

9

8

Vgl. Meyer-Drawe 2008, S. 95; Tichy 2007, S. 395.

9

Herrmann 2009, S. 8. Das Akronym NIL steht für »Neurowissenschaften – Instruktion – Lernen« und bezeichnet »ein Programm zur Förderung der wissenschaftlichen Zusammenarbeit zwischen Neurowissenschaften und Lehr-Lern-Forschung«, gefördert durch das Bundesministerium für Bildung und Forschung (BMBF).

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 11



Als maßgebliche Beiträge zur Stabilisierung des Wissens bezüglich erziehungswissenschaftlich bearbeiteter Themen der Hirnforschung sind gegenwärtig vor allem die Diskurse des Lernens von Käte Meyer-Drawe10 sowie Die neurowissenschaftliche Herausforderung der Pädagogik von Nicole Becker zu nennen.11 Obwohl sich dort auch gute Gründe für einen endgültigen Konkurs solcher Theorien fänden, die auf der Bearbeitung von ›Ergebnissen der Hirnforschung‹ fußen, zeigt andererseits die zweite und erweiterte Auflage von Neurodidaktik, dass neurowissenschaftliche Themen in der pädagogischen Praxis weiterhin auf breites Interesse stoßen. Die dort neu hinzugenommenen Artikel von Bauer und Hüther zitieren fast ausschließlich populärwissenschaftliche Bücher eigener Autorschaft, was darauf hindeutet, dass die Autoren damit keine wissenschaftlichen Ziele verfolgen. Zwischen theoretischer Reflexion und pädagogischer Praxis scheint es deutliche Unterschiede in der Nutzung von Wissensbeständen zu geben, die sich vielleicht auch aus historisch tradierten strukturellen Besonderheiten des erziehungswissenschaftlichen bzw. pädagogischen Feldes ergeben: einer Oszillation zwischen Reflexion und Sinnstiftung. Markus Rieger-Ladich datiert (unter Bezugnahme vor allem auf Tenorth) die Emanzipation der Erziehungswissenschaft zu einer eigenständigen Disziplin in Deutschland auf den Beginn des 20. Jahrhunderts und charakterisiert sie als eine Reaktion auf gesellschaftliche Umbrüche im Zuge der Hochindustrialisierung. In dieser Phase gesellschaftlicher Neuordnung sei »gesellschaftsweit ein erheblicher Reflexionsbedarf und eine große Nachfrage nach systematisch angeleiteter Erforschung von Erziehungsfragen«12 entstanden und der Erziehungswissenschaft ein Bearbeitungsprimat für Fragen von Erziehung und Bildung zugesprochen worden. Von ihr sei neben der Reflexion gleichzeitig auch Sinnstiftung erwartet worden, und diese Rolle habe die Erziehungswissenschaft bereitwillig übernommen:13 »Zeitdiagnosen liefern, normative Zieldiskurse führen, die Reflexion von Erziehung und Bildung betreiben, die Institutionen des Bildungswesens erforschen u.a.m.«14 Die Ansprüche an die Erziehungswissenschaft sind seit ihrer Etablierung als eigenständige Disziplin hoch und spiegeln in der Darstellung Rieger-Ladichs die bipolare Ausrichtung der Erziehungswissenschaft von Beginn an wider: Als ihre Aufgabe gelte gleichzeitig das aktive Eingreifen in gesellschaftliche Entwicklungsprozesse

10 Meyer-Drawe 2008. 11 Becker 2006a. 12 Rieger-Ladich 2007, S. 165. 13 Vgl. ebd., S. 167, insbesondere auch FN 7. 14 Ebd.

12 | DER M ENSCH ALS NEURONALE M ASCHINE ?

durch Erziehung sowie Bildung15 und deren theoretische Aufarbeitung. Allerdings besitzt die Erziehungswissenschaft »hinsichtlich pädagogischer Felder keine Definitionshoheit und kann daher auch keinen Alleinvertretungsanspruch durchsetzen«.16 Am Bedürfnis nach Antworten auf Leitfragen der Erziehung mangelt es nach wie vor nicht. Der Markt fragt aber vor allem Handlungsleitfäden nach und wird in erster Linie von nicht-erziehungswissenschaftlichen Akteuren bedient: Hier finden sich z.B. von Neurowissenschaftlern geschriebene Erziehungsratgeber, die sich in ihren Programmen auf Ergebnisse der Hirnforschung berufen und einfache Lösungen für komplexe gesellschaftliche Probleme bereithalten.17 Sofern solche Trends auf erzieherisches Handeln Einfluss nehmen, kann die Erziehungswissenschaft sie kaum ignorieren. Auf den Vormarsch ›neurowissenschaftlicher‹ Ratgeber gab es in der Erziehungswissenschaft unterschiedliche Reaktionen: direkte Aufnahme, Zurückweisung und den Versuch einer Auseinandersetzung mit den Urhebern neurowissenschaftlicher Theoreme mit erziehungswissenschaftlicher Rahmung.18 In vielen Fällen wirkt ihre Intervention jedoch, wie Sabine Andresen feststellt, verspätet: etwa als Auftreten eines Provinzlers in seiner Nachahmung einer Avantgarde, oder, weil das (vermeintliche) gesellschaftli15 In den Worten Günther Bittners werde der Erziehungswissenschaft ein »Konzept vom Lebensganzen« abverlangt, das sich innerhalb der Disziplin in Form der »Dominanz ›pädagogischer Utopien‹« zeige (Herrmann et al. 1983, S. 447f. mit Referenz auf Luhmann/Schorr 1979, S. 343). 16 Becker 2007, S. 143. 17 Manfred Spitzers »Vorsicht Bildschirm!«, betont schädliche Auswirkungen elektronischer Medien auf die Kindesentwicklung (Fernsehen und Computer seien für verminderte Intelligenz, gesteigerte Aggressivität und Übergewicht von Kindern verantwortlich) und empfiehlt ihr generelles Verbot – zumindest für Kinder (Spitzer 2004). (Es überrascht ein wenig, dass Spitzer »Vorsicht Bildschirm« auch auf DVD präsentiert [Spitzer 2007b].) Die negierende Haltung gegenüber elektronischen Medien geht an der heutigen Erziehungsrealität völlig vorbei. Dass das Büchlein allein von 2004-2006 viermal aufgelegt wurde, ist jedoch ein Hinweis darauf, dass insbesondere zu Zeiten lebensweltlich relevanter Neuerungen – in diesem Fall die alle Alters- und Bevölkerungsschichten durchdringende ›Digitalisierung‹ – Bedarf an eindeutigen Empfehlungen besteht. Die Schlichtheit der Empfehlungen solcher Ratgeber könnte ein Grund dafür sein, warum sie auch unter praktisch tätigen Pädagogen beliebt sind. Sie stehen nämlich der von multidimensionalen Einflüssen geprägten Offenheit und Ungewissheit normaler Erziehungssituationen diametral entgegen (vgl. Meyer-Drawe 2008, S. 89). 18 Vgl. Müller 2006, S. 205ff.

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 13



che Problem, das durch Ratgeber bearbeitet wird, von der Erziehungswissenschaft nicht rechtzeitig erkannt oder zumindest nicht ausreichend (marktgerecht?) behandelt wurde.19 Neurowissenschaft und Erziehungswissenschaft unterscheiden sich massiv in der Rezeption der Forschung der jeweils anderen Perspektive. Besonders deutlich wird dies daran, dass eine wissenschaftliche Auseinandersetzung von Hirnforschern mit erziehungswissenschaftlich formulierten Einwänden bisher ausbleibt und selbst in interdisziplinären Sammelbänden keine Zitation auch nur die Kenntnisnahme erziehungswissenschaftlicher Beiträge durch die beteiligten Hirnforscher zu erkennen gibt. Neben der Offenheit des erziehungswissenschaftlichen/pädagogischen Feldes für andere Disziplinen sind auch die Grenzen der Betätigungsbereiche der Erziehungswissenschaft (etwa im Verhältnis zu Soziologie oder Psychologie) nicht klar definiert – beispielsweise findet sich Sozialisationsforschung sowohl unter dem Dach der Erziehungswissenschaft als auch bei den Sozialwissenschaften; Pädagogische Psychologie kann als Fachbereich sowohl der Erziehungswissenschaft als auch der Psychologie zugeordnet sein. Als Konsequenz dieses integrativen Moments gibt es für die Erziehungswissenschaft kein in allen Bereichen anerkanntes und verbindliches Methodenrepertoire, das die Grenzen der Disziplin verdeutlichte: von Hermeneutik über Diskursanalysen bis hin zu quantitativen Verfahren finden unterschiedlichste Analyseansätze Eingang in erziehungswissenschaftliche Diskurse. Auch die Anforderungen an die Pädagogik werden mitunter als grenzenlos aufgefasst: »[W]as sollen Lehrer und Erzieher eigentlich letztlich nicht richten, beheben, ermöglichen oder hervorbringen?«, fragt Norbert Ricken.20 Die Erwartung, dass Pädagogik die Funktion einer gesamtgesellschaftlichen Reparaturinstanz übernehmen solle, wird begleitet von Unterstellungen des Versagens und der Unwissenschaftlichkeit. Nicht selten werde kolportiert, dass eigentlich jeder Experte in Sachen Erziehung, Bildung und Lernen sei, weil er langjährig mit ihnen konfrontiert wurde. Ricken vermutet, dass schon das Wort ›Erziehung‹ gegenwärtig so stark negativ konnotiert sei, dass Erziehungswissenschaftler einem assoziativ bedingten Ansehensmanko mit einer Umbenennungswelle hin zu ›Bildungswissenschaften‹ begegneten.21 Dass auch der Begriff des Lernens so trivialisiert verwendet wird, dass es für sein Verständnis keine Laien zu geben scheint und Erziehungswissenschaftlern oder Pädagogen mithin ein besonderer Expertenstatus abgesprochen werden könne, beschreibt Meyer-Drawe: »[J]eder 19 Vgl. Andresen 2007, S. 128ff., besonders S. 131. 20 Ricken 2007, S. 16; vgl. auch ebd., S. 21 und 33. 21 Vgl. ebd., S. 20f.

14 | DER M ENSCH ALS NEURONALE M ASCHINE ?

hat ja irgendwie gelernt. […] Jeder kann mitreden. […] Alles, was sich verändern kann, lernt: Systeme, Gesellschaften, Religionen, Maschinen […]. In einer Gesellschaft flexibler Menschen meint Lernen eine Art opportuner Anpassung an soziale Erfordernisse.«22 Trotz eines solchen Allgemeinverständnisses von Lernen im Sinne einer affirmativen Adaption an Umweltbedingungen wird von der Pädagogik erwartet, humanistische Ideale hochzuhalten. Wer nämlich »Durchsetzungsfähigkeit wie Eigennutz, Rücksichtslosigkeit und bewusste Vorteilsnahme als nicht nur faktisch angemessene, sondern auch prinzipiell wünschenswerte Maximen aufstellte und schließlich zu ausdrücklich pädagogisch begründeten Lernzielen erklärte, der sähe sich vermutlich umgehend harschen Vorwürfen ausgesetzt, dass dies mindestens unverantwortlich, wenn nicht gar menschenverachtend und insofern schlicht zynisch 23

sei.«

Die Diskrepanz zwischen einerseits hohen, zum Teil widersprüchlichen Erwartungen sowie Anforderungen und andererseits pädagogisch Leistbarem führt schnell zu Enttäuschungen und kann in der Folge zu einem geringen Ansehen von Pädagogik und Erziehungswissenschaft beitragen. Stets wird betont, wie wichtig Fragen von Erziehung und Bildung sind; doch der Erziehungswissenschaft wird nicht zugetraut, drängende gesellschaftliche Fragen beantworten und bestehende Probleme bearbeiten zu können.24

22 Meyer-Drawe 2008, S. 30. 23 Ricken 2007, S. 18. 24 Vgl. ebd., S. 21. Entgegen dieser Ansicht betonen Keiner/Tenorth: »[N]icht erst in der Gegenwart, hier aber unverkennbar, ist die Disziplin für ihre politisch-gesellschaftlich relevante Umwelt auch ein gesuchter, für Fragen der Bildungs- und Erziehungspolitik offenbar unersetzlicher Partner« (Keiner/Tenorth 2007, S. 155). »Es gibt kein bildungspolitisches Programm seit 1788, das nicht erst durch Mitwirkung pädagogischer Expertise […] seine definitive Gestalt gewonnen hätte« (ebd., S. 164). Den dort genannten Indikator – Gremienmitgliedschaft – halte ich jedoch in Bezug auf die Messung gesellschaftlichen Ansehens für ungeeignet. Der Vergleich von Beiträgen zu Themen rund um erziehungswissenschaftliche und pädagogische Fragen von Vertretern unterschiedlicher Disziplinen in populärwissenschaftlichen Zeitschriften scheint mir hier aussagekräftiger (vgl. Becker 2006b).

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 15



1.2 B ILDGEBUNG UND M ETAPHORIK Anders verhält es sich mit dem Vertrauen in die modernen Neurowissenschaften und ihre Methoden. Sie wurden der Erziehungswissenschaft von der OECD im Jahr 2002 als Vorbild empfohlen,25 und im Folgebericht wurde 2007 festgehalten, dass die Erziehungswissenschaft nach zwei Jahrzehnten Pionierarbeit der Neurowissenschaften nun (endlich) anfange zu erkennen, dass das Verstehen des Gehirns helfe, in Bildungstheorie, -praxis und -politik neue, bessere Wege zu beschreiten.26 Auf (wissenschafts)politischer Ebene steht die bildgebende Hirnforschung nach wie vor hoch im Kurs; interdisziplinäre Großprojekte, die in Kernbereichen mit bildgebenden Verfahren arbeiten, werden von der DFG weiterhin mit Millionenbeträgen gefördert.27 Bedeutet der jüngste schlagartige Rückgang der Verarbeitung neurowissenschaftlicher Theoreme in der Erziehungswissenschaft28 nun, dass eine unbegründete Angst vor biologischer Forschung eine Auseinandersetzung mit wichtigen Forschungsergebnissen der Hirnforschung verhindert und womöglich zu einem »irreversiblen Schaden« für die Pädagogik zu führen droht?29 Oder werden wertvolle Ressourcen vergeudet, indem massenmarkttaugliche, populärwissenschaftlich geäußerte Befunde ohne hinreichende Reflexion übernommen werden, in der Hoffnung, den uralten und doch kaum erfüllbaren pädagogischen Traum zu realisieren: steuern zu können, was Kinder wann lernen?30 Ließe sich dieser Traum verwirklichen, wenn man Schülern ›in die Köpfe gucken‹ könnte? Dann wäre das Instrument der Erfüllung wohl die funktionelle Bildgebung; stets wird betont, dass ihr die großen Fort-

25 Vgl. OECD 2002, S. 9f. 26 OECD 2007, S. 13: »After two decades of pioneering work in brain research, the education community has started to realize that ›understanding the brain‹ can help to open new pathways to improve educational research, policies and practice.« 27 Z.B. das ›Exzellenzcluster‹ Languages of Emotion mit dem Dahlem Institute of Neuroimaging in Berlin. 28 Vgl. Becker 2010. 29 Friedrich 2005, S. 27. Weitere vor Ignoranz warnende Stimmen werden zitiert bei Becker 2006b, S. 178. 30 »›Wovon ein Lehrer träumt‹ aus Kahles Handbuch für Lehrerbildung von 1890 […]: ›Aller Augen sind heute auf den Lehrer gerichtet; […] kein Schüler wird müde und matt; keiner kommt auf fremde Gedanken; keines bedarf eines Anstoßes. […] Heute kann der Lehrer gewiß sein, daß sein Wort ›gehaftet‹ hat« (Ricken 2007, S. 30).

16 | DER M ENSCH ALS NEURONALE M ASCHINE ?

schritte der Neurowissenschaften in den letzten Jahrzehnten zu verdanken seien.31 Die derzeit maßgebliche bildgebende Technologie, deren Bilder die Strahlkraft der Hirnforschung ausmachen, ist zweifelsohne die funktionelle Magnetresonanztomographie (fMRT). Sie ist deswegen besonders attraktiv, weil sie an Menschen in vivo und bei Bewusstsein vermeintlich das sonst unsichtbare Innerste – Vorgänge im Gehirn – nach außen zu kehren vermag und in (farbigen, im Vergleich zu anderen Verfahren scheinbar hochauflösenden) Bildern festhalten kann. Populärwissenschaftliche Darstellungen von Neurowissenschaftlern erwecken beim Laien mitunter den Eindruck, »tatsächlich einer Hirnaktivität beizuwohnen, wobei unbemerkt lebensweltliche Erfahrungen und Assoziationen zur Deutung herangezogen werden.«32 Möglicherweise befriedigen sie ein »tief verankertes Bedürfnis im Menschen«,33 wie Gottfried Boehm die Wirkung von Bildern beschreibt: Nach Boehm sind Bilder besonders dazu in der Lage, Zugänge zu Abwesendem, Erdachtem und Erträumtem zu öffnen.34 Die Sinnstiftung, die von der Pädagogik erwartet wird, kann von Vertretern populärwissenschaftlicher Hirnforschung mit den massenhaft in Hochglanzzeitschriften abgedruckten Bildern der fMRT ausgeübt werden. Hirnbilder geben sich nicht direkt als Abbild von Natürlichem oder als künstliches Artefakt zu erkennen – sie lassen beide Deutungen zu, und der betrachtende Laie bleibt im Unklaren. Zumindest in ihren strukturellen (schwarz/weißen) Anteilen können sie auf tatsächlich Vorhandenes Bezug nehmen (nämlich auf Unterschiede in der Gewebezusammensetzung organischer Materie).35 Die funktionellen (farbigen) Anteile der Hirnbilder geben über bestimmte Farbskalen einen schnellen Überblick über die Signifikanzwerte tausender Hypothesentests. Trotz dieser eigentlich sachlichen Funktion können bestimmte Arten von Hirnbildern ihren Betrachter mit »ikonische[r] Wucht«36 treffen. »Etwas wirkt durch Bilder, […] dadurch, dass sie mit ihren imaginativen Überschüssen an sinnliche Erfahrungen anknüpfen«.37 Hirnbilder sind Modellbilder: Sie beziehen sich auf bestimmte

31 Vgl. z.B.: Herrmann 2009, S. 18; Pauen 2009, S. 33; Schumacher 2009, S. 124; Stern 2009, S. 116. 32 Meyer-Drawe 2010, S. 814. 33 Boehm 2008, S. 37. 34 Vgl. ebd., S. 39. 35 Für interindividuelle Datenauswertungen bedarf es jedoch standardisierter Referenzgehirne ohne natürliche Entsprechung. 36 Meyer-Drawe 2010, S. 808. 37 Ebd.

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 17



ausgewählte Elemente einer Wirklichkeit, sie lenken die Wahrnehmung auf diese Aspekte und blenden andere aus.38 Es gibt eine Reihe von Möglichkeiten, Daten der fMRT zu visualisieren und visuelle Modelle zu erstellen, deren spontan assoziative Wirkungen sehr unterschiedlich stark ausgeprägt sind. In populärwissenschaftlichen Kontexten finden sich jedoch stets ästhetische Darstellungen, die lebensweltliche Anknüpfungspunkte beim Betrachter suchen, gerade zu dem Zweck, ihn in den Bann der Bilder zu ziehen und etwas in ihm zu bewirken. Solche Hirnbilder haben eine suggestive Macht. Sie lösen Assoziationen und gegebenenfalls Emotionen aus und vermitteln durch Bedeutungsübertragung eine sinnliche Erfahrbarkeit. »Die Kraft der Modellbilder hat damit zu tun, dass die meisten ihrer visuellen Wurzeln […] in der Sphäre der Lebenswelt und des Alltags vorgeprägt sind. Die Vehikel der Einbildungskraft, deren sich Modellbilder bedienen, entstammen mithin Metaphoriken, die 39

sich tief in den Betrachtern und ihrer Erfahrungswelt niedergeschlagen haben.«

In ihrer Funktion der Bedeutungsübertragung sind Modellbilder Metaphern.40 Ihre Übertragungskontexte sind jedoch weniger prädestiniert, als dies bei sprachlichen Metaphern der Fall ist. Doch wie sprachliche Metaphern können bestimmte Formen der Datenvisualisierung eine »schlagartige und unvermittelte Evidenz«41 gewinnen, die der eigentliche Gegenstand nicht hat. So können sie (dem Laien wie dem Wissenschaftler) ein Reden über ihn auf der Basis eines historisch gewachsenen Vorwissens überhaupt erst ermöglichen. Die anfänglich mehrdeutigen Assoziationen und Übertragungen gewinnen durch Sprachgebrauch an Eindeutigkeit. Durch eingängige sprachliche Zuschreibungen – ›Gedanken lesen‹, ›Schnappschüsse des Geistes anfertigen‹ – verfestigen sich in den Bildern die Bedeutungsfelder der sprachlichen Metaphern. Auf diese Art verselbstständigt, bestimmt die Assoziation des Gedankenlesens die Richtungen der Argumente eines Diskurses über Hirnforschung, ohne dass die sprachliche Metapher im Diskurs noch explizit verwendet werden muss.42 Insofern sind die Bilder der fMRT außerordentlich wirkmächtige Modellbilder und können Deutungen jenseits ihrer Modellfunktion provozieren.43 Sie verschweigen die Bezugstheorien, Vorannahmen, Datenaggregationen, variable Parameter und sprachli38 Vgl. Boehm 2008, S. 116. 39 Ebd., S. 140. 40 Vgl. auch Vögtli/Ernst 2007, S. 20ff., insb. S. 34ff. 41 Hügli 2007, S. 24. 42 Vgl. ebd., S. 19. 43 Vgl. auch Abschnitt 5.4.

18 | DER M ENSCH ALS NEURONALE M ASCHINE ?

che sowie sonstige im weitesten Sinne soziale Rahmenbedingungen, die ihrer Genese vorausgehen, in sie einfließen und ihre möglichen Ausprägungen mitbestimmen. Ohne Klarheit bezüglich der Bedingungen der Bildgenese bleiben die Möglichkeiten der Auseinandersetzung mit den Bildern beschränkt. Ohne dezidierte Methodenkenntnisse sind Diskurse über Erkenntnisse der Hirnforschung und das propagierte neue Menschenbild auf die Einschätzungen derjenigen Wissenschaftler angewiesen, die natürlich ein Interesse daran haben, dass ihre Forschung als besonders faszinierend, potent und bedeutend wahrgenommen wird.44 Die Einschätzung der Leistungsfähigkeit neurowissenschaftlicher Methoden droht dann leicht zur Glaubensfrage zu werden. Der große Nutzen von Bedeutungsübertragungen kann bei den Hirnbildern zu einem großen Problem werden: (Bild)metaphern können Fremdes vertraut werden lassen und (dem Laien) ein Verständnis vorspiegeln, wo im wissenschaftlichen Sinne keines ist. So avancieren popularisierte Modellbilder zu einem wichtigen Teil der landläufigen Einschätzung dessen, was bildgebende Neurowissenschaften alles zu erklären vermögen.45 Abbildung 1 ist Ausdruck eines vergleichsweise leicht nachvollziehbaren Beispiels dafür, wie Bilder durch Metaphorik zum Kronzeugen einer Technologie werden und beim Bildbetrachter Erwartungen wecken, die die Wissenschaft nicht erfüllen kann. Durch die Beschriftung wird suggeriert, man könne mithilfe einer HightechBildgebung direkt ablesen, wie schädlich sich die temporäre Abwesenheit von Eltern auf die »Verdrahtung« im Kindergehirn auswirkt. Die Herkunft der Bilder und die Methode der Bildgewinnung werden bei Braun nicht erwähnt. Im Bezugsartikel in der neurobiologischen Fachzeitschrift Neuroscience wird als Untersuchungsmethode eine Kombination aus Mikroskop und Bildanalysesoftware genannt,46 die obige Abbildung taucht dort jedoch nicht auf. Die Untersuchung der Hirnzellen per Mikroskop setzt den Tod der Tiere voraus; in der zitierten Studie wurden die Gehirne der enthaupteten Ratten vor der Analyse 14 Tage in eine Golgilösung eingelegt, um (zufällige) Nervenzellen anzufärben.47 Da eine Untersuchung an langwierig präparierten Gehirnscheibchen nicht in vivo durchgeführt werden kann, kann die Abbildung keine Unterschiede der Anzahl synaptischer Dornen an der gleichen Zelle »nach wiederholtem Elternentzug« zeigen. Laut Bezugsartikel wurde der Befund statistisch über Zellstichproben aus unter-

44 Vgl. Janich 2009, S. 91ff. sowie Dumit 2004, S. 105. 45 Vgl. auch Meyer-Drawe 2008, S. 30. 46 Vgl. Helmeke/Poeggel/Braun 2001, S. 930. 47 Vgl. auch Abschnitt 4.1.3.

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 19



schiedlichen Gruppen (à 5 Tieren) ermittelt.48 Statt einem eindeutig negativ konnotierten »Chaos im Gehirn?« heißt es dort ausdrücklich, dass die Untersuchung keine Aussagen über die Bedeutung des Befundes für das weitere Leben der Tiere zulässt.49 Abbildung 1: Vermehrung synaptischer Dornen?

Quelle: Braun 2009, S. 143.

Mit Blick auf diese Diskrepanzen zwischen den Artikeln verwundert es wenig, dass die beiden Bildausschnitte – von den mit Pfeilen gekennzeichneten Orten abgesehen – exakt deckungsgleich sind. Es stellt sich die Frage, warum hier mit zweierlei Gestus geschrieben wird und das Kriterium der Wissenschaftlichkeit im pädagogischen Kontext offensichtlich anders bewertet wird als im naturwissenschaftlichen. Neben dem Zusammenspiel zwischen sprachlichen Metaphern und bildlicher Darstellung – ohne die ›Erläuterung‹ gäbe es auf den Bildern wohl nichts Interpretierbares zu erkennen – verdeutlicht der Artikel Brauns auch eine

48 Vgl. ebd., S. 929. 49 »It remains to be determined whether these synaptic changes are beneficial and improve the animal’s capacity for cognitive and behavioral plasticity, or if they are detrimental and result in a deterioration of the animal’s intellectual and psychosocial competences during later life.« (Ebd.)

20 | DER M ENSCH ALS NEURONALE M ASCHINE ?

bestimmte Einstellung gegenüber dem um Interdisziplinarität bemühten pädagogischen Diskurs. Aussagen von Neurowissenschaftlern, die sich an Adressaten außerhalb der Grenzen des eignen Fachgebietes richten – dazu zählen Feuilletons und populärwissenschaftliche Zeitschriften ebenso wie interdisziplinäre wissenschaftliche Veröffentlichungen –, zeugen regelmäßig von einem solchen durch Superalternität gekennzeichneten Habitus. Einige Bekundungen sind Ausdruck der Überzeugung, (zumindest in naher Zukunft) Gedanken und unbewusste Verarbeitungsprozesse identifizieren und objektiv ›lesen‹ zu können.50 Es geht um nicht weniger als die »Entschlüsselung von Bewusstsein«51 und damit um den »Kern der conditio humana.«52 Aus diesem Anspruch ergeben sich erhebliche fachliche und disziplinpolitische Konsequenzen für die Erziehungswissenschaft, da Neurowissenschaftler öffentlichkeitswirksam in Bereiche vorstoßen, die traditionell von Philosophen und Erziehungswissenschaftlern bearbeitet werden, wobei aus der Verachtung geisteswissenschaftlicher Methoden kaum ein Hehl gemacht wird: »Das Instrumentarium der Philosophen – eine durch Introspektion angereicherte logische Argumentation – ist der enormen Komplexität und Unzugänglichkeit des menschlichen Geistes einfach nicht gewachsen.«53 Als Quintessenz erklingt das Postulat, dass die neuere neurowissenschaftliche Forschung eine veränderte gesamtgesellschaftliche Sichtweise auf den Menschen erfordere.54 Auf welche Weise das Wissen zustande kommt, aus dem solch weitreichende Forderungen abgeleitet werden, wird – zumindest in öffentlichen und interdisziplinären Beiträgen – selten thematisiert, obwohl es für seine Bewertung essenziell wäre. Bildgebende Verfahren liefern eine anschauliche Referenz für das Paradigma eines »neuronalen Menschen«,55 das seit den 1980er Jahren zum Leitmotiv der öffentlich von vielen Neurowissenschaftlern vertretenen Erklärungen des Menschen wurde.56 In einem Satz bedeutet dieses Paradigma die Annahme der »Iden50 Vgl. Abschnitt 6.2. 51 Vgl. Koch 2004. 52 »Consciousness is at the very core of the human condition« ist zu lesen im Klappentext von Baars/Banks/Newman 2003. 53 Koch 2004, S. 229. 54 Vgl. z.B. Singer 2003; Roth 2003, insb. S. 545ff. 55 Vgl. Changeux 1984. 56 Eine Sammlung jüngerer populärwissenschaftlich veröffentlichter Beiträge zur Frage, ob Neurowissenschaftler »den ›eigentlichen‹ Kern unseres Denkens, Fühlens und Handelns offen zu legen« in der Lage sind, liefert Könneker 2007 (das Zitat stammt aus dem Klappentext).

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 21



tität von geistigen Zuständen und […] physikalisch-chemischen Zuständen des Gehirns«;57 oder, noch simpler, in den Worten Holk Cruses: »Ich bin mein Gehirn.«58 In pädagogischen Kontexten führt diese Gleichsetzung von Personen und ihren Gehirnen zu Darstellungen wie: »Das Gehirn ist immer auf der Suche nach Erfahrungen, nach Erlernbarem, mit denen es sich über Erfolgserlebnisse selbst belohnt, also ein ›Lusterlebnis‹ verschaffen kann.«59 Wo Pädagogen eine solche Auffassung vom Menschen als hedonistische ›Gehirnmaschine‹ aufnehmen, durch metaphorischen Sprachgebrauch transportieren und gegebenenfalls Unterricht an ihr ausrichten, leisten sie in einer Gesellschaft ›lebenslanger Lerner‹ einen nicht unerheblichen Beitrag zu ihrer gesellschaftlichen Akzeptanz und Normalisierung. Das Bild-/Metaphernkonglomerat populärwissenschaftlich dargestellter Hirnforschung kann so »im Dienste der Lebenspraxis«60 auch für die Lernenden zum handlungsleitenden Alltagswissen werden. Schlägt sich ein Bild vom Menschen als neurochemisch-selbstreferenzielles maschinelles System im alltäglichen Sprachgebrauch nieder, ist schnell vergessen, dass es die anfängliche Vorläufigkeit und Unzugänglichkeit des Wissens waren, die die Metaphern und Bilder überhaupt nötig werden ließen. »Der Als-ob-Charakter der Metapher geht vergessen, Metaphern werden unvermittelt […] zur Realität und schaffen damit selbst Realität.«61

1.3 Z IELSETZUNG

DER

ARBEIT

Das Konzept, dass der Mensch durch die Struktur und die chemischen Abläufe seines Gehirns determiniert sei, wird in dieser Arbeit als Theorem der ›neuronalen Maschine‹62 bezeichnet. Seine aktuelle Begründung fußt auf zwei Säulen, erstens dem Fortschritt der neurologischen Diagnostik und zweitens Möglichkeiten zur Intervention. Es ist anzunehmen, dass sich der Glaube an einerseits ein umfassendes Verständnis neurochemischer Vorgänge im Gehirn und ihrer Bedeutung für menschliches Erleben und andererseits die gezielte medikamentöse Veränderung von kognitivem Leistungsvermögen sowie des Allgemeinbefindens massiv gegenseitig bedingen. Potenzielle gesellschaftliche Auswirkungen mo-

57 Ebd., S. 245. 58 Cruse 2004. 59 Braun 2009, S. 141. Dieses und weitere Beispiele finden sich bei Becker 2007, S. 149. 60 Hügli 2007, S. 33. 61 Ebd. Vgl. auch Fleck 1980, S. 145f.; Wulf 1999, S. 8. 62 Vgl. Abschnitt 2.4.

22 | DER M ENSCH ALS NEURONALE M ASCHINE ?

derner Interventionsoptionen im Gehirn stehen seit einiger Zeit unter soziologischer und ethischer Beobachtung.63 Die Rolle diagnostischer Verfahren bei der Formung von Menschenbildern ist jedoch weniger greifbar als dies bei (zumindest in den USA stark beworbenen) Medikamenten der Fall ist, deren Wirkung sich in der Regel auch individuell nachvollziehen und deren Verbreitung sich anhand von Verkaufszahlen recht gut messen lässt. State-of-the-art-Technologien wie die fMRT dienen hingegen als visuelle Belege für das Vermögen der Neurowissenschaften, den Menschen durch die Aktivität seiner Neuronen erklären zu können, ohne jedoch direkt überprüfbar zu sein. Für das Verfahren der Positronenemissionstomographie (PET) beschreibt Joseph Dumit eine Verwendung der Bilder als direktes Verkaufsargument für Psychopharmaka. 64 Die soziologische Analyse der Randbedingungen (experimentelle Settings, Sprachgebrauch, Selbstverständnis und Außendarstellung) bei Versuchen der PET führt auch ihn zu dem Schluss, dass Hirnbilder Ikonen seien – Ikonen des Vermögens, dem Gehirn Informationen entnehmen zu können.65 Die Feststellung und Erklärung der ikonischen sowie suggestiven Macht von Hirnbildern wirft jedoch die Frage auf, ob die zugrunde liegenden Verfahren prinzipiell geeignet sind, Antworten auf Fragestellungen zur allgemeinen Verfasstheit des Menschen zu bearbeiten. Zu den bildgebenden Verfahren der kognitiven Neuropsychologie zählen Elektroenzephalografie (EEG), Magnetenzephalografie (MEG), Positronenemissionstomographie (PET), strukturelle und funktionelle Magnetresonanztomographie ([f]MRT) und weitere.66 Im ersten Jahrzehnt des 21. Jahrhunderts sind es vor allem die Bilder der fMRT, die in der Öffentlichkeit kursieren und Beachtung finden. Diese Hirnbilder und die Auffassung vom Menschen als neuronale Maschine haben inzwischen große Bereiche der Lebenswelt durchdrungen und eine so große anthropologische und damit auch pädagogische Bedeutung erlangt,67 dass diese Schlüsseltechnologie in der Erziehungswissenschaft eines genauen Blickes bedarf. FMRT ist eine Sammelbezeichnung für verschiedene Methoden, deren Gemeinsamkeit die Verwendung des technischen Gerätes Magnetresonanztomograph ist. Aus der Gruppe der fMRT-Verfahren wird für diese Arbeit vor allem die funktionelle BOLD-fMRT unter Verwendung von kognitiven Subtraktionsdesigns beleuchtet, da die meis63 Vgl. z.B. Rose 2004; Merkel et al. 2007. 64 Vgl. Dumit 2004, S. 153ff. Diese Nutzung der Bilder ist in Deutschland wegen des Werbeverbots für verschreibungspflichtige Medikamente jedoch nicht möglich. 65 Vgl. ebd., S. 105; vgl. auch Abschnitt 1.2. 66 Einen deutschsprachigen Überblick über bildgebende Verfahren der kognitiven Neuropsychologie bieten Büchel/Karnath/Thier 2006 sowie Jäncke 2005. 67 Vgl. Hövel 2008.

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 23



ten Untersuchungen ›höherer Hirnfunktionen‹ beim Menschen gegenwärtig auf diesem Verfahren basieren.68 Die Leitfrage dieses Buches lautet, ob sich das Verfahren der funktionellen BOLD-MRT dazu eignet, Aussagen über die Deutung des Menschen als neuronale Maschine zu begründen. Es gilt zu klären, ob alle Schritte im Prozess der Wissensgewinnung so alternativlos und eindeutig ablaufen, dass Aussagen über eine Determiniertheit des Untersuchungsgegenstandes gerechtfertigt sind. Zeigte die fMRT, dass der Mensch eine neuronale Maschine ist, so dürften sich im Prozess der Wissensgewinnung streng genommen keine Kontingenzen finden. Um diese Frage zu beantworten, ist es erforderlich, den Prozess der Bildgenese und die Bezugstheorien der Magnetresonanztomographie auf Erklärungsunsicherheiten sowie -alternativen und Abhängigkeiten von (sozialen) Randbedingungen zu prüfen. In dem sich schnell entwickelnden Bereich der Bildgebung sollen dadurch nicht nur Momentaufnahmen, sondern grundsätzliche Interpretationshilfen auch für zukünftige fMRT-Verfahren und Bilder geliefert werden. Kenntnisse der Methodik der fMRT sind eine Bedingung dafür, dass Diskurse über Hirnforschung in der Erziehungswissenschaft – vor allem für den Fall einer neuerlichen Hochkonjunktur neurowissenschaftlichen Wissens69 – sachorientiert kritisch stattfinden und in einer gemeinsamen Sprache jenseits begrifflicher Alltagsverständnisse geführt werden können.70 Nur auf der Basis einer Vertrautheit mit den grundlegenden Prinzipien der funktionellen Bildgebung lässt sich evaluieren, ob und inwiefern sich zukünftige MRT-Verfahren für die Untersuchung erziehungswissenschaftlicher Fragestellungen eignen. Die Analyse von Beobachtungstechnologien nimmt auch deswegen einen prominenten Stellenwert ein, damit das kritisierte Verhalten von Neurowissenschaftlern in pädagogischen 68 Das Akronym BOLD steht für »Blood Oxygen Level Dependent«. Zur Funktion der BOLD-fMRT vgl. Kapitel 5.6. 69 »Es wird den öffentlichen Debatten über die pädagogische Relevanz der Hirnforschung zweifellos so ergehen, wie allen Debatten, die sich als Reaktion auf ein bestimmtes diskursives Großereignis […] entwickeln: Nach einer Hochphase, in der sich Artikel und Stellungnahmen häufen, wird das Thema aus der öffentlichen Aufmerksamkeit verschwinden um zu einem späteren Zeitpunkt wieder aufgenommen zu werden. Es spricht einiges dafür, dass solche Wiederaufnahmen immer dann stattfinden werden, wenn auf Seiten der Neurowissenschaften grundlegende methodische Weiterentwicklungen im Gange sind und zwar insbesondere solche, die Einblicke in das denkende Gehirn erlauben« (Becker 2006b, S. 184). 70 Detaillierte Analysen neurowissenschaftlichen Vokabulars und seine Verwendung außerhalb neurowissenschaftlicher Forschungskontexte finden sich in jüngerer Zeit u.a. bei Bennett et al. 2007, Hagner 2006, Janich 2009, Meyer-Drawe 2008.

24 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Kontexten, nämlich Werkzeuge und Theorien zu trivialisieren, hier keine Entsprechung erfährt. Trotz allem bleibt der Blick auf die fMRT aus der Erziehungswissenschaft ein fachfremder. Die Anlage der Untersuchung impliziert eine engere Analyse der fMRT stets unter der Fragestellung, ob das Bild vom Menschen als neuronaler Maschine belegt werden kann. Nicht eine objektive Analyse des Verfahrens ist das Ziel, sondern die explizite Suche nach Begründungslücken und kontingenten Einflüssen auf Verfahrensabläufe und Bildgenese. In den Abschnitten, die sich mit den Verfahren der MRT beschäftigen, kommt, bei mehreren verfügbaren Interpretationsalternativen, stets eine kritische zur Darstellung. Dargelegt wird auch die Rolle von Bildern als verselbstständigten Wissensobjekten in erziehungswissenschaftlichen Diskursen und anderen Bereichen, die Menschenbilder beeinflussen, wie z.B. populärwissenschaftliche Darstellungen neurowissenschaftlicher Ergebnisse. Sie wendet sich gegen die neuropsychologische Verheißung, eine ›gute Pädagogik‹ begründen zu können,71 und sie will sich als eine kritische Analyse ästhetisierter Bilder und einiger ihrer Verwendungskontexte sowie Interpretationen verstanden wissen, nicht aber als Generalkritik an neurowissenschaftlicher Forschung unter Verwendung bildgebender Verfahren. Forschung, die nicht über suggestive Darstellungen und spekulative Bedeutungszuschreibung an die Öffentlichkeit drängt, wird der Erziehungswissenschaft nicht zum Problem. Es besteht kein Grund, (vorläufige) Forschungsergebnisse, die innerhalb des Wissenschaftssystems verbleiben und dort auch revidiert werden, über Disziplingrenzen hinweg zu kritisieren oder gar zu diskreditieren.

1.4 V ORGEHEN In Kapitel 2 – Mensch und Maschine – werden anhand mechanischer Androiden, Fritz Kahns Darstellungen des Menschen im Spiegel der Hochindustrialisierung und kybernetischer Informationsverarbeitungssysteme einige markante Stationen der Geschichte eines historisch persistenten Mensch-Maschine-Vergleichs nachgezeichnet. Darauf aufbauend wird das Menschenbild der neuronalen Maschine definiert und eine Differenzierung zwischen Bildern und Modellen eingeführt. In Anlehnung an pharmakologische Interventionsmöglichkeiten werden gegenwär-

71 Vgl. Roth 2004, S. 496. »Nichts von dem, was ich vortragen werde, ist einem guten Pädagogen inhaltlich neu. Der Fortschritt besteht vielmehr darin zu zeigen, warum das funktioniert, was ein guter Pädagoge tut, und das nicht, was ein schlechter tut.«

H IRNFORSCHUNG

UND

E RZIEHUNGSWISSENSCHAFT

| 25



tige und mögliche zukünftige Auswirkungen des Bildes vom Menschen als neuronaler Maschine diskutiert. Kapitel 3 – Weltbilder und Wissenschaftstraditionen – fragt nach Vorbedingungen der Entstehung neuen Wissens. Es zeigt die Bedeutung von Weltbildern und Wissenschaftstraditionen für die Formulierung unterschiedlicher Konzepte für wissenschaftliche Zugänge zur Welt. Besonderes Augenmerk gilt dabei einerseits dem Begriff der Reduktion und andererseits der Frage, welche Eigenschaften der menschlichen Psyche sich naturwissenschaftlich beschreiben lassen und welche Rolle ›Naturgesetze‹ für das Verständnis der menschlichen Psyche spielen. Kapitel 4 – Zwischen Gegenständen, Instrumenten und Bildern – konkretisiert geisteswissenschaftliche Einwände gegen eine naturwissenschaftlich realistische Wissenschaftsauffassung bei der Verwendung von Verfahren der Bildgebung und sammelt soziale Faktoren der Bildgenese. Aktuelle bildgebende Verfahren der Hirnforschung eignen sich zum Zweck einer wissenschaftshistorischen Analyse nicht, da gerade die funktionelle Magnetresonanztomographie, die im Zentrum späterer Ausführungen steht, erst seit vergleichsweise kurzer Zeit als Standardverfahren eingesetzt wird und einer zügigen Weiterentwicklung unterliegt. Es besteht noch kein ausreichend großer zeitlicher Abstand, um die gesellschaftlichen Rahmenbedingungen der Entwicklung subsumieren zu können. Eine naheliegende Technik für diese Form der Untersuchung stellt die Lichtmikroskopie dar. Sie hat einen jahrhundertelangen Werdegang hinter sich, ihre Entwicklung gilt heute als bei ihren physikalischen Grenzen angekommen, und ihre physikalischen Prinzipien lassen sich vergleichsweise leicht nachvollziehen. Die Lichtmikroskopie ist epistemologisch ausgiebig bearbeitet, und auf diese Arbeiten kann zurückgegriffen werden, um Wege der Wissensgewinnung, -vermittlung und -verbreitung bei nur indirekt zugänglichen Objekten aufzuzeigen. Darüber hinaus finden sich deutliche Parallelen zwischen Bildgebungsverfahren mittels Mikroskopie und Magnetresonanztomographie – dazu gehört z.B. der Umgang mit der Schwierigkeit, dass die Datengewinnung für eine zweidimensionale Abbildung an einem dreidimensionalen Objekt vorgenommen werden muss. Aufgrund der einfacheren Zugänglichkeit der Mikroskoptechnik lässt sich mithilfe der Mikroskopie wesentlich deutlicher veranschaulichen, dass Parameter für die Bildqualität variabel und nicht immer kontrollierbar sind, dass ein qualitativer Unterschied vom unvermittelten zum instrumentell vermittelten Sehen besteht, dass Instrumente vorgeben, welche Eigenschaften eines Objektes untersucht werden können, dass sich epochale Stilvorlieben auf Wissensbestände und Visualisierungen auswirken, welche Rolle Vorwissen für Möglichkeiten des

26 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Erkennens spielt und dass es bisher unmöglich ist, eine von menschlicher Interpretation unabhängige sowie sichere Erkenntnis bezüglich der natürlichen Beschaffenheit eines Gegenstandes instrumentell zu erzeugen. Kapitel 5 konzentriert sich auf Basistheorien und Techniken der Magnetresonanztomographie. Es wird gefragt, wie es möglich ist, dass physikalische Theorien, die jenseits lebensweltlicher Anschauung liegen, in medizinischen, psychologischen und erziehungswissenschaftlichen Kontexten zu scheinbar sicherem und anschaulichem Wissen transformiert werden. Darauf aufbauend beginnt in Abschnitt 5.3 eine Darstellung der Funktionsweise der strukturellen Magnetresonanztomographie (MRT), die aufzeigt, welche Eigenschaften des Untersuchungsgegenstandes zur Bildgebung verwendet werden können. Es wird verdeutlicht, wie Datentransformationen zur Formung des Wissens beitragen, das sich mithilfe der MRT generieren lässt. Abschnitt 5.6 beleuchtet die Grundlagen der funktionellen BOLD-MRT. Die Bildgenese und Interpretation der fMRT unter besonderer Berücksichtigung sozialer Rahmenbedingungen werden in Kapitel 6 dargelegt. Dieses Kapitel vergleicht die Darstellungen prominenter neuropsychologischer Versuche und ihrer Resultate im fachlichen Kontext mit ihren populärwissenschaftlichen Darstellungen. Es geht auf Bedingungen ein, die das Instrument an Versuchsdesigns stellt und auf Besonderheiten der Ergebnisinterpretation, die auf das korrelative Wesen vorgefundener Beziehungen zurückzuführen sind. Letztlich rückt der Kompositcharakter von Hirnbildern, die mithilfe der fMRT gewonnen werden, in den Fokus, und es wird eine alternative Antwort auf die Frage gesucht, was solche Hirnbilder darstellen, wenn sie keine Beweisfotos für die neuronale Maschine sind. Das schließt die Diskussion der Frage ein, ob es gerechtfertigt ist, bildgebende Verfahren für die Begründung eines neuen Menschenbildes heranzuziehen. Als Literatur für die neuropsychologischen Bereiche dieser Arbeit wird vor allem auf Lehrbücher zurückgegriffen, weil sie dafür bürgen, dass das dargestellte Wissen einen gewissen Grad an Stabilität erreicht hat. Zugunsten der Stabilität wird in Kauf genommen, dass Lehrbuchwissen in der Regel nicht dem neuesten Stand der Forschung entspricht.

2. Mensch und Maschine

»Die ehemals mechanische und heute informationstheoretische Modellierung menschlicher Möglichkeiten führte und führt häufig zur Fixierung einer Alternative von Mensch und Maschine. Dieser kapazitäre Wettkampf wäre allerdings […] von vornherein entschieden. […] Weder in mechanischer noch in informationstheoretischer Hinsicht kann der Mensch gegen die von ihm konstruierten Maschinen gewinnen, weil die Maschinen 1

die Regeln vorschreiben, nach denen gewonnen und verloren wird.«

Womit der Mensch sich vergleicht, als was er sich selbst betrachtet und beschreibt, beeinflusst die zukünftige Gestalt menschlichen Miteinanders.2 Menschenbilder sind historisch fluktuierende Vorstellungen davon, was den Menschen ausmacht. Sie können auf Basis des Wissens einer Zeit als implizite oder tradierte Ideen oder als explizite Ausarbeitungen Einfluss darauf nehmen, welchen Sinn Menschen ihren Handlungen zuschreiben und welchen Möglichkeiten und Grenzen sie sich und ihren Nachkommen ausgesetzt sehen.3 »Selbstverständnisse von Menschen sind Selbstverhältnisse. Sie wiederholen nicht lediglich eine ursprüngliche Vertrautheit mit sich selbst. Sie gründen vielmehr in einer Differenz zwischen dem Betrachter und dem Betrachteten.«4 »Die Vorstellung, die wir von uns haben – unser Menschenbild –, ist eine fundamentale Grundlage unseres Selbstverständnisses und jeder bewußten Gestaltung unseres Soziallebens.«5 Insbesondere der Stand der technischen Entwicklung hat, wie im

1 2

Meyer-Drawe 2007, S. 19. Vgl. Meyer-Drawe 2008, S. 75 mit Referenz auf Plessner 1983, S. 116. Vgl. auch Abschnitt 2.5.

3

Vgl. Meyer-Drawe 1995a, S. 358.

4

Meyer-Drawe 2008, S. 51.

5

Barsch/Hejl 2000, S. 7.

28 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Folgenden dargelegt, in westlichen Gesellschaften stets großen Einfluss auf die Selbstdeutung des Menschen ausgeübt. In Europa hat der Vergleich von Menschen mit von ihnen hervorgebrachten Automaten und Maschinen eine lange Tradition. Mit der Entwicklung immer komplizierterer, sich eigenständig und kontrolliert bewegender Automaten – im Mittelalter bildete zunächst die mechanische Uhr einen Meilenstein der mechanischen Handwerkskunst und wurde zum Synonym für Maschine6 – kamen letztlich Spekulationen auf, dass der Mensch selbst zum Schöpfer avanciert sein könnte.7 Diese geänderte Perspektive der Selbstdeutung des Menschen, sich nicht nur als Geschöpf Gottes, sondern auch als Schöpfer seiner Maschinen zu betrachten, führt seit der Entwicklung der Uhr immer wieder dazu, dass der Status des Menschen im Spiegel seiner Maschinen hinterfragt wird. Ist der Mensch möglicherweise selbst nur die Maschine eines göttlichen Mechanikers?8 Die Grenze zwischen Schöpfer und Schöpfung verschwimmt; Analogieschlüsse zwischen Menschen und Maschinen werden seither immer wieder hergestellt. Einige markante Facetten dieser Art der Menschdeutung werden im Folgenden aufgezeigt.

2.1 D ER M ENSCH

ALS MECHANISCHER

AUTOMAT

Als »philosophisch-ideologische[r] Wegbereiter«9 der Realisation von mechanischen Geräten, die in ihrer Gestalt und ihrer Funktion Menschen nachempfunden sind und in dieser Gestalt eine veränderte Sicht auf den Menschen bewirken, gilt René Descartes. Descartes befürwortete und praktizierte ein neues methodisches Vorgehen in der Wissenschaft: Um zu Erkenntnissen zu gelangen, zergliederte er das zu erklärende Phänomen kleinschrittig, sodass sich die Teile einzeln und mit aufsteigendem Schwierigkeitsgrad analysieren lassen.10 Das Phänomen Mensch

6

Vgl. Schmidt-Biggemann 1980, Sp. 791f.; Meyer-Drawe 2007, S. 24; 1995b, S. 47.

7

Eine Sammlung von Beiträgen, die sich mit der Erschaffung künstlichen Lebens in

8

Vgl. Meyer-Drawe 1996.

9

Tietzel 1984, S. 40.

unterschiedlichen Epochen beschäftigen, bietet Riskin 2007.

10 Descartes ›Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung‹ enthält vier Haupt- und vier moralische Regeln. Die erste Hauptregel besagt, eine Sache nur nach eigenem deutlichen und gründlichen Erkennen unter Vermeidung von Vorurteilen als wahr anzuerkennen. Die Hauptregeln 2 und 3 behandeln die Zergliederung und stufenweise Bearbeitung jeden Problems. Die letzte Hauptregel ver-

M ENSCH UND M ASCHINE

| 29



teilte er in Seele und Leib auf. Die Seele beschrieb er metaphysisch als res cogitans und zog sie aus der natürlich-physischen Welt (res extensa) ab.11 Den Leib hingegen betrachtete er als ganz der materiellen Welt zugehörig und negierte eine etwaige Sonderstellung des Organischen gegenüber Anorganischem. Geprägt von den Schlüsseltechnologien seiner Zeit – die Mechanik der Uhr und die Hydraulik des Springbrunnens – bestimmte Descartes den menschlichen Leib ebenso wie den der Tiere (denen er keine Seele zugesteht) als Maschine.12 Im 18. Jahrhundert erreichte der Mensch-Maschine-Vergleich eine neue Qualität, da nun erstmals mechanisch aufwendige Maschinen geschaffen wurden, die dem Menschen äußerlich ähnelten: sogenannte Androiden. Intellektuelle Auseinandersetzungen mit künstlichen Menschen (z.B. in Form des Golem und von Homunkuli) sind bereits aus früheren Jahrtausenden überliefert; auch von selbst-bewegten Figuren, die ohne mystischen Schöpfungsakt auskommen, wird berichtet. Jedoch ist nicht immer klar, welche dieser Figuren auch tatsächlich existierten und welche ausschließlich als mentale Konstrukte. Eine anthropologische Wirkung in Form einer veränderten Selbstbetrachtung des Menschen wird diesen frühen Maschinenwesen jedenfalls nicht zugeschrieben.13 Die Konstrukteursfamilie Jaquet-Droz entwarf mechanische Androiden, welche jeweils einige menschliche Eigenschaften mimten.14 Die menschliche Konturen tragenden Puppen üben eine einprogrammierte Fertigkeit aus (je nach Figur Musizieren, Schreiben oder Zeichnen) – ihre Energie beziehen die Automaten aus zuvor manuell gespannten Triebfedern. Zusätzlich zeigen sie nicht-funktionale Bewegungen, um ihnen ein natürlicheres Antlitz zu geben: Die Harmoniumspielerin etwa bewegt Kopf und Augen, verbeugt sich und simuliert durch Heben und Senken des Brustkorbes die Atmung. Gemäß einer Anekdote sollen die Darbietungen auf das Publikum so natürlich und lebendig gewirkt haben,

langt lückenlose Aufzählung und die Aufstellung allgemeiner Übersichten. (Vgl. Descartes 1990, S. 30ff.) 11 Vgl. Meyer-Drawe 1995b, S. 48ff. 12 Vgl. ebd., S. 53f. Der Zusammenhang von Leib und Seele – zugespitzt in der Frage, warum der Steuermann Schmerz empfindet, wenn das Schiff beschädigt wird – wird bei Descartes weitgehend ausgeklammert (vgl. Meyer-Drawe 2007, S. 35). Allerdings bestimmte er sowohl die Art des Zusammenwirkens als auch seinen Ort. (Vgl. Clarke/Dewhurst 1973, S. 69ff.) Wobei Canguilhem der Meinung ist, dass die Lokalisation dieses Ortes (der Hypophyse) bei Descartes eine rein metaphysische Funktion erfülle. (Vgl. Canguilhem 1990, S. 8f.) 13 Vgl. Tietzel 1984, S. 36f. sowie Boden 2006, S. 52ff. 14 Vgl. Tietzel 1984, S. 42ff.

30 | DER M ENSCH ALS NEURONALE M ASCHINE ?

dass Henri-Louis Jaquet-Droz »nur knapp einer Verhaftung durch die Inquisition wegen Hexerei entgangen sei.«15 Verständlich wird diese weitreichende Interpretation mechanischer Puppen unter Berücksichtigung folgender zwei Aspekte: Einerseits entsprachen die von den Androiden aufgeführten Tätigkeiten mit Schreiben oder Musizieren den erstrebenswerten kulturellen Fertigkeiten, die oftmals Mitgliedern adliger Hochkultur vorbehalten waren.16 Andererseits wurde als Kriterium für Lebendigkeit zu jener Zeit das Prinzip der aktiven Bewegung diskutiert – nicht zwangsläufig wurde das lebende Organische dem toten Mechanischen gegenübergestellt.17 Abbildung 2: Mechanische Ente (Jacques de Vaucanson)

Quelle: http://upload.wikimedia.org/ wikipedia/commons/7/75/Duck_of_ Vaucanson.jpg

Der unter Zeitgenossen umstrittene Arzt und Philosoph Julien Offray de La Mettrie, der sich als Materialist verstand, postulierte unter Referenz auf die Automaten Vaucansons (berühmt sind vor allem seine Mechanische Ente [Abbildung 2] und Der Flötenspieler), dass der ganze Mensch mittels des Bewegungsprinzips erklärbar sei und nicht nur der Leib, welcher nach Descartes der res extensa zugehört:18 »Der menschliche Körper ist eine Maschine, die ihre Federn selbst aufzieht, ein lebendes Abbild der ewigen Bewegung.«19 So radikal La Mettries Schlussfolgerung wirkt, dass Menschen nicht über das Alleinstellungsmerkmal der Seele verfügten, sondern in allen Lebensäußerungen nichts weiter

15 Ebd., S. 44; vgl. auch Bisanz et al. 1994, S. 55. Jedoch betont Meyer-Drawe, dass eine »Verwechslung von Schöpfer und Geschöpf […] auch schon damals ausgeschlossen« war, da die geöffnete Rückseite der Automaten ihr mechanisches Innenleben selbst während der Vorführung zur Schau zu stellten vermochte (Meyer-Drawe 1991, S. 122). 16 Vgl. ebd. 17 Vgl. Meyer-Drawe 1995a, S. 362 sowie 367f. 18 Vgl. ebd., S. 360 sowie Meyer-Drawe 1999. 19 La Mettrie 1909, S. 15.

M ENSCH UND M ASCHINE

| 31



als »senkrecht kriechende Maschinen«20 seien, so sehr ist sie auch Ausdruck eines konsequent zu Ende gedachten mechanistischen Weltbildes. Vertreter dieser Weltanschauung nahmen an, dass sich sämtliche Vorgänge in der Natur auf physikalische Gesetze der Bewegung und Krafteinwirkung zurückführen lassen. Sie waren zuversichtlich, dass es nur noch eine Frage der Zeit sei, bis sich sämtliche menschliche Eigenschaften auch nachbauen ließen.21 La Mettries Theorie, dass sich Menschen von Tieren allein im Grad der Komplexität ihrer stofflichen Organisation unterscheiden,22 ist auch bei gegenwärtigen Materialismus-Vertretern in der Hirnforschung en vogue. Christof Koch insistierte 2009 bei einem Vortrag in der Berlin-Brandenburgischen Akademie der Wissenschaften, dass selbst sein Mobiltelefon (ein Apple iPhone) so komplex organisiert und intelligent sei, dass es durchaus über Bewusstsein verfügen könne.23 Gegen Ende des 18. Jahrhunderts verloren die Androiden jedoch viel von ihrer Faszination. Die Versuche Luigi Galvanis mit Froschschenkeln zeigten um 1770, dass sich neben mechanischen auch elektrische Vorgänge in Tierkörpern ausmachen lassen, und dass selbst tote Körperteile ohne mechanische Krafteinwirkung mithilfe von Strom zu Bewegungen veranlasst werden können.24 Zudem verlor auch die höfische Gesellschaft mit ihrer Kultur immer mehr an Strahlkraft und Vorbildfunktion. Das Versprechen, den Menschen mithilfe immer komplizierter werdender Androiden vollständig mechanisch erklären zu können, konnte im 18. Jahrhundert nicht eingelöst werden, und die Meisterwerke mechanischer Handwerkskunst verkamen zu Jahrmarktsfiguren.25

2.2 D ER M ENSCH

ALS I NDUSTRIEPALAST

Knapp 200 Jahre nach Vaucansons mechanischer Ente illustrierte »Der Mensch als Industriepalast« von Fritz Kahn abermals (in ähnlichem Stil eines scheinbar geöffneten Körpers) besonders eindrücklich die Rolle zeitgenössischer Technik für die Erklärung des (menschlichen) Lebens.

20 Ebd., S. 60. 21 Vgl. Tietzel 1984, S. 37f. 22 La Mettrie 1909, S. 19f. argumentiert für eine nur graduelle Unterscheidung von Mensch und Tier explizit auch mit dem Organisationsgrad ihrer Gehirne. 23 Vgl. Koch/Tononi 2009. 24 Vgl. Meyer-Drawe 2007, S. 101. 25 Vgl. Tietzel 1984, S. 44f. sowie Meyer-Drawe 1995a, S. 361.

32 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Abbildung 3: Der Mensch als Industriepalast (Fritz Kahn)

Mit freundlicher Genehmigung: © von Debschitz, www.fritz-kahn.com

M ENSCH UND M ASCHINE

| 33



Die zentralen Symbole der mechanischen Kraftübertragung (Zahnräder und Riemen) aus Vaucansons Ente wurden ergänzt durch Komponenten der Hochindustrialisierung. Seilzüge finden sich in Kahns Industriepalast noch zur Steuerung des Bewegungsapparates, Riemen treiben die Herzpumpe an und eine mit Zähnen besetzte Walze zerkleinert Nahrung. In den anderen Elementen zeigt sich die Technik des Menschen ganz an die Industrietechnik des frühen 20. Jahrhunderts angelehnt. Auch die cartesische Regel, ein Explanandum in erklärbare Teilphänomene aufzuteilen, findet sich hier bemerkenswert veranschaulicht. Alle bekannten Körperfunktionen und Funktionssysteme werden als einzelne technische Verfahren dargestellt; der Mensch erscheint in ihrer Synthese als ein Komplex an Industrietechnik, der als Ganzes funktioniert, weil die einzelnen Systeme ineinandergreifen. Neben dem Kolbenmotor, der den Blutkreislauf in Gang hält, sorgen Förderkörbe für den laufenden Transport von »Sauerstoff« und »Kohlensäure« im Atemkreislauf. Fließbänder, Pressen, Spritzdüsen, Filter, Rohrleitungssysteme, Lagerräume und Tanks bestimmen die Darstellungen der anderen im Torso gelegenen Organe. Mit besonderen technischen Delikatessen stattete Kahn verschiedene Departements des Kopfes aus. Hydraulische Anzeigen ermöglichen die Kontrolle von Atmung, Herzschlag und Blutdruck in der »Drüsenzentrale«. Die »Nervenzentrale« ist eine Telefonrelaisstation und leitet ihre Signale über elektrische Leitungen (das »Rückenmark«) an den Torso weiter. Auditive Inputs werden über eine große Radioantenne und visuelle über eine Kamera empfangen. Nur in den Abteilungen »Verstand«, »Vernunft« und »Wille« finden sich keine technischen Gadgets; hier bedienen die kleinen Homunkuli, von denen es im Industriepalast wimmelt, keine Maschinen, sondern studieren Bücher und diskutieren. Statt die Organe des Menschen metaphorisch als Maschinen zu bezeichnen, ersetzt Kahn sie vollständig durch Maschinen und sorgt somit für eine Verschmelzung von Technologie und Biologie. Damit, so konstatiert Cornelius Borck, manifestiert sich im »Mensch als Industriepalast« nicht nur der von Modernisierung geprägte Zeitgeist der Weimarer Republik, sondern auch die generelle Auffassung des jungen Wissenschaftszweiges der Life Sciences gegenüber dem Körper.26 Kahns meistverkauftes Werk »Das Leben des Menschen«, dessen drittem Band das Poster »Der Mensch als Industriepalast« beilag, fiel in eine frühe Phase populärwissenschaftlicher Massenmedien. Sein Zweck war es, durch möglichst hohe Verkaufszahlen Gewinne zu erzielen, und dazu eignen sich Analogien zu moderner Technik wohl in besonderem Maße. »In solchen Verschmelzungen von Körper und Technik verblasst die Frage, was hier genau wie erklärt wird, 26 Vgl. Borck 2007a, S. 499f.

34 | DER M ENSCH ALS NEURONALE M ASCHINE ?

und der menschliche Körper erscheint als technisch kaum einholbare Wundermaschine.«27 Die Bildmetaphern in Kahns Büchern sind Distinktionsmerkmal und Hauptattraktion – sie wurden in jeder Buchbesprechung herausgestellt, obwohl sie auch dafür kritisiert wurden, das zeitgenössische biologische Wissen über den Menschen nicht immer zutreffend wiederzugeben.28 Kahn nahm zugunsten einer großen anschaulichen Erklärungskraft bewusst in Kauf, unpräzises oder überholtes Wissen darzustellen.29 Aus heutiger Sicht fällt die Erklärungskraft der Maschinenmetaphern im »Mensch als Industriepalast« recht bescheiden aus. Die abgebildeten Technologien erscheinen nicht nur veraltet, sie alle benötigen (menschliche) Operatoren, die »für die ungelösten Probleme des materialistischen Reduktionismus einstehen«30 müssen. Bis in die Mitte des 20. Jahrhunderts konnten Kahns Bilder jedoch eine lebensweltliche Nähe zum menschlichen Körper und seinen Funktionen herstellen. Sie dienten der Aufklärung von Laien, gestatteten ihnen einen Bezug zu unsichtbaren inneren Vorgängen. Die vom Menschen selbst geschaffenen Artefakte der Industrietechnik galten ja als vollständig verstanden und ermöglichten so eine pragmatische Auseinandersetzung mit dem Körper. Selbst die offenen Fragen des Paradigmas vom Menschen als Industriemaschine werden – verkörpert durch die Homunkuli – explizit mit visualisiert.31 Die Vorstellung, dass der Mensch nichts anderes ist als ein Gerätepark, wird wirksam verhindert. Obwohl Kahn den Menschenkörper als »nicht nur die leistungs- und widerstandsfähigste, sondern zugleich auch die feinste und komplizierteste aller Maschinen«32 bezeichnete, ist das Versprechen, den Menschen über den Umweg der Industrietechnik vollständig zu erklären, in Kahns Bildern nicht angelegt. Stattdessen veranschaulicht Kahn, »wie sehr die Lebenswissenschaften zur Erklärung von Naturvorgängen auf vertraute Technik angewiesen sind – und sei es nur als Reservoir funktionaler Analogien, die ihrerseits weiterer Erklärung bedürfen.«33 Bildliche Auseinandersetzungen mit der Frage, was den Menschen ausmacht, begleiten menschliche Kultur seit ihren Anfängen. Die Bilder beschränken sich nicht darauf, erklären zu wollen, was der Mensch ist, sondern entwerfen auch Szenarien (eutopische oder dystopische), wozu er werden könnte, welche Eigenschaften erstrebenswert erscheinen und wogegen er sich abgrenzt. Obwohl sich 27 Borck 2009, S. 12. 28 Vgl. Borck 2007a, S. 507 sowie Borck 2007b, S. 20. 29 Vgl. Kühne 2010. 30 Borck 2007b, S. 21. 31 Vgl. Borck 2007a, S. 515f. mit Referenz auf Young 1968. 32 Kahn 1926, zitiert nach Debschitz/Debschitz 2009, S. 46. 33 Borck 2009, S. 18.

M ENSCH UND M ASCHINE

| 35



die zeit- und kulturunabhängige Bestimmung des Menschen als unmöglich erwiesen hat, steckt in bildlichen Menschentwürfen stets das Potenzial, Vorstellungen von menschlicher Eigenart und Entwicklung zu beeinflussen.34 Die Automaten des 18. Jahrhunderts konnten als Beleg interpretiert werden, dass der mechanische Aufbau der Welt auch auf den Menschen zutrifft – denn schließlich konnten selbst künstlerische Fähigkeiten, die allein der Mensch beherrscht, wie Schreiben und Musizieren, als auf mechanischen Prinzipien beruhend dingfest gemacht werden. Dass es abermals und allein die Kunstfertigkeit des Menschen ist, die sich in den Tätigkeiten der Maschinen manifestiert, verhinderte aufgrund der Schöpferanalogie nicht, den Maschinen Eigenständigkeit zuzutrauen. Ihre Eigenständigkeit auszuschließen, hätte sogar bedeuten können, die Selbstständigkeit des Menschen als Geschöpf Gottes infrage zu stellen. Bei Kahn ist die Wirkung der Maschinenmetaphern indes anders einzuschätzen. Die Botschaft lautet hier eher, dass viele Funktionen des menschlichen Körpers mithilfe von bildlich dargestellten Technikanalogien anschaulich verständlich gemacht werden können. Zwar finden sich bei Kahn auch Bildüberschriften wie »Auto und Ohr sind übereinstimmend«,35 die bildlichen Darstellungen lassen aber auf der Basis eines common sense keine Verwechslung von Metapher und Realitätsabbildung zu. Für ein lockeres Analogieverständnis spricht auch, dass Kahn die gleiche Körperfunktion mit unterschiedlichsten Entsprechungen illustriert: z.B. das Gehör einmal als Auto und ein anderes Mal als Radioantenne. Sowohl die Automaten als auch die Bilder Kahns unterstreichen auf jeweils ihre Weise die Rolle des common sense für ihre Interpretation. Menschenbilder sind auf ein Allgemeinverständnis angewiesen, sie müssen lebensweltliche Anknüpfungspunkte finden, sonst funktionieren sie nicht. Anfang des 20. Jahrhunderts wurde es daher schwer, ein naturwissenschaftliches Menschenkonzept zu formulieren, das aktuelles (physikalisches) Wissen mit einbezieht: Einwände gegenüber einem mechanistischen Weltverständnis, wie sie durch Relativitätstheorie und Quantenmechanik formuliert werden, lassen sich nämlich nicht anschaulich darstellen.36 Das Menschenbild des frühen 20. Jahrhunderts wurde in westlichen Gesellschaften daher nicht von Revolutionen physikalischen Wissens, sondern von der Hochindustrialisierung und den durch sie mitverursachten gesellschaftlichen Umbrüchen beherrscht.37 34 Vgl. Meyer-Drawe/Witte 2007; Janich 2009, S. 177ff. 35 http://www.fritz-kahn.com/bilder/galerie_gross/6Auto_Ohr.jpg 36 Vgl. Abschnitt 5.1. 37 Die intensive bildliche (hier: filmische) Auseinandersetzung mit der Rolle des Menschen in der technisierten Welt manifestiert sich eindrücklich in Fritz Langs Metropolis (1927) und Charlie Chaplins Modern Times (1936). Vgl. auch Gendolla 1988.

36 | DER M ENSCH ALS NEURONALE M ASCHINE ?

2.3 B ILDER UND M ODELLE Nach dem bisher Ausgeführten scheint es sinnvoll, einerseits lebensweltlich geprägtes und andererseits naturwissenschaftlich formal gegliedertes Wissen über die Konstitution der Welt und des Menschen zu unterscheiden. Wissenschaftliche Beschreibungen von spezifischen Funktionszusammenhängen werden als Modelle bezeichnet. Darunter können auch Beschreibungen des Menschen als Lernender, als Träger von Erbinformation, als Organ-, Knochen- oder Neurotransmittersystem gefasst werden. Solche systematischen Konzentrationen auf bestimmte Einzelperspektiven sind als Hilfsmittel zum Verständnis und zur Bearbeitung von Problemen nützlich und notwendig. Die Interpretation des Menschen als mehr oder weniger trivial funktionierendes System erlaubt etwa die Behandlung von Knochenbrüchen, Anfertigung von Prothesen oder die Entwicklung von Lernstrategien. Bei der operativen Behandlung von Epilepsieherden oder Hirntumoren wird in der Regel das Modell eines modular funktionierenden Gehirns angewendet, damit Hirnbereiche, die z.B. für die Produktion oder das Verstehen von Sprache notwendig sind, bei physischen Eingriffen möglichst nicht beschädigt werden. Allen Modellvorstellungen ist gemein, dass sie vereinfachen, das heißt sich auf spezifische, für die jeweilige Problemlage als wesentlich erachtete Phänomene beschränken. Gegebenenfalls können sie veranschaulichend idealisieren oder Analogien bilden, um ein Phänomen besser zugänglich zu machen. Zugunsten der Erklärungskraft kann bei Modellen in Kauf genommen werden, dass unzugängliche Phänomene in einer Weise dargestellt werden, die den vorgefundenen Verhältnissen nicht entsprechen.38 Dadurch, dass sich Modelle auf bestimmte Aspekte konzentrieren, lässt sich ihr Geltungsbereich definieren. Veranschaulichen lässt sich die begrenzte Modellgültigkeit zum Beispiel an Modellen des Atoms. Das sogenannte Schalenmodell beschreibt die Struktur des Atoms nach dem Vorbild eines Planetensystems. Es verortet Elektronen auf energetisch abgestuften Kreisbahnen um einen fixen Atomkern. Mit diesem Modell kann ein großer Anteil chemischen Bindungsverhaltens einfacher anorganischer Moleküle erklärt werden. Jedoch stößt es bereits bei der Erklärung einiger Eigenschaften von Wasser an seine Grenzen. Um die Dipolstruktur des Wassermoleküls zu erklären, muss auf ein anderes Modell zurückgegriffen werden: das Orbitalmodell, demgemäß verschiedene Elektronen sich in definierten Bereichen aufhalten, die in bestimmten Winkeln zueinander stehen. Sollen die atomaren Eigenschaften erklärt werden, die für Magnetresonanz genutzt werden, muss ein

38 Vgl. Wolters 1984, S. 912; vgl. auch Abschnitt 4.2.2.

M ENSCH UND M ASCHINE

| 37



Modell eingesetzt werden, das sich auf den Atomkern konzentriert und ihn in Bewegung versetzt. Für die Erklärung weiterer chemischer Eigenschaften bietet dieses Modell jedoch keine Anschauung und auch dieses hochkomplexe und teilweise kontraintuitive Modell kann nicht für sich beanspruchen, das Atom so zu beschreiben, ›wie es ist‹.39 Im Gegensatz zu z.B. maßstabsgetreuen architektonischen Modellen von Gebäuden, bei denen die Funktion (u.a. auf die Darstellung von Proportionen) festgelegt ist, richten sich Modelle von menschlichen Eigenschaften stets nach »Erkenntnisinteressen, Fragestellungen, Problemformulierungen und Anwendungen […]. Die Natur zwingt dem naturwissenschaftlichen Autor keine bestimmte Modellierung auf.«40 Ob die Eigenschaften eines Modells eine adäquate Repräsentation des zu beschreibenden Objektes oder Subjektes leisten, gehört nicht zur Geltungsdefinition; die Angemessenheit eines Modells ist keine naturwissenschaftliche, sondern regelmäßig eine pragmatische und gegebenenfalls auch strittige Frage. Werden mithilfe von Metaphern neue Wissensbereiche erschlossen, lässt sich ihr Geltungsbereich zunächst nicht definieren, vielmehr erfordern sie eine Überprüfung, inwiefern die übertragenen Zusammenhänge auch im neuen Forschungsbereich gelten. Stammen die verwendeten Metaphern aus lebensweltlich selbstverständlichen Zusammenhängen, scheint die Gefahr, die Vorläufigkeit der Annahmen zu ›vergessen‹, besonders groß zu sein. Das ›Vergessen‹ der Restriktionen von Modellen hält Canguilhem für ein zentrales Merkmal naturwissenschaftlichen Erkenntnisfortschritts im 20. Jahrhundert. »Es ist dies ein Beispiel für die der gegenwärtigen Naturwissenschaft eigentümliche theoretische Strategie: ausgehend von Beobachtungen und Experimenten in einem bestimmten Wirklichkeitssektor konstruiert man ein Modell; und auf der Basis dieses Modells entwickelt man dann die Erkenntnis weiter, ganz so, als hätte man es mit der Wirklichkeit zu 41

tun.«

Konzepte, deren Modellcharakter in den Hintergrund getreten ist und denen stattdessen eine universelle Geltung mit direkter lebensweltlicher Relevanz zugesprochen wird, sollen hier als Bilder bezeichnet werden. Bilder thematisieren ihre Grenzen üblicherweise nicht, sondern sind um harmonische Ganzheit bemüht – Lücken können kaschiert werden, Unpassendes oder Widersprüchliches kann ausgeblendet werden. Derart gezeichneten Bildern vom Menschen wird 39 Vgl. Abschnitt 5.1. 40 Janich 2008, S. 48. 41 Canguilhem 1989, S. 19.

38 | DER M ENSCH ALS NEURONALE M ASCHINE ?

unterstellt, dass sie essenzielle menschliche Eigenschaften abbilden, aus denen sich lebensweltlich bedeutsames Sozialverhalten erklären und gegebenenfalls Maximen für soziale Interaktion aufstellen lassen. Die spezifische und problemgebundene Aussagekraft eines Modells wird nach wissenschaftlichen und/oder didaktischen Kriterien entwickelt. Im Menschenbild wird einer bestimmten menschlichen Eigenschaft allgemeingültige lebensweltliche Relevanz zugeschrieben. Im Bild des Menschen als neuronaler Maschine zeigt sich, wie Modellvorstellungen dadurch zu präskriptiven Menschenbildern werden können, dass Aspekte des Modells für so bedeutend erklärt werden, dass sich aus ihnen die conditio humana ableiten ließe. Um bewerten zu können, inwiefern dieses Menschenbild, das von prominenten Neurowissenschaftlern öffentlich proklamiert wird, naturwissenschaftlich fundiert ist und wo seine Grenzen liegen, gilt es auch zu prüfen, inwieweit sich die Anschaulichkeit des postulierten Bildes in den Instrumenten der Erfassung widerspiegelt. Ist es gerechtfertigt, ein universelles Menschenbild auf der Basis von Instrumenten und Verfahren zu auszurufen, die nur unter spezifischen Bedingungen Antworten auf spezifische Fragestellungen liefern können? Bevor jedoch die Instrumente der Bildgebung in den Fokus rücken, werden im Folgenden zunächst die Merkmale dieses Konzeptes nachgezeichnet, das in Bereichen der Neurowissenschaften teilweise als Modell fungiert, mitunter aber auch als universelles Menschenbild aufgestellt und so handlungsleitend wird.

2.4 D ER M ENSCH

ALS NEURONALE

M ASCHINE

Das Konzept vom Menschen als neuronaler Maschine ist die Konsequenz aus der Verknüpfung von zwei Thesen: 1) Das Gehirn ist eine neuronale Maschine 2) Die Erklärung von Hirnfunktionen ist hinreichend, um alles menschliche Erleben und Verhalten zu erklären42 Worin genau die Ursprünge einer Sichtweise auf den Menschen als neuronale Maschine liegen, ist nicht eindeutig auszumachen, und auch gegenwärtig wird

42 Diese Position, die häufig als »materialistischer Monismus« bezeichnet wird, wendet sich explizit gegen den cartesischen Dualismus und jede andere Form der Noologie. Sie wird ausführlicher diskutiert in Abschnitt 3.1.1.

M ENSCH UND M ASCHINE

| 39



die Verknüpfung der beiden Annahmen nicht überall explizit ausgeführt, wo sie implizit mitschwingt. Die neuronale Maschine steht als bisher jüngstes Mitglied in einer Abfolge von mehr oder weniger radikalen Neudeutungen des Menschen, die stets auf seine Verbesserung aus sind – nicht selten im Lichte neuer technologischer Fähigkeiten.43 Diese Geschichte des ›Neuen Menschen‹ beginnt buchstäblich bei Adam und Eva, die vom Baum der Erkenntnis essen.44 Die ausführlichste Ideengeschichte von Maschine-Gehirn- bzw. MaschinePsyche-Verknüpfungen bietet Margaret Boden in ihrem zweibändigen Werk Mind as Machine – a History of cognitive Science.45 Ihrer Beschreibung nach koexistierten Vorläuferformen der beiden eingangs angeführten Thesen lange Zeit (bis ins 20. Jahrhundert hinein), ohne dass sie dazu führten, den Menschen im Ganzen als Gehirnmaschine aufzufassen und mentale Prozesse allgemein in maschinenbezogenen Begriffen zu beschreiben.46 Die große Akzeptanz der Verknüpfung beider Thesen scheint sich erst zu vollziehen, als (pharmakologische) Interventionen im Gehirn üblich werden.47 Dass die Verbindung der beiden Thesen und ihrer verbreiteten Akzeptanz durch Laien keine Bagatelle darstellt, wird an den Schriften des Arztes Alfred Smee deutlich. In der Mitte des 19. Jahrhunderts erklärte Smee, der für ein breites Publikum schrieb, das Gehirn zur bioelektrischen Maschine.48 Doch obwohl er auf der einen Seite das Gehirn als elektro-neurophysiologische Maschine bezeichnete und auf der anderen Seite Verhalten ebenso wie Gedanken als Produkt elektrischer Vorgänge des Nervensystems auffasste, haben seine Spekulationen über materielle Ursprünge der Psyche keinen Ausschließlichkeitscharakter. Einerseits behauptet Smee zwar, dass es theoretisch möglich sei, eine Maschine zu bauen, die Teile eines logischen Umgangs mit Sprache per Prinzipien der »Induktion, Deduktion und Relation«49 mechanisch simulieren könne und dass es offensichtlich sei, dass diese Maschine analog zur menschlichen Gedankenverarbeitung funktioniere und diese in Präzision sogar übertreffen könne; andererseits betont Smee aber auch, dass das rein logische Vermögen einer solchen Maschine im Vergleich zu den Möglichkeiten, die die Psyche durch das Gehirn habe, sehr begrenzt sei.50 Einen weiteren Hin43 Vgl. Janich 2008, S. 30. 44 Vgl. Meyer-Drawe 2008, S. 41ff. 45 Boden 2006. 46 Vgl. ebd., S. 168. 47 Vgl. Abschnitt 2.5. 48 Vgl. ebd., S. 107. 49 Smee 1851, S. 43. 50 Vgl. ebd., S. 43ff. Außerdem gab er die Technik seiner Zeit als weiteren limitierenden Faktor an. Eine Maschine, die allein wenige logische Formalismen auf alle Wörter

40 | DER M ENSCH ALS NEURONALE M ASCHINE ?

weis darauf, dass die Zusammenführung der Ansichten über den Maschinencharakter des Gehirns und die Gehirnidentität des Menschen keine zwangsläufige Entwicklung ist, bietet der Wissenschaftshistoriker Canguilhem. Er zitiert in einem Aufsatz über die Verbindung von Gehirn und Denken den Psychologen und Philosophen Pierre Janet, der mit der ersten These gegen die zweite argumentiert: Denken könne gerade deswegen keine Funktion des Gehirns sein, so Janet, weil das Gehirn »nichts anderes als ein System von Schaltern bzw. Vorrichtungen«51 sei, Denken sich jedoch auf das Gesamtverhalten einer Person beziehe: »Was wir Vorstellung nennen oder Phänomene der Psychologie, ist ein Gesamtverhalten, ist das Individuum als Ganzes. Wir denken mit unseren Händen nicht minder als mit unserem Gehirn, wir denken mit unserem Magen, mit allem«.52 Anderer Auffassung als Smee und Janet bezüglich der Grenzen eines maschinell arbeitenden Gehirns war in den 1940er Jahren der Mathematiker Alan Turing. Er vertrat die These, die gesamte menschliche Psyche (engl. mind) funktioniere wie eine Maschine: Der Status des psychischen Systems sei zu jedem Zeitpunkt T+1 determiniert durch den Systemstatus zum Zeitpunkt T und gegebenen Inputs, die gemäß systeminterner Algorithmen (Prozessregeln) verarbeitet würden. Mit dem Beweis, dass jede derart funktionierende Maschine jede andere nach den gleichen Prinzipien funktionierende Maschine simulieren kann, legte Turing den Grundstein zur Entwicklung der maschinellen Simulation psychischer Funktionen – der sogenannten künstlichen Intelligenz. Er beanspruchte allerdings nicht erklären zu können, was wirklich im Gehirn passiert, wenn z.B. Kognitionen verarbeitet werden – also die tatsächlichen Algorithmen des Gehirns zu kennen. Stattdessen zog er Funktionsanalogien. Für Turing sind – im Gegensatz zu Smees Deutung – auch Maschinen denkbar, die Imagination und Kreativität hervorbringen und solche, die ›lernen‹, indem sie die ihnen zur Verfügung stehenden Algorithmen variieren und so gegebenenfalls Wege finden, besser auf Inputs zu reagieren.53 Die Anpassung von logischen Systemen an sich verändernde Umweltbedingungen wurde in der Folge unter dem Stichwort Selbststeuerung zum Gegenstand und Credo der Kybernetik. Statt Funktionen der Psyche zu simulieren, wurde in der Kybernetik ein Weg der Modellierung eingeschlagen. Die Entdeckung, dass Nervenzellen ›binär‹ und Wortsequenzen anwenden solle, überträfe nach einer Schätzung Smees in ihrer Ausdehnung die Größe Londons und würde unweigerlich wegen der hohen aufzuwendenden Kräfte durch ihre Inbetriebnahme zerstört. 51 Zitiert nach Canguilhem 1989, S. 13. Das Zitat Janets stammt aus einer Vorlesung am Collège de France 1923/24 (vgl. ebd., S. 39, Anmerkung 3). 52 Ebd., S. 13f. 53 Vgl. Boden 2006, S. 175ff.

M ENSCH UND M ASCHINE

| 41



nach einem alles-oder-nichts-Prinzip arbeiten wie Relais, führte zu der Überzeugung, dass das Gehirn das Urbild der logischen Maschine sei.54 Das als Relais (plus Rückkopplungsmechanismus) modellierte Neuron wird als die kleinste logische Einheit der Gehirnmaschine zur Ikone der Kybernetik. Obwohl McCulloch, der das Modellneuron mit entwarf, sich der Vereinfachung und Idealisierung des Modells bewusst gewesen sein soll,55 bestand für ihn kein Zweifel, dass das Gehirn eine Maschine ist: »Alles, was wir über Organismen lernen, führt uns nicht nur zu dem Schluß, daß sie analog sind zu Maschinen, sondern zu dem, daß sie Maschinen sind. Vom Menschen gemachte Maschinen sind keine Gehirne, aber Gehirne sind eine bisher kaum verstandene Art von 56

Rechenmaschinen.«

McCulloch konkretisiert mithilfe von Schaltplänen, wie die von Turing angenommenen Algorithmen auszusehen haben, die ein kognitives System vom Zustand T in den Zustand T+1 versetzen. Für jeden denkbaren Gedanken ließe sich »das zugehörige, formal äquivalente neuronale Netz entwerfen.«57 Ein anderer führender Kybernetiker, John von Neumann, hielt die Logik der Nervenzellen gar für so fundamental, dass er – auf ihr aufbauend – eine Veränderung der Mathematik vorhersagte. Beim Verhältnis von Neuron und Schaltung verwischen die Grenzen zwischen Urbild und Kopie, und das Modell vom Neuron erhält einen basalen Status: Die Rechenmaschine wird zum Modell vom Gehirn, das aus Neuronen besteht, deren Funktion nach dem Vorbild der Rechenmaschine modelliert wird.58 Im Vollzug dieser Ontologisierung wird das Schaltneuron zum Ur-Axiom der Erkenntnis erklärt und die ›neurowissenschaftliche‹ Kybernetik zu einer universellen Leitwissenschaft erhoben. Die funktionale Gleichsetzung von Gehirn und ›künstlicher‹ Rechenmaschine lässt natürlich auch das Subjektverständnis und die Frage nach Bewusstsein nicht unberührt. Wenn die Leistung eines Computers nicht mehr von der kognitiven Leistung eines Menschen unterschieden werden könne, wenn der Computer zwischen sich und seiner Umwelt unterscheiden und auf sich selbst Bezug nehmen könne, so müsste angenommen werden, dass die Maschine wirklich

54 Vgl. Hörl 2008, S. 174 sowie McCulloch 1951. Die explizite Analogiebildung zwischen Neuron und Relais findet sich dort vor allem auf den Seiten 100f. 55 Vgl. Kay 2001, S. 598. 56 McCulloch 1955, S. 186, zitiert nach Hörl 2008, S. 175. 57 Hörl 2008, S. 174; vgl. auch Boden 2006, S. 190ff. 58 Vgl. Hörl 2008, S. 176ff.

42 | DER M ENSCH ALS NEURONALE M ASCHINE ?

denke und wirklich ein Bewusstsein habe.59 Erst nach Jahrzehnten wird deutlich, dass einige Erklärungsgrenzen, die die Nivellierung des Unterschiedes zwischen Modell und Wirklichkeit mit sich bringt, nicht durch leistungsfähigere Rechner zu durchbrechen sind. Die Informationen, die im System verarbeitet werden, sind semantisch leer. Modellierte neuronale Netze mögen Prozesse der Informationsverarbeitung ›naturgetreu‹ beschreiben, aber es gibt im kybernetischen System keine Homunkuli – wie bei Kahn –, die als Sender und Empfänger dem binären Code Sinn verleihen. Auch propositionale Akte lassen sich kybernetisch nicht beschreiben.60 »Eine Trivialmaschine von unablässigen Input-output-Relationen kann nicht begreiflich machen, daß der Mensch stets die Reize der Welt in seinen Reaktionen überschreitet. Er kann antizipieren, vervollständigen, kurz er bildet die Welt nicht ab, sondern – so folgert die gegenläufige Übertreibung – er konstruiert sie. […] Als formales, syntaktisches System kann die selbstreferenzielle Maschine zwar Hinweise darauf geben, wie wir erinnern, denken, wahrnehmen, aber nicht in bezug darauf, was wir im Gedächtnis behalten, was 61

wir denken und wahrnehmen.«

Nach einer Phase des Behaviorismus, in der die Forschungen an den Mechanismen der Informationsverarbeitung zugunsten eines Blackbox-Modells unterbrochen wurden, stehen der modernen Hirnforschung nach der sogenannten kognitiven Wende extrem leistungsfähigere Computer zur Verfügung. Viele der technischen Restriktionen, denen die kybernetische Nachbildung neuronaler Netze bis in die 1970er Jahre hinein unterlag, gelten heute nicht mehr. Das Modell heutiger dynamischer Systeme ist nicht durch rein sequenzielle Abfolgen verschiedener Subroutinen beschränkt. Der Turing’sche Algorithmengedanke psychischer Systeme findet sich zwar auch hier, jedoch können die Algorithmen solcher dynamischen Systeme deterministisch oder probabilistisch, linear oder nicht-linear, stabil oder veränderbar, ortsspezifisch oder -unspezifisch, zeitlich voneinander abhängig oder unabhängig modelliert werden.62 Das Synonym für Maschine lautet spätestens nach der kognitiven Wende ›System‹ und beinhaltet Freiheitsgrade, die die klassische Maschine nicht hat. Vermutlich würde heute 59 Vgl. Boden 2006, S. 181 sowie Hörl 2008, S. 187. 60 Obwohl das Programm der Kybernetik insgesamt als gescheitert gilt, finden verschiedene seiner Grundideen heute auch in der Pädagogik breite Anwendung – darunter Feed-back-Verfahren und Ansichten über Mechanismen der Selbststeuerung (vgl. Oelkers 2008). 61 Meyer-Drawe 1995a, S. 364f. 62 Vgl. Boden 2006, S. 1308.

M ENSCH UND M ASCHINE

| 43



auf der Ebene der Physiologie oder auch der Logik kaum ein Neurowissenschaftler dagegen opponieren, das Gehirn als Maschine zu bezeichnen, wenn damit gemeint ist, dass es bestimmte Inputs selbstreferenziell zu bestimmten Outputs verarbeitet.63 In populärwissenschaftlichen oder interdisziplinären Darstellungen und in pädagogischer Ratgeberliteratur ist von der oben angesprochenen Modellvielfalt (bisher?) freilich kaum die Rede. Hier wird Lernen mit dem Auf- und Abbau neuronaler Verbindungen gleichgesetzt und postuliert, dass das Gehirn immer und überall lernt,64 wodurch der Gegenstandsbereich der neurowissenschaftlichen Lernforschung nebenbei auf alle Gegebenheiten ausgedehnt wird, bei denen Gehirne ›anwesend‹ sind. Es werden Funktionsmodule des Gehirns beschrieben, deren Aktivitätsverhalten zwar durch Interneurone, Transmitterstoffe, Peptide und Hormone moduliert werden kann, aber generell nach mehr oder weniger linearen Grundsätzen zu verstehen ist.65 Nicht-lineare probabilistische und modulatorische Modelle wären nämlich prinzipbedingt denkbar ungeeignet, um Ratschläge für ›gehirngerechtes Lernen‹66 zu formulieren – ganz zu schweigen von der ›Bedienungsanleitung für das menschliche Gehirn‹,67 die sich auch gerne »von fernöstlichen Weisheiten sowie durch die barocke Lebenslehre des spanischen Jesuiten Gracián«68 inspirieren lässt. Solche Publikationen arbeiten mit einem Menschenbild, das die Formalismen der Wissenschaft durch lebensweltliche Anknüpfbarkeit ersetzt. Bildgebende Verfahren tragen dabei eine gewichtige Rolle, indem sie Eindeutigkeit, Genauigkeit und Natürlichkeit suggerieren.69 Heutige Hirnbilder wirken völlig anders als die stilisierten Neurone der Kybernetik. Sie erscheinen ›wirklicher als die Wirklichkeit‹, weil sie Auswahlen aus Vorgefundenem strukturieren und isoliert in andere, lebensweltlich verständliche Kontexte übertragen können, ohne dass ihr Modellcharakter offensichtlich würde.70 Beim Studium populärwissenschaftlicher Hirnforschungspublikationen entsteht mitunter der Eindruck, dass die Autoren Modell und Realität nicht mehr unterscheiden. Auch so – durch die Annahme, dass die aufgestellten Modelle

63 Vgl. auch Bammé et al. 1983, S. 112ff. 64 Vgl. Spitzer 2003. 65 Vgl. z.B. Roth 2003, S. 94ff.: »Wie es im Gehirn zugeht«. 66 Vgl. auch Arnold 2002. 67 Vgl. Hüther 2001. 68 Meyer-Drawe 2008, S. 104f. 69 Vgl. Dumit 2003. 70 Vgl. Abschnitt 6.4.

44 | DER M ENSCH ALS NEURONALE M ASCHINE ?

vollständige Abbildungen der Realität seien – kann es zu Selbstdeutungen des Menschen im Spiegel seiner technisch konstruierten Systeme kommen.71 Populärwissenschaftliche Publikationen neigen nicht nur zu extremer Vereinfachung von Hirnvorgängen; gleichzeitig sind sie auch bemüht, die großen Herausforderungen zu betonen, die mit Hirnforschung verbunden sind. So wird z.B. Lernen mit der Veränderung neuronaler Strukturen gleichgesetzt, und im gleichen Zusammenhang wird darauf hingewiesen, wie viele Milliarden Neurone und nochmals Größenordnungen mehr an Synapsen das Gehirn zu nahezu unendlichen Kombinationen ›neu verdrahten‹ könne. Die Quintessenz scheint zu sein: Das Gehirn sei zwar eine der komplexesten bekannten Strukturen im Universum, aber Hirnforscher machten (vor allem in den letzten Jahrzehnten) vormals für unmöglich gehaltene Fortschritte dabei, die Mechanismen der Gehirnmaschine zu verstehen.72 Mit diesem Verständnis sei es zum Beispiel heute möglich, die Neurochemie des Gehirns und damit Kognition sowie Emotion aktiv und womöglich nach eigenem Geschmack zu steuern und zu optimieren.73 Einen Vorgeschmack darauf, wie zukünftige Psychopharmaka und ›kognitive Enhancer‹ sich auf menschliche Selbstdeutungen auswirken könnten, bietet Nikolas Rose unter dem Stichwort neurochemical selves.74

2.5 S ELBSTDEUTUNG IM Z EICHEN

DER

N EUROCHEMIE

Am Beispiel von Psychopharmaka zeigt Rose, wie sehr das Gehirn heute im Zentrum des Menschenbildes steht, das in westlichen Gesellschaften vorherrscht und wie dieses Konzept mit geänderten Verhaltensmustern einhergeht.75 Eine Vorreiterrolle beim Verständnis des Menschen als neurochemisches Selbst schreibt Rose den USA zu, wo Gefühlsschwankungen und Verhaltensweisen zu Krankheiten avancieren, die vor einer Generation womöglich noch als völlig normal gegolten hätten – darunter: generalisierte Angststörungen (als Terminus für bedrückende Alltagssorgen), prämenstruelle Dysphorie und das Aufmerksamkeitsdefizit-/Hyperaktivitätssyndrom (ADHS).

71 Vgl. Meyer-Drawe 2008, S. 78; vgl. auch Abschnitt 3.1.2. 72 Vgl. die Interviewsequenzen mit Gerhard Roth in der Wissenschafts-Dokumentation Expedition ins Gehirn (Höfer/Röckenhaus 2006). 73 Vgl. Greely et al. 2008. 74 Vgl. Rose 2003 und 2004. 75 Vgl. ebd., S. 90.

M ENSCH UND M ASCHINE

| 45



Wie kommt es, fragt Rose, dass Menschen ihre eigene Situation nicht mehr primär aus ihren Lebensumständen oder ihrer Biografie, sondern aus ihrer Hirnchemie ableiten? Als Grund vermutet er hauptsächlich drei Elemente. Erstens (und jüngstens): der Glaube an das Vermögen der Bildgebung, die Aktivität des lebenden Gehirns sichtbar zu machen – während es denkt, begehrt, sich glücklich oder unglücklich fühlt, liebt und sich fürchtet – und somit Normalität und Krankhaftigkeit mithilfe von Aktivitätsmustern objektiv unterscheiden zu können. Zweitens: die formulierte Aussicht einiger Genetiker, Gensequenzen identifizieren zu können, die Stimmungen und Verhaltensmuster steuern, aber auch Auskunft über Veranlagungen zu Krankheiten geben. Und drittens: das Paradigma, dass sich Stimmungen und kognitive Kapazitäten aus dem Verhältnis bestimmter Transmitterstoffe im Gehirn ergeben, dass dieses Verhältnis medikamentös immer besser zu beeinflussen ist und dass psychische Leiden aus Anomalitäten des Gehirns hervorgehen.76 Rose konzentriert sich in seinen Arbeiten auf die Entwicklung und Verbreitung von Psychopharmaka, wobei die USA sicherlich einen Sonderfall der Marktdurchdringung dieser Medikamente darstellen. Tendenziell sind die Marktentwicklungen der USA aber auch in anderen westlichen Gesellschaften zu beobachten – auch hierzulande gehört die medikamentöse Modifikation von Gedanken und Stimmungen inzwischen zur ärztlichen Routine. Im pädagogischen Bereich sind vor allem ADHS und seine Behandlung mit Methylphenidat, das primär unter dem Handelsnamen ›Ritalin‹77 bekannt ist, auch in Deutschland inzwischen ein großes Thema.78 In den zehn Jahren von 1999 bis 2008 hat sich die in Deutschland verschriebene Menge an Psychostimulanzien mit den Wirkstoffen Methylphenidat und Atomoxetin (gemessen in definierten Tagesdosen) versiebenfacht. 2008 wurden von Medikamenten mit dem Wirkstoff Methylphenidat 53 Mio. Tagesdosen an Versicherte der gesetzlichen Krankenkassen verschrieben und auf diese Weise ein Umsatz von 89 Mio. Euro generiert.79 Die Steigerung an Verschreibungen, so wird im Folgenden argumentiert, ist ein deutlicher Hinweis auf die steigende Akzeptanz eines neuropsychologischen Paradigmas, das besagt, dass »[j]eder Willensakt [und] jede sonstige geistige Tätigkeit […] untrennbar an physiologische Vorgänge gebunden [sind], die ihrer76 Vgl. ebd. sowie Rose 2003, S. 407. 77 In Deutschland werden die Methylphenidatprodukte ›Medikinet‹ und ›Concerta‹ jedoch häufiger verschrieben als ›Ritalin‹ (vgl. Lohse/Müller-Oerlinghaus 2009, S. 799). 78 Für die Jahre 2007-2009 listet die Literaturdatenbank FIS Bildung zum Stichwort ADHS 39 deutschsprachige Monografien – durchschnittlich etwa eine pro Monat. 79 Vgl. Coca/Nink/Schröder 2009, S. 174.

46 | DER M ENSCH ALS NEURONALE M ASCHINE ?

seits bekannten chemischen und physikalischen Gesetzmäßigkeiten gehorchen.«80 Bemerkenswert ist diese rasante Steigerung, die Mitte der 1990er Jahre einsetzt auch deshalb, weil der Wirkstoff Methylphenidat in Deutschland bereits seit den 1950er Jahren auf dem Markt ist. Abbildung 4: Verordnungen von Psychostimulanzien 1999 bis 2008 nach definierten Tagesdosen

Quelle: Lohse/Müller-Oerlinghaus 2009, S. 798.

Die tatsächliche Quote von Kindern und Jugendlichen, die Methylphenidatprodukte oder ähnliche Stimulanzien einnehmen, ist schwer abzuschätzen. Werden für die Berechnung einer Quote als Bezugsgröße alle in den gesetzlichen Krankenkassen versicherten Kinder und Jugendliche zwischen 5 und 14 Jahren herangezogen (ca. 6,7 Mio.81) und wird davon ausgegangen, dass alle Betroffenen an allen Tagen im Jahr die ›Standardtagesdosis‹ (Defined Daily Dose – DDD82) 80 Roth 2003, S. 244. 81 Vgl. Coca/Nink 2009, S. 902. Mitgliederzahlen der gesetzlichen Krankenkassen liegen nur in Form klassierter Daten vor. Für die Verschreibung von Methylphenidat ist allerdings ein Mindestalter von sechs Jahren vorgesehen. Spätestens nach der Pubertät soll Methylphenidat abgesetzt werden (vgl. http://www.bfarm.de/SharedDocs/ 1_Downloads/DE/Pharmakovigilanz/stufenplverf/methylphenidat_ke_annex.pdf Annex II). 82 Die Standardtagesdosis DDD wird im Zulassungsverfahren eines Medikaments festgelegt. Je nach Zusammensetzung kann sie von Produkt zu Produkt variieren. Die Standardtagesdosis sagt wenig darüber aus, wie viel eines Wirkstoffes tatsächlich eingenommen wird.

M ENSCH UND M ASCHINE

| 47



einnehmen, betrüge der Anteil an Personen, die Methylphenidatpräparate zur Behandlung von ADHS einsetzten, zwischen zwei und drei Prozent. Laut den Ergebnissen des Kinder- und Jugendgesundheitssurveys des Robert-Koch Instituts erhalten gegenwärtig aber über 5 Prozent aller Kinder und Jugendlichen im Alter zwischen sieben und 17 Jahren eine ADHS-Diagnose. Mit 11,3 Prozent besonders hoch ist die Diagnosequote bei Jungen im Alter von 11-13 Jahren.83 Eine Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung wird in Deutschland allerdings bei Jungen insgesamt viermal häufiger diagnostiziert als bei Mädchen und doppelt so häufig bei niedrigem sozioökonomischem Status wie bei hohem.84 Zudem ist davon auszugehen, dass die tatsächlich eingenommene Menge an Methylphenidat unterhalb der definierten Standardtagesdosis liegt – etwa weil eine Behandlung gegebenenfalls nur zu Schulzeiten erfolgt und nachmittags, am Wochenende oder in Ferienzeiten ausgesetzt wird. Daher erscheint zumindest gebietsweise eine weit höhere Behandlungsquote als zwei Prozent realistisch. Für die USA ermittelten Froehlich et al. 2007, dass 8,7 Prozent der Kinder und Jugendlichen der untersuchten Stichprobe die Kriterien (nach DSM-IV85) für ADHS erfüllten,86 wovon 39 Prozent regelmäßig Psychostimulanzien einnehmen (3,4 Prozent der Studienteilnehmer). Fast genauso viele Kinder (3,3 Prozent der Studienteilnehmer – auf die ganze USA bezogen wären das knapp eine Millionen Kinder) nahmen allerdings ärztlich verschriebene Psychostimulanzien ein, obwohl laut Froehlich et al. keine ADHS-Diagnose angezeigt war.87 Ein großer Anteil der Kinder und Jugendlichen, die aufmerksamkeitssteigernde Medikamente einnahmen, erfüllte also nicht die diagnostischen Kriterien für ADHS. Es steht zu vermuten, dass bei ihnen ›kognitives Enhancement‹ angestrebt wird. Im Jahr 2008 hat ein Artikel prominenter Neurowissenschaftler in der Onlineausgabe des Magazins Nature, der Methylphenidat zu Zwecken des Enhancements jenseits der Behandlung sogenannter Hirnleistungsstörungen propagiert, für große Diskussionen gesorgt. Kognitives Enhancement mithilfe von Psychostimulanzien sei eine großartige Innovation, die eine vergleichsweise einfache Optimierung des Gehirns ermögliche, indem die Anstrengungen, die mit Lernen zwangsläufig verbunden seien, erleichtert würden. Die Entwicklung von Psychostimulanzien sei gar vergleichbar mit der Erfindung der Schrift oder des Buch-

83 Vgl. Schlack et al. 2007, S. 830f. 84 Vgl. ebd. 85 Das Akronym DSM steht für Diagnostic and Statistical Manual of Mental Disorders. 86 Nach einer Studie von 1999 betrug der Anteil von Methylphenidatkonsumenten unter männlichen Fünftklässlern 17 bis 20 % (vgl. LeFevre/Dawson/Morrow 1999). 87 Vgl. Froehlich et al. 2007.

48 | DER M ENSCH ALS NEURONALE M ASCHINE ?

drucks und könne der Volkswirtschaft eines Staates überaus dienlich sein.88 Die affirmative Ausrichtung dieses und ähnlicher Artikel im Themenbereich wird in Abschnitt 3.3 nochmals aufgegriffen – unabhängig von der pragmatisch-utilitaristischen Argumentation wird jedoch zunächst die Verschränkung der Termini ›Psyche‹, ›Kognition‹ und ›Gehirn‹ genauer betrachtet: Mithilfe von Chemie soll das Gehirn auf solche Weise angeregt werden, dass psychische Prozesse optimiert werden. Die Psyche erscheint als ein Produkt des Gehirns – analog etwa zum Insulin als ein Produkt der Bauchspeicheldrüse –, und die Qualität dieses Produktes scheint durch Struktur und Stoffwechsel des Gehirns bedingt zu sein. Diese Vorstellung, dass sämtliche psychischen Funktionen einen organischen Ursprung im zentralen Nervensystem haben, wird als ›neuropsychologisches Paradigma‹ bezeichnet.89 Nach diesem Paradigma können mentale Störungen und abweichendes Verhalten als mangelhafte Hirnfunktion identifiziert und über Einflussnahmen auf die Organfunktion korrigiert werden.90 In Analogie zur Situation bei Diabetikern, bei denen der Insulinmangel über eine externe Insulinzufuhr behandelt werden kann, wird psychisches Leiden als Mangel an bzw. Ungleichgewicht von bestimmten Transmitterstoffen interpretiert und über eine Veränderung des Transmitterhaushalts behandelt.91 ›Enhancement‹ jenseits der Behandlung von medizinisch relevanten Störungen lässt sich metaphorisch als Effizienzsteigerung betrachten, wie bei einem Motor, der mit steigender Oktanzahl des Benzins mehr Leistung erzielt. Am deutlichsten wird die verbreitete Annahme über die chemische Verbindung von Psyche und Gehirn am Beispiel der Depression. Wird Depression als Mangel des Neurotransmitters Serotonin gedeutet, ist der therapeutische Ansatzpunkt für die Behandlung von Depressionen eine Erhöhung des Serotoninspiegels im Gehirn. Und genau darauf zielen moderne Psychopharmaka ab: Sogenannte ›selektive Serotonin-Wiederaufnahmehemmer‹ bilden gegenwärtig die am häufigsten verschriebene Gruppe der Antidepressiva, wobei sich die Wirksamkeit dieser ›selektiv‹ wirksamen Wirkstoffgruppe nach aktuellen Studien nicht von der der wesentlich älteren (nicht-selektiven) trizyklischen Antidepressiva unterscheidet.92 88 Vgl. Greely et al. 2008, S. 702f. 89 Dass dieses Paradigma kein Produkt der modernen Wissenschaft ist, sondern eine über Jahrhunderte stabile ›Ur-Idee‹ verdeutlicht Canguilhem, indem er auf eine Äußerung Cabanis aus dem 18. Jahrhundert rekurriert, »nach dessen Auffassung das Gehirn das Denken absondert wie die Leber die Gallenflüssigkeit« (Canguilhem 1989, S. 9). 90 Vgl. Rose 2003, S. 413. 91 Vgl. Rose 2004, S. 105. 92 Vgl. Lohse/Müller-Oerlinghaus 2009, S. 778.

M ENSCH UND M ASCHINE

| 49



Die Wirksamkeit von Antidepressiva ist insgesamt »begrenzt und zudem relativ unspezifisch«,93 stellen Lohse und Müller-Oerlinghaus fest. »Im Durchschnitt beträgt der absolute Unterschied der Responserate zwischen Antidepressiva und Placebo 20 Prozent.«94 Depressionen lassen sich in vielen Fällen mit Medikamenten also wenig oder nicht besser behandeln als mit wirkstofflosem Placebo. Nutznießer der weitverbreiteten Überzeugung, dass sich die Psyche chemisch über das Gehirn steuern lässt, sind nach Rose daher weniger die Patienten als vor allem Pharmaunternehmen.95 Antidepressiva, die umsatzstärkste Gruppe unter den Psychopharmaka, generieren in den USA jährlich ca. 10 Mrd. Dollar Umsatz – damit sind sie 2009 hinter Fettregulatoren und Protonenpumpenhemmern (zur Magensäurereduktion) mit über 186 Mio. eingelösten Rezepten der drittstärkste Einzelposten bei Medikamenten überhaupt.96 Auf die USA entfällt rund die Hälfte des weltweiten Umsatzes mit Antidepressiva. Gründe hierfür mögen sein, dass US-amerikanische Ärzte Schadenersatzklagen fürchten müssen, wenn sie keine Antidepressiva verschreiben,97 dass dort – was sonst nur in wenigen Ländern der Fall ist – öffentliche Werbung für verschreibungspflichtige Medikamente erlaubt ist, oder dass medikamentöse Behandlungen billiger erscheinen als langjährige Psychotherapien und Krankenhausaufenthalte. Rose hält die derzeitigen ›epidemischen Ausmaße‹ von Depressionen in westlichen Gesellschaften aber auch für die Konsequenz aus Normen der Identitätsbildung: Anfang des 20. Jahrhunderts basierte Identität noch auf Ehre und Schuld. Verhalten, das dieser Norm nicht entsprach, sei als neurotisch pathologisiert worden. Heute hingegen sei die identitätsbildende Norm die der aktiven Selbstverwirklichung, und die gehe einher mit der Notwendigkeit, individuelle Freiheiten zu nutzen, stets eigenverantwortlich zu handeln, die eigenen Möglichkeiten kontinuierlich voll auszuschöpfen, sich lebenslang weiterzubilden und sich selbst zu verbessern.98 Die reziproke Antwort auf die vermeintliche Pflicht zu Individualität und Selbstbestimmung sei die Depression.99 93 Ebd., S. 774. 94 Ebd. 95 Vgl. Rose 2004, S. 105. 96 Quelle: IMS Health: http://www.imshealth.com/deployedfiles/imshealth/Global/Content/StaticFile/Top_Li ne_Data/Top%20Therapy%20Classes%20by%20U.S.Sales.pdf sowie http://www.ims health.com/deployedfiles/imshealth/Global/Content/StaticFile/Top_Line_Data/Top%2 0Therapy%20Classes%20by%20U.S.RXs.pdf (23.07.2010). 97 Vgl. Rose 2004, S. 100. 98 Vgl. Rose 2003, S. 430; vgl. auch Heinemann 2010, S. 131f. 99 Vgl. Rose 2004, S. 108.

50 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Diese These, dass die Individualisierung westlicher Gesellschaften mit einer Zunahme von Depressionen einhergeht, erscheint durchaus plausibel. In (allozentrischen) Gesellschaften, in denen Identität aus kollektiver Perspektive geprägt wird, werden andere psychische Krankheiten behandelt als in (ideozentrischen) Gesellschaften, in denen Identität überwiegend individuell gedeutet wird. In Japan ist z.B. der Pro-Kopf-Verbrauch an Antidepressiva erheblich niedriger als in den USA, dafür ist der Verbrauch an Beruhigungsmitteln (Sedativa und Tranquilizern) wesentlich höher.100 Als Konsequenz aus Veränderungen der Hauptfaktoren zur Identitätsbildung bei gleichzeitiger gewinnorientierter Expansionsstrategie von Pharmaunternehmen identifiziert Rose in heutigen westlichen Gesellschaften eine allgemeine Bereitschaft, (alltägliche psychische) Probleme als Krankheiten aufzufassen, die in Körperfehlfunktionen gründen und gegebenenfalls durch medikamentöse Intervention gelöst werden können.101 Im Rückblick auf die Phase der Kybernetik als ›Inspirationswissenschaft‹ lässt sich keine prinzipielle Veränderung des zugrunde liegenden Menschenbildes feststellen: Die kybernetischen wissenschaftlichen Modelle mögen heute verschwunden sein – das Bild vom Menschen, der sich selbst zu steuern und hervorzubringen vermag, ist geblieben.102 Als Ort dieses Selbst gilt das Gehirn, wie der Neuropsychologe Michael Gazzaniga diese heutige Form des kybernetischen Menschenbildes in eindrücklicher Weise zusammenfasst: »In our era, we know that it is our brain that sustains, manages, and generates our sense of self, of personhood, our sense of others, and our humanness. […] [Y]ou are your brain. The neurons interconnecting in its vast network, discharging in certain patterns modulated by certain chemicals, controlled by thousands of feedback networks – that is you. And in 103

order to be you, all of those systems have to work properly.«

In diesem Zitat zeigt sich in aller Deutlichkeit, wie sehr die Verknüpfung der beiden oben genannten Maschinenthesen104 das Menschenbild prägt, das von populärwissenschaftlich publizierenden Neurowissenschaftlern proklamiert wird: das neuronale System als modernes Synonym der Maschine, die durch Chemie moduliert werden kann und am Funktionieren gehalten werden muss, das Erleben der Welt durch das Gehirn und die Identität von Person und Gehirn. Gaz-

100 Vgl. ebd., S. 92ff. 101 Vgl. ebd., S. 109. 102 Vgl. auch Meyer-Drawe 2009. 103 Gazzaniga 2006, S. 31. 104 S.o., S. 38.

M ENSCH UND M ASCHINE

| 51



zanigas Menschenbild formuliert explizit die Auffassung: Der Mensch ist eine neuronale Maschine; er ist identisch mit seinem maschinell arbeitenden Gehirn. Metaphorische Rückgriffe auf diese Position finden sich unter anderem auch in der Neuropädagogik, z.B. bei Henning Scheich: »Wie bei allen biologischen Systemen gibt es aufgrund der Konstruktion eine Reihe von Bedingungen und Regeln, damit neuronale Lernprozesse in einen optimalen Leistungsbereich kommen. […] Muss alles, was im Tiergehirn an Phänomenen gefunden wurde, am Menschen auf Relevanz überprüft werden? Sicher nicht, soweit es Grundmechanismen betrifft, nach denen ein Gehirn funktioniert. Dazu gehören Lernen, Speichern und Erin105

nern.«

Gesteuert wird Lernen laut Scheich über den Neurotransmitter Dopamin als Chemikalie der »interne[n] Belohnung«, die »ein fundamentaler Motivationsmechanismus beim Lernen und Problemlösen ist und zur Sicherung von Erfahrungen im Gedächtnis führt.«106 Aus anderen Geisteswissenschaften ernten solche Darstellungen nicht selten starke Kritik. Fernando Vidal etwa stellt fest, dass das Triumphieren darüber, die Deutung des Menschen nun endlich naturwissenschaftlich und ohne geistes- und sozialwissenschaftliche Spekulation möglich sei, das »Neuro-Feld« bereits seit dem frühen 19. Jahrhundert begleitet. Die »allgegenwärtige Revolutionsrhetorik« und die »aufgeblasenen Ansprüche« dienten aber vor allem dem Selbstzweck – dem Prestigegewinn durch den Einsatz komplizierter Technologie – und der Idealisierung von individueller Autonomie und Selbstverantwortung.107 Vor allem der veränderte Umgang mit Psychopharmaka verdeutlicht jedoch, dass die Hirndoktrin ein Teil westlicher Kulturen geworden ist, auch wenn die Menschenentwürfe der Neurowissenschaftler bisher nicht von allen und in allen Bereichen des menschlichen Zusammenlebens angenommen werden.108 Erziehungswissenschaftler und Pädagogen sind gefordert mit zu entscheiden, inwiefern das Bild von der neuronalen Maschine zur handlungsleitenden Auffassung kommender Generationen wird, denn sie können in nicht unbedeutendem Maße zur Normalisierung von Menschenkonzepten beitragen. In der ersten Ausgabe der Zeitschrift BioSocieties, die sich Soziologie im Zeichen der Biotechnologie zum Thema macht, heißt es zur Intention des NeuroForums: »[I]t is time to deflate the bubble of hype and hope, of anxiety and con105 Scheich 2003. 106 Ebd. 107 Vidal 2009, S. 10 (übersetzt durch mich, U.S.). 108 Vgl. auch Frazzetto/Anker 2009.

52 | DER M ENSCH ALS NEURONALE M ASCHINE ?

cern, [and] of speculative futurology.«109 Diesem Leitgedanken hat sich auch dieses Buch verschrieben. Zunächst wird im folgenden Kapitel verdeutlicht, wie es zu den unterschiedlichen Einschätzungen bezüglich der Relevanz neurowissenschaftlich postulierter Menschenbilder kommt und wodurch der Glaube in die Technologie entsteht und getragen wird. Anschließend wird der Blick den Möglichkeiten und Grenzen von Beobachtungstechnologien zugewendet.

109 Singh/Rose 2006, S. 98.

3. Weltbilder und Wissenschaftstraditionen

Zwei konstitutive Elemente für die Konzeption des Menschen als neuronale Maschine wurden im vorigen Kapitel erörtert: Einerseits wird das Gehirn technisiert, indem seine Funktion auf bioelektrische und biochemische Vorgänge in neuronalen Netzwerken zurückgeführt wird, die Naturgesetzen unterliegen. Andererseits wird postuliert, dass die menschliche Psyche (Emotion, Kognition sowie Verhalten) vollständig durch das zentrale Nervensystem erklärt werden kann, der Mensch also identisch mit seinem Gehirn ist. Der Körper existiert gemäß dieser Vorstellung vor allem, um das Gehirn zu beherbergen und zu transportieren, zu schützen, mit Nährstoffen zu versorgen und gegebenenfalls eine Reproduktion zu ermöglich. Die z.B. von Cruse und Gazzaniga verwendete Personalisierung des Gehirns1 ist Ausdruck dieser Sichtweise. Im vorangegangenen Kapitel wurde die aktuelle Fassung der neuronalen Maschine in einen historischen Kontext gestellt. Es wurde festgestellt, dass neue technologische Entwicklungen häufig eine neue bevorzugte Sichtweise auf den Menschen hervorbringen. Statt sich den von ihm konstruierten Maschinen vis-àvis zu positionieren, entwirft der Mensch sich gegenwärtig selbst als Maschine – als ein komplexes, informationsverarbeitendes System.2 In diesem metaphorischen Rahmen werden Sinneswahrnehmungen als sensorische Inputs, die Verarbeitung dieser Wahrnehmungen als Rechenleistung, Lernen als Exekutieren von Programmen, Gedächtnis als Speicher, Verhalten als Systemoutput interpretiert,3 und die Entwicklung von Bewusstsein wird als eine Eigenschaft aufgefasst, die

1

S.o., S. 21 und S. 50.

2

Vgl. auch Hagner 2006, S. 30.

3

Vgl. Salaschek/Wistuba 2010, S. 42.

54 | DER M ENSCH ALS NEURONALE M ASCHINE ?

sich als Nebenprodukt komplexer Organisationsgrade quasi zwangsläufig ergibt.4 Leicht gerät dabei jedoch aus dem Blick, dass die Funktionen der jetzt als Referenz dienenden Maschinen ursprünglich aus dem Handlungsrepertoire des Menschen stammen und für jeweils spezifische Einsätze weiterentwickelt wurden. (Selbst-) Bewusstsein konnte bisher in keinem technischen System nachgewiesen werden5 und Modelle, die aus Tierversuchen menschliche Eigenschaften ableiten, erfüllen möglicherweise nicht das Kriterium der Adäquatheit.6 Als wie belastungsfähig biologische Experimente an Tier und Mensch gelten und welche Schlüsse aus ihnen über die Beschaffenheit der Welt gezogen werden, wird vor allem durch Auffassungen darüber bedingt, in welchem Verhältnis Wissenschaft und Welt zueinander stehen. Durch welche Weltsicht sowie Wissenschaftsauffassung die Technisierung des Gehirns als Stellvertreter des ganzen Menschen als Konsequenz seiner objektiven naturwissenschaftlichen Untersuchung ermöglicht wird, und welche Argumente sich gegen solche Auffassungen formulieren lassen, wird im Folgenden erörtert.

3.1 E PISTEMOLOGISCHE Ü BERLEGUNGEN ZUR G ENERIERUNG VON W ISSEN »Die Idee eines freien menschlichen Willens ist mit wissenschaftlichen Überlegungen prinzipiell nicht zu vereinbaren. Wissenschaft geht davon aus, daß alles, was geschieht, seine Ursache hat und daß man diese Ursache finden kann. Für mich ist unverständlich, daß jemand, der empirische Wissenschaft betreibt, glauben kann, daß freies, also nicht7

determiniertes Handeln denkbar ist.«

Dies konstatiert der Psychologe Wolfgang Prinz im Feuilleton der Frankfurter Allgemeinen Zeitung und verleiht damit seiner Vorstellung von einer experimen-

4

Vgl. Roth 2003, S. 253f.: »Studiert man die strukturelle und funktionelle Organisation des Cortex, so wird klar, dass ein solches System notwendigerweise hochkomplexe Zustände von ›Selbstbeschreibung‹ entwickelt, die wir dann als Bewusstsein, Wünsche, Meinungen, Ich-Zustände usw. empfinden.«

5

Allerdings wird spekuliert, dass das Blue Brain Project in späteren Ausbaustufen ein Bewusstsein in der Maschine produzieren wird. (Vgl. Hutton 2010; vgl. auch Ryle 1992, S. 13ff.)

6

Vgl. Abschnitt 2.3.

7

Prinz 2004, S. 22f.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 55



tell-empirisch-realistischen Wissenschaft Ausdruck, deren Inhalt es ist, Gesetzmäßigkeiten, die ›die Natur‹ strukturieren, in adäquate Modelle zu gießen.8 Als exemplarischer Gegenentwurf sei hier der Theaterwissenschaftler Nelle zitiert, der dem Experiment als Basis naturwissenschaftlich-empirischer Forschung »alle Kriterien manischen Verhaltens« attestiert: »Die Begrenzung der Aufmerksamkeit auf einen winzigen Wirklichkeitsausschnitt, die pedantische Verfolgung kleinster Details und der Wiederholungszwang finden hier zu einer institutionalisierten Form.«9 Nelle wirft die Frage auf, wie überhaupt die Idee verfolgt werden könne, mit »den Regeln einer selbsterrichteten Welt«10 die wirkliche Welt angemessen beschreiben zu wollen, die schließlich außerhalb jener Regel liege.11 Der Literaturwissenschaftler Mattenklott empfiehlt ein Reflektieren sinnlicher Erfahrungen in der Wissenschaft dann auch im Selbstverständnis »eines sich selbst über die Schulter schauenden Silberblicks.«12 Der Frage, wie es zu solch unterschiedlichen Sichtweisen auf experimentelle Wissenschaft kommt, ob sie vielleicht Ausdruck bloßer »Einsozialisation« in die »main-stream-philosophy eines Faches«13 sind, soll unter Rückgriff auf verschiedene Wissenschaftstraditionen nachgegangen werden. 3.1.1 Naturalismus und Reduktionismus Wegen der uneinheitlichen und nicht selten polemischen Verwendung des Begriffs Naturalismus für verschiedene Lehren, die eine wie auch immer geartete ›Natur‹ »zum Grund und zur Norm aller Erscheinungen«14 erklären, ist es angezeigt, unterschiedliche Begriffsverständnisse zu identifizieren, deren Implikationen im Diskurs über Hirnforschung einen großen Streitpunkt zwischen Neuround Geisteswissenschaftlern darstellen. Hier handelt es sich einerseits um ›Naturalismus‹ (bzw. ›Physikalismus‹) und andererseits um ›Reduktionismus‹. 8

Vgl. Janich 1993, S. 315.

9

Nelle 2003, S. 157.

10 Ebd. 11 Vgl. auch Canguilhem 1979, S. 29: »Die Wissenschaft ist nicht von sich aus in wissenschaftliche Gegenstände und Erscheinungen aufgeteilt. Die Wissenschaft konstituiert ihren Gegenstand vielmehr von dem Moment an, da sie eine Methode findet, um aus übereinstimmenden Sätzen eine Theorie zu bauen, die wiederum durch das Bemühen kontrolliert wird, in ihr Fehler zu entdecken.« 12 Mattenklott 2003, S. 43. 13 Janich 2006. S. 25; vgl. auch Bayertz 1981, S. 26ff. 14 Gawlick 1984, S. 517.

56 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Einen prototypischen Standpunkt zur Klärung, was im Neurodiskurs unter Reduktionismus verstanden wird, nimmt Wolf Singer ein, dessen Argumentation wie folgt lautet: »Die Verhaltensleistungen einfacher Organismen lassen sich lückenlos auf die neuronalen Vorgänge in den respektiven Nervensystemen zurückführen. Da die Evolution sehr konservativ mit Erfindungen umgeht, unterscheiden sich einfache und hochdifferenzierte Gehirne im Wesentlichen nur durch die Zahl der Nervenzellen und die Komplexität der Vernetzung. Daraus folgt, dass auch die komplexen kognitiven Funktionen des Menschen auf neuronalen Prozessen beruhen müssen, die nach den gleichen Prinzipien organisiert sind, 15

wie wir sie von tierischen Gehirnen kennen.«

Ob das nun bedeuten soll, dass komplexe kognitive Funktionen des Menschen aus der unter rein behavioristischen Aspekten erfolgten Untersuchung16 von Ganglien (Nervenknoten) in Schnecken17 ableitbar seien, sei dahingestellt. Zunächst möchte Singer wohl zum Ausdruck bringen, dass menschliches Verhalten18 ebenso wie das von einfachen Organismen vollständig »auf neuronalen Wechselwirkungen beruht, die deterministischen Naturgesetzen folgen.«19 Der Physiker Schwegler kritisiert die Idee einer Reduktion auf deterministische Naturgesetze, denen sich eine Theorie zu unterwerfen habe, als ontologischen Reduktionismus. Bei einem solchen Vorgehen würde gefordert, dass sich eine im Wissenschaftssystem konstruierte Theorie durch außerwissenschaftliches Wissen (die Beschaffenheit ontologischer Naturgesetze) erklären ließe.20 Auch häufige Gleichsetzung von Physischem und Physikalischem21 sei proble-

15 Singer 2004, S. 21. Wörtlich identisch auch in Singer 2007b, S. 52. 16 Eine Darstellung der Aplysia-Experimente findet sich u.a. bei Florey 1993, S. 183ff. sowie Kandel 2007, S. 164. ff. und 209ff. 17 Vgl. Singer 2007b, S. 44f. 18 Singer gebraucht den Begriff ›Verhalten‹ synonym zu ›Handeln‹, das anderenorts die Akzeptanz der Annahme voraussetzt, dass es ein Subjekt ist, das handelt (vgl. Derbolav 1974, S. 992). 19 Singer 2007a, S. 188. 20 Vgl. Schwegler 2001, S. 62. 21 Die Ansicht, dass die Physiologie ein Teil der Physik sei, entwickelte sich laut Lohff im 19. Jh. parallel zur vor allem durch du Bois-Reymond vertretenen Opposition einer Vitalismusidee. Vitalismus beschreibt eine Auffassung ähnlich der ›Dualisten‹, dass der Mensch durch eine mit physikalischen Mitteln und Methoden nicht beschreibbaren Lebenskraft bedingt sei. (Vgl. Lohff 1981, S. 106f.)

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 57



matisch,22 da sich »die Bedeutung des Wortes ›Physik‹ überwiegend durch den (historisch gewachsenen) Zuschnitt der Fachbereiche an unseren Universitäten bestimme.«23 Schwegler betont, dass physikalische Gesetze, wenn sie nicht als gegeben angesehen werden, aktiv aufgestellt wurden und stets Veränderungen und Umbauprozessen unterliegen, auch wenn »die Menschen immer wieder geglaubt haben, das Wesentliche wäre erledigt.«24 Der Begriff des Physikalischen, wo er von Neurowissenschaftlern verwendet wird, rekurriert ebenso wie die Referenz auf Naturgesetze auf eine deterministische Weltsicht. Nach Detel ist die Ansicht, dass Naturgesetze existieren unter Physikern nicht unüblich.25 Die Vorstellung hingegen, dass »die unverzichtbaren (technischen) Erkenntnismittel (Beobachtungs- und Meßinstrumente; Experimentiervorrichtungen)«26 selbst Naturgegenstände seien und ihre Messergebnisse die Natur widerspiegelten,27 bezeichnet Peter Janich als »klassischen Fehler der Naturalisierung.«28 Evelyn FoxKeller weist außerdem darauf hin, dass das Postulat von biologischen Naturgesetzen in der Praxis gar keinen Sinn ergibt: Ausnahmen würden in der Biologie stets erwartet, Abweichungen seien der Regelfall.29 Eine Reduktion im physikalischen Sinne, so Schwegler, sei streng genommen ohnehin nur das, was eine beweisbare Überführung einer Theorie T1 in eine Theorie T2 in der Form vollzieht, dass sowohl alle Gesetzmäßigkeiten als auch alle Begriffe von T1 durch T2 erklärt werden.30 Diese Bedingungen seien jedoch aus mehreren Gründen bei der Reduktion von Verhalten auf Neuronenaktivität nicht erfüllt. Erstens sei die philosophische, psychologische oder sozialwissenschaftliche Theorie, die überführt werden soll, bisher nicht genannt worden. Zweitens existiere bisher keine neuronale Theorie des Verhaltens, sondern nur Fragmente einer solchen.31 Drittens sei eine neuronale Theorie des Verhaltens auf absehbare Zeit selbst theoretisch nicht beweisbar, da die nichtlinearen dyna22 Vgl. Schwegler 2001, S. 75 sowie Janich 2009, S. 48f. 23 Schwegler 2001, S. 65. 24 Ebd., S. 75. 25 Detel gibt einen kurzen Überblick über einige Arten von Theorien über Naturgesetze: Detel 2007, S. 357. Eine etwas differenziertere Zusammenfassung findet sich bei Fraasen 1980. S. 1-5. Als ausdrücklich falsch bezeichnet die Physikerin Nancy Cartwright die Faktizitätsauffassung physikalischer Gesetze. (Vgl. Cartwright 2005, S. 154ff.) 26 Janich 2006, S. 27. 27 Vgl. Breidbach 2005. S. 10. Vgl. auch Abschnitt 5.1.3. 28 Janich 2006, S. 27. 29 Vgl. Fox-Keller 2008, S. 121. 30 Vgl. Schwegler 2001, S. 60. 31 Vgl. ebd., S. 76.

58 | DER M ENSCH ALS NEURONALE M ASCHINE ?

mischen Systeme mit einigen Milliarden Variablen, mit denen Neurowissenschaftler das Gehirn zu erklären versuchten, mit den zur Verfügung stehenden Rechnerkapazitäten mathematisch nicht beschreibbar seien.32 Eine anschauliche Erklärung für die Unüberbrückbarkeit von physischer und sozialer Ebene findet sich bei John Searle:33 Während materielle Gegenstände auch ohne Bedeutungszuschreibung existieren, sind manche Begriffe nur im Rahmen ihres gesellschaftlichen Gebrauchs existent. Zu solchen gehören z.B. Heirat, Geld, Versprechen.34 Ihre Bedeutung beruht auf Konventionen, etwa, dass Geld als universelles Tauschmittel akzeptiert wird. Verliert Geld aufgrund einer Inflation seinen Status, bleibt die physische Beschaffenheit des vormals als Geld bezeichneten Gegenstandes die gleiche; seine Bedeutung hat sich aber, gesellschaftlich bedingt, verändert – etwa so, dass als universelles Tauschmittel nun Zigaretten fungieren und somit die Geldfunktion übernehmen. Unterdessen bleibt die Beschaffenheit eines Baumes, sein Stoffwechsel, seine Struktur auch dann bestehen, wenn er anders benannt wird oder einer Gesellschaft unbekannt ist. Die Absurdität von Versuchen, die eine (materielle) in die andere (soziale) Kategorie überführen zu wollen, verdeutlicht Searle anhand der Analogie, eine gesellschaftliche Revolution durch die sie begleitenden Molekülbewegungen erklären zu wollen. Auch für den Physiker und Nobelpreisträger Steven Weinberg ist es nicht vorstellbar, dass Physiker versuchen könnten, Begriffe der sozialen Welt (er nennt als Beispiele Sonntag, Heimat und Erlaubnis) physikalisch zu reduzieren.35 Einem physikalischen Verständnis von Reduktion genügt der im Diskurs zwischen Philosophen und Neurowissenschaftlern verwendete Begriff des wahlweise naturalistischen oder physikalischen Reduktionismus also ohnehin nicht, und auch philosophisch gelten solche Reduktionismen als Kategoriefehler. Auf die physikalische Reduktionismusdefinition zurückgreifend, wäre es nun 32 Vgl. ebd., S. 78. Tatsächlich reichte die Rechenleistung eines ›Supercomputers‹ mit 23 Billionen (2,3*1013) Rechenoperationen pro Sekunde im Jahr 2006 gerade einmal für die Simulation einer sogenannten Säule von 10.000 Nervenzellen aus dem sensorischen Kortex einer jungen Ratte (vgl. Stieler 2007, S. 70 sowie Markram 2006). Das Erreichen ausreichender Rechenkapazität scheint jedoch nur eine Frage der Zeit. 2011 vollziehen die weltweit schnellsten Computer (z.B. der Riken K Computer) bereits mehr als 1016 Rechenoperationen pro Sekunden – rund 450 mal so viele. 33 Vgl. Searle 2003, S. 71ff. 34 Es gibt auch sozial reale Gegenstände – solche, denen eine Bedeutung beigemessen wird, die physisch überhaupt nicht vorhanden sind. Dazu gehören z.B. Fabelwesen wie Drache oder Pegasus. 35 Vgl. Weinberg 2001, S. 114.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 59



unproblematisch, wenn Roth den Vorwurf des Reduktionismus zurückwiese.36 Roth argumentiert aber, dass seine Theorie deswegen nicht reduktionistisch sei, weil sie zusätzlich zu neurophysiologischer bzw. neurochemischer Aktivität die Bedeutungsebene subjektiven Erlebens begrifflich in Hirnprozesse inkludiere, durch die Verhaltensreaktionen erklärt werden.37 Im selben Aufsatz behauptet er allerdings auch, neuronale Aktivität subjektivem Erleben eindeutig zuordnen zu können, ja, dass eine solche Zuordnung sogar »neuro(bio)logisches Alltagswissen« darstelle.38 Krüger benennt diesen Widerspruch als einen »nicht-reduktiven Naturalismus«39 – nach Lesart Schweglers also einen ›unüberführbaren Determinismus‹ – den Roth verfolge.40 Eine weichere Definition von Reduktion, unter die zweifellos auch die von Roth fällt, stammt von Michael Pauen: Nach ihm versucht ein reduktionistischer Naturalismus, »die zentralen kognitiven und volitionalen Fähigkeiten des Menschen zu erklären, indem er sie auf materielle Ereignisse und Gesetzmäßigkeiten zurückführt, und zwar so, dass menschliches Handeln und Verhalten ggfs. aus neurobiologischen Erkenntnissen verständlich gemacht werden kann.«41 Dieser Wortwahl zufolge ist die vollständige Überführung von T1 in T2 keine notwendige Bedingung der Reduktion. Vielmehr genüge die Plausibilität einer partiellen neurologischen Erklärung bestimmter Verhaltensweisen (in diesem Sinne sei hier das »ggfs.« interpretiert). Auf weitere Probleme dieser Form des Reduktionismus weist der Neuropsychologe Mandler bereits 1975 in einem viel beachteten Aufsatz hin.42 Einen seiner Kernpunkte verdeutlicht er anhand der Auswahl von Entscheidungsalternativen. Hierbei unterscheidet er zwischen »choice« (bewusst: etwa die Auswahl von Kleidung) und »operation« (unbewusst: etwa die Auswahl, ob ein oder zwei Schluck Kaffee getrunken werden, ob ein Spaziergang mit dem linken oder rechten Fuß begonnen wird). Ausschlaggebend dafür, in welchem Maße der Entscheidungsvorgang bewusst oder unbewusst abläuft, ist Mandler zufolge die soziale Relevanz seiner Konsequenzen. Die Untersuchung eines sozial isolierten Gehirns (etwa in seiner Zellstruktur oder Zelldichte in bestimmten Arealen) bleibt demnach unvollständig, die eines autonomen Individuums unmöglich.

36 Vgl. Roth 2007, S. 171ff. 37 Vgl. ebd., S. 175. 38 Ebd., S. 176. 39 Krüger 2007, S. 13. 40 Weitere Aspekte dieses Widerspruchs beleuchtet Schneider 2007, S. 236f. 41 Pauen 2007, S. 421. Die Gefahr des Kategoriefehlers besteht natürlich auch hier. 42 Vgl. Mandler 2003.

60 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Mandler bezeichnet diesen Effekt von sozialen Erwartungen und Interaktionen als »uncertainty principle of psychology«.43 Einen anderen Aspekt einer allgemeinen Diskussion um Reduktionismen (als Überführbarkeit) in der Wissenschaft beleuchtet Rheinberger.44 Er weist auf ein Argument hin, das 1928 von Riezler45 vorgebracht wurde. Wenn in wissenschaftlichen Kontexten produzierte Erkenntnisse aufeinander reduzierbar wären, weil sie sich mit dem gleichen Aspekt der Wirklichkeit befassten, so sollte sich auf kurz oder lang eine Einheitswissenschaft entwickeln. Stattdessen sei aber eine fortschreitende Differenzierung und Divergierung verschiedener Wissenschaftszweige zu beobachten,46 die sich z.B. durch die Ausbildung unterschiedlicher Begriffssysteme in zunehmendem Maße zueinander inkompatibel statt aufeinander reduzierbar entwickelten. Als Zuschnitt verschiedener Probleme, die im Diskurs zwischen Neuro- und Geisteswissenschaftlern von Belang sind, sollte dieser Abschnitt Folgendes verdeutlichen. 1.: Die Frage, in welcher Relation die Welt und ihre wissenschaftlichen Beschreibungen anhand von experimentell fundierten Modellen und Theorien stehen, ist nicht unproblematisch, sondern bedarf eingehender Bearbeitung. Diese soll in den folgenden Abschnitten sukzessiv erfolgen. Die Bandbreite möglicher Positionen lässt sich an folgenden beiden Prototypen markieren: (a) Naturgesetze sind existent und können über Experimente zweifelsfrei erkannt werden. (b) Es ist unerheblich, ob Naturgesetze existieren, da sie nicht Gegenstand der Wissenschaft sein können, weil diese bloß über indirekte Zugänge zur Welt verfügt. Formulierte Gesetze sind das vorläufige Resultat einer kontingenten Sozial- und Kulturgeschichte. 2.: Der Begriff der Reduktion wird im selben Diskurs47 mit verschiedenen Bedeutungen verwendet – zum einen im Sinne von Restriktion oder Verlust, zum 43 Ebd., S. 22. 44 Vgl. Rheinberger 2006, S. 25f. 45 Vgl. Riezler 1928, S. 706. 46 Vgl. auch Hampe 2005, S. 23 sowie Hacking 1996, S. 361: »Seit 1840 hat sich allein die Physik in der tagtäglichen Praxis jedes Jahr erfolgreich einer größeren Anzahl (unvereinbarer) Modelle der Phänomene bedient als im jeweiligen Vorjahr. Der ideale Endzustand der Wissenschaft ist nicht die Einheit, sondern eine unermeßliche Überfülle.« 47 Gemeint ist v.a. der in der Deutschen Zeitschrift für Philosophie geführte Diskurs um naturwissenschaftliche und geisteswissenschaftliche Interpretationen eines breiten Feldes der Neurobiologie, gesammelt von Krüger 2007.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 61



anderen als die vollständige Überführung eines Modells in ein anderes. Ergänzend ist anzumerken, dass Erläuterungen zur jeweils vertretenen Reduktionismusauffassung nicht die Regel sind.48 3.: Ein nicht-reduktionistischer Naturalismus (mit der erstgenannten Bedeutung von Reduktion als Restriktion) ist schon deswegen unmöglich, weil der Einfluss aller möglichen relevanten sozialen Komponenten auf Versuchsergebnisse bei der Erforschung von Entscheidungen, Bewusstsein etc. nicht erfasst und berücksichtigt wird. Ein nicht-reduktionistischer Naturalismus (im Sinne der Bedeutung von Reduktion als Überführung) wäre eine Theorie, die gerade keine Transformation zwischen physikalisch-biologischen und psychologisch-sozialwissenschaftlichen Erklärungsmodellen leistet. Der mögliche Erkenntnisgewinn für Erziehungswissenschaften von Theorien, die jede soziale Sphäre unbeachtet lassen oder versuchen, solches Vokabular zu vermeiden, das unweigerlich sozial konnotiert ist, ist schwer abzuschätzen – einen privilegierten Zugang zu Fragen bezüglich Willensfreiheit, Lernen oder Persönlichkeitsentwicklung hätten diese Theorien jedenfalls nicht. 3.1.2 Realismus, Nominalismus und Experimentalsysteme Ob es gerechtfertigt ist davon auszugehen, dass Wissenschaft Wissen herstellt, oder ob es plausibler ist, von einem Aufdecken des Wissens durch Wissenschaft auszugehen, wird im Folgenden an der Bedeutung des Experiments für die Gewinnung empirischen Wissens untersucht. Die unter 3.1.1 angeführten Zitate von Prinz und Nelle49 sind symptomatisch für gegensätzliche Vorstellungen vom Verhältnis der Wissenschaft zur Welt. Die Positionen zu benennen, fällt nicht leicht, da sich die Konnotationen vieler verwendeter Bezeichnungen historisch mitunter sehr verändert haben. Prinz’ Seite sei als naturalistisch oder realistisch bezeichnet, die Position Nelles hingegen als nominalistisch oder konventionalistisch. Für eine erste Konturierung der sich bereits lange Zeit gegenüberstehenden Auffassungen von der Welt sei auf eine Definition von Albertus Magnus aus dem 13. Jh. verwiesen: »Je nachdem ein Magister die Eignung der Universalien, in Vielem zu sein, den Dingen selbst o48 Bei Engels schwingen beide Bedeutungen sogar innerhalb eines Aufsatzes in zwei aufeinanderfolgenden Sätzen mit: »Beide Perspektiven, die subjektive Innenperspektive und die objektive Außenperspektive sind unverzichtbare Bestandteile einer nichtreduktionistischen Neurophilosophie. Weder ist die subjektive Innenperspektive auf die objektive Außenperspektive reduzierbar, noch kann auf die objektive Außenperspektive verzichtet werden« (Engels 2005, S. 239). 49 S.o., S. 54 und S. 55.

62 | DER M ENSCH ALS NEURONALE M ASCHINE ?

der dem menschlichen Denken zuschreibt, sei er Realist oder Nominalist.«50 Ian Hacking erläutert die beiden Positionen wie folgt: »Die eine Seite hegt die Hoffnung, die Welt möge aufgrund ihrer eigenen Natur so gegliedert sein, wie wir sie beschreiben. […] Der ganze Witz der Forschung bestehe darin, etwas über die Welt herauszubekommen. […] Die Gegenseite behauptet, […] die Welt sei so autonom, so eigenständig, daß sie an sich nicht einmal das besitze, was wir Struktur nen51

nen. […] Alles Strukturelle, das wir begreifen können, liege in unseren Darstellungen.«

Die Argumente gegen die Vorstellung des simplen Erkennens von Naturgesetzmäßigkeiten (naiver Realismus52) knüpfen an ein Wortspiel Latours an, das Rheinberger wie folgt übersetzt: »Eine Tatsache ist eine Tatsache. Ein wissenschaftliches Faktum muss gemacht werden.«53 Naturalistischen Ansichten wird hier das Konzept eines Konventionalismus entgegengestellt, demgemäß Wissenschaft nicht auf naturgegebenen Axiomen und absoluter Rationalität, sondern auf Übereinkünften bzgl. der Beschaffenheit der Welt beruht.54 Als Argumente für die Realität physikalischer Theorien (bewiesen durch Stabilität/Zeitlosigkeit) werden häufig die Maxwell’sche Gleichung oder die Lichtgeschwindigkeit herangezogen. Als Argumente dagegen werden die Quantenphysik, Gödels Unvollständigkeitssatz55 oder die Relativitätstheorie genannt, die mit der Vorstellung von Objektivität und Stabilität von Zeit und Raum aufräumte. Auch aus vielen der denkbaren Zwischenperspektiven, etwa der eines Popper’schen kritischen Rationalismus, demzufolge nach Falsifikationen immer bessere Theorien erfunden werden, wodurch die Wissenschaft Fortschritte mache,56 lassen sich Einwände dagegen formulieren, dass die Welt bereits jetzt (größtenteils?) ihrer realen Struktur nach beschrieben werden kann. Die Breite ›realistischer‹ Wissenschaftsauffassungen lässt sich an einem Landkartenmodell veranschaulichen: Das eine Ende markieren Einstellungen, 50 Albertus Magnus 1890, S. 147, zitiert nach Hoffmann 1992, S. 149. 51 Hacking 2002, S. 133. 52 Hacking ist der Meinung, dass – aufgrund angesprochener Konnotationsveränderungen – statt ›Realismus‹ der Name ›Innenstrukturismus‹ angemessener sei, weil ihn »aufgrund seiner Häßlichkeit sicher kein anderer Autor verwenden wird.« (Ebd.) Wegen seines selbsterklärenden Potenzials soll hier dennoch der Begriff des Realismus beibehalten werden. 53 Latour 1990, S. 63, zitiert nach Rheinberger 2006, S. 31, FN 28. 54 Vgl. Bayertz 1981, S. 71 sowie Frey 1976. 55 Vgl. z.B. Hampe 2005, S. 15; Linden 2004, S. 11ff.; Changeux 1992, S. 122ff. 56 Vgl. Popper 1984, S. 375.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 63



denen zufolge auf der wissenschaftlichen Landkarte nur noch die letzten weißen Flecken aufzudecken sind (naiver Realismus). Wissenschaftler am anderen Ende beschreiben die Karte als im Wesentlichen dunkel mit wenigen bereits aufgedeckten Flecken, von denen viele noch unscharf sind. Versuche, die Schärfe zu erhöhen oder neue Flecken aufzudecken oder miteinander in Beziehung zu setzen, fügen der Karte dabei meist neue bisher noch unerforschte Dimensionen hinzu. Von einem solchen skeptischen Realismus ist es dann auch metaphorisch nicht mehr weit zum Nominalismus, für dessen Vertreter die Landkarte etwas Künstlerisches (oder Künstliches, zumindest aber Technikinhärentes), Variables, in verschiedenen Epochen mit unterschiedlichen Stilen Produziertes darstellt und die auf die Relevanz der Beschaffenheit von Pinsel, Farbe und Leinwand hinweisen. Auch beim Nominalismus werden natürlich verschiedene argumentative Schwerpunkte gesetzt. Neben den Instrumenten können auch sprachliche Beschreibungsmuster, Abbildungsprozeduren, außerwissenschaftliche Einflüsse (z.B. Akquisition von Ressourcen) etc. in Augenschein genommen werden. All diese Einflüsse auf Objektivierung wissenschaftlichen Wissens fasst Olaf Breidbach unter ›Kulturgeschichte‹ zusammen. Auch die Naturwissenschaften müssten akzeptieren, dass sie »nicht am Ende, sondern in ihrer Geschichte [stehen]. Sie sind Teil einer Kulturgeschichte.«57 Diese Formulierung dürfte insbesondere auch auf die bildgebenden Verfahren der Neurowissenschaften übertragbar sein, weil sie vergleichsweise jung sind und sich in einer Phase der Entwicklung befinden, in der noch große Sprünge der Technik an der Tagesordnung sind, statt dass einzelne Verfeinerungen die Ausgereiftheit der Instrumente indizieren.58 Zwei Punkte dieser Kulturgeschichte sind für die Analyse bildgebender Verfahren von besonderem Interesse: einerseits der Prozess der Erstellung und Darstellung, andererseits die (explikatorische) Verwendung von Bildern. Unter ›Experiment‹ soll eine »durch Instrumente und Vorrichtungen gewonnene Erfahrung«59 verstanden werden, die durch reine Beobachtung der Natur – ohne Eingreifen – nicht gemacht werden könnte. In der Interpretation des Stellenwerts von Experimenten in den Naturwissenschaften sei auch auf Rheinberger verwiesen. Er rekurriert auf Ansichten, Experimentalsysteme seien »die Kernstruktur,

57 Breidbach 2005, S. 11. (Hervorhebung durch mich, U.S.) 58 Diese Einschätzung des Entwicklungsverlaufs lässt sich mathematisch in Form einer logistischen Funktion veranschaulichen, deren Geltung approximativ angenommen wird. In ihrer einfachsten Form lässt sie sich durch die Gleichung f(x)=1/(1+exp(-x)) abbilden. 59 Frey 1972, S. 868.

64 | DER M ENSCH ALS NEURONALE M ASCHINE ?

in der wissenschaftliche Aktivität sich entfalten kann.«60 Die gewonnenen Erfahrungen bzw. die erzielten Effekte müssen sich dabei keineswegs in der Natur wiederfinden lassen. Einige Phänomene wie Supraleitung, die etwa beim Betrieb von Magnetresonanztomographen Verwendung findet, oder Laserlicht, lassen sich unter ›natürlichen‹ Umständen gar nicht beobachten, sondern sind reine Produkte physikalischer theoriegeleiteter Modelle und dementsprechender Experimente.61 Rheinberger weist darauf hin, dass Gaston Bachelard für den Bereich künstlich produzierter, in der unbearbeiteten Natur nicht beobachtbarer Erscheinungen in den 1930er Jahren den Begriff ›verdinglichte Theoreme‹ prägte.62 Zeitgenössische Naturwissenschaft entdecke demnach nicht die gegebene Natur, sie produziert neue Natur, indem sie als »Phänomen-Fabrik« fungiert.63 Aus solchen Hervorbringungen von Menschenhand auf der Basis von Theorien allerdings zu verallgemeinern, alle Experimente seien der Theorie (ob zur Stützung oder zur Falsifikation) nachgeordnet,64 hält Hacking für falsch: »Etliche Theorien verschmachten, weil das Zusammenspiel mit der wirklichen Welt ausbleibt, während einige experimentelle Phänomene müßig bleiben, weil es an einer Theorie mangelt.«65 »Freilich, wenn jemand jede Überzeugung, jede Protoüberzeugung und jede erdenkliche Überzeugung als Theorie bezeichnen möchte, sei ihm das unbenommen. Doch in dem Fall wird die These der Theoriebeladenheit belanglos.«66 Einerseits zeigt die Möglichkeit der Erschaffung von in der unbearbeiteten Natur nicht vorkommenden Phänomenen aus Theorien, wie hochgradig kompatibel Theorien zur ›Natur‹ sein können. Andererseits existiert für manche Phänomene aber keine oder gleich eine Mehrzahl nicht aufeinander reduzierbarer Theorien oder Modelle, die jeweils die Erscheinung erklären können.67 Bei Experimenten handelt es sich höchstens um Grenzfälle des Natürlichen, erläutert Nancy Cartwright unter dem Schlagwort ceteris paribus:68 Das ceteris parisbusPrinzip bedeutet die Beschränkung der Gültigkeit einer Theorie auf bestimmte gleichbleibende Rahmenbedingungen. In der Natur sei die Beobachtung der 60 Rheinberger 2002, S. 18. 61 Vgl. Lenoir 1988, S. 6 sowie Hacking 1996, S. 377ff. 62 Vgl. Rheinberger 2006, S. 40. 63 Ebd., S. 48. 64 Vgl. Popper 1984, S. 359f. 65 Hacking 1996, S. 265. Eine beispielhafte Erläuterung findet sich in seiner Beschreibung von Herschels Entdeckung der Wärmestrahlung (ebd., S. 290-300). 66 Ebd., S. 292f. 67 Vgl. Cartwright 2005, S. 152f. 68 Vgl. ebd., S. 148, 155.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 65



Wirkung von physikalischen Gesetzen ceteris paribus grundsätzlich nicht möglich (nur in dem Fall, dass auf ein System eine und nur eine Kraft einwirke). In der Regel wirkten aber viele unterschiedliche Einflüsse auf ein System ein; meist mit solchen Wechselwirkungen, dass die Gesamtwirkung nicht mehr beschreibbar und damit eine Vorhersage von Phänomenen komplexer Systeme nicht mehr möglich sei.69 Das hat zur Folge, dass sich zwar künstliche Einzelphänomene, wie das Verhalten von Lasern, vorhersagen und handhaben lassen, natürliche Phänomene – etwa der Durchmischungsprozess verschiedener Flüssigkeiten, das Kollisionsverhalten von Wassertropfen, die Ausbreitung von Rauch oder die Entwicklung des Wetters – aber nur sehr ungenau prognostizierbar sind. Eine Übertragung der ceteris paribus-Einschränkung auf neurobiologische Experimentierverfahren leistet Gesa Lindemann.70 Sie stellt dar, welchen Einfluss der Grad an Variabilität der Rahmenbedingungen auf Versuchsergebnisse hat. So ließen sich Gehirnscheiben getöteter Tiere am besten ›von außen‹ analysieren (z.B. unter zellphysiologischen Gesichtspunkten). Je höher aber der Grad der Komplexität des Versuchssystems und der Rahmenbedingungen werde, desto wichtiger werde die Zweite-Person-Perspektive, eine Verhaltensinterpretation, desto niedriger werde aber auch die Reliabilität generalisierter Versuchsergebnisse. Die Reaktion wacher, sich selbst aktiv in ihr Umfeld integrierender Versuchstiere und -personen lasse sich im Zweifelsfall gar nicht mehr durch die gegebenen Stimuli erklären. Erachtet man das Nervensystem eines lebendigen menschlichen Organismus als komplexes System (was von vielen Neurowissenschaftlern immer wieder betont wird), dann ist die Idee der Rückführung mentaler/neuronaler Prozesse auf Naturgesetze nicht zielführend. Cartwright resümiert: »Naturgesetze beschreiben, wie sich physikalische Systeme verhalten. Diese Ansicht ist am weitesten verbreitet und sie ist vernünftig; aber sie funktioniert nicht.«71 Selbst unter der Annahme, dass der Mensch nichts weiter als ein physikalisches System, eine neuronale Maschine sei, liefert Cartwright belastbare Argumente zur Skepsis gegenüber Erklärungsversuchen einer physikalischen Anthropologie. Lindemann zeigt plausibel, dass und warum Experimente ceteris paribus an wachen Menschen unmöglich sind. Solche Kritik an der Relevanz von Naturgesetzen für die Theoriebildung lenkt den Fokus erneut auf die Suche nach anderen Einflüssen. Ob und wie eine Theorie sich durchsetzt, hängt zumindest auch von der technischen Machbarkeit 69 Vgl. ebd. S 163. 70 Vgl. Lindemann 2005, insbesondere S. 771ff. Ihre Argumentationsgrundlage sind Übergänge von Erster-, Zweiter- und Dritter-Person-Perspektive neurobiologischer Experimente. 71 Cartwright 2005, S. 165.

66 | DER M ENSCH ALS NEURONALE M ASCHINE ?

und der sozialen Akzeptanz ihrer Modelle und Bilder oder selbst von der dem entsprechenden Wissenschaftlerteam zuerkannten Aufmerksamkeit ab.72 Auch diese Einflüsse fallen unter Kultur- bzw. Sozialgeschichte, denen alle Wissenschaften verhaftet sind. Zu ihnen zählen neben theoretischen Vorannahmen, Forschungstraditionen (z.B. in Bezug auf die verwendeten Instrumente), gesellschaftlichen (u.a. ideologischen, politischen oder religiösen) und technologischen Entwicklungen auch Versuchsaufbauten, die Definition und die Vorbereitung des Untersuchungsgegenstandes, Konventionen der Fachrichtung (etwa Verfahren der Darstellung und Ergebnissicherung) und nicht zuletzt Intentionen der Experimentatoren.73 Zusammenfassend ist zu konstatieren, dass der Bezug von Neurowissenschaftlern auf physikalische Naturgesetze keine stabile Begründungsbasis darstellt. Stattdessen gilt: »Die ›Wahrheit von heute‹ ist nichts Beständiges; sie ist ganz entschieden ›von heute‹ und nicht gleichbleibend und für immer auf die eine ›Natur‹ bezogen.«74 Sie konstituiert bereits die Irrtümer von morgen.75 »Der Gang der Wissenschaft besteht immer im Probieren, Irrtum und Weiterprobieren.«76 Die Frage der Stabilität als Indikator für Realitätsnähe wird unter Einbeziehung der oben genannten sozialen und kulturellen Einflussfaktoren anhand der Rolle von Bildern zur Erkenntnissicherung in Kapitel 4 untersucht. Zuvor sollen Interferenzen von (monokausalen) Wirkungserwartungen und sich sozial integrierenden Psychen exemplarisch an zwei Fallbeispielen aufgezeigt werden.

3.2 K OMPLEXITÄT VON R AHMENBEDINGUNGEN BEI E XPERIMENTEN AN M ENSCHEN Wie sehr Erwartungen an den Ausgang eines Experiments Einfluss auf Erkenntnismöglichkeiten nehmen können, zeigt Cornelius Borck anhand eines Beispiels aus den Anfängen der Bildgebung von Gehirnaktivität. Hans Berger, bekannt als der Erfinder des EEG, hatte sich um 1900 mit Plethysmografie, der Messung von

72 Vgl. Lenoir 1988, S. 6f. Die naturalistische Entgegnung wäre, dass es die Natur selbst ist, die falsche, von Menschen aufgestellte Theorien ›ausschalte‹. 73 Vgl. Fleck 1929, S. 425ff.; Valenstein 2005, S. 181ff.; Breidbach 2006, S. 33; Rheinberger 2001; Latour 1987, S. 87f. 74 Rheinberger 2006. S. 61 unter Bezugnahme auf Canguilhem 1979, S. 27ff. 75 Vgl. ebd., S. 43. 76 Popper 1984, S. 374.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 67



Volumenschwankungen des Gehirns »in Abhängigkeit mentaler und psychischer Aktivität«77 beschäftigt. Bei einer Versuchsreihe wurde der Effekt von Ärger der Probanden auf ihr Hirnvolumen zufällig entdeckt. Die Untersuchung des Effekts von Ärger war in der Planung des Versuchs nicht vorgesehen, sondern trat zunächst als Störung in Erscheinung. Die Systematik dieser Störung konnte laut Borck aber nur deswegen auffallen, weil der restliche Versuch exakt so ablief, wie vom Experimentator Berger erwartet. Nur so konnte sich nachträglich rekonstruieren lassen, dass die entsprechenden Probanden sich über eine Äußerung Bergers zu einer weiteren Person geärgert hatten. »Menschliches Verstehen wurde als Störung zur psychophysiologisch signifikanten Spur. Weil der Proband in einer nicht antizipierten Weise als Kommunikationsmedium operierte, fiel im Medium des Aufschreibesystems seine Psyche auf. […] Leistungsfähigkeit und Scheitern dieser Seelenforschung fallen zusammen, wo die Umstände der ›gelungenen Kurve‹ exakt ihren blinden Fleck benennen, nämlich die Psyche überhaupt ›innen‹, d.h. im Kopf einer Versuchsperson statt in der Interaktion und Kommunikation zu suchen, und gleichwohl unter diesen Bedingungen die Konstruktion einer psychophysiologisch signifi78

kanten Hirnschrift gelingt.«

Zusätzlich zum Einfluss der Erwartung wird hier ein Kritikpunkt aufgeführt, dem eine Vorstellung der Psyche zugrunde liegt, die Ähnlichkeit mit der bereits im Zusammenhang mit der Reduktionismusproblematik geschilderten Position Mandlers hat.79 Wenn Psyche nämlich im intersubjektiven Raum entsteht und agiert, ist es unzureichend, sie nur im Gehirn zu (unter)suchen. Ähnliche Argumente dafür, dass die soziale Komponente von Bewusstsein bei einschlägigen neurokognitiven Experimenten vernachlässigt wird, bietet Lindemann. Sie postuliert, dass es keine neuronalen Korrelate zu ›Geist‹ geben könne, da dieser nur durch Verwebungen mit anderen Psychen existiere.80 So kritisiert sie auch Versuche, Bewusstsein in Computersimulationen zu programmieren. Solche Experimente könnten nicht funktionieren, da die variierende Mischung aus Selbstbezüglichkeit – »rekursiven feed back-Schleifen« – und ihrer sozialen Spiegelung für das Bewusstsein konstitutiv, in der Simulation aber nicht realisierbar sei.81

77 Borck 2005, S. 96. 78 Ebd., S. 99. 79 S.o., S. 59. 80 Vgl. Lindemann 2007, S. 404. 81 Vgl. ebd., S. 408.

68 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Kritik an der Untersuchung isolierter Gehirne in der Hoffnung, dabei auf ›Geist‹ zu stoßen, findet sich auch bei Engels: »Ganz unterschiedliche Disziplinen wie die Phänomenologie, die philosophische Anthropologie und die Entwicklungspsychologie[

82]

stimmen darin überein, dass der Mensch sei-

ne Erfahrungswelt auf der Grundlage seiner sensomotorischen, aus Wahrnehmungen, Bewegungen, Ertasten, Ergreifen der Dinge bestehenden Aktivitäten aufbaut und dass die sensomotorische Intelligenz die Grundlage für die Entwicklung von Reflexionsfähigkeit und abstraktem, formallogischem Denken ist. Unsere Sinne und die damit ermöglichten Wahrnehmungsmodalitäten sind durch ihre Zugehörigkeit zu unserem Leib als einer organisierten und organisierenden Einheit menschlicher Erfahrung, die wiederum in Austausch mit ihrer Umgebung steht, aufeinander abgestimmt. Das Gehirn und seine Funktionen können daher auch nicht isoliert vom übrigen Leib betrachtet werden.«

83

Zu diesem Aspekt leiblicher sensomotorischer Intelligenz gibt es ein prominentes Fallbeispiel, das besonders häufig im Zusammenhang mit Lernen in der Psychologie zitiert wird: Einem Epilepsiepatienten mit dem in der Literatur verwendeten Kürzel H.M.84 wurde 1953, um sein Krampfanfallleiden zu behandeln, der Hippocampus – eine Hirnstruktur, die seither mit Lernen und (deklarativem) Gedächtnis in Verbindung gebracht wird – beidseitig entfernt. H.M. konnte nach der Operation über keine neuen Eindrücke länger als ein paar Minuten bewusst berichten (die Erinnerung an präoperative Erlebnisse blieb indessen erhalten). Dennoch konnten normale sensomotorische Lernfortschritte an ihm beobachtet werden: Obwohl sich H.M. nicht bewusst an vormalige Übungen erinnern konnte, wurde er im Abzeichnen eines gespiegelten Symbols von Tag zu Tag genauer.85 Bemerkenswert an diesem Fall ist auch, dass nach mehreren Jahrzehnten der Forschung und den daraus resultierenden Theorien über Hirnfunktionen des Gedächtnisses, die Prämissen über H.M.s Verletzung und somit die Grundannahmen der von ihm ausgehenden Forschung korrigiert werden mussten. Bei einer Untersuchung seines Kopfes mittels struktureller Magnetresonanztomographie stellte sich 1995 heraus, dass die auf diese Art lokalisierten Hirnläsionen deutlich in Ort und Größe von den Ursprungsannahmen abwichen.86 82 Engels verweist hier in einer Fußnote auf Plessner, Merleau-Ponty, Gehlen und Piaget. 83 Engels 2005, S. 234f. 84 Eine Zusammenfassung der frühen Rückschlüsse, die über den Fall H.M. auf das Gedächtnis gezogen wurden, findet sich bei Kandel 2007, S. 145-152. Eine detaillierte Beschreibung des Falles H.M. bietet Hilts 1995. 85 Vgl. Kandel 2007, S. 150 Abbildung 8.7. 86 Vgl. Gazzaniga/Ivry/Mangun 2002, S. 301f. und 318ff.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 69



3.3 Z WISCHENBILANZ In den anthropologischen Wissenschaften, die heute ›Life Sciences‹ genannt werden, tauchen bestimmte Denkfiguren – wie der Mensch/Maschine-Vergleich – mit historischer Persistenz auf. In diesen Denkfiguren wird deutlich, dass die Herangehensweisen an den zu untersuchenden Gegenstand und die Auffassungen über das Verhältnis von Wissenschaft und Gegenstand stets bestimmten Traditionen verhaftet sind. Ein Autor, der sich mit solchen Traditionen schon in der ersten Hälfte des 20. Jahrhunderts beschäftigte und dessen Schriften über wissenschaftliche Erkenntnisbildung derzeit in der Wissenschaftsgeschichte eine Renaissance erfahren, ist Ludwik Fleck (1896-1961). Seine Theorien entwickelte Fleck weniger auf philosophischem Fundament als aus seiner praktischen Arbeit und Forschung als Arzt und Bakteriologe heraus. Nachdem seine Replik auf eine von Riezler gestellte Diagnose einer ›Krise der Wissenschaft‹87 Ende der 1920er Jahre wenig Beachtung fand, läutete erst die englische Übersetzung seines Hauptwerks »Entstehung und Entwicklung einer wissenschaftlichen Tatsache«88 Anfang der 1980er Jahre eine starke Rezeptionswelle ein.89 Traditionen, durch welche Wahrnehmungen innerhalb eines Wissenschaftsfeldes prädestiniert sind, münden laut Ludwik Fleck in ›Denkstile‹: »Wir können […] Denkstil als gerichtetes Wahrnehmen, mit entsprechendem gedanklichen und sachlichen Verarbeiten des Wahrgenommenen, definieren. Ihn charakterisieren gemeinsame Merkmale der Probleme, die ein Denkkollektiv interessieren; der Urteile, die 90

es als evident betrachtet; der Methoden, die es als Erkenntnismittel anwendet.«

Denkstile fungieren Sinn gebend, sie liefern Bewertungsmaßstäbe und Bedeutungshorizonte. Sie strukturieren soziale Praktiken, indem sie handlungsleitend und -rechtfertigend werden. Geänderte Denkstile führen bei der Sicht auf den Menschen zu bestimmten Diagnoseverfahren und spezifischen Behandlungen, zu geänderten Verhaltenskodizes und gegebenenfalls geänderter Gesetzgebung. Kurz: Der Wandel eines Denkstils zieht geänderte soziale Praktiken nach sich.91

87 Vgl. Riezler 1928 und Fleck 1929. 88 Fleck 1980. 89 Vgl. Harwood 1986, S. 173f. Rheinberger 2002, S. 21 und Borck 2004, S. 448. 90 Fleck 1980, S. 130. Der erste Satz ist bei Fleck kursiv gesetzt. (Vgl. auch ebd., S. 165ff.) 91 Vgl. Laucken 2003, S. 166.

70 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Der Psychologe Uwe Laucken demonstriert dies am Beispiel der Geisteskrankheit in Mittelalter und Renaissance:92 Im Mittelalter galten Geisteskrankheiten als Zeichen dämonischer Besessenheit und wurden von kirchlichen Amtsträgern diagnostiziert. Dämonen konnten, so der Glaube, nur von Personen Besitz ergreifen, die kein gottgefälliges Leben führten. Die Therapie von Geisteskrankheiten fiel daher in den Zuständigkeitsbereich der Kirche und bestand in der Teufelsaustreibung. Die Verantwortung für die Krankheit trug das Individuum, indem es durch seine Lebensart selbst bestimmen konnte, ob es von Engeln oder Dämonen gelenkt wurde. In der Renaissance erlebte die antike Säftelehre eine erneute Konjunktur. Aus Krankheitssymptomen wurde auf ein Ungleichgewicht oder eine Zirkulationsstörung der Säfte (Blut, Schleim, gelbe und schwarze Galle) geschlossen, die wiederum mit Aderlass, Darmspülungen, Zentrifugen, Wechselbädern etc. therapiert wurde. Im Gegensatz zur dämonologischen Interpretation wurde der Geisteskranke nicht mehr selbst für seinen Zustand verantwortlich gemacht. Schlugen die Behandlungsversuche fehl, wurde er nicht mehr als unverbesserlicher Sünder verbrannt. Auch an diesem Beispiel wird eine Änderung der Auffassung von der Verantwortung der individuellen Person deutlich, so wie Rose die Selbstauffassung des Menschen als Ergebnis neurochemischen Transmitterwirkens mit der abermals betonten Zuschreibung individueller Verantwortlichkeit in der heutigen Zeit verknüpft.93 Die Auffassung von der Beschaffenheit der Welt hatte sich vom klerikal bestimmten Weltbild des Mittelalters zum mechanistisch-mathematischen Weltbild der Renaissance extrem verändert, wie sich am deutlichsten wohl anhand der kopernikanischen Wende illustrieren lässt, in deren Vollzug die Erde aus dem Mittelpunkt der Welt in die Peripherie verschoben wurde. Die heutige Wissenschaft ist pluralistischer gestaltet, und verschiedene Erklärungsversuche menschlicher Eigenschaften konkurrieren miteinander um Einfluss. Der Versuch, Verhalten aus den Lebensumständen einer Person, aus »subjektiv erlebten und sozial gelebten«94 Bedeutungszusammenhängen zu erklären, statt aus dem spezifischen Zusammenwirken neuronaler Strukturen und Transmitterstoffe, kann von der Warte einer realistischen Welt- und Wissenschaftsauffassung z.B. als »Psycho-Spuk«95 interpretiert und das Primat der Neuropsychologie gegenüber sozialwissenschaftlich ausgerichteten Wissenschaften postuliert werden, wie beispielsweise Roth es tut. 92 Vgl. ebd., S. 164ff. 93 Vgl. Abschnitt 2.5. 94 Ebd., S. 168. 95 Ebd.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 71

 »Die gesellschaftliche Natur des Menschen ergibt sich aus seiner (neuro)biologischen Natur und nicht umgekehrt, und deshalb ist die gesellschaftliche Natur des Menschen ohne die (neuro)biologische nicht verständlich. Nur weil der Mensch über angeborene Mechanismen verfügt, die ihn biologisch, psychisch und kommunikativ an andere Menschen 96

binden, gibt es eine menschliche Gesellschaft.«

Auf der Basis dieser Auffassung sind Bestrebungen einer naturwissenschaftlich ausgerichteten Psychologie, die individuelle Sinnstiftung aus der Wissenschaft herauszuhalten versucht, nachvollziehbar. Doch ist die naturwissenschaftliche Fundierung der Psychologie von einer grundlegenden Schwierigkeit begleitet: Wie gezeigt wurde, kann der Mensch nicht plausibel auf ein nach Naturgesetzen funktionierendes neuronales System reduziert werden,97 und es gibt weitere Implikationen einer naturwissenschaftlichen Überbetonung bei psychologischen Verfahren: Zur Erklärung lebensweltlich bedeutsamer Erfahrungen, zu Kultur und Sozialverhalten lässt sich eine rein naturwissenschaftliche Psychologie nicht heranziehen, denn im Entwurf einer rein naturwissenschaftlichen Psychologie wäre ein Verständnis von Sozialem und von individueller Bedeutung nicht angelegt. Das Konzept der Naturwissenschaften ist es ja gerade, die Natur auf eine Weise zu beschreiben, die von individueller Verfasstheit unabhängig ist, und Bedeutung ist keine naturwissenschaftliche Kategorie.98 So wie die Informationen der kybernetischen Rechenmaschine99 sind streng naturwissenschaftliche Theorien immer semantisch leer. Viele Ziele neurowissenschaftlicher Forschung lassen sich aber ohne Semantik nicht verfolgen. Bei der Entwicklung und Anwendung von Psychopharmaka geht es darum, das subjektive Leiden von Personen zu lindern, und beim Lernen geht es um Inhalte, denen vom Lernenden Bedeutung zugeschrieben wird. Eine Psychologie, die sich auf subjektiv bedeutsame Lebensumstände bezieht, kann die soziale Ebene menschlichen Lebens nicht ausschließen, weil die Interpretation psychologischer Experimente immer auf lebensweltliche Referenzen angewiesen ist. Eine rein naturwissenschaftliche Neuropsychologie wäre daher für die meisten Verwendungszusammenhänge nutzlos. Durch die zwangsläufige Verwebung von sozialer und naturwissenschaftlicher Ebene wird die Feststellung Roths, dass die biologische Natur der sozialen vorausgehe,100 irrelevant. Die

96 Roth 2006, S. 11f. 97 Vgl. Abschnitt 3.1. 98 Vgl. Laucken 2003, S. 162f. 99 Vgl. Abschnitt 2.4. 100 S.o.

72 | DER M ENSCH ALS NEURONALE M ASCHINE ?

(neuro)biologische Natur des Menschen hat ohne seine soziale Natur keine Bedeutung. Zwei anthropologische Dimensionen des Menschenbildes der neuronalen Maschine wurden in dieser Arbeit bisher behandelt: einerseits die wissenschaftstheoretischen Voraussetzungen der Dispute über einen etwaigen (neuro)biologischen Determinismus und andererseits Vorstellungen bezüglich einer potenziellen neurochemischen Einflussnahme auf menschliches Befinden bei Kranken und Gesunden. Während Neurowissenschaftler und Philosophen in Fragen zur Willensfreiheit im Wesentlichen unversöhnliche Positionen vertraten, ergibt sich in der jüngeren Debatte um ›Neuro-Enhancement‹ ein anderes Bild. Bei diesem aktuellen und in einschlägigen populärwissenschaftlichen Journalen (derzeit noch) dominanten Thema scheint es so, »dass sich die Positionen zwischen den Disziplinen nicht konträr gegenüber stehen, sondern sich wechselseitig ergänzen. Neurowissenschaftlerinnen[101] präsentieren Möglichkeiten einer modernen hirngedopten Gesellschaft, Philosophen und Ethiker liefern die Rechtfertigung dazu.«102 Warum aber hat die Debatte um die medikamentöse Modulation von Kognition und Emotion ausgerechnet in den letzten Jahren so an Aufmerksamkeit und an Zustimmung gewonnen? Der zentral diskutierte psychisch stimulierende Wirkstoff Methylphenidat, von dem im Jahr 2008 ca. 53 Mio. Tagesdosen an Patienten der gesetzlichen Krankenversicherungen verschrieben wurden, ist bereits seit den 1950er Jahren verfügbar, und noch 1996 betrug die verschriebene Menge mit drei Millionen Tagesdosen weniger als 6 Prozent der 2008 verschriebenen Menge.103 Mit einem wissenschaftlichen Fortschritt der Neuro-Pharmakologie kann die Konsumvervielfachung also nicht begründet werden.104 Vielmehr scheint das Bild, das den Menschen als steuerbare neuronale Maschine zeichnet, eine gesteigerte allgemeine Anerkennung zu erfahren und damit die Bereitschaft oder sogar ein Streben nach chemischer Selbstmodulation zu begünstigen. In der Terminologie Flecks kann man sagen: Das Denkkollektiv um den neuropsychologischen Denkstil ist gewachsen – wobei als Denkkollektiv alle Träger eines Denkstils bezeichnet werden, egal ob in der wissenschaftlichen oder popularisierten Form.105 Der steigende Konsum von Psychopharmaka ist in 101 Die weibliche Form ist hier als generalisiertes Femininum stellvertretend für beide Geschlechter aufzufassen (siehe Heinemann 2010, S. 131 FN 1). 102 Ebd., S. 133. 103 Vgl. Lohse/Lorenzen/Müller-Oerlinghaus 2006, S. 853. Vgl. auch Abschnitt 2.5, insb. Abbildung 4 (S. 46). 104 Vgl. auch Heinemann 2010, S. 138f. 105 Vgl. Fleck 1980, S. 135.

W ELTBILDER

UND

W ISSENSCHAFTSTRADITIONEN

| 73



diesem Sinne als »praktische Auswirkung«,106 als Anwendung des Denkstils zu interpretieren. Innerhalb dieses Denkkollektivs fällt der Pädagogik eine besondere Rolle zu. Sie ist zwar nicht an der Entstehung des Wissens beteiligt, vermag aber ebenso wie populärwissenschaftliche Beiträge in Zeitschriften und Fernsehen – allerdings nachhaltiger als diese – zur Verbreitung und Stabilisierung eines Denkstiles beizutragen: Aufbauend auf Tradition und Gewöhnung verstärkt Erziehung die Begünstigung denkstilgemäßer Ideen sowie Konzepte und eine Ablehnung solcher Elemente, die dem Denkstil widersprechen.107 Was in der Schule gelehrt wird, prägt unter Umständen das Selbstverständnis ganzer Generationen. Die große Zunahme der Verbreitung von Methylphenidat und selektiven Serotonin-Wiederaufnahmehemmern koinzidiert mit der Verbreitung von Hirnbildern, die suggerieren, man könne unterschiedliche psychische Störungen ebenso wie die Wirkung von Medikamenten direkt am Gehirn ablesen.108 Seit der Einführung bildgebender Verfahren konzentriert sich die öffentliche Wahrnehmung der Hirnforschung auf sie, obwohl sie nur einen kleinen Teil der zur Verfügung stehenden Forschungsinstrumente ausmachen und nur wenige Forschungsfragen zufriedenstellend mit ihnen behandelt werden können.109 Torsten Heinemann erklärt die Dominanz bildgebender Verfahren mit einem »Diktat der Popularisierung«,110 dem neurowissenschaftliche Forschungsprojekte unterlägen, und welches entstehe, weil kostspielige Forschungen zunehmend auf die Einwerbung von Drittmitteln angewiesen seien. »Wissenschaftliches Wissen wird in der Logik der ›Wissensgesellschaft‹ zunehmend nach Kriterien der Warenförmigkeit und Marktgängigkeit produziert und bewertet. Die wissenschaftlichen Disziplinen sollen und müssen auf einem zum Teil noch im Aufbau befindlichen Markt um Forschungsgelder werben und die Ergebnisse feilbieten. Damit verändert sich der Stellenwert der Popularisierung von Wissen. Ihr kommt eine gleichbedeutende 111

Rolle zu wie dem eigentlichen Prozess der Wissensgewinnung.«

In einigen Fällen führe die Popularisierungsnot sogar zu Forschungsaufbauten, die vor allem auf eine Veröffentlichung in den Massenmedien abzielten. Für eine medienfreundliche Inszenierung würden bildgebende Verfahren eingesetzt, ob106 Vgl. ebd., S. 137. 107 Vgl. ebd., S. 111. 108 Vgl. Dumit 2004, S. 155ff. 109 Vgl. Heinemann 2011, S. 226. 110 Ebd., S. 11; vgl. auch Janich 2009, S. 91ff. 111 Heinemann 2011, S. 220.

74 | DER M ENSCH ALS NEURONALE M ASCHINE ?

wohl wesentlich kostengünstigere Verfahren, wie etwa Messungen des Hautwiderstandes, möglicherweise zu valideren Forschungsergebnissen führten. Statt in nackten Statistiken ließen sich auf diese Art Forschungsergebnisse in Form von Hirnbildern präsentieren, die einen Wissenstransfer in die Öffentlichkeit deutlich erleichtern.112 Solche Prozesse verdeutlichen, dass die suggestive Macht der Bilder wesentlich größer ist als die Kraft nüchterner wissenschaftlichen Rationalität. Die Suggestion funktioniert allerdings, greift man abermals auf die Denkstiltheorie Flecks zurück, nicht nur in eine Richtung. Einerseits kann etwa die Forschungsfinanzierung vom öffentlichen Stimmungsbild abhängen, andererseits bestärkt eine öffentliche Meinung durch entgegengebrachtes Vertrauen und Anwendung eines Denkstils auch die Wirkung eines Denkgebildes unter den Forschern (den wissenschaftlichen Kern eines Denkkollektivs bezeichnet Fleck als ›esoterischen Kreis‹, eine öffentliche Anhängerschaft als ›exoterischen‹): »Der exoterische Kreis hat keine unmittelbare Beziehung zu jenem Denkgebilde, sondern nur durch die Vermittlung des esoterischen. Die Beziehung der Mehrzahl der Denkkollektivteilnehmer zu den Gebilden des Denkstils beruht also auf Vertrauen zu den Eingeweihten. Doch sind die Eingeweihten keineswegs unabhängig: sie sind mehr oder weniger – bewußt oder unbewußt – von der ›öffentlichen Meinung‹, d.h. der Meinung des exoteri113

schen Kreises abhängig.«

»Vertrauen zu den Eingeweihten, deren Abhängigkeit von der öffentlichen Meinung, gedankliche Solidarität Gleichgestellter, die im Dienste derselben Idee stehen, sind gleichgerichtete soziale Kräfte, die eine gemeinsame besondere Stimmung schaffen und den 114

Denkgebilden Solidität und Stilgemäßheit in immer stärkerem Maße verleihen.«

Eine besondere Erstarkung, die zu seinem heutigen Status führte, erfuhr das Denkgebilde des ›neuronalen Menschen‹ mit der Verbreitung der bildgebenden Verfahren der Hirnforschung. Eine intensive Analyse von Techniken und Verfahren der Bildgebung soll im Anschluss an Fleck dazu beitragen, das Denkgebilde um die neuronale Maschine weiter zu dekomponieren.

112 Vgl. ebd., S. 12 und S. 16f. 113 Fleck 1980, S. 139. 114 Ebd., S. 140.

4. Zwischen Gegenständen, Instrumenten und Bildern

Wo sich Wissenschaft in bildlicher Darstellung manifestiert, stehen zwingend Hilfsmittel zwischen dem natürlichen Erkenntnisgegenstand und dessen Abbildung. Die Kette der verwendeten Instrumente zwischen Urbild und Abbild1 hat sich im historischen Verlauf sowohl substanziell verändert als auch verlängert. Zusätzliche Bearbeitungsinstanzen wurden und werden zur Kompensation bekannter Verfahrensschwächen eingeführt. Dennoch lässt sich weiterhin oft nicht eindeutig feststellen, ob die neu erzeugten Realitäten dem Urbild näher oder ferner sind als zuvor. Latour beschreibt im Ausstellungskatalog »Iconoclash« die Beziehung zwischen Wahrheit und Abbildungen als »unmögliches Double Bind«,2 das er Religion und Wissenschaft gleichermaßen attestiert: Die Ansprüche an wissenschaftliche und religiöse Ikonen seien Objektivität, Wahrheit, Transzendenz. Dies ließe sich aber kaum vereinbaren mit der Tatsache, dass sie direkt oder indirekt von Menschenhand geschaffen wurden – denn als solche seien sie nun einmal Artefakte. Wissenschaftliche Bilder zeigten nicht die Welt selbst: »[O]hne riesige und kostspielige Instrumente, ohne große Wissenschaftlergruppen, gewaltige Geldbeträge, lange Ausbildungen [ist] in den Bildern nichts sichtbar«.3 Dennoch postuliert Latour: »Gerade weil es so viele Vermittlungen gibt, sind sie in der Lage, objektiv wahr zu sein.«4 Dass es in der Geschichte der Darstellung oszillierende Dispute darüber gab, welchem Ziel Abbildungen gelten sollten – Objektivität oder Anschauung – zei1

Das ursprüngliche Objekt wird hier als Urbild, die fixierte vermittelte Erscheinung als Abbild bezeichnet.

2

Latour 2002, S. 32.

3

Ebd., S. 25.

4

Ebd.

76 | DER M ENSCH ALS NEURONALE M ASCHINE ?

gen Daston und Galison in ihrem Aufsatz »The Image of Objectivity«.5 Bei Illustrationen gab es immer schon Veränderungen der Darstellungsmethoden. Diese lassen sich vor allem mit Moderichtungen bzw. Stilen,6 Konventionen, technischer Machbarkeit oder gesellschaftlichem Druck erklären.7 So war es vor der Erfindung der Fotografie üblich, etwa für physiologische Darstellungen einen fachfremden Zeichner zu beschäftigen, der, unter Rückgriff auf von ihm beherrschte Zeichentechniken, mithilfe der Instruktionen des Physiologen den Untersuchungsgegenstand abbildete, wobei es durchaus gewisse – auch auf Ästhetik beruhende – künstlerische Freiheiten gab.8 Nahm hingegen der Wissenschaftler den Zeichenstift selbst zur Hand, konnte das – ohne adäquate Ausbildung oder Hilfsmittel – mitunter zu grotesken Ergebnissen führen.9 Die verwendeten Instrumente werden laut Rheinberger einerseits als Verlängerung oder sogar Reiniger menschlicher Sinne angepriesen;10 andererseits, wie Daston/Galison zeigen, sind sie ausschlaggebend für verschiedene Formen von Standardisierung und damit entscheidend nicht nur dafür, was mit ihrer Hilfe beobachtet werden kann, sondern auch, was nicht. Diesem Argument folgend bestimmen Abbildungskulturen zudem, was Anwender von Lehrbüchern oder Atlanten später unterscheiden können;11 Lehrbücher und Atlanten geben durch Referenzobjekte eine Vorstellung von Normalität einerseits und Anomalie bzw. Pathologie andererseits. Gerd Gigerenzer vertritt die Auffassung, dass die verwendeten Instrumente sogar die Formulierung neuer Theorien beeinflussen können. Für die Entstehung neuer theoretischer Modelle von der menschlichen Psyche postuliert er, dass die verwendeten Werkzeuge sogar maßgeblich für ihre Formung seien und nicht etwa veränderte Datenlagen. Zum Beispiel stellten in der Psychologie gängige sta5

Daston/Galison 1992, S. 81-128. In der deutschen Übersetzung: Daston/Galison 2002.

6

Vgl. Breidbach 2005, S. 13f., S. 143. und S. 179f.

7

Vgl. Hacking 1996, S. 242.

8

Vgl. Daston/Galison 1992, S. 89f. sowie Daston/Galison 2007. S. 24f., S. 40f. Dort wird eine im 19. Jh. von einem Künstler gefertigte wissenschaftliche Zeichnung als Dipol aufgefasst: »An dem einen Pol befand sich ein wissenschaftliches Selbst, das im Willen zur Willenlosigkeit gründete, am anderen Pol ein künstlerisches Selbst, das um den Willen zur Willkür kreiste.« Vgl. auch Clarke/Dewhurst 1973, S. 66.

9

Vgl. z.B. Ditzen 2006c, S. 130. Hier werden vergrößerte Abbildungen einer Laus von Cosmus Conrad Cuno und Robert Hooke gegenübergestellt. Bei Ditzen 2006a, S 370ff. finden sich weitere einander ›ähnliche‹ Lausmotive von Griendel, Bonanni, Joblot und Scheuchzer. Vgl. auch Abschnitt 4.2.1.

10 Vgl. Rheinberger 2006, S. 313; vgl. auch Canguilhem 1979, S. 153. 11 Vgl. Daston/Galison 1992, S. 85; Daston/Galison 2007, S. 23ff.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 77



tistische Werkzeuge nicht einfach formallogische mathematische oder physikalische Rahmenbedingungen dar. Die Entwicklung statistischer Verfahren sei stets von Diskussionen zur Ergebnisinterpretation begleitet, deren Hintergründe sich in psychologischen Lehrbüchern kaum wiederfänden. In der Psychologie seien die Instrumente nicht von ihren Einsatzkontexten und den mit ihnen gemachten Entdeckungen zu trennen.12 »Scientists’ tools are not neutral«, folgert Gigerenzer. »In the present case, the mind has been recreated in their image.«13 Mit dieser Feststellung widerspricht auch er der oben genannten Meinung Latours, dass sich gerade durch den Einsatz langer Ketten an Instrumenten objektive Wahrheit generieren lasse. Immer dann, wenn Phänomene, die der unmittelbaren Wahrnehmung verschlossen sind, sichtbar gemacht werden sollen, sind Wissenstransformationen unumgänglich, denn die menschliche visuelle Wahrnehmung ist auf einen kleinen Ausschnitt aus dem elektromagnetischen Strahlungsspektrum beschränkt. Jedes für Zwecke der Transformation aus anderen Wissenschaften importierte Werkzeug klammert Unsicherheiten und Interpretationsalternativen seines Ursprungskontextes aus. Wie Einflüsse sozialer und physikalischer Natur sich auf das Wissen auswirken, das mithilfe von Beobachtungstechnologien hervorgebracht wird, soll im Folgenden am Beispiel der Lichtmikroskopie näher untersucht werden.

4.1 M IKROSKOPIEREN Als Mikroskope werden optische Instrumente bezeichnet, mit deren Hilfe Dinge, Organismen oder Strukturen sichtbar werden, die aufgrund ihrer verhältnismäßig kleinen Größe dem ›unbewaffneten‹ Auge unsichtbar bleiben. Die Beschäftigung mit der inzwischen auf 400 Jahre Entwicklungsgeschichte zurückblickenden Instrumentengruppe der Mikroskope soll prototypisch verschiedene Aspekte von Beziehungen zwischen untersuchendem Wissenschaftler, Instrument (seiner technischen Entwicklung und Theorien über seine Funktion) und Untersuchungsgegenstand aufzeigen.

12 Vgl. Gigerenzer 1991, S. 259. 13 Ebd., S. 264.

78 | DER M ENSCH ALS NEURONALE M ASCHINE ?

4.1.1 Lebenswelt und Beobachtung Mit einer in hohem Maße skeptischen Haltung bezüglich der Realität durch Mikroskopie gewonnener Bilder soll die Analyse der Vermittlungen beim Forschen im Mikrokosmos eingeleitet werden: Van Fraassen stellt 1980 die Frage, ob Mikroskopieren überhaupt eine Form des Beobachtens sei.14 Die Frage scheint zunächst absurd, schließlich sehen wir doch, zumindest beim Blick durch das Okular eines Lichtmikroskops, mit unseren eigenen Augen mithilfe von Linsensystemen den natürlichen Gegenstand. So verhält es sich aber, wie dargelegt werden wird, nur bedingt. Abseits von Problemen der Optik und ihren technischen Lösungen geht es van Fraassen noch um etwas anderes. Er argumentiert, dass Menschen durch ihre Biologie räumlich (und zeitlich – dieser Aspekt bleibt hier jedoch weitgehend unbeachtet15) auf einen bestimmten Wahrnehmungsbereich festgelegt seien. Beim Blick durch ein Fernglas sei es dem Menschen (zumindest theoretisch) alternativ möglich, den Abstand zum beobachteten Gegenstand zu verringern, um einen ›natürlichen‹ Sinneseindruck zu erhalten. Bei Gegenständen, die in unserer Lebenswelt nicht visuell existieren wie einzelne Zellen, Bakterien etc. sei es hingegen nicht angebracht, von Beobachtbarkeit (observability) zu sprechen, weil wir uns nicht mit unseren eigenen Sinnen unvermittelt von Existenz und Beschaffenheit solcher Dinge überzeugen könnten. Auch wenn die Verringerung des Abstandes zum Objekt nicht in allen Fällen zum gewünschten Erfolg führen dürfte – man denke z.B. an ornithologische Beobachtungen – erscheint es sinnvoll, unmittelbare Beobachtungen qualitativ von Beobachtungen zu unterscheiden, die starker instrumenteller Vermittlung bedürfen. 4.1.2 Optik Die Idee zur Herstellung eines Vergrößerungsinstrumentes hat, so Kremer, ein natürliches Vorbild im Wassertropfen.16 Schon am Blick durch einen Flüssig-

14 Vgl. Fraassen 1980, S. 15f.; vgl. auch Hacking 1996, S. 312f. 15 Zwei Beispiele seien jedoch genannt: Bei der Untersuchung von Bewegungsabläufen – etwa des Flügelschlags einer Biene – dient als Untersuchungsgegenstand nicht das Phänomen, da es unbeobachtbar wäre, sondern ein durch Hochgeschwindigkeitsaufnahmen vermitteltes Abbild (vgl. Snyder 2002, S. 148). Wie nah sich solche Änderungen zeitlicher Dimensionen an der Grenze zwischen Kunst und Wissenschaft bewegen können, zeigt z.B. der Film Microcosmos. Le peuple de l’herbe (Nuridsany/ Pérennou 1996). 16 Vgl. Kremer 2002, S. 18f.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 79



keitstropfen lassen sich, ebenso wie an einem einfachen Vergrößerungsglas, einige der wesentlichen Probleme nachvollziehen, die zur Konsequenz hatten, dass Mikroskope zu Beginn ihrer Entwicklung im 17. Jahrhundert mehr als Spielzeuge denn als wissenschaftliches Instrument galten.17 Die ersten Instrumente mit einer Vergrößerung, die ausreichte, um Strukturen sichtbar zu machen, die ohne Instrumente unsichtbar waren, verfügten über Linsen, die so konvex waren, dass sie kleinen Tropfen sehr ähnelten.18 Damit waren stärkere Vergrößerungen möglich als mit größeren Linsen, die zur Herstellung von Lupen verwendet wurden. Die Verzerrungen von mit Glastropfen arbeitenden Vergrößerungsinstrumenten waren indessen aus verschiedenen Gründen enorm. Einerseits spielten Unregelmäßigkeiten der Tropfenform eine Rolle (je kleiner und gewölbter die Linse, desto größer fallen selbst minimale Abweichungen und Schlieren beim Schliff ins Gewicht), ein weiterer Grund sind Aberrationen – Abweichungen der Lichtstrahlen vom idealen Bildpunkt eines optischen Instruments. Abbildung 5: Aufbau eines Durchlichtmikroskops

Quelle: Göbel 1998. S. 272.

Im Gegensatz zu einfachen Linsen wie Tropfen oder Lupen bestehen zusammengesetzte Mikroskope aus mehreren Linsensystemen. Ein Linsensystem (Objektiv) bewirkt ein vergrößertes Zwischenbild, welches über ein zweites Linsensystem (Okular) abermals vergrößert wahrgenommen wird. Anders als in Abbildung 5 aus platztechnischen Gründen dargestellt, liegt die virtuelle Bildebene bei starken Vergrößerungen weit hinter dem eigentlichen Objekt. 17 Vgl. Hacking 1996, S. 320 sowie Breidbach 2005, S. 141. Eine umfangreiche Entwicklungsgeschichte des Mikroskops findet sich bei Gerlach 2009. 18 Zu Verfahren der Linsenherstellung im 17. Jahrhundert vgl. Ditzen 2006a, S. 365ff.

80 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Bis ein Bild auf der Netzhaut entsteht, ist das einfallende Licht durch Reflexion, Brechung und Beugung19 Veränderungen unterworfen. Diese Abweichungen des Strahlengangs wirken sich auf die Darstellung aus und lassen sich in zwei Hauptkategorien unterteilen. Einerseits gibt es Veränderungen, die schon bei einfarbigem Licht auftreten und durch die Form optischer Linsen bedingt sind. Die zweite Kategorie umfasst solche Veränderungen, die durch unterschiedliche Wellenlängen des Spektrums weißen Mischlichtes und durch unterschiedliches Lichtbrechungsverhalten verschiedener Materialien entstehen (Dispersion). Aus beiden Fehlergruppen20 sei ein Beispiel genannt. Sphärische Aberration drückt aus, dass (bereits einfarbiges) Licht, welches durch eine konvexe Linse gebrochen wird, keinen gemeinsamen Brennpunkt, sondern eher einen Lichtfleck bildet, weil es an den Außenbereichen der Linse stärker gebrochen wird als an den inneren Bereichen. Zu sphärischer Aberration kommt es nicht nur bei Linsen, sondern auch u.a. bei Deckgläsern. Bei der chromatischen Aberration kommt es durch unterschiedliche Wellenlängen, die sich in unterschiedlichen Lichtfarben äußern, ebenfalls zu Verschiebungen der Brennweite bei der Brechung. Blaues Licht hat eine kürzere Brennweite als rotes. Mit Mischlicht beleuchtete Objekte erzeugen in ihre Farbkomponenten mit unterschiedlichen Schärfegraden ›zerlegte‹ Abbilder. Jeder Stoff hat unterschiedliche Brechungseigenschaften, sei es nun Glas, Wasser, Öl oder Luft. Selbst die Dicke des Objektträgers hat Einfluss auf die Lichtbrechung und kann Unschärfe verstärken, wenn sie nicht auf das restliche optische System abgestimmt ist. Mit jedem Übergang verstärken sich Aberrationseffekte.21 Der Blick durch ein Mikroskop ohne Ausgleichsmechanismen zeigt das Objekt verzerrt, schlecht ausgeleuchtet, größtenteils unscharf und mit Farbsäumen – einem »Geflecht von Würmern«22 ähnelnd: für wissenschaftliche Untersuchungen mit dem Ziel von Erkenntnis eigentlich ungeeignet.23 Dennoch gab es mit Robert Hooke (1635-1702) und Antoni van Leeuwenhoek (1632-1723) bereits Mitte des 17. Jahrhunderts zwei Pioniere der Mikroskopie, die mit unterschiedli19 Reflexion: Zurückwerfen von Licht an der Grenzfläche zweier Medien; Brechung: Richtungsänderung von Licht beim Übergang von einem Medium in ein anderes; Beugung: Richtungsänderung von Licht an Kanten oder schmalen Spalten. (Vgl. Göbel 1998, S. 270f.) 20 Einen grafisch veranschaulichten Überblick über »die wichtigsten [sechs] Abbildungsfehler« bietet Robenek 1995, S. 19. 21 Vgl. ebd., S. 23. 22 Ditzen 2006b, S. 45. 23 Vgl. Hacking 1986, S. 320.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 81



chen Techniken aus heutiger Sicht bemerkenswerte Ergebnisse erzielten. Hooke gilt als Entwickler des ersten brauchbaren zusammengesetzten Mikroskops,24 mit dessen Hilfe sich sphärische Aberrationen mindern ließen, dafür vervielfachten sich mit der steigenden Anzahl an Linsen andere Abbildungsfehler. Leeuwenhoek arbeitete mit einlinsigen Mikroskopen, deren Vergrößerungs- und Auflösungspotenzial als wesentlich höher eingestuft wird; dafür waren Verzerrungen enorm und die Lichtausbeute gering.25 Abbildung 6: Einfaches Mikroskop Leeuwenhoeks (links),26 und zusammengesetztes Mikroskop nach Hooke (rechts)

Quelle: Engelsman 1982, S. 34; Dennis 1989, S. 329.

Abbildung 6 zeigt jeweils ein Mikroskop Leeuwenhoeks und Hookes. Die Darstellung ist nicht maßstabsgetreu: Die Linsenträgerplatte von Leeuwenhoeks

24 Die Erfindung des Mikroskops kann aus heutiger Sicht keiner Einzelperson zugeschrieben werden; es gab etliche Patentanträge von Einzelpersonen, die jedoch alle abgelehnt wurden. (Vgl. Gerlach 2009, S. 25ff.) 25 Für eine Ausstellung im niederländischen Boerhaave wurden einige von Leeuwenhoeks erhaltenen Mikroskopen mit zeitgenössischen Methoden vermessen. Sie ließen bis 266-fache Vergrößerungen bei einer Auflösung von 1-3 µm zu (vgl. Engelsman 1982, S. 33. Dort finden sich auch weitere technische Details). Kremer mutmaßt zudem, dass sich auch Leeuwenhoeks Mikroskope mit einem Okular möglicherweise zu einem zusammengesetzten Mikroskop aufrüsten ließen (Kremer 2002, S. 22). 26 Zur Funktion: »Eine kleine Metallplatte trug in einer Bohrung die winzige Linse, die durch eine zweite Metallplatte fixiert wurde. Dahinter wurde auf einer Nadelspitze das Objekt befestigt« (Ditzen 2006b, S. 42).

82 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Mikroskop hat nur eine Größe von etwa 3x4 cm, während allein der verzierte Zylinder von Hookes abgebildetem Mikroskop rund 15 cm lang ist. 27 Laut Robenek ist es technisch grundsätzlich nicht möglich, alle Abbildungsfehler vollständig auszumerzen; vielmehr würden sie so weit korrigiert, bis sie für die jeweilige Fragestellung »nicht mehr als störend empfunden werden.«28 Sphärische Aberration lässt sich durch die Kombination mehrerer konvexer und konkaver Linsen bis zu einem gewissen Grad ausgleichen. Weitere Optimierung kann durch den Einsatz von Wasser oder Immersionsölen zwischen Gegenstand und Objektiv erreicht werden; dadurch werden z.B. Lichtbrechungen beim Übergang zwischen Deckglas und Luft bzw. zwischen Luft und Linse reduziert.29 Chromatische Aberration lässt sich durch Verwendung unterschiedlicher Glassorten bei der Linsenproduktion ausgleichen, die, aufeinander abgestimmt, verschiedenfarbiges Licht unterschiedlich brechen.30 Auch in der heutigen Zeit sind Aberrationsprobleme nicht trivial. Das zeigt sich z.B. auf Fotos, die mit Apparaten einfacher Zoomoptik produziert werden. Auf ihnen finden sich häufig Aberrationseffekte – zu erkennen z.B. an Farbsäumen an besonders kontrastreichen Stellen –, die die Bildschärfe negativ beeinflussen. Selbst professionelle Objektive liefern nur bei einer bestimmten Brennweite annähernd abberationsfreie Bilder. Der wohl prominenteste Fehler beim Aberrationsausgleich ist beim Weltraumteleskop Hubble in den 1990er Jahren aufgetreten. Ein Spiegel wies eine für die antizipierte Brennweite falsche Wölbung auf und wurde 1993 durch eine Änderung des Kameralinsensystems korrigiert. Zwischen der Bildqualität der Hubble-Aufnahmen vor und nach der Korrektur liegen Welten.31 Bei modernen Mikroskopen geben Kategoriebezeichnungen an, welche Abbildungsprobleme zugunsten der Darstellungstreue weiter

27 Vgl. Ash 1998, S. 391. Laut Gerlach arbeitete Hooke »meistens mit einer Tubuslänge von fünf oder sieben Zoll« (Gerlach 2009, S. 38); das wären 12,7 bzw. 17,8 cm. 28 Robenek 1995, S. 17. 29 Ebd., S. 25. Ein so ermöglichter kleinerer Lichteinfallswinkel führt zu einer höheren Auflösung der Optik (die außerdem von der Wellenlänge der eingesetzten Strahlung abhängt). Die Verwendung von Immersionsölen bringt also sowohl eine Verringerung sphärischer Aberration als auch eine höhere Auflösung des Mikroskops. Die Auflösung von Mikroskopen ist durch die Wellencharakteristik von Strahlung grundsätzlich begrenzt. 30 Vgl. Kremer 2002, S. 23. 31 Vgl. Barnbaum 2004. Ein direkter Bildvergleich findet sich unter http://grin.hq.nasa.gov/ABSTRACTS/GPN-2002-000064.html.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 83



transformiert (ausgeglichen) werden.32 Planachromate Mikroskope etwa gleichen einerseits die chromatische Aberration von mindestens drei Farben aus und mindern andererseits die durch sphärische Aberration entstehende Bildwölbung. Bis in die Mitte des 19. Jahrhunderts ließ sich der Grad an Aberrationen allerdings nicht einmal messen. Bereits in puncto technischer Entwicklung scheint Latours Standpunkt, gerade eine Vielzahl an Vermittlungsstellen sei Garant für Objektivität, nicht verallgemeinerbar. Zwar konnte das zusammengesetzte Mikroskop Hookes gegenüber dem Leeuwenhoeks mit verminderter sphärischer Aberration aufwarten, dafür büßte es durch gegenseitige Verstärkung von Ungenauigkeiten bei Vergrößerungs- und Auflösungsverhalten an Bildqualität ein. Erst nachdem es nachvollziehbare wissenschaftliche Erklärungen für Brechungs-, Beugungs-, Aberrationseffekte etc. gab, konnten Probleme systematisch bearbeitet werden. Zwar gelingen auch ohne Verständnis zugrunde liegender Mechanismen durch ›Tüfteln‹ Verbesserungen, aber erst nach weitgehender Berechenbarkeit des Beugungsverhaltens von elektromagnetischen Wellen durch Ernst Abbe und daraus begründbaren Normierungen wurden Mikroskope im 19. Jahrhundert zu wissenschaftlichen Standardinstrumenten.33 Anstelle individueller Zugänge zum Mikrokosmos durch nicht-normierte Unikate boten die Geräte fortan eine Basis für interindividuelle Zugänge, die sich jedoch nach wie vor auf die virtuelle Bildebene (das vom Forscher durch das Okular Gesehene) beschränkten.34 Die dem Sehvorgang notwendigerweise vorangehende Herstellung der mikroskopischen Proben und die Umwandlung des virtuellen in ein physisches Bild wurden bisher außer Acht gelassen. Somit kann man unterschiedlicher Meinung sein, ob bisher überhaupt – um auf Latour zurückzukommen – von gegenstandsbezogenen Vermittlungen die Rede war oder nur von rudimentärer Theorie der Optik und deren Anwendung auf das Instrument des Lichtmikroskops. Die Frage, wie ein Gegenstand beschaffen sein oder bearbeitet werden muss, um ein sichtbares Abbild zu erzeugen (oder eine Abbildung zuzulassen?), ist beim Mikroskopieren von Gegenständen biologischen Ursprungs von großer Bedeutung. 4.1.3 Präparation und Konservierung Da die Lichtausbeute eines Mikroskops im direkten Zusammenhang mit seinem Auflösungspotenzial steht, waren die Darstellungsmöglichkeiten von Auflichtmikroskopen, bei denen nur vom Untersuchungsgegenstand – etwa Insekten oder 32 Vgl. Robenek 1995, S. 17 und 20. 33 Vgl. Hacking 1986, S. 323ff. 34 Vgl. Ditzen 2006b, S. 41.

84 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Kristalle – reflektiertes Licht das Okular durchdringt, in ihrem Auflösungsvermögen lange sehr beschränkt. Dunkle, transparente oder stark streuende Objekte, die wenig Licht in Richtung des Okulars reflektieren, lassen besonders wenige Details erkennen. Im Gegensatz zu Auflichtmikroskopen wird bei Durchlichtmikroskopen das Präparat von unten angestrahlt. Dadurch lassen sich zwar wesentlich höhere Auflösungen erzielen, allerdings ist für die Verwendung in Durchlichtmikroskopen, die heute den Standard bei Lichtmikroskopen bilden, eine besondere Bearbeitung des Untersuchungsgegenstandes nötig, die Präparieren genannt wird. Das Präparat muss in erster Linie dünn genug sein, um von einer ausreichenden Menge Licht durchdrungen werden zu können. Dieser Anspruch des Instruments an die Beschaffenheit seiner Untersuchungsgegenstände erfordert deren aktive Bearbeitung.35 Zum Bearbeitungsprozess gehören, je nach Beschaffenheit des Gegenstandes und beabsichtigter Nutzung, einige oder alle der folgenden Schritte: Fixierung bzw. Einschluss, Zuschnitt, Färbung, Konservierung.36 »In der Regel sind [dabei] die für die Linse zugerichteten Objekte beim Herstellungsvorgang selbst […] nicht zu sehen, jedenfalls nicht in den Einzelheiten, auf die es für den Erfolg des Unternehmens ankommt«37 und somit bestimmten Zufälligkeiten unterworfen. Biologische Präparate (Zellen) sind normalerweise kontrastarm (durchsichtig), sodass mithilfe geeigneter Färbetechniken die Elemente von Interesse künstlich kontrastiert werden müssen.38 Der Färbevorgang ist keineswegs trivial. Welche Chemikalien welchen Effekt auf welches Material haben, musste in wohl unzähligen Experimenten ausprobiert werden. Die chemischen Prozesse, die Färbemittel in Zellen auslösten, waren zum Zeitpunkt ihrer Einführung oft nicht bekannt.39 Hacking konstatiert: »Die meisten Anilinfarben sind hochgiftig, so daß das Gesehene im Regelfall eine überaus tote Zelle ist, die obendrein wahrscheinlich strukturelle Schäden davongetragen hat und 40

daher Strukturen erkennen läßt, die künstliche Nebenwirkungen des Präparats sind.«

35 Vgl. Rheinberger 2006, S. 316. 36 Vgl. ebd., S. 345; Breidbach 1993, S. 110ff. und Schickore 2002, S. 297. 37 Rheinberger 2006, S. 316. 38 Vgl. Hacking 1996, S. 323 und 327. 39 Vgl. Breidbach, 1993. S. 110. 40 Hacking 1996, S. 327. Ein Beispiel für die Relevanz früher Probleme unterschiedlicher Färbemittel findet sich im Abschnitt 4.6.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 85



Heute existiert eine Vielzahl an verschiedenen Färbetechniken für unterschiedliche Typen von Präparaten. Selbst Hobbymikroskopikern wird die Nutzung von über 50 Färbeverfahren nahegelegt.41 Um einen Untersuchungsgegenstand auf die nötige lichtdurchlässige Dünne zu bringen, gibt es unterschiedliche Verfahren.42 Bei Objekten, die ohne Zuschnitt transluzent beschaffen sind – wie Zellkulturen in Nährlösungen – können z.B. Ausstriche zur Anwendung kommen. Kleine Teile vielzelliger Organismen – wie etwa manuell freigelegte Lammellenfragmente eines Pilzes oder Nervenzellgewebe – können, in Flüssigkeit schwimmend, ›gequetscht‹ werden (sogenannte Quetschpräparate). Das von Wissenschaftshistorikern besonders unter die Lupe genommene Verfahren ist das Zerschneiden von Gegenständen in Scheiben (Verarbeitung zu Schnittpräparaten). An ihm lässt sich der Prozess der Entfernung (und Annäherung?) zwischen Urbild und Abbild eingängig nachzeichnen. Ein Hauptargument der wissenschaftshistorischen Betrachtung des Mikroskopierens für die Entfernung eines Abbildes vom Urbild ist das der Zweidimensionalität von Bildern. Bei monokularen Durchlichtmikroskopen ist bei hohen Vergrößerungsstufen die Schärfentiefe sehr gering. Das heißt: Selbst bei planachromaten Mikroskopen gibt es nur eine Ebene, die scharf dargestellt werden kann. Diese Ebene wird durch einen Schnitt realisiert. Die entstehende Fläche, deren Position sich ohne moderne Werkzeuge (Mikrotome) nur verhältnismäßig grob beeinflussen lässt, fällt dabei gewöhnlich nicht mit den Konturen der Region(en) von Interesse zusammen, sondern durchschneidet sie. Die weiche Konsistenz frischer biologischer Untersuchungsgegenstände führt bei unbehandelten Objekten zudem zu fatalen Schäden beim Zerteilen. Die erforderliche Lichtdurchlässigkeit der Präparate verlangt nach mehreren (mindestens zwei) eng aufeinanderfolgenden Schnitten. Solche Schnitte lassen sich nur in einem verfestigten Zustand tätigen, der zum Beispiel durch Einbettung in Harze oder Trocknung hergestellt werden kann. Dass sich beim Einschließen und Schneiden von empfindlichem Material der Möglichkeitsraum für ungewollte Manipulationen, Strukturveränderungen oder Zerstörung des Materials stark erweitert, liegt auf der Hand.43 Ob ein Schnitt überhaupt die Regionen von Interesse in antizipierter Weise getroffen hat, lässt sich erst nach Abschluss der Präparation unter dem Mikroskop wirklich feststellen.44 So begleitet auch heute die Frage nach dem

41 Vgl. Kremer 2002, S. 269-284. 42 Vgl. Rheinberger 2006, S. 344f.; Emschermann, 2003, S. 243f.; Robenek 1996, S. 154ff. 43 Vgl. auch FN 49. 44 Vgl. Rheinberger 2006, S. 316.

86 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Gelingen der Präparation und Färbung den Mikroskopiervorgang und erzeugt stets eine gespannte Erwartung, berichtet Strausfeld.45 Die Herstellung von Quetschpräparaten unterscheidet sich von der Herstellung von Schnittpräparaten darin, dass – eine gewisse Übung vorausgesetzt – gewünschte Strukturen ›frei präpariert‹ werden können. Dies gilt aber nur für Strukturen, die groß genug sind, um mit bloßem Auge oder unter schwacher Vergrößerung sichtbar zu sein. Auch für das Freipräparieren wurden die Werkzeuge mit der Zeit feiner; Mitte des 19. Jahrhunderts fand es noch zwischen Daumen und Zeigefinger mithilfe eines Rasiermessers statt, bevor bei schwacher Vergrößerung unter dem Mikroskop mit Präpariernadeln weitergearbeitet wurde.46 Unter Berücksichtigung begrenzter menschlicher Feinmotorik wirkt daher Schickores Anmerkung plausibel, dass nicht Gelingen, sondern Misslingen den Regelfall des Präparierens bilde.47 Sollte die frei präparierte Struktur unter starker Vergrößerung betrachtet werden, galt auch für diese Präparate der Zwang der Anpassung an die Erfordernisse der Mikroskoptechnik: Sie mussten lichtdurchlässig gemacht werden, was z.B. durch Quetschen in Wasser zwischen Objekt- und Deckglas geschah. Galt ein Präparat im Auge des Betrachters unter dem Mikroskop als gelungen und sollten die für wichtig erachteten, sich aus dem Präparat ergebenden Erkenntnisse festgehalten werden, konnte dies auf zwei grundlegend unterschiedliche Arten geschehen: einerseits durch Konservierung, andererseits durch Abbildung. Im Vorgang des Konservierens sind weitere Transformationen des Objektes durch Trocknung oder mithilfe von Chemikalien nötig, die weiteres Veränderungspotenzial mit sich bringen. Das am Ende dieser Prozesse stehende Dauerpräparat bietet jedoch auch anderen Forschern durch abermaliges Mikroskopieren die Möglichkeit zu ähnlichen Seherfahrungen – jedenfalls bei Verwendung ähnlicher Mikroskope, was, wie oben erläutert, bis zum Ende des 19. Jahrhunderts nicht der Regelfall war, wodurch stets unterschiedliche Aberrationseffekte das virtuelle Bild beeinflussten. Zu den Ungenauigkeiten der Instrumente gesellten sich die Unwägbarkeiten der Konservierungsverfahren des 19. Jahrhunderts, sodass Schickore konstatiert: »Die Dauerpräparation fixierte die Forschungsgegenstände, aber die aufbewahrten Dinge waren vielleicht nur ihre verschrumpelten Substrate.«48 Die Entwicklung und Anwendung der erläuterten Techniken des Präparierens sieht auch Rheinberger unter epistemischen Gesichtspunkten weitgehend 45 Vgl. Strausfeld 2007, S. 172. 46 Vgl. ebd. 47 Vgl. Schickore 2002, S. 297f. 48 Ebd., S. 298.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 87



skeptisch: »Indem die Mikroskopisten das ganze Arsenal solcher neuen Techniken anwandten, nahm die Arbeit des Präparierens zunehmend die Form einer Dialektik von Fakt und Artefakt an«.49 Nicht immer sei klar gewesen, ob sich beobachtbare Elemente, Muster und Strukturen aus dem Untersuchungsobjekt, ihrer Zurichtung oder den optischen Eigenschaften der Mikroskope ergaben. »Im Grenzfall bringt sich im Präparat die Präparationstechnik selbst zur Darstellung.«50 Dennoch habe im Bewusstsein der Unsicherheit über die genaue Wirkung angewandter Manipulationen mit hohen Revisionsquoten auch eine Triebkraft der Methodenweiterentwicklung gelegen. Auch erfolgreich hergestellte Dauerpräparate, deren Einsatzgebiet Schickore Mitte des 19. Jahrhunderts vornehmlich in Demonstrationszwecken sieht,51 sind im Laufe der Zeit Abbildungen gewichen, die erst manuell, später technisch immer getreuer reproduziert und somit besser verbreitet werden konnten. Heute reichen Möglichkeiten der Abbildung von zweidimensionalen Strukturzeichnungen aus dem Gedächtnis bis zu dreidimensionalen Computerrekonstruktionen auf der Basis digitaler Fotos. Neben den technischen Aspekten dieser Entwicklung52 sollen soziale Faktoren der Entwicklung vom Präparat zur standardisierten Abbildung beleuchtet werden.53 Es soll im Anschluss an Fleck und Daston/Galison begründet werden, dass Sehen und Zurechtfinden in der Welt des Mikrokosmos zunächst kollektiv gelernt werden mussten.54 Erst nachdem sich Standards in Untersuchungen, Beschreibungen und Abbildungen innerhalb des Wissenschaftsfeldes entwickelt hatten, konnten effizientere Wege der Wissensverbreitung gefunden und genutzt werden als das physische Verschicken von Präparaten. Die meisten Elemente des aus diesen Annahmen zu entwickelnden Modells55 finden sich vermutlich auch in Prozessen heutiger Wissensgewinnung und -zirkulation. Dennoch ist bei der kritischen Analyse des manuellen Eingreifens beim 49 Rheinberger 2006, S. 319. Ähnlich beschreibt auch Schmiedbach das Präparieren: »Zwischen Objekt und Beobachter schob sich nicht nur das technische Hilfsmittel. Vielmehr stellten die Bereitung des mikroskopischen Präparates, die Zerrung am Gewebe, die Manipulation auf dem Objektträger und neue Färbeverfahren eine ganze Reihe manipulativ-methodischer Eingriffe dar, die das zu Erkennende in vielfältiger Weise vorstrukturierten« (Schmiedbach 1993, S. 119). 50 Rheinberger 2003, S. 15. 51 Vgl. Schickore 2002, S. 305. 52 Abschnitt 4.2.1. 53 Abschnitt 4.2.2. 54 Abschnitt 4.2.3. 55 Vgl. Abschnitt 4.5.

88 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Mikroskopieren die historische Perspektive der vorangegangenen Darstellungen zu beachten. Aus ihr heraus lassen sich grundlegende Probleme aufzeigen; jedoch scheint die epistemologische Relevanz von Artefakten durch Herstellung von Quetschpräparaten und Verwendung giftiger Anilinfarben für das 19. Jahrhundert deutlich höher als für das 21. Heutzutage lassen sich mit Kryomikrotomen Mikrometer dünne Scheibchen von schockgefrorenen Präparaten schneiden, aus deren digital erstellten Abbildern mithilfe von Computern dreidimensionale Objekte rekonstruiert werden können.56 Statt Mischlicht lassen sich Strahlungen sehr vieler verschiedener (auch isolierter) Frequenzen sowie Polarisationen und sogar Schallwellen für die Mikroskopie verwenden.57 Solche Verfahren sind Antworten auf Grenzen der Lichtmikroskopie, sie erzeugen ihre Abbildungen auf teilweise neue Art und sorgen für andere, mitunter sehr spezifische Zugänge zu ihren Untersuchungsobjekten. Bevor die Grundlagen der ›Nuclear Magnetic Resonance‹ (NMR, dt. Kernspinresonanz) als theoretische Basis des ›Imaging‹ bei der Magnetresonanztomographie erläutert werden, sollen in Abschnitt 4.4 stellvertretend einige weitere Mikroskoparten skizziert werden. Trotz unterschiedlicher Techniken der Bilderzeugung ist all diesen Verfahren eines gemein: Mit ihnen produzierte Abbildungen dienen dem Zweck, Wissen festzuhalten und zu transportieren. Pädagogische Relevanz kommt Abbildungsprozessen in zweifacher Hinsicht zu: zum einen in den Bereichen, in denen Bilder zum Zwecke der Aus- und Weiterbildung eingesetzt werden (das trifft im Kontext dieser Arbeit vor allem auf die Verbreitung von Hirnbildern in populärwissenschaftlichen Medienformaten zu); zum anderen insbesondere dort, wo Bilder aus anderen Wissenschaftsbereichen zwecks Wissenstransfers in erziehungswissenschaftliche Kontexte importiert werden.

4.2 E RFAHRUNGEN VERVIELFÄLTIGEN Erzeugung und Reproduktion von Bildern sind zwingende Prozesse für jeden Fall, in dem originäre visuelle Erfahrungen einer Öffentlichkeit zugänglich gemacht werden sollen. Auf Basis dessen, was nach dem Präpariervorgang durch das Mikroskop potenziell erscheint, finden sowohl beim Fixieren von Beobachtungen als auch beim Vervielfältigen von Abbildungen Selektionen und Transformationen statt: Strukturen müssen gesehen, also als solche erkannt, zu Papier gebracht und durch geeignete Techniken vervielfältigt werden. Im Folgenden

56 Vgl. Götze 2004. 57 Vgl. Hacking 1986, S. 327ff.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 89



sollen erstens Arten der Fixierung von bereits Erkanntem auf Medien vorgestellt, in einem zweiten Schritt Einflüsse auf Darstellungsarten untersucht und drittens weitere Elemente im Prozess des Erkennens beleuchtet werden. 4.2.1 Abbilden Mikroskope stellen nicht nur Anforderungen an die Beschaffenheit der mit ihnen zu untersuchenden Gegenstände, sondern auch an die Zeichenfähigkeiten des Wissenschaftlers. Auftragsarbeiten von Künstlern, wie sie bei makroskopischen anatomischen Präparaten üblich waren, konnten bei mikroskopischen Abbildungen die Erfahrungen des Wissenschaftlers im mikroskopischen Sehen nicht berücksichtigen: Schließlich konnte der Wissenschaftler einen Zeichner nicht, wie im Makroskopischen möglich, durch Zeigen instruieren, welche Strukturen es zu zeichnen galt.58 Soemmerring formuliert: »Man kann manche Künstler schlechterdings nicht gewöhnen, blo[ß] das zu sehen, was eigentlich ausgedrückt werden soll, und Kleinigkeiten, die nicht zur Sache gehören, oder wohl gar bloße Zufälligkeiten wegzulassen.«59 Von der Seite der Künstler war ein ›naturgetreues‹ Abbilden aber möglicherweise auch gar nicht antizipiert: »Für Künstler bedeutete das sklavische ›Kopieren der Natur‹ einen Verrat nicht nur an Phantasie, sondern auch an der Individualität, die für Charles Baudelaire und andere antirealistische Kritiker ein wesentliches Element großer Kunst war.«60 Künstler und Wissenschaftler verfolgten mit ihren Darstellungen grundlegend andere Ziele (Schönheit bzw. Naturwahrheit), sahen Gegenstände dementsprechend verschieden und verfügten, ihrem jeweiligen Berufsethos entsprechend, auch über unterschiedliche Freiheitsgrade beim Abzeichnen. Für befriedigende Abbildungen antizipierter Elemente mussten Wissenschaftler im Zweifelsfall selbst zum Zeichenstift greifen, auch wenn ihnen jede künstlerische Ausbildung oder Neigung fehlte. Die einfachste Art des Abbildens beim Mikroskopieren stellt das Erstellen von Zeichnungen aus dem Gedächtnis dar, wie es dem Neurobiologen Ramón y Cajal nachgesagt wird.61 Seine Zeichnungen gelten noch unter heutigen Neurobiologen als beeindruckend. Für Wissenschaftler mit weniger ausgeprägten handwerklichen Zeichenfähigkeiten etablierte sich ein Einteilen des Sichtfeldes 58 Eine differenzierte Beschreibung dieser Schwierigkeit unter der verschärften Bedingung eines fluktuierenden Gegenstandes bietet Leonhard 2006, insbesondere S. 114ff. 59 Akademie der Wissenschaften und der Literatur 1985, S. 266, zitiert nach Wagenitz 2007, S. 120. 60 Daston/Galison 2007, S. 260. 61 Vgl. Strausfeld 2007, S 163.

90 | DER M ENSCH ALS NEURONALE M ASCHINE ?

in rechteckige Abschnitte (Rasterung), mit deren Hilfe maßstabsgetreues Übertragen von Bildinhalten vereinfacht wurde. Realisiert wurden die Orientierungshilfen durch das Einschieben eines Gitters in den Tubus62 oder Anbringen von (nummerierten) Mikrogittern auf dem Objektträgerglas. Letztere Methode dient laut Hacking auch heute noch v.a. dem Wiederfinden bestimmter Strukturen, wenn ein Objekt mit unterschiedlichen Verfahren untersucht wird.63 Doch Gitter gaben nur Anhaltspunkte, sie zeigten keine Konturen auf einem Zeichenschirm, wie es die Camera Obscura vermutlich bereits seit dem 10. Jahrhundert vermochte,64 die aber wiederum nicht in Kombination mit Mikroskopen verwendet werden konnte. 1806 wurde mit der Camera Lucida (auch als Wollaston’sches Prisma bezeichnet) eine Zeichenhilfe patentiert, die sich auch mit dem Mikroskop kombinieren ließ.65 »Das Prinzip der Camera Lucida ist so genial wie einfach […]. Bei entsprechenden Modellen schaut der Betrachter durch das Prisma auf die Zeichenunterlage, wobei der Gegenstand dank doppelter Reflexion an den inneren Oberflächen des Prismas aufrecht und seitenrichtig ins Auge reflektiert wird. Nur durch optische Illusion überlappt sich das im Auge erscheinende Bild mit dem Zeichenblatt, auf dem der Stift des Zeichners dagegen wirklich sichtbar ist, so dass er das gewählte Motiv nachzeichnen kann.«

66

Allzu einfach wurde das Abzeichnen mit der Camera Lucida jedoch nicht. Schon eine kleine Kopfbewegung reichte aus, das virtuelle Objekt über das Blatt wandern oder ganz verschwinden zu lassen.67 Zudem musste – wie auch bei Projektionen mit der Camera Obscura – ausgewählt werden, welche Strukturen als wesentlich eingestuft und auf Papier übertragen werden sollten, d.h., es musste erkannt werden, welche Minimalstrukturen des Motivs überhaupt konstitutiv waren, also ein Wiedererkennen im Sinne des Zeichners ermöglichten. Somit waren auch Zeichnungen, die nach virtuellen Bildern von Gegenständen erstellt wurden, eher Übersetzungsprozesse als mechanische Kopien des Gegenstandes.68 62 Vgl. Ditzen 2006c, S. 134ff. 63 Vgl. Hacking 1986, S. 336ff. 64 Vgl. Schaaf 2002, S. 49. Der Effekt, der bei der Camera Obscura zur Bildentstehung führt, ist allerdings mindestens seit Aristoteles bekannt. (Vgl. ebd., S. 48f.) 65 Vgl. Fioretini 2006, S. 45. 66 Ebd., S. 46. 67 Vgl. Fiorentini 2004, S. 61. 68 Vgl. ebd., S. 62 sowie Schaaf 2002, S. 52f. Ein anschauliches Beispiel, wie sich mithilfe der Camera Lucida auch heutigen Ansprüchen genügende schematische Atlasbzw. Lehrbuchabbildungen erstellen lassen, findet sich bei Fiorentini 2006, S. 53ff.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 91



Gänzlich mechanisch und – durch vermeintliches Ausbleiben subjektiver Selektionen – ›instrumentell objektiv‹ wurden Abbildungsprozesse erst mit Einführung der Mikrofotografie durch den Bakteriologen Robert Koch um 1900.69 Zeichnungen sind natürlich stets Einzelstücke, die zu ihrer Verbreitung reproduziert werden müssen. Dass in (analogen) Reproduktionsprozessen weitere Transformationen stattfinden, liegt auf der Hand und wird bei jeder angefertigten Fotokopie gegenwärtig. Im Laufe der Zeit wurden unterschiedliche Techniken entwickelt, um solche Unikate reproduzierbar zu machen. Kupferstiche, wie sie etwa in Hookes Micrographia Verwendung finden, zählen zu den sogenannten Tiefdruckverfahren. Strukturelemente der Zeichnung werden in Kupferplatten eingeritzt, die ganze Platte wird eingeschwärzt und die Druckerschwärze von den nicht vertieften Stellen wieder entfernt, sodass nur die Einritzungen gefärbt bleiben. In diese Vertiefungen wird Papier eingedrückt und nimmt aus ihnen die Farbe auf. Der Druckvorgang funktioniert also genau nach entgegengesetzten Prinzipien wie beim klassischen Buchdruck (Hochdruck), was zur Folge hat, dass Kupferstiche nicht in Druckplatten integriert werden können, sondern gesondert eingefügt werden müssen. Die Erstellung der Kupferplatten erfordert große handwerkliche Fertigkeit, ist extrem zeitaufwendig, erlaubt aber recht hohe Strukturauflösungen. Das Verfahren funktioniert rein einfarbig. Graustufen können analog zu heutigen Toner basierten Drucken nur durch Schraffuren bzw. durch die Dichte schwarzer Punkte (Rasterung) angedeutet werden. Kolorierungen konnten zu Lebzeiten Hookes erst nachträglich erfolgen, sie waren stets manuelle Einzelanfertigungen und farblich wenig naturgetreu.70 Kupferstecher und Kolorateur stellten im Prozess der Bilderstellung also zwei weitere künstlerische, vom Wissenschaftler nur bedingt beeinflussbare Vermittlungsstellen dar. Erst im Laufe des 19. Jahrhunderts ermöglichte ein Umbruch in der Drucktechnik das Einfügen von Illustrationen in klassische Hochdruckverfahren (z.B. durch Holzschnitte) und den Farbdruck (durch Flachdruckverfahren wie Lithografien). Durch solche Techniken konnten Auflagen gesteigert und Produktionskosten gesenkt werden.71 Heutzutage erlauben moderne Druckverfahren und beschichtetes Papier die Darstellung von (zweidimensionalen) Abbildungen in vergleichsweise hoher Auflösung und mit starker Farbtreue. Die Qualität der Abbil-

69 Vgl. Breidbach 2005, S. 83. 70 Vgl. Wagenitz 2007, S. 114. 71 Vgl. ebd., S. 132ff.

92 | DER M ENSCH ALS NEURONALE M ASCHINE ?

dungen hängt jedoch auch heute noch davon ab, ob einfache (kostengünstige) oder komplexe und kostenintensive Druckverfahren gewählt werden.72 Erst seitdem Bilder in Wissenschaft (und Kunst) digital produziert werden, ist theoretisch eine Reproduktion frei von Verlusten möglich. Die Praxis sieht freilich anders aus: Digitale Bilder werden in der Regel nachbearbeitet und für ihre Verbreitung beschnitten und komprimiert. Zudem bleibt auch hier ein letzter Transformationsschritt nötig, damit Daten von Menschen über ihre Sinne aufgenommen werden können. Das resultiert darin, dass die Darstellungsqualität, die beim Betrachter ankommt, dem Künstler, Wissenschaftler oder Verleger unbekannt ist. Die Farbendarstellungen und Kontrastvermögen der Monitore, auf denen Betrachter Bilder anschauen, oder der Drucker, mit denen Abbildungen zu Papier gebracht werden, entscheiden über wahrnehmbare Details. Statt einer Homogenisierung der Bildwahrnehmung findet durch die Digitalisierung eine möglicherweise unvorhersehbare Heterogenisierung statt. Abseits der technischen Reproduktion können auch Übernahmen einzelner Details, Stilelemente oder ganzer Abbildungen zu Ausweitungen räumlicher und zeitlicher Verbreitung führen. Das Motiv einer Laus von einem Kupferstich aus Hookes Micrographia lässt sich, dank eigentümlicher Beinhaltung und der Integration eines von der Laus umklammerten Haares (als Stilelement), über gut 60 Jahre in Werken verschiedener Autoren identifizieren.73 Dieser (keineswegs vollständige) Schnitt durch Transformationsprozesse in Darstellungs- und Reproduktionstechniken soll im Folgenden mit wissenschaftlichen Darstellungsstilen und dem Verständnis von Objektivität in seinen (idealtypischen) historischen Wandlungen verknüpft werden.

72 Zum Vergleich: die Abbildungen aus Peitgen 2005 (Recyclingpapier) und 2007 (Hochglanzpapier). 73 Vgl. Ditzen 2006a, S. 370ff. sowie Breidbach 2007, S. 148ff. Auch in Bereichen abseits der Mikroskopie lassen sich anhand bestimmter Stilelemente Motivreproduktionen feststellen. So zeigen einige Kirchenbilder von Christus und Aposteln über ganz Mitteleuropa verteilt und über Jahrhunderte hinweg die gleichen Fehler, die ursprünglich technisch bedingt waren (die Übertragung von Motiven auf oder von Holz- und Kupferstichen erzeugte seitenverkehrte Abbildungen) und immer weiter manuell kopiert wurden. Z.B. trägt der gekreuzigte Christus die Brustwunde mitunter auf der linken Körperseite oder Paulus das Schwert in der linken Hand (vgl. Salaschek/Bröker 1993).

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 93



4.2.2 Darstellungsstile und Objektivität Daston/Galison analysieren Abbildungen in wissenschaftlichen Atlanten im Hinblick auf historisch sich verändernde wissenschaftliche Vorstellungen von Objektivität.74 Nach ihrem Verständnis folgen kollektive Vorstellungen von wissenschaftlicher Objektivität im Laufe der Jahrhunderte verschiedenen Prinzipien, die allerdings nicht präzise voneinander zu trennen sind, sondern eher Schwerpunktverschiebungen im wissenschaftlichen Methodenarsenal darstellen:75 Auf idealtypische Abbildung von ›Naturwahrheiten‹ folgt eine Phase ›instrumenteller Objektivität‹, die im Verständnis von menschlicher Subjektivität als Verkörperung von Verfälschung, die Minimierung menschlicher Eingriffe in den Abbildungsprozess zum Ziel hatte. Die Phase mechanischer Objektivität wurde wiederum durch das Charakteristikum des ›geschulten Urteils‹ aufgeweicht, welches der Erfahrung eines Wissenschaftlers, sowohl bei der Erstellung als auch bei der Interpretation von Abbildungen, wieder größeren Wert beimisst. Bis zur Mitte des 19. Jahrhunderts galt (zumindest unter Herausgebern von Atlanten) die Devise, dass Darstellungen sich nicht zu sehr an einem tatsächlich untersuchten Gegenstand orientieren sollten. Denn Natur wiederhole sich nicht, sondern bringe schier unendliche Variationen hervor, die durch die Wissenschaft auf handhabbare Arbeitsobjekte zu überführen sei. Nur Abstraktion, Verallgemeinerung und ›Glättung‹ können zu repräsentativen Musterbeispielen – zur Wahrheit in der ›Natur der Dinge‹ – führen.76 Der Druck, die spezifische Repräsentationsform zu finden, mündete mitunter in Rekompositionen: Wagenitz weist auf eine Pflanzenillustration hin, die mehrere Arten einer Gattung vereint, indem sie die Blütenfarben aller drei Arten zeigt – »eine Pflanze, die es nicht gibt.«77 Aus heutiger Sicht irritierend und dennoch erhellend wirkt auch ein Kommentar Nettis’ 1755 zu einem Illustrationsband verschiedener geometrischer Formen bei Eiskristallen, der von Daston/Galison aufgeführt wird.78 Von über 80 verschiedenen Kristallausformungen wiesen nur zwei Zeichnungen geometrische Unregelmäßigkeiten auf, während ›in natura‹ kein Eiskristall geometrisch perfekt ist. Nettis Kommentar im Postscriptum wies die geometrisch unregelmäßigen Kristalle als Anomalien aus, die allerdings in großer Vielfalt exis74 Ihre Darstellungen bieten den Kern der folgenden Argumentation, können hier aber natürlich nur verkürzt wiedergegeben werden. 75 Vgl. Daston/Galison 2007, S. 118f. 76 Vgl. ebd., S. 45, S. 59 ff, S. 285ff.; 1992, S. 84f., S. 95ff. S. 107; Wagenitz 2007, S. 136ff.; Breidbach 2005, S. 123ff. 77 Wagenitz 2007, S. 120. 78 Vgl. Nettis 1755, S. 647, zitiert nach Daston/Galison 2007, S. 158.

94 | DER M ENSCH ALS NEURONALE M ASCHINE ?

tierten. »Asymmetrie und Unregelmäßigkeit waren nur Fußnoten zur richtigen Abbildung – auch wenn ihre Anzahl unendlich war.«79 Dieses Beispiel illustriert, wie sehr die Vorstellung einer perfekt symmetrisch organisierten Natur zu einem bewussten Negieren eigener Beobachtungen führen kann. Die Idee einer im ›Wahren, Guten, Schönen‹ verankerten, durch Regelmäßigkeiten exponierten Organisation der Natur lässt sich auch 150 Jahre später noch an den Radiolarien-Abbildungen des Biologen Haeckel nachvollziehen.80 Anders als an Eiskristallen Nettis lassen sich die von Haeckel abgebildeten starken Regelmäßigkeiten an fossilen Radiolarien (mikroskopischen Meereslebewesen) aber tatsächlich finden.81 Dass die filigrane Symmetrie der Radiolarienskelette und später Bilder von Medusen um die Wende vom 19. zum 20. Jahrhundert einen Nerv des gesellschaftlichen Schönheitsempfindens trafen, offenbaren Kunstgegenstände (etwa Deckenverzierungen, Lampen) aus jener Zeit. Laut Elsner beeinflusste Haeckels Medusenkunst den Jugendstil. Sogar das Eingangstor zur Weltausstellung 1900 war einer Abbildung Haeckels nachempfunden.82 Haeckel selbst beschreibt den Hauptzweck seiner Darstellungen als ästhetischen, der jedoch nicht durch Idealisierungen, sondern rein durch Auswahl und Anordnung der Elemente verfolgt werde.83 Haeckels Abbildungen von Eiskristallen zeigen, im Gegensatz zu denen Nettis, jedenfalls sämtlich Anomalien.84 Dennoch wurde ihm – aufgrund seiner Weltanschauung, stets das Ästhetische der Natur hervorzuheben und zu natürlichen Kunstformen zu erklären – Idealisierung vorgeworfen.85 Neben der Auswahl von Elementen und der Idealisierung von Symmetrien gab es noch eine dritte Form von Ästhetisierung (abseits der Möglichkeiten durch Farbgebung): Indem Motive aus ihrem ursprünglichen Kontext herausge79 Daston/Galison 2007, S. 157. 80 Vgl. Haeckel 2004. Eine Analyse des Abbildungsstils liefert Elsner 2007, insbesondere S. 300f. 81 Vgl. Elsner 2007, S. 302f. 82 Vgl. ebd., S. 304ff. 83 Vgl. ebd., S. 301. 84 Ebd., S. 322; Daston/Galison 2007, S. 157f. 85 Vgl. ebd.; Breidbach 2005, S. 125 und 130; Daston/Galison 2007, S. 201ff. Laut Elsner lässt sich der Vorwurf der Idealisierung in Bezug auf Haeckels schwarz/weißZeichnungen aus heutiger Sicht nicht halten. Die Abbildungen seien vielmehr so dargestellt, dass das Auge des Betrachters »auf das Ornamentale, auf die Schönheit der Formen« gelenkt werde (Elsner 2007, S. 302). Hingegen seien bei seinen kolorierten Abbildungen (u.a. von Medusen und in schillernden Farben auf engem Raum vereinten Kolibris) deutlicher ›florale‹ Elemente auszumachen (vgl. ebd., S. 304 und 313).

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 95



nommen und rekombiniert wurden, ließen sich fantastische Szenarien gestalten – z.B. Skelette, die, einmal dem Sektionstisch entwischt, mal neben einem Rhinozeros,86 mal, mit einer laufenden Sanduhr winkend, neben einem geöffneten Sarg87 posierten. Ende des 19. Jahrhunderts erreichen Differenzierungsgrad und Geschwindigkeit des Wissenszuwachses in den Wissenschaften einen kritischen Punkt. Mit steigender Fülle und Verbreitung verfügbaren Materials stellte sich immer drängender die Frage, welche Phänomene aus welcher Perspektive als Standardobjekte einer Wissenschaftsdisziplin gelten sollten.88 Das Bemühen der Herausgeber wissenschaftlicher Atlanten galt fortan dem Ziel, ›typische‹, ›charakteristische‹ oder ›durchschnittliche‹ Repräsentanten zu finden, statt idealisierte Naturwahrheiten abzubilden.89 Fotografie läutete nach Standardisierungsversuchen mit Zeichenrastern und Hilfsmitteln wie der Camera Obscura die Hochphase ›mechanischer Objektivität‹ ein. Das Paradigma mechanischer Objektivität schien (zumindest vorübergehend) eine Lösung des Subjektivitätsproblems zu bieten, hatte aber auch eine erhebliche Minderung von Schönheit und Ästhetik zur Folge, die ein bedeutendes Merkmal der Bilder waren, welche unter dem Paradigma der ›Naturwahrheit‹ entstanden. »Lieber nahm man schlechte Farben, zerfranste Gewebekanten, eingeschränkte Brennebenen und verwischte Grenzlinien in Kauf als auch nur den Verdacht der Subjektivität.«90 Grund für diesen Sinneswandel war das Potenzial der Fotografie, Momentaufnahmen zu schaffen, die in vormals nichterfassbaren zeitlichen Bereichen lagen und auf schockierende Weise mit der Vorstellung einer streng geometrisch organisierten Natur aufräumten.91 Ein Wissenschaftler, der unter beiden Paradigmen (der Naturwahrheit und der mechanischen Objektivität) Bildmodelle eines Gegenstandes – dem Zerspringen von Wassertropfen – anfertigte, war der Physiker Worthington. Er beobachtete auf eine Glasscheibe auftreffende Tropfen in den 1870er Jahren mit dem bloßen Auge, da es zu dieser Zeit kein Filmmaterial gab, das empfindlich genug für die benötigten kurzen Belichtungszeiten war. In den aus dieser Zeit stammenden Zeichnungen ähnelt der Tropfenaufprall eher einem gleichmäßigen Umstülpen unter Hervorbringung symmetrisch angeordneter Strahlen, als einem 86 Vgl. Daston/Galison 2007, S. 76. 87 Vgl. Daston/Galison 1992, S. 99. 88 Vgl. ebd., S. 86. 89 Vgl. ebd., S. 87. Auf die einzelnen Bedeutungsunterschiede der aufgeführten Begriffe, die zweifelsfrei vorhanden sind, kann hier im Einzelnen nicht eingegangen werden. 90 Daston/Galison 2007, S. 195. 91 Vgl. ebd., S. 161.

96 | DER M ENSCH ALS NEURONALE M ASCHINE ?

Zerspringen.92 In den 1890er Jahren, nachdem es Worthington gelungen war, Momentaufnahmen von Flüssigkeitsspritzern auf Fotoplatten zu fixieren, waren auch in seinen Abbildungen keine Symmetrisierungen mehr zu finden. Vielmehr verweist Worthington seither explizit auf die Irregularität und Einzigartigkeit der Form jedes Tropfenaufpralls.93 Auch die mechanische Objektivität zeigte bald Makel. Es setzte sich die Erkenntnis durch, dass selbst Fotografien menschliche Subjektivität nicht aus dem Wissensgenerierungsprozess aussperren konnten. Sie konnten nicht »die Natur selbst zum Sprechen bringen.«94 Der Ort menschlichen Eingreifens wurde lediglich verschoben. Fotografien teilten viele Einschränkungen der Mikroskopie: Die Schärfentiefe ihrer zweidimensionaler Darstellung war begrenzt, es konnte nur abgebildet werden, was der Experimentator zuvor ›präpariert‹ hatte, die Auflösung der Fotoplatten war eingeschränkt, und es mussten starke Kontrastierungen hervorgebracht werden, um in schwarz/weiß unterscheidbare Strukturen zu produzieren. So nutzte der Bakteriologe Robert Koch Mikrofotografie in ihren Anfängen dann auch zunächst nicht als Messergebnis, sondern lediglich als Anhaltspunkt zur Beurteilung der »Qualität der mikroskopischen Einstellungen eines entsprechenden Beobachters«, um die Relevanz von dessen Aussagen abschätzen zu können.95 Auch nach erheblicher Verbesserung fotochemischer Verfahren verbleibt das Problem, dass Fotografien nicht im wissenschaftlichen Sinn für sich selbst sprechen, sondern auf der Basis von Erfahrung und Vorwissen interpretiert werden müssen. »Ein isoliertes wissenschaftliches Bild ist bedeutungslos, es beweist nichts, sagt nichts, zeigt nichts«.96 Wissenschaftliche Bilder haben eine Funktion: die Etablierung und Weitergabe von Wissen im Sinne ihrer Urheber. Mitunter lässt sich dieses Ziel durch die Möglichkeit, manche Details zu betonen (oder durch ›Falschfarben‹ überhaupt erst sichtbar zu machen), andere (z.B. Schattenwurf) wegzulassen, mit Zeichnungen sogar besser verfolgen als mit den instrumentellen Mitteln mechanischer Objektivität.97 Festzuhalten bleibt, dass jede Abbildungsart und jedes Abbildungsparadigma Vor- und Nachteile birgt und die unveränderte Wiedergabe eines Gegenstandes unmöglich ist. Diese kann aber auch nicht Ziel einer Abbildung sein, denn unter einem Paradigma unstrukturierten Individualwissens ohne Kategorienbildung, Verallgemeinerungen und Generalisierungen ist, in Ermangelung aus- und auf92 Vgl. ebd., S. 10. 93 Vgl. ebd., S. 168ff. 94 Breidbach 2005, S. 29. 95 Ebd., S. 30. 96 Latour 2002, S. 67. 97 Vgl. Daston/Galison 2007, S. 366f.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 97



baufähiger Grundlagen, an Fortschritt nicht zu denken. Die Notwendigkeit nichtobjektiver Bilder mündet im Erkenntnisprozess in ein Dilemma. Darstellungsstile müssen sich ändern, damit sie, an Sehgewohnheiten angepasst, die ihrerseits nicht ausschließlich von wissenschaftlichen Darstellungsstilen bedingt sind, so viel Wissen wie möglich transportieren können. Nachdem in diesem Abschnitt die Bedeutung von Bildern bei der problematischen Fixierung von Wissen erläutert wurde,98 soll im Folgenden der andere Aspekt ihrer Doppelrolle erläutert werden: ihr Einfluss auf Wissen konstituierende Sehgewohnheiten. 4.2.3 Wissenschaftliches Sehen Dass Anschauung nicht ohne Interpretation möglich ist, stellt, wie im vorigen Abschnitt dargelegt, eine aktuelle Perspektive in der Analyse wissenschaftlicher Bilder dar. Die zentrale Frage dieses Abschnittes lautet, ob und inwiefern ein Sehen ohne bereits vorhandenes Wissen möglich ist. Zur Erarbeitung dieser Frage soll abermals auf Ludwik Fleck zurückgegriffen werden, dessen Denkstiltheorie99 auch die Prozesse wissenschaftlichen Sehens einschließt. Aspekte, die den Grundgedanken Flecks ähneln, finden sich auch derzeit wieder häufiger in der Wissenschaftsgeschichte – so z.B. in der Erkenntnistheorie des Auges100 von Daston/Galison. Aus Flecks Aufsatz Schauen, sehen, wissen101 lassen sich die beiden Hauptthesen Flecks zur wissenschaftlichen Wahrnehmung besonders griffig entnehmen: a) »Um zu sehen, muß man zuerst wissen«102 b) »[W]issenschaftliche Beobachtung […] [ist] vom gemeinschaftlichen Denkstil abhängig«103 These a umschließt Erwartung, Analogiebildung, Kontextabhängigkeit und Ergänzung als Einflussfaktoren auf wissenschaftliches Sehen. These b verweist auf

98 »Objektivität ist weder ein Synonym für Wahrheit oder Gewißheit, noch für Genauigkeit oder Präzision« (ebd., S. 394). 99 Vgl. auch Abschnitt 3.3. 100 So lautet ebd. der Titel des ersten Kapitels. 101 Fleck 1983a. 102 Ebd., S. 147. 103 Ebd., S. 167.

98 | DER M ENSCH ALS NEURONALE M ASCHINE ?

das Gewicht von (kollektiven) Denk- und Interpretationsgewohnheiten (z.B. Weltanschauungen oder wissenschaftliche Paradigmen).104 Die einzelnen Elemente dieser Thesen sind zumindest in Epistemologie, Psychologie und Erziehungswissenschaft durchaus vertraut und in Bezug auf nicht-wissenschaftliche Wahrnehmung größtenteils anerkannt. Die Gültigkeit perzeptiver Unzulänglichkeiten, die nicht lediglich ›originäres‹ Sehen, sondern jede ontologische Erkenntnis ausschließen, auch für die Wissenschaften zu postulieren, wirkt dennoch provokativ. Flecks Schlussfolgerungen sind Ausdruck nicht nur einer nominalistischen, sondern einer radikal sozialkonstruktivistischen Wissenschaftsanschauung: »Ich meine nicht, daß das heutige Wissen dem objektiven Weltbild näher als das Wissen vor 100 Jahren wäre. Hingegen bin ich davon überzeugt, daß das heutige Wissen unserer heutigen Welt näher ist, das Wissen vor hundert Jahren aber der damaligen Welt […] nä105

her war.«

Zur Verdeutlichung folgen zu den Elementen aus These a einige Beispiele: Schon Worthington bringt im Rückblick auf seine Untersuchungen der Formen von Wassertropfen Erwartung und Gesehenes in Zusammenhang. Wer bei kurzem ›Aufblitzen‹ der Projektion eines Spritzers regelmäßige Formen erwarte, sehe diese, wer Unregelmäßigkeiten erwarte, jene leichter.106 Augenfällige Beispiele für Analogiebildungen in Zeichnungen finden sich u.a. bei Breidbach,107 Ditzen108 oder Leonhard:109 Sie reichen vom einfachen Vergleich mikroskopischer mit makroskopischen Strukturen über deren Projektionen (Flöhe mit Schnäbeln) bis zu durch ›sehen wollen‹ beeinflussten Abstrusitäten – etwa das Erblicken von Homunkuli in Spermazellen110 oder Abbildungen von menschlichen Gesichtern auf Insektenpanzern. Einfachste Beispiele für Kontextabhängigkeit des Sehens sind handschriftliche Buchstaben, die oft nur im Kontext des Wortes und dieses manchmal auch nur im Zusammenhang des ganzen Satzes entziffert werden können. Auch der Inhalt vieler Abbildungen (wie vielleicht sogar schon die des Mikroskops Leeu-

104 Vgl. auch Abschnitt 3.3. 105 Fleck 1983b, S. 132. 106 Vgl. Daston/Galison 2007, S. 168f. 107 Breidbach 2007. S. 152ff. 108 Ditzen 2006b. 109 Leonhard 2004. 110 Vgl. hierzu auch Gerlach 2009, S. 121f.

ZWISCHEN G EGENSTÄNDEN, I NSTRUMENTEN UND BILDERN

| 99



wenhoeks111), bleibt ohne Kenntnis des Kontextes unverständlich. Für die Ergänzung nicht dargestellter Strukturen gibt es in der Gestaltpsychologie unzählige Beispiele.112 Flecks These b wird unter anderem in Kuhns Theorie wissenschaftlicher Revolutionen113 und Latours Wissenschaftssoziologie114 vertieft. Fleck selbst berichtet von seinen Erfahrungen in einer Forschergruppe, die während des Zweiten Weltkrieges an einem Impfstoff für Fleckfieber arbeitete und schließlich durch gruppendynamische Prozesse eine Vorstufe sah, die es (nach der verfolgten Theorie) unbedingt zu synthetisieren galt: »Das Kollektiv vertraute seinem Leiter, der Leiter stützte sich auf die Meinung seiner ›Fachleute‹, die er bestätigte, um seine Autorität zu bestätigen, und diese ›Fachleute‹ haben anfangs vielleicht gefühlt, daß sie eigentlich irgendwie gegen den Willen herausgeplatzt sind, aber die Zustimmung der Allgemeinheit zerstreute schnell alle Zweifel. Der [außenstehende] Zuckerbäcker und der Gummiarbeiter, die den ›gesunden Menschenverstand‹ vertraten, popularisierten die Entdeckung, ernsthaft, mit Beifall. Kurz: Die sozialen Kräfte, die in der Gemeinschaft wirkten, waren mit den normalerweise angetroffenen 115

identisch.«

Der zentrale Punkt bei Fleck lautet, dass stets ein Kollektiv eine Schablone für Beobachtungen liefert.116 Neben den oben geschilderten sozialpsychologischen Prozessen in Kleingruppen stiften in Großgruppen u.a. Atlanten Beobachtergemeinschaften.117 Dank kollektiver Beobachtergemeinschaften mit ähnlichen Denk- und Interpretationsstilen kann der ursprüngliche Gegenstand im Erkenntnisprozess eine untergeordnete Rolle spielen oder aus dem Prozess der Wissensaneignung sogar gänzlich herausfallen wie die Trockenpräparate in der (nicht Ausbildungszwecken gewidmeten) Biologie. Während der ursprüngliche Gegenstand immer (kontextabhängig) Erfassbares und Belangloses enthält, vermag die Abbildung das für die entsprechende Beobachtergemeinschaft Interessante – aber nur auf Basis des aktuellen Wissensstandes – zu extrahieren. So offensichtlich der Einfluss von Traditionen, Lehrbüchern etc. ist, bleibt doch die Frage offen: Muss man immer wissen, um zu sehen? Wie konnten 111 Vgl. Abbildung 6, S. 81. 112 Vgl. z.B. Goldstein 2002, S. 190ff. 113 Vgl. Kuhn 2006. 114 Vgl. Latour 1987. 115 Fleck 1983b, S. 136; vgl. auch Latour 1987, S. 13ff. 116 Vgl. Fleck 1983a, S. 168. 117 Vgl. Daston/Galison 2007, S. 27.

100 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Hooke, Leeuwenhoek und Haeckel ihre präzisen Zeichnungen anfertigen, die noch dazu die Abstraktion von der zwei- auf eine dreidimensionale Ebene erforderten? Gibt es (auch) Fälle, in denen sich die Natur gewissermaßen aufdrängt? Warum wirken Bilder besonders natürlich, je stärker ihr artifizieller Anteil, ihre technikgestützte Bearbeitung ist?118 Sind wissenschaftliche Bilder nur ›unscharf‹ oder zeigen sie (hauptsächlich oder sogar gänzlich) Kontingentes? Auch Fleck räumt ein, dass drei Faktoren am Erkennen beteiligt sind, »das Individuum, das Kollektiv und die objektive Wirklichkeit.«119 Für die Analyse von Prozessen der Wissensgewinnung benutzt er den Ausdruck »passive Zusammenhänge« für solche Faktoren, »die weder psychologisch (individuell- und kollektivpsychologisch), noch geschichtlich erklärbar sind.«120 Die Frage, ob es sich bei passiven Zusammenhängen um reale Faktoren der Erkenntnisgewinnung handelt oder woran reale Faktoren erkennbar seien, bleibt für Fleck unbeantwortbar: Passive Zusammenhänge muteten deshalb als »›reale‹, ›sachliche‹, ›wirkliche‹ Beziehungen«121 an, weil sie sich (noch) nicht anders erklären ließen.

4.3 B EUGUNG UND

MIKROSKOPISCHES

S EHEN

In Abschnitt 4.1.2 wurden basale Prinzipien der optischen Bildentstehung aufgezeigt. Dabei wurde Licht seiner Strahlencharakteristik nach beschrieben. Jedoch gibt es Phänomene, die sich nur mit einer Wellentheorie des Lichts erklären lassen. Mit ›Beugung‹ von Licht lassen sich makroskopisch Unschärfen anderer Art erklären als solche, die durch sphärische oder chromatische Aberration entstehen. Trifft ein Lichtstrahlenbündel auf eine Kante oder einen Spalt, so wird ein Teil der Strahlen, der nicht reflektiert oder absorbiert wird, gebeugt; das heißt: Diese Lichtstrahlen ändern ihre Richtung. Beobachten lässt sich die einfache Beugung an ›fransigen‹ Rändern bei Kantenschatten. Bei mehreren nahe beieinander liegenden Kanten oder Spalten, an denen Licht gebeugt wird, kommt es durch Überschneidungen der gebeugten Lichtstrahlen zu Interferenzen, die bei kohärenten Wellen zu charakteristischen Interferenzmustern mit Maxima und Minima führen.

118 Bredekamp et al. bezeichnen dieses Phänomen als »Disjunktionsprinzip der naturwissenschaftlichen Darstellung« (Bredekamp et al. 2003, S. 15). 119 Fleck 1980, S. 56. 120 Ebd., S. 16. 121 Ebd.

ZWISCHEN G EGENSTÄNDEN , I NSTRUMENTEN UND B ILDERN

| 101



Abbildung 7 schematisiert im linken Teil die sogenannte Wellennormale – die Richtungsänderung von kohärenten Wellen an einem relativ zur Wellenlänge schmalen Spalt. Der rechte Teil der Abbildung zeigt ein Schema eines sogenannten Doppelspaltversuches: Trifft eine Lichtwellenfront122 auf zwei (relativ zur Wellenlänge) nahe beieinander liegende Spalten, interferieren die gebeugten Wellen hinter den Spalten miteinander. Durch Überlagerungen kommt es an einigen Stellen zu Verstärkungen, an anderen Stellen zu Abschwächungen der Intensität bis hin zur gegenseitigen Auslöschung (Amplitudenmaxima und -minima). Abbildung 7: Beugungs- und Interferenz an Einzelspalt (links) und Doppelspalt (rechts)

Quelle: Göbel 1998, S. 131 und 136.

Während solche Interferenzen im makroskopischen Bereich (etwa beim Betrachten von Sternen per Teleskop) zu Störungen am Bild führen, kann beim Mikro-

122 Der Interferenzeffekt kommt bei allen kohärenten Wellen zustande, aber nur elektromagnetische Welleninterferenzen aus dem sichtbaren Spektrum lassen sich auf einem Schirm abbilden. Der Verlauf des Interferenzmusters zwischen der Trennwand mit Doppelspalt und dem Schirm ist nicht abgebildet.

102 | D ER M ENSCH ALS NEURONALE M ASCHINE?

skopieren ihr Fehlen zu Bildfehlern führen. Ernst Abbe123 beschreibt, wie und unter welchen Bedingungen durch Veränderungen des Lichteinfallswinkels (der Blende) Interferenzen einerseits zum Verschwinden von Details124 (Verschlechterung der Auflösung) führen können, andererseits zum Erscheinen von Strukturen,125 die am Untersuchungsgegenstand selbst nicht vorhanden sind. Abbe schlussfolgert: »Damit ist aber gesagt, dass die unter Mitwirkung des Beugungsvorgangs entstandenen Structurbilder in keinem constanten Zusammenhang mit der wirklichen Beschaffenheit der sie veranlassenden Objecte […] stehen.«126 Der große Irrtum der zeitgenössischen Theorie des Mikroskopierens lautet demnach, dass das durch das Okular Gesehene einfach eine vergrößerte Entsprechung des eigentlichen Gegenstandes sei. Erst nach Abbe, somit nach einer etwa 300-jährigen Entwicklungsgeschichte des Mikroskops, setzte sich die (bis heute gültige) Ansicht durch, dass (zumindest bei Objekten mit eng beieinander liegenden, Beugung verursachenden Strukturen) die notwendige virtuelle Zwischenbildebene127 nur durch Interferenzen zustande kommt und ohne Mitwirkung der Nebenmaxima nichts sichtbar wäre.128

4.4 M IKROSKOPIEREN

MIT ANDEREN

W ELLENLÄNGEN

Das für Menschen sichtbare Licht umfasst »den Farbbereich von Violett (ca. 400 nm [Wellenlänge]) bis Dunkelrot (ca. 800 nm), das ist gerade mal eine Oktave, das heißt ein Faktor Zwei in der Wellenlänge. […] Das gesamte elektromagnetische Spektrum, aus dem wir Licht empfangen können, hat jedoch insgesamt mindestens 56 Oktaven«,129 vom Femtometer- (Gammastrahlen) bis in den Kilometerbereich (lange Radiowellen). Theoretisch lässt sich jede Strahlung, die eine kürzere Wellenlänge hat als sichtbares Licht, zum Mikroskopieren einsetzen

123 Vgl. Abbe 1904, S. 76ff. 124 Vgl. ebd., S. 78. 125 Vgl. ebd., S. 79. 126 Ebd., S. 82. 127 Vgl. ebd., S. 53ff. 128 Vgl. auch Robenek 1995, S. 39ff. Dort wird eine Versuchsreihe beschrieben, mit deren Hilfe sich (auch farbige) Interferenzen und ihre Auswirkungen beim Mikroskopieren sichtbar machen lassen. 129 Hasinger 2007, S. 92.

ZWISCHEN G EGENSTÄNDEN , I NSTRUMENTEN UND B ILDERN

| 103



– selbst Ultraschall lässt sich für vergrößernde Bildgebung nutzen.130 Die Wellenlänge der Strahlen verhält sich (in Abhängigkeit des Beugungswinkels) proportional zur theoretisch erreichbaren Auflösung. Je kürzer die Wellenlänge, desto dichter können zwei Punkte oder Strukturen zusammenliegen und trotzdem als voneinander verschieden identifiziert werden.131 Bei den Lichtmikroskopen Leeuwenhoeks lag die Auflösung im 17. Jahrhundert bei 1-3 µm,132 bei heutigen Lichtmikroskopen wird eine Auflösung von bis zu 0,2 µm erreicht. Sie liegt damit recht nah an der (derzeit postulierten) theoretischen Grenze. Bei Elektronenmikroskopen ist das Verhältnis von theoretisch errechneter und praktizierbarer Auflösung erheblich schlechter, dennoch können mit ihnen, je nach Ausführung, Strukturen bis zu einer örtlichen Nähe von 1 nm und weniger aufgelöst werden. Abbildung 8: Strahlenschäden bei der Elektronenmikroskopie

Quelle: Robenek 1995, S. 176 (in veränderter Anordnung).

Elektronenstrahlen haben, im Gegensatz zu elektromagnetischen Wellen aus dem sichtbaren Bereich, eine wesentlich höhere Energie. Interaktionsprozesse mit (biologischen) Proben hinterlassen daher schnell deutliche Spuren am Präparat. »Ein ultrafein geschnittenes Präparat wurde [in einer Vakuumkammer] in einen Elektronenstrahl eingeführt, der durch aufwendige Magnetspulen wie ein Lichtstrahl gebündelt und fokussiert werden kann. […] Das resultierende Bild ist 130 Das Gros technischer Aspekte einzelner Instrumentengruppen bleibt hier unberücksichtigt, da ihre Darstellung nicht sachdienlich scheint. 131 Vgl. Gerthsen 2005, S. 226f. 132 Siehe Abschnitt 4.1.2, FN 25.

104 | D ER M ENSCH ALS NEURONALE M ASCHINE?

ein Schattenbild.«133 Dargestellt wird der unterschiedliche Absorptionsgrad von Elektronen am Gewebe. Neben den Eigenschaften der Lichtbeugung und der Elektronenabsorption lassen sich weitere Interaktionseigenschaften von Körpern und Strahlen zur Bildproduktion verwenden. Bei der Polarisationsmikroskopie werden Doppelbrechungseigenschaften bestimmter Materialien zur Bilderzeugung genutzt. ›Normales‹ gerichtetes Licht schwingt in alle Richtung senkrecht zur Ausbreitungsachse. Mit Polarisationsfiltern vor dem Objekt lassen sich die Schwingungen auf eine Orthogonale beschränken. Ein weiterer Polarisationsfilter, (vom Lichtweg aus gesehen) dem Objekt nachgeordnet, kann so justiert werden, dass nur solche Strukturen des Objektes sichtbar werden, die die Polarisation einfallenden Lichtes in bestimmter Weise verändern. Alle anderen Strukturen bleiben dunkel. Für Helligkeitsabstufungen sorgen auch hier Interferenzen.134 Fluoreszenzmikroskope basieren auf dem Effekt, dass sich bestimmte Stoffe so ›anregen‹ lassen, dass sie selbst Licht emittieren. Aufgrund des Eigenleuchtens solcher Stoffe können mit Fluoreszenz potenziell wesentlich höhere Auflösungen erzielt werden als bei der Durchstrahlung, weil Effekte von Beugung, Brechung, Reflexion minimiert werden. Gemessen werden hier Emissionen, nicht Beugungsinterferenzen oder Teilchenabsorption. Eine Besonderheit der Fluoreszenzmikroskopie ist, dass Fluoreszenzfarbstoffe etwa an bestimmte Proteine gekoppelt werden können, so dass sich z.B. ihr Weg im Stoffwechsel lebender Zellen (in dedifferenzierten Einzellerkulturen) verfolgen lässt.135 Um nah beieinanderliegende Farben, die für Menschen normalerweise nicht unterscheidbar sind, deutlicher herauszustellen, lassen sich, wenn die Bandbreite des emittierten Lichtes eng ist, Wellenlängen digital reskalieren. Das hat den Effekt, dass mehr Farbunterschiede wahrnehm- und abbildbar werden, das Bild also an Details gewinnt.136 Diese drei Beispiele aus einer noch wesentlich vielfältigeren Gerätelandschaft sollten ein Argument verdeutlichen, dessen eine Seite Hacking auf den Punkt bringt: »Um Strukturen eines Objekts zu untersuchen, können wir jede Eigenschaft des Lichts benutzen, die zu einer Wechselwirkung mit dem betreffenden Objekt führt. Im Grunde könnten wir sogar eine beliebige [bekannte] Eigenschaft einer beliebigen Wellenart verwenden.«137 Die Kehrseite dieses Arguments macht aber deutlich: Gleichgültig welche Eigenschaft welcher Welle 133 Breidbach 2005, S. 87. 134 Vgl. Robenek 1995, S. 56ff. 135 Vgl. ebd., S. 68ff. Vgl. auch Lindemann 2005, S. 773. 136 Vgl. Ottino 2003, S 474. 137 Hacking 1986, S. 328.

ZWISCHEN G EGENSTÄNDEN , I NSTRUMENTEN UND B ILDERN

| 105



verwendet wird, wird höchstens eben diese ihr eigene Interaktion mit dem Objekt (plus Verfahrensartefakte) sichtbar. Meist kommt bei biologischen Objekten nicht einmal eine Interaktion elektromagnetischer Wellen mit einem Objekt, sondern mit eingebrachten ›Verstärkern‹ (wie Farbstoffen) zustande.138

4.5 B EWERTUNG VON I NTERAKTIONSPROZESSEN BEI DER L ICHTMIKROSKOPIE Unter der Annahme, dass sich die Entwicklung technischer Produkte vereinfacht mit dem Verlauf einer logistischen Funktion beschreiben lässt, befindet sich die Instrumentengruppe traditioneller Lichtmikroskope aus heutiger Perspektive im letzten, flach verlaufenden Abschnitt. Die theoretische Auflösungsgrenze ist fast erreicht; Effekte, die zu ›Bildfehlern‹ führen, sind weitgehend verstanden und können je nach Anwendungsgebiet berücksichtigt werden: Auf der einen Seite wurden technische Möglichkeiten gefunden, Aberrationen auszugleichen, auf der anderen Seite haben involvierte Wissenschaftler kollektiv gelernt, verbleibende instrumentenbedingte Abbildungseffekte zu erkennen und Bilder zu deuten. Seit Abbe ist klar, dass selbst bei der einfachen Lichtmikroskopie das durch das Okular erblickbare Bild nicht dem Gegenstand gleicht, sondern dass optische Systeme des Mikroskops Wechselwirkungen zwischen Gegenstand und Licht abbilden, die auf Welleneigenschaften von Licht beruhen, welche wiederum für alltägliches makroskopisches Sehen keine Rolle spielen. Diese Vermittlung wird bei anderen Mikroskoparten noch deutlicher, wenn spezielle Eigenschaften elektromagnetischer Strahlung für Interaktionen mit Gegenständen nutzbar gemacht werden. Die Ergebnisse solcher Interaktionsprozesse sind für Menschen dann gar nicht direkt sichtbar, sondern müssen durch weitere Vermittlungsinstanzen sichtbar gemacht werden. Damit die Interaktion funktioniert, müssen Untersuchungsgegenstände auf eine bestimmte Art vorbereitet werden: Die Funktion des Instruments ist an die von der Beschaffenheit des Untersuchungsgegenstandes ausgehenden Ansprüche gekoppelt. Untersucht werden stets ›winzige‹ Proben, die bei biologischen Fragestellungen aus einem Organismus isoliert wurden. Die Frage, welche Rückschlüsse sich aus solchen Proben auf den Organismus ziehen lassen, lässt sich mit Mikroskopieren allein nicht beantworten. Es ist zu erwarten, dass sich Zellen, selbst wenn sie idealiter durch Züchtung und Präparieren keine Schäden genommen hätten, in dedifferenziertem Zustand in Nährlösung unter dem Mikroskop anders ›ver-

138 Vgl. Abschnitt 4.1.3.

106 | D ER M ENSCH ALS NEURONALE M ASCHINE?

halten‹ als eingebettet in einen Organismus. Die Forscher, die direkt mit solchen künstlich hergestellten Objekten arbeiten, sind sich üblicherweise bewusst, dass sie es mit Artefakten zu tun haben und dass sich die an ihnen unter stärkst möglich kontrollierten Bedingungen gewonnenen Erkenntnisse nicht unbedingt auf den ganzen Organismus übertragen lassen.139 Durch Popularisierung von Forschungsergebnissen oder Transfers in andere Fachbereiche kann das Bewusstsein für diese Einschränkungen jedoch verloren gehen. Eine letzte, gleichwohl ›doppelte‹ Vermittlungsinstanz findet sich in Abbildungen: Jede wissenschaftliche Erfahrung an einem Objekt muss, wenn sie als ›Wissen‹ verbreitet werden soll, beschrieben und/oder abgebildet werden. Solche Abbildungen bilden gleichzeitig End- und Anfangspunkt mikroskopischer Untersuchungen. Sie unterliegen bestimmten Stilformen und Restriktionen und sind gleichzeitig die Basis für das Wissen nicht nur einer neuen Generation von Wissenschaftlern (z.B. durch Lehrbuchabbildungen), sondern interagieren als Referenzen auch mit den Erfahrungen erfahrenerer Wissenschaftler und beeinflussen Normalitätsvorstellungen über die Beschaffenheit von Gegenständen. Mit dieser Doppelrolle von Abbildungen lassen sich die Beziehungen zwischen Gegenständen, Wissenschaftlern und Instrumenten nunmehr kreisförmig modellieren: Abbildung 9: Modell des Wissenskreislaufs bei der Lichtmikroskopie

Quelle: Eigenanfertigung.

139 Vgl. Lindemann 2005, S. 773.

ZWISCHEN G EGENSTÄNDEN , I NSTRUMENTEN UND B ILDERN

| 107



Die Schnittstelle zwischen Untersuchungsgegenstand und Erkenntnisprozess bildet das Präparieren. Dabei ist der Gegenstand (bei biologischen Objekten) bereits aus dem Funktionsgefüge eines komplexen Organismus entnommen. Vorwissen (aus Bildern und eigener Erfahrung) nimmt Einfluss auf die Vorstellung davon, was sich durch das Okular eines technischen Vermittlungssystems erblicken lässt und bestimmt, welche Elemente für wesentlich gehalten werden. Bei neuartigen Erscheinungen wird bei der Interpretation zunächst auf Analogiebildung zu bereits Bekanntem zurückgegriffen. Wie das vom Wissenschaftler oder einer Arbeitsgruppe als wesentlich Erkannte abgebildet wird, wird auf der technischen Seite primär von Bildgebungshilfen und den Erfordernissen und Möglichkeiten des Verbreitungsmediums bestimmt. Die Bandbreite reicht von einfarbigen Drucken oder kolorierten Kupferstichen auf schlecht auflösendem Papier bis hin zu hochauflösenden dreidimensionalen Computeranimationen.140 Abbildungsstile ändern sich in Abhängigkeit von bestimmten Moden und der Verfügbarkeit neuer Darstellungsmöglichkeiten. In einem letzten Selektionsprozess entscheiden schließlich Gutachter und Verleger, welche Abbildungen für die nächste Runde im Erkenntnisprozess zur Verfügung stehen. Auch die Frage, ob die aufgezeigten Vermittlungs- und Bearbeitungsinstanzen rein zirkulär laufen oder sich vielleicht spiralförmig ihren Gegenständen nähern, lässt sich nun weitgehend beantworten. Je spezifischer ein Blick ausgerichtet ist, je genauer die Abbildungen von Regionen von Interesse sein sollen, desto mehr Präparation und Interaktion werden nötig. Bei der hochauflösenden Elektronenmikroskopie etwa wird das Präparat sukzessive zerstört.141 Und schon das Präparat selbst ist ein aus einem Organismus isoliertes Artefakt. Das bedeutet aber nicht, dass die mit seiner Hilfe gewonnenen Erkenntnisse völlig künstlich oder irreal sind. Neue Erkenntnisse schließen, indem sie die Möglichkeit der Bildung von Artefakten und Fehlinterpretationen in ihrem Tragweitenpostulat berücksichtigen, zwar ihre potenzielle Revision mit ein,142 an Validität können Ergebnisse aber gewinnen, wenn sie sich mit Instrumenten gänzlich verschiedener Funktionsprinzipien reproduzieren lassen.143 140 Daston/Galison weisen darauf hin, dass sich vor allem in den letzten Jahren auf Konferenzen von Seiten des Publikums eine Erwartungshaltung bzgl. einer geradezu künstlerischen Aufbereitung von Daten entwickelt hat. (Vgl. Daston/Galison 2007, S. 426f.) 141 Vgl. Breidbach 2005, S. 87f. 142 Vgl. Schickore 2002, S. 306. 143 »Das angestrebte Bild unseres Forschungsobjektes muß […] methodeninvariant sein – sonst ist es unzutreffend« (Sitte 1973, S. 337).

108 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Der Einwand van Fraassens, Sehen sei nur mit sinnlicher Erfahrung möglich, wird, fast schon paradoxerweise, in der Interaktion relativiert. Gerade durch die Bearbeitung bzw. durch das artifizielle Hervorbringen von Gegenständen findet man nämlich einen Zugang zur mikroskopischen Welt, wie Abbe gezeigt hat.144 Abbes Erkenntnisse zu Effekten der Beugung stammen aus Beobachtungen, die nur im Wissen über die ›tatsächliche‹ Beschaffenheit der Versuchsgegenstände interpretiert werden konnten. Nur durch das Herstellen von mikroskopierbaren Strukturen konnten Veränderungen im Okularbild systematisch erfasst und Regelmäßigkeiten mathematisch beschrieben werden. Schickore verallgemeinert: »Die Vorkehrungen, die die Forscher zur erfolgreichen Durchführung mikroskopischer Untersuchungen anrieten, wurden gleichsam getragen von einer experimentalistischen Grundeinstellung, die darauf setzte, Umstände vorsätzlich herbeizuführen, um so die Folgen experimenteller Handlungen zu studieren.«145 In der 400-jährigen Entwicklungsgeschichte der Lichtmikroskopie haben sich Wissenschaftler auf ihre Untersuchungsgegenstände zubewegt, indem sie sich empirisch an die Arbeit mit dem Mikroskop herantasteten, Erklärungen für die Funktionsweise des Gerätes fanden, Möglichkeiten erarbeiteten, aus Unsichtbarem Sichtbarkeiten hervorzurufen, Fehlinterpretationen und -schlüsse bei der Interpretation des Sichtbaren revidierten, Präpariermethoden weiterentwickelten etc. Dennoch: Diese Prozesse verliefen über Generationen hinweg; der durch Interaktion erschlossene Mikrokosmos ist zwingend gestaltet, da kein mikroskopisches Abbild seinem Gegenstand gleicht. Es gibt keine ›natürlichen‹ Grenzen des Mikrokosmos: Sichtbar ist genau das, was durch Instrumente sichtbar gemacht wird,146 gleichgültig ob durch theoriebasierte Suche oder zufälliges Bemerken. Ob es eine ›reale‹ Entsprechung zum eingekreisten Objekt gibt und in welchem Verhältnis das eingekreiste Objekt zu seinem angestammten Organismus steht, lässt sich nie mit letzter Gewissheit feststellen.147 Die ›ganze Wahrheit‹ vermag jedenfalls kein Instrument zu zeigen.148

144 Vgl. auch Hacking 1996, S. 314f. 145 Schickore 2002, S. 307. 146 Vgl. Sitte 1973, S. 333. 147 Selbst Breidbach, der vielerorts nominalistisch argumentiert, nimmt an, dass die Trennung der tatsächlich vom Untersuchungsgegenstand ausgehenden Erscheinungen von den vom Instrument verursachten Artefakten bei der Lichtmikroskopie inzwischen verhältnismäßig ›sauber‹ funktioniert, während bei früheren Mikroskoparten ungleich mehr Unsicherheiten über die Beziehung von Fakt und Artefakt herrschen (vgl. Breidbach 2005, S. 286-289). 148 Vgl. Abschnitt 4.4.

ZWISCHEN G EGENSTÄNDEN , I NSTRUMENTEN UND B ILDERN

| 109



Die hier eingenommene Position lässt sich also als ›agnostischer Interaktionismus‹ beschreiben: Nach den obigen Ausführungen ist es überaus wahrscheinlich, dass Untersuchungsinstrumente und Wissenschaftler zur Annäherung an ihren Gegenstand beitragen. Da der Gegenstand aber nie in allen seinen Eigenschaften beschreibbar und verstehbar ist, sondern das Erkennen und Verstehen seiner Eigenschaften an (instrumentelle und soziale) Kontexte gebunden ist, lässt sich auch die jeweils gegenwärtige Distanz des Wissens vom Gegenstand und dem Gegenstand an sich nur abschätzen. Es ist nichts Ungewöhnliches, wenn die Forschung an einem Gegenstand von einer Generation als (nahezu) abgeschlossen betrachtet wird und sich in späteren Generationen ein völlig anderes Bild ergibt.

4.6 I RRTÜMER

DER

B IOMIKROSKOPIE

Latours Idee, dass gerade eine lange Kette an Vermittlungen »objektiv wahre«149 Ergebnisse zu liefern in der Lage sei, sollen an letzter Stelle unter den Aspekten des Sehens bei der Mikroskopie weitere Belege dafür entgegenstellt werden, dass »Objektivität […] weder ein Synonym für Wahrheit oder Gewißheit, noch für Genauigkeit oder Präzision«150 ist. Auch bei ›Meilensteinen‹ der biomikroskopischen Forschung lassen sich Vorstellung, Instrumentengläubigkeit, Denkstile und Ideologien als Faktoren mit starkem Einfluss auf das postulierte Ergebnis ausmachen. Ein Paradebeispiel dafür, wie Vorstellungen über die Beschaffenheit eines Objektes sein Finden und seine Abbildung beeinflussen können, bietet der Physiker Jochen Hennig.151 Hennig beschreibt, dass sich die rastertunnelmikroskopische Abbildung eines angeblichen DNS-Doppelhelix-Stranges (vor Graphithintergrund) auf dem Titelbild einer Nature-Ausgabe aus dem Jahre 1990 zwar nicht von ähnlich gewonnenen Abbildungen von Unregelmäßigkeiten des Hintergrundes allein (ohne Zellproben) unterscheiden lässt, nichtsdestotrotz aber sogar Hoffnungen bzgl. der Möglichkeit rastertunnelmikroskopischer Gensequenzierung geschürt wurden.152

149 Vgl. S. 75, FN 3. 150 Daston/Galison 2007, S. 394. 151 Vgl. Hennig 2006c. Weitere Aspekte zeitgenössischer mikroskopischer Verbildlichungen bietet Hennig auch 2004, 2006a und 2006b. 152 Vgl. Hennig 2006c, S. 255ff.

110 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Ein grenzenloses Vertrauen in technische Systeme wird in einer Empfehlung sichtbar, Mikrofotografien auf fotografischem Wege weiter zu vergrößern, um eine insgesamt größeren Detailreichtum des Gegenstandes zu erreichen. Die Möglichkeit einer bis zu 12000fachen Vergrößerung wurde postuliert. Dass sowohl Mikroskop als auch Fotopapier jeweils eigene Auflösungsbegrenzungen mit sich bringen und bei 12000facher Vergrößerung nur noch die Körnung des ursprünglichen Fotopapiers zu sehen ist, schien dem Autor nicht denkbar – schließlich galt ein Foto doch als ›Pencil of Nature‹.153 Im Diskurs um die Frage, worum es sich bei Nervengewebe handelt – um hohle Flüssigkeitsleitungen, um eine Art ineinander verwachsenen Zellfilz oder um lose miteinander verbundene einzelne Neurone – lassen sich sowohl Einflüsse von Ideologien bzw. Denkstilen als auch Abhängigkeit von (technischen) Methoden identifizieren. Bevor Anilinfarben erlaubten, Nervenzellen anzufärben,154 erschienen diese unter der verschieden akzentuierten Vorstellung von durch das Gehirn geleiteten Nervensäften (Fluidum, pneuma psychikon, spiritus animalis oder esprit animal) hohl.155 Färbungen mit Teerfarben ließen pneumatische Leitungen im Gehirn unwahrscheinlich werden. Im Filz des mit ihnen behandelten Nervengewebes wurden nun sehr feine Strukturen sichtbar – nur kleine Teile des Zellmaterials nahmen die Farbe an.156 Jedoch waren die Ergebnisse der Färbetechnik nicht eindeutig. Je nachdem, welche Technik angewendet wurde, gab es Lücken zwischen den Faserverbindungen oder fließende Übergänge. In der Folge war es Jahrzehnte lang möglich, zwei gänzlich unterschiedlichen Auffassungen über die grundsätzliche Beschaffenheit des Nervensystems zu folgen.157 Die Ansicht über das Nervensystem bestimmte die Wahl des angewendeten Methodenarsenals, dessen Ergebnisse wiederum die Grundannahmen zu bestätigen und zu verfeinern schienen. 153 Vgl. Bredekamp et al. 2003, S. 12ff. (hier ist sogar von bis zu 30.000facher Vergrößerung die Rede); Breidbach 2005, S. 120 sowie Breidbach 2006, S. 28ff. Als Quelle nennt Breidbach Reichardt/Stürenberg 1868. 154 Vgl. Abschnitt 4.1.3. 155 Vgl. Florey 1993, S. 163, S. 170, S. 203 Anmerkung 38; Dierig 1993. S. 59; Schwarte 2006, S. 196ff.; Putscher 1973. 156 Während die chemischen Prozesse bei den Färbevorgängen Ende des 19. Jahrhunderts gänzlich unverstanden waren, ist bis heute unklar, welche Zellen mit Anilinfarben angefärbt werden und welche nicht (vgl. Breidbach 1993, S. 110ff. sowie Strausfeld 2007, S. 169). 157 Ein ähnlicher Streit ergab sich aus der Frage, wie Übertragungen zwischen Nervenzellen stattfinden können: elektrisch oder über (flüssige) Transmitter (vgl. Valenstein 2005).

5. Basistheorien und Techniken der Magnetresonanztomographie

Mit Kernspinresonanz wird ein Phänomen bezeichnet, das durch das Verhalten von bestimmten Atomkernen in magnetischen Feldern Rückschlüsse auf deren Art und/oder Konzentration innerhalb eines Untersuchungssamples ermöglicht. Die gebräuchliche englische Bezeichnung für Kernspinresonanz lautet Nuclear Magnetic Resonance (NMR).1 Der Durchbruch in der Entwicklung von Techniken, die auf NMR basieren, fiel allerdings in die Zeit des Kalten Krieges, als ›nuclear‹ gedanklich verknüpft war mit ›bomb‹, ›catastrophe‹ oder ›winter‹. Vermutlich wurde, um die gesellschaftliche und politische Akzeptanz von auf NMR basierten Techniken nicht zu gefährden, das »nuclear« in der Bezeichnung weggelassen.2 So setzte sich als englische Bezeichnung für Kernspinresonanztomographie ›Magnetic Resonance Imaging‹ (MRI) durch.3 Resonanz bezeichnet das Verhalten von Atomkernen bei ›Beschuss‹ mit elektromagnetischer Strahlung einer spezifischen Frequenz. Durch elektromagnetische Strahlung lassen sich Atomkerne in einem Magnetfeld gezielt ›anregen‹ – indem ihnen Energie zugeführt wird. Die Anregungsenergie wird in einem messbaren ›Echo‹ mit der gleichen Frequenz in einer charakteristischen Zeit1

Die beiden unterschiedlichen Bezeichnungen – einerseits magnetische, andererseits Spinresonanz – beschreiben letztlich die gleiche Eigenschaft: Elektrisch geladene Elementarteilchen, die Spin haben, sind von einem gerichteten Magnetfeld umgeben (sie haben ein magnetisches Dipolmoment). Spin und Magnetismus sind hier untrennbar miteinander verbunden.

2 3

Vgl. Storey 2006, S. 4. Diese Nomenklatur wurde auch im Deutschen als alternative Bezeichnung übernommen: ›Magnetresonanztomographie‹ (MRT) ist heute gängiger als die ursprüngliche Bezeichnung ›Kernspinresonanztomographie‹. Auch die englische Abkürzung MRI findet inzwischen häufig Verwendung.

112 | D ER M ENSCH ALS NEURONALE M ASCHINE?

spanne wieder abgeben. Dieses Echo ist bei NMR die Information, die zur Rekonstruktion der Beschaffenheit des Untersuchungsgegenstandes benutzt wird. Die Resonanzfrequenz hängt dabei von der Zusammensetzung des jeweiligen Atomkerns und der Stärke des externen Magnetfeldes ab. Es existieren verschiedene Verfahren, die sich das Phänomen der Kernspinresonanz zunutze machen, die häufigsten Anwendungen sind Kernspinspektroskopie und Kernspintomographie. Die Kernspinspektroskopie (englisch NMR spectroscopy, oder ›Magnetic Resonance Spectroscopy‹ MRS) untersucht die Zusammensetzung chemischer oder biologischer Proben auf Basis der relativen Häufigkeit in ihr vorkommender Atomkerne mit charakteristischen Resonanzeigenschaften. Mithilfe der Kernspintomographie (MRT, im Englischen MRImaging, MRI) kann auf strukturelle Unterschiede in der Beschaffenheit des untersuchten Materials geschlossen werden. Die funktionelle Magnetresonanztomographie basiert auf magnetfeldverändernden Eigenschaften von Hämoglobin im Blut. Über Änderungen im Blutvolumen und relativen Blutsauerstoffgehalt können Rückschlüsse auf Teile des Metabolismus im Gehirn gezogen werden.4 Vorgänge, die zu Spin und magnetischem Moment geladener Teilchen führen, spielen sich sowohl zeitlich als auch räumlich in Größenordnungen ab, die sich allen Beobachtungstechnologien entziehen. Erklärungen von und Vorhersagen über Verhalten von Teilchen auf subatomarer Ebene basieren v.a. auf quantenmechanischen Berechnungen in Kongruenz mit dem sogenannten physikalischen Standardmodell. Aussagen über Teilchenverhalten im Femtometerbereich5 können grundsätzlich nur mit probabilistischen ›Unschärfen‹ getroffen werden. Einführungen zum Thema MRT aus Medizin und Psychologie beginnen typischerweise mit der Feststellung, dass Protonen Spin und ein magnetisches Moment haben und sich in einem Magnetfeld verhalten wie winzige präzedierende6 Stabmagnete. Von diesem Ausgangspunkt an wird dann (im besten Fall7) nur noch mit Vektoren agiert. Die Funktionsweise der MRT lässt sich so wesentlich stimmiger und einfacher erklären als unter Berücksichtigung von physikalischen Effekten auf der Ebene einzelner Atomkerne. Aus praktischen Überlegungen heraus ergibt die mehrfache Kumulation physikalischer Effekte durchaus Sinn; 4

Vgl. Abschnitt 5.6.2. Die funktionelle Magnetresonanztomographie wird fälschlicherweise oft als Instrument beschrieben, das es ermögliche, dem Hirn beim Denken zuzuschauen.

5

Ein Femtometer (fm) sind 10-15 m, also ein billionstel oder 0,000.000.000.001 mm.

6

Präzession meint eine ausweichende Bewegung der Rotationsachse eines Kreisels bei Krafteinwirkung.

7

Wie Hanson bemerkt, führt der Versuch der Erklärung von MRT über quantenmechanische Vorgänge nicht selten zu Ungereimtheiten und Fehlern (vgl. Hanson 2008).

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 113



dennoch werden auf diese Weise wesentliche Annahmen über die Beschaffenheit der zugrunde liegenden Welt und ihrer Mechanismen jeglicher Diskussion entzogen. Da in der Diskussion um die physiologische Basis von Gedanken und psychischen Determinismen immer wieder auf physikalische Fundierung verwiesen wird,8 ist es sinnvoll, aktuelle Vorstellungen über die Physik der kleinsten Teilchen genauer zu beleuchten.

5.1 E XKURS : V ORSTELLUNGEN AUS DER T EILCHENPHYSIK

UND

U NVORSTELLBARES

Atome galten lange Zeit als die elementaren Teilchen, aus denen alle Materie aufgebaut ist. Der Name Atom stammt aus einer Zeit, in der die Teilchen, die heute als Atome bezeichnet werden, weder direkt noch indirekt nachgewiesen, sondern nur gedacht werden konnten. Griechisch atomos bedeutet unteilbar. Nach heutigem Wissensstand haben Atome ihren elementaren Charakter jedoch verloren. Sie bestehen aus einem winzigen Kern, der sich in einer vergleichsweise riesigen ›Ladungswolke‹ befindet. Alle Atome bestehen nach gängiger Vorstellung aus mindestens einem positiv geladenem Proton sowie gegebenenfalls elektrisch neutralen Neutronen im Kern und mindestens einem negativ geladenen Elektron außerhalb des Kerns. Ein Atom besteht größtenteils aus Nichts, zumindest aus nichts Bekanntem. Der positiv geladene Atomkern (Protonen und Neutronen) konzentriert das Gros der Masse des Atoms, nimmt aber nur einen kleinen Teil der Ausmaße ein (je nach Atom rund 10-15-10-14 m von 10-10 m eines ›ganzen‹ Atomdurchmessers).9 Der Rest des Atoms besteht aus einer sogenannten Ladungswolke, in der sich irgendwo (mit errechenbarer Aufenthaltswahrscheinlichkeit innerhalb bestimmter ›Orbitale‹) Elektronen in einer Anzahl befinden, die der Anzahl der Protonen im Kern entspricht. Der Atomkern erscheint bei Beschuss mit Alphateilchen (wie sich aus dem Winkel abgelenkter und reflektierter Teilchen rückschließen lässt) kugelförmig oder klumpig.10

8

Vgl. Abschnitt 3.1.1.

9

Angaben zu Größe und Energie von Teilchen stammen aus Berger 2006, S. 8. Ein Kubikmillimeter Atomkerne hätte eine Masse von über 10.000 t (vgl. Bethge/Wiedemann 2008, S. 38).

10 Eine Kurzbeschreibung des Rutherford’schen Goldfolienversuchs findet sich ebd., S. 6f. und S. 37ff. Eine etwas ausführlichere Darstellung mit physikalischer Interpretation findet sich bei Gerthsen/Meschede 2006, S. 700ff. Unter welchen Umständen ein Nukleus kugelförmig bzw. klumpig erscheint, klärt Levitt 2008, S. 172ff.

114 | D ER M ENSCH ALS NEURONALE M ASCHINE?

5.1.1 Punktförmige Teilchen Die folgenden Beschreibungen beziehen sich auf das Wasserstoffatom 1H. Es ist mit einem Proton und einem Elektron das einfachste Atom. Gleichzeitig ist es auch das wichtigste (meist das einzige) Atom der biologisch eingesetzten MRT, da es in so gut wie jedem Gewebe (z.B. in Form von Wasser oder Fetten) vorkommt. Durch Konzentration auf den Wasserstoff bleiben viele Teilchen unbeachtet, die nicht Proton oder Elektron sind. Während das Rutherford’sche Atommodell11 von einem massiven Atomkern ausgeht, der von einem Elektron umkreist wird wie ein Stern von Planeten oder ein Planet von einem Mond, muten heutige Annahmen über Elementarteilchen eher bizarr an. Das Wissen der Teilchenphysik stützt sich dabei auf Experimente, bei denen Teilchen auf ein Hindernis oder aufeinander geschossen werden, wie schon zu Zeiten Rutherfords, nur in größerem Maßstab und mit mehr Energie. Diese Apparaturen, von denen die größte derzeit der LHC (Large Hadron Collider) vom Forschungszentrum CERN (Conseil Européen pour la Recherche Nucléaire) betrieben wird, werden allgemein Teilchenbeschleuniger genannt. Der LHC beschleunigt Hadronen (eine Teilchenfamilie, zu der auch das Proton gehört) in einem Ring von 27 km Länge. Es gibt eine recht metaphorische Beschreibung der Wissensgewinnungsprozesse aus solchen Experimenten, bei der die experimentellen Prozeduren der nano-Welt in einen lebensweltlichen Erfahrungsraum übertragen werden: Einerseits werde bei Kollisionsexperimenten versucht, aus der Flugbahn davonfliegender Teile eines frontalen Autounfalls auf Bestandteile der Autos rückzuschließen. Andererseits entspreche der Beschuss von Teilchen mit noch kleineren Teilchen, die von dem größeren Teilchen abgelenkt werden, dem Beschuss eines Autos mit Gewehrkugeln. Pralle die Kugel ab, müsse sich an diesem Teil des Autos etwas Hartes befinden. Aus solchen Informationen könnten also Rückschlüsse über die Struktur des Autos gezogen werden. Wie elektromagnetische Strahlung (z.B. Licht) bewegen sich auch Elementarteilchen in Wellenbahnen. Die theoretisch erreichbare maximale Auflösung von Teilchenbeschussexperimenten hängt davon ab, wie groß die kleinste Wellenlänge der Teilchen ist, die so kontrolliert werden können, dass sie sich in Experimenten einsetzen lassen.12 Bei Elektronen ist es bisher nicht gelungen, auf diese Art die ›tatsächliche‹ Größe auszumachen. Bei einigen Experimenten scheint sich ihre Masse auf einen unscharfen Bereich von ca. 1,2*10-15 m zu konzentrieren, bei anderen Expe11 Entwickelt 1909-1911. 12 Vgl. Abschnitt 4.1.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 115



rimenten scheinen Elektronen der euklidischen Vorstellung eines Punktes (ein Punkt ist, was keine Teile [und somit auch keine Ausdehnung] hat) noch wesentlich näher zu kommen.13 Auch beim Beschuss von Protonen mit Teilchen kleinerer Wellenlänge als die der von Rutherford verwendeten Alphateilchen, zeigt sich, dass sie keine gleichmäßige Masseverteilung haben, sondern Streuzentren aufweisen, die wiederum viel kleiner sind, als die Nukleonen selbst.14 Diese Teilchen werden Quarks genannt. In einem Proton sind drei Streuzentren (Quarks) auszumachen, die auf solche Weise zusammenwirken, dass das Proton bestimmte ›eigene‹ und ›stabile‹ Eigenschaften hat. Doch lassen sich Quarks nicht zu größeren Teilchen zusammenfassen wie Zuckerkristalle zu Würfelzucker. Z.B. entspricht (vermutlich) die Masse des Protons nicht der Summe der Massen der Quarks.15 Der verbleibende Rest wird durch Wechselwirkungen zwischen den Quarks erklärt, sogenannte Gluonen, die jedoch selbst masselos sind16 und mit dem sie umgebenden Vakuum wechselwirken, d.h. sie entstehen spontan (aus dem Nichts) und löschen sich auch spontan wieder aus. Quarks haben eine Eigenschaft, die Spin genannt wird. Dieser Spin ist in erster Linie eine mathematische Eigenschaft, deren Beschreibung derjenigen eines makroskopischen Drehimpulses entspricht. Vorstellbar ist dieser Spin nicht, da ein euklidisch punktförmiges Teilchen keine Ausmaße besitzt, die sich drehen könnten. Ein Proton besteht aus drei Quarks: zwei sogenannten u-Quarks und einem d-Quark.17 U- und d-Quarks unterscheiden sich unter anderem in ihren (mathematischen) Spinrichtungen, die einander entgegengesetzt sind. Quarks 13 Vgl. Ne’eman/Kirsch 1995, S. 64; Gerthsen/Meschede 2006, S. 1018 sowie Berger 2006, S. 4. Auch aus diesem Grund war bisher im Zusammenhang mit Elektronen stets von einer Ladungswolke die Rede. Die Vorstellung von Elektronen als Teilchen ist aber nicht verkehrt – gäbe es keine Elektronen, ließe sich die Bildentstehung in Kathodenstrahlröhren (Fernsehern alter Bauart) oder die Funktion von Elektronenmikroskopen nicht erklären (vgl. auch Hacking 1996, S. 45ff., S. 432ff. sowie S. 451). 14 Vgl. Gerthsen/Meschede 2006, S. 1019. 15 Allerdings basieren Massenangaben für Quarks grundsätzlich auf Schätzungen, da sich Quarks nicht isoliert ›wiegen‹ lassen (vgl. Tipler/Mosca 2007, S. 1334). 16 Gluonen sind (bisher) ein rein theoretisches Konstrukt. Ihr Vorhandensein wird aus Analogieschlüssen im physikalischen Standardmodell angenommen. Experimentell beobachtet wurden sie bisher nicht (vgl. ebd., S. 1335). 17 U steht für up und d für down. Die Nomenklatur bei der Beschreibung von Elementarteilchen ist lebensweltlichen Erfahrungen entlehnt. Die lebensweltlichen Begriffe repräsentieren aber nicht ›wirkliche‹ Eigenschaften der Teilchen. Manche Eigenschaften von Elementarteilchen werden als ›Farbe‹ oder ›Geschmack‹ bezeichnet, obwohl sie lebensweltlich weder das eine noch das andere haben.

116 | D ER M ENSCH ALS NEURONALE M ASCHINE?

und der See aus Gluonen, in dem sie ›schwimmen‹, bilden gemeinsam ein System (das Proton), das selbst Spin hat. Der Gesamtspin des Systems erklärt sich mathematisch aber nicht vollständig durch eine Kumulation der Spins der Quarks. Welche Teilchen welchen Beitrag zum Gesamtspin leisten, weiß man (noch) nicht.18 Dem aktuellen physikalischen Wissensstand folgend ist die Beschreibung eines Protons als ein Teilchen, das sich dreht und deswegen ein elektromagnetisches Moment hat, so wie ein sich schnell drehender Stabmagnet, also extrem vereinfacht. Dennoch sind solche Analogien und Vorstellungen nötig, wenn ein Sprechen über die Funktionsweise von Kernspinresonanz auf einer Ebene gewünscht wird, die nicht strikt mathematisch ist. Jede vorstellbare Beschreibung der Vorgänge von MRT auf der Basis einzelner Elementarteilchen ist nach physikalischem Wissen über nanoskopische19 Teilchen unvollständig oder sogar falsch. Dennoch ist die Magnetanalogie insofern plausibel, als dass die mathematischen Eigenschaften kumulierter nanoskopischer Vorgänge denen ähneln, die sich über die klassische Physik mithilfe von Drehmoment und Rotation beschreiben und visualisieren lassen. 5.1.2 Quanten und Spins Gänzlich analogisieren lassen sich makroskopische und nanoskopische Vorgänge auch mathematisch nicht. Unter quantenmechanischer Betrachtung sind bei der Beschreibung von Teilchenzuständen nur bestimmte Ausprägungen definiert; Übergangszustände, die sich in der makroskopischen Welt finden lassen, hingegen nicht. Die kleinsten (Energie-) Unterschiede diskreter Zustände werden als Quanten bezeichnet. Gäbe es diese sogenannten Quantensprünge auf atomarer Ebene nicht, wären Atome und Moleküle nicht stabil; die negativ geladenen Elektronen würden sich positiv geladenen Atomkernen nähern und auf sie stürzen. Auch für das Spin-Konzept von Elementarteilchen ist die Quantelung von Bedeutung. Je nach Zusammensetzung von Neutronen und Protonen in einem Atom zeigt dieses unterschiedliche Spineigenschaften. Aus Messungen individueller Spins20 geht hervor, dass Spin-½-Teilchen zwei verschiedene, voneinander diskrete Eigenzustände mit unterschiedlichem Drehmoment annehmen,21 Teil18 Über den Forschungsstand in Sachen Spin berichtet Bass 2007. 19 Als ›nanoskopisch‹ werden im Folgenden Vorgänge in submolekularen Größenordnungen bezeichnet, die sich mit Lichtmikroskopen nicht mehr untersuchen lassen. 20 Vgl. Hanson 2008, S. 331f. 21 Dass nur zwei entgegengesetzte Werte (±½) gemessen werden können, bedeutet aber nicht, dass Spin-½-Teilchen nur in diesen beiden Zuständen ›existieren‹. In quanten-

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 117



chen mit Spin-1 drei, Spin-3/2-Teilchen vier, Spin-5/2-Teilchen sechs usw.22 Diese diskreten Zustände werden über Wechselwirkung von Hadronen mit Photonen erklärt. Absorbiert ein Atomkern ein Photon, wächst seine Energie um dessen Energie; emittiert er ein Photon, sinkt seine Energie um ein entsprechendes Quantum.23 Theoretisch lassen sich für NMR-Techniken alle Atomkerne verwenden, die nach außen Spin zeigen – jedoch zeigen nicht alle Atomkerne Spin. Der Kern von Kohlenstoff 12C etwa, der ebenso wie Wasserstoff in allen organischen Molekülen vorkommt, hat keinen messbaren Spin und somit kein über ein Magnetfeld beeinflussbares Moment. Gleiches gilt für Sauerstoff 16O und alle anderen Atome und Isotope, die aus einer geraden Anzahl von Protonen und Neutronen bestehen.24 Das Konzept des Spins von Elementarteilchen ist in der modernen Physik nötig, um Stabilität und Verhalten von Materie zu erklären. Doch was Spin ist, lässt sich kaum darstellen. Elementarer Spin lässt sich nämlich nicht als Drehbewegung auffassen wie der Spin eines Kreisels. Der Spin eines Elementarteilchens lässt sich weder beschleunigen noch abbremsen; er verändert sich nicht bei Interaktion mit anderen Teilchen, und er steht auch in keinem Zusammenhang mit der Temperatur, wie das jeweils bei der Eigenrotation von Molekülen der Fall ist. Spin ist eine rein theoretische Ableitung aus Gleichungssystemen der relativistischen Quantenmechanik. Es gibt in der makroskopischen Welt keinen Spin der elementaren Art.25 Dennoch erzeugt auch elementarer Spin ein Drehmoment wie z.B. ein Kreisel. Dieses Drehmoment ist im Gegensatz zu dem des Kreisels (in Abhängigkeit des Magnetfeldes) absolut stabil. Nur deswegen lässt sich der Kernspin überhaupt für NMR-Anwendungen nutzen.

mechanisch zu beschreibenden Systemen lässt sich keine Aussage über den ›tatsächlichen‹ Zustand einzelner Teilchen treffen. Der Messwert stellt immer das Ergebnis einer Interaktion von Objekt und Messinstrument dar. (Vgl. Griffiths 1996, S. 125f.) 22 Vgl. Storey 2006, S. 12f., Levitt 2008, S. 6ff. Für eine weiterführende quantenmechanische Interpretation siehe ebd., S. 231ff. 23 Vgl. Tipler/Mosca 2007, S. 1335. 24 Vgl. Levitt 2008, S. 13f. 25 Vgl. Levitt 2008, S. 8f.

118 | D ER M ENSCH ALS NEURONALE M ASCHINE?

5.1.3 Rekapitulation und Interpretation Im Folgenden sollen die Elemente der Interpretation der Vorgänge auf Ebene von Elementarteilchen kurz zusammengefasst werden, die es zu akzeptieren gilt, um zu dem Punkt zu gelangen, an dem die Beschreibung der Vorgänge der MRT üblicherweise beginnen: Wasserstoff, das ausschlaggebende Element bei der biologischen Magnetresonanztomographie, besteht aus vier punktförmigen (quasi ausdehnungslosen) Teilchen: drei Quarks und einem Elektron. Alle diese Teilchen haben Spin, der sich in einem Drehmoment äußert. Ihr Drehmoment kann jedoch nicht als Drehung interpretiert werden. Werden Elektronen als punktförmig angenommen, so verfügten sie über keine Ausmaße, die sich drehen können; werden sie hingegen als kugelförmig angenommen, müsste sich ihre Oberfläche mit Überlichtgeschwindigkeit bewegen.26 Die drei punktförmigen Quarks bilden ein Proton, in dem sie, gemeinsam mit ihren aus dem Nichts entstehenden Austauschteilchen (Gluonen) ununterscheidbar aufgehen. Der Spin des Elektrons verhält sich nicht kumulativ zum Spin der Quarks.27 Das Proton erscheint bei bestimmten Experimenten kugelförmig, bei anderen klumpig. Der aus den Spins der Quarks resultierende Spin des Protons führt zu einem Drehmoment, das im Wasserstoff übergangslos in zwei diskreten Energieniveaus gemessen werden kann, ohne dass sich die Spingeschwindigkeit ändert. Der Energieunterschied entspricht genau einem Photon einer bestimmten Frequenz. Photonen sind masselose Energieaustauschteilchen elektromagnetischer Strahlung, die als die kleinstmögliche ›Portion‹ elektromagnetischer Wellen gelten. Die angenommenen Vorgänge auf atomarer und subatomarer Ebene lassen sich nur mathematisch innerhalb der relativistischen Quantentheorie widerspruchsfrei beschreiben. Eine anschauliche Interpretation unvorstellbarer Vorgänge ist hingegen nicht widerspruchsfrei möglich. Das Problem logisch konsistenter sprachlicher Beschreibung beschäftigt Physiker, seit die quantenmechanische Theorie in den späten 1920er Jahren an Einfluss gewann. Vor dem Spinkonzept der Elementarteilchen führte schon die Tatsache, dass sich elektromagnetische Strahlung je nach Experiment entweder wie ein Partikelstrom oder wie eine Welle verhält, zu Interpretationsschwierig-

26 Vgl. Ne’eman/Kirsch 1995, S. 59. 27 In Molekülen gibt es keine allein einem Kern zugehörigen Elektronen, Elektronen treten innerhalb charakteristischer Orbitale auf, die jeweils von mehreren Atomen des Moleküls ›geteilt‹ werden. Nach dem sogenannten Pauliprinzip haben gepaarte Elektronen innerhalb eines Orbitals stets unterschiedlichen Spin, sodass sich in Kombination ihre magnetischen Momente nivellieren (vgl. Levitt 2008, S. 10 und S. 27).

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 119



keiten. Letztlich kam es zu einer sowohl-als-auch-Deutung, dem sogenannten Welle/Teilchendualismus. Werner Heisenberg, einer der Pioniere der Quantenmechanik, äußert sich in Bezug auf die Interpretation mathematisch-quantentheoretischer Beschreibungen wie folgt: »Aber in welchem Sinn beschrieb der neue [mathematische] Formalismus eigentlich die Atome? Die Paradoxa des Dualismus zwischen Wellenund Partikelbild waren ja nicht gelöst; sie waren nur irgendwie in dem mathematischen Schema verschwunden.«28 Diese Problematik bei der Beschreibung der Quantentheorie, dass Erklärungslücken beim Versuch der Beschreibung nanoskopischer Vorgänge mit lebensweltlichem Vokabular bestehen bleiben, ist bis heute vorhanden, und manifestiert sich auch im Spinkonzept.29 Entweder müssten die Beschreibungen submolekularer Vorgänge auf einen rein mathematischen Formalismus begrenzt stattfinden oder logische Widersprüche lebensweltlicher Beschreibungen müssen in Kauf genommen werden. Genauso ›wirklich‹ wie Erscheinungen des täglichen Lebens sind nach Heisenberg nur die experimentell erzeugten Erscheinungen. »Aber die Atome oder Elementarteilchen sind nicht ebenso wirklich. Sie bilden eher eine Welt von Tendenzen oder Möglichkeiten als eine von Dingen und Tatsachen.«30 Das Zustandekommen der Diskrepanz erklärt Heisenberg, indem er über Generationen gesammelte und mögliche Erfahrungen mit der verfügbaren Sprache und etablierten Denkmöglichkeiten in Verbindung setzt: »Der Gebrauch der klassischen Begriffe ist also letzten Endes eine Folge der allgemeinen geistigen Entwicklung der Menschheit.«31 Die sprachlichen Begriffe der Metaphorik, mit deren Hilfe das Forschungsfeld ursprünglich erschlossen wurde, sind im Denkstil weiterhin vorhanden. Auch Spin ist eine kontingente Beschreibung von Beobachtetem; das Spinkonzept hat den Übergang vom Möglichen zum Faktischen geschafft. Eine zutreffende sprachliche Beschreibung für Spin kann es nicht geben, da Spin in der lebensweltlichen Erfahrung keine Rolle spielt.32 Heisenberg fordert: »[W]ir müssen uns daran erinnern, daß das, was wir beobachten, nicht die Natur selbst ist, sondern Natur, die unserer Art der Fragestellung ausgesetzt ist. Unsere wissenschaftliche 28 Heisenberg 1959, S. 24. 29 Auf viele weitere Eigenarten der Teilchen- und Quantenphysik, z.B. ›Farbe‹ und ›Strangeness‹ von Quarks wird hier nicht weiter eingegangen, da sie für NMR unerheblich sind. 30 Ebd., S. 156. 31 Ebd., S. 38. 32 Vgl. Levitt 2008, S. 8f.

120 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Arbeit in der Physik besteht darin, Fragen über die Natur zu stellen in der Sprache, die wir besitzen, und zu versuchen, eine Antwort zu erhalten durch Experimente, die wir mit Mit33

teln ausführen, die uns zur Verfügung stehen.«

Dieser pragmatische und zugleich distanzierte Umgang mit Experimentalsystemen und den aus ihnen hervorgebrachten Modellen sollte im Gedächtnis bleiben, wenn sich quantenphysikalische Theorie in technischen Anwendungen wie der (f)MRT manifestiert. Geraten die Umstände der Wissensgewinnung und -formulierung – ihre ›Unschärfen‹ – in Vergessenheit, begünstigt dies eine naiv-wissenschaftsrealistische Interpretation der mit diesen Apparaten gewonnenen Ergebnisse.34 Insbesondere Lehrbuchdarstellungen, die quantenphysikalische Zusammenhänge unvollständig oder – nach heutigem Wissensstand beurteilt – falsch darstellten, können im Denkstil der Lernenden zu unterkomplexen Vorstellungen über die Bezugstheorien führen.35

5.2 P HYSIKALISCHE G RUNDLAGEN DER K ERNSPINRESONANZ Wie von Hanson vorgeschlagen, sollen quantenmechanische Vorgänge bei der Kernspinresonanz im Folgenden nicht weiter verfolgt werden. Ihre Einbindung ist für ein Basisverständnis der Funktionsweise von MRT nicht unbedingt erforderlich, da der kumulierte Resonanzeffekt (in Form des gemessenen Signals) keinen probabilistischen Unschärfen unterliegt.36 Die Beschreibung der wichtigsten physikalischen Vorgänge der fMRT ist notwendig, um die hohe Komplexität der Verfahren verständlich zu machen. Denn für die Interpretation der mit der MR Tomographie gewonnen Ergebnisse werden diese physikalischen Kenntnisse vorausgesetzt, zumindest wenn es um Auswertungen für wissenschaftliche Zwecke geht. Dennoch beschränken sich die nachfolgenden Erläuterungen auf die wesentlichen Kernpunkte, um die Darstellungen nicht unnötig zu verkomplizieren. Da auf mathematische Beschreibungen völlig verzichtet wird, gilt auch für die folgenden Darstellungen der Vorbehalt, dass sie eine lebensweltliche Plausibilisierung für Vorgänge zu geben versuchen, die keine lebensweltliche Entsprechung haben.

33 Heisenberg 1959, S. 40. 34 Vgl. Abschnitt 3.1.2. 35 Vgl. S. 121, FN 38. 36 Hanson 2008, S. 336.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 121



5.2.1 Magnetismus, Drehmoment, Präzession, An-/Isotropie Der Magnetismus, der von Kernspins ausgeht, ist um viele Größenordnungen kleiner als der Magnetismus von Permanent- oder Elektromagneten. Er basiert darauf, dass der Spin von Protonen ein magnetisches Feld aufbaut, das entlang einer Achse in eine bestimmte Richtung ausgerichtet ist, so als ob das Proton einen magnetischen Nord- und Südpol hätte. Die Polarisationsachsen der ›Protonmagnete‹ organischer Substanzen sind normalerweise in alle Raumrichtungen gleich – isotrop – verteilt. Ihre Magnetfelder löschen sich gegenseitig aus – die Substanz weist keinen messbaren Magnetismus auf. Wird nun ein (starkes) Magnetfeld37 angelegt, richten sich die Polarisationsachsen jedoch nicht am Magnetfeld aus, wie es Kompassnadeln täten.38 Stattdessen präzedieren sie (zunächst) in einer Art Ausweichbewegung um den Richtungsvektor des äußeren Magnetfeldes, ohne dass sich der Winkel zwischen den beiden Vektoren ändert.39

37 Das Erdmagnetfeld hat keinen messbaren Effekt. Seine Feldstärke wird in Tomographen aber etwa um das hunderttausendfache übertroffen (vgl. Levitt 2008, S. 23). 38 An diesem Punkt kommt es sowohl bei Kurzdarstellungen als auch in MRT-Lehrbüchern immer wieder zu missverständlichen Darstellungen. In einem der wenigen deutschsprachigen Lehrbücher zu neurokognitiven bildgebenden Verfahren ist zu lesen, dass sich »Spins wie Kompassnadeln entlang des Feldes« ausrichten und danach Kreiselbewegungen entstünden (Jäncke 2005, S. 24). Eine ganz ähnliche Formulierung findet sich auch bei Schild 1990, S. 9ff. In Publikationen der Erziehungswissenschaft heißt es z.B. bei Morasch: »Die Kernresonanzspektroskopie (NMR) macht sich den Umstand zunutze, dass sich in einem starken Magnetfeld viele Atomkerne mit ihren Magnetachsen parallel zu den Feldlinien ausrichten, das heißt magnetisiert werden« (Morasch 2007, S. 476) und bei Löwenstein: »Durch das Anlegen eines äußeren elektromagnetischen Feldes […] werden die Rotationsachsen der Atome in eine bestimmte Richtung gelenkt« (Löwenstein 2009, S. 166). Wäre dies jedoch der Fall, käme es zu keiner stabilen Präzessionsbewegung. Die Stabilität der Präzession kommt durch die Krafteinwirkung des externen Magnetfeldes auf ein absolut konstantes Drehmoment zustande. Neben solchen trivialisierten Beschreibung bei der Erklärung der nuklearen Präzession kommt es auch des öfteren zu irritierenden Vermischungen von quantenmechanischen Energieniveaus (Zeeman Eigenstates) und klassischem Magnetismus (z.B. bei Huettel/Song/McCarthy 2008, S. 139ff. Siemens 2003, S. 31ff. oder Stern 2005, S. 39f.). 39 Vgl. Levitt 2008, S. 28f. sowie Meschede/Gerthsen 2006, S. 89f.

122 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Abbildung 10: Spinpräzession im Magnetfeld40

Quelle: Storey 2006, S. 9.

Dieses Verhalten der Spin-Polarisationsachsen entgegen intuitiver Erwartung liegt daran, dass Spins für ein absolut konstantes Drehmoment des Kerns sorgen (obwohl dieser sich nicht dreht). Das Drehmoment bewirkt wiederum, dass bei Krafteinwirkung des äußeren Magnetfeldes eine Kreiselbewegung um den Richtungsvektor des äußeren Magnetfeldes einsetzt,41 die in einer von der Stärke des Magnetfeldes abhängenden charakteristischen Frequenz stattfindet. Die Anzahl der Präzessionsrunden pro Zeiteinheit wird Larmorfrequenz genannt. Ihre Stabilität ist eine zentrale Voraussetzung für die Möglichkeit der gezielten Anregung von Wasserstoffkernen, um ein messbares Resonanzsignal zu erhalten. Die Larmorfrequenz lässt sich aufgrund ihrer linearen Abhängigkeit von der Stärke des anliegenden Magnetfeldes für jede Feldstärke genau berechnen. Für Wasserstoff beträgt sie etwa 42,58 MHz/T.42 Das heißt: Pro Sekunde umrundet der Vektor der Spinpolarisation den Vektor des äußeren Magnetfeldes über 42 Millionen Mal. Die Larmorfrequenz ist unabhängig vom Winkel zwischen den beiden Vektoren. Obwohl sich Moleküle (besonders in Flüssigkeiten und 40 Das äußere Magnetfeld wird mit B0, die kumulierte Nettomagnetisierung der Spins wird mit M0 bezeichnet. 41 Die durch den Drehimpuls verursachte Präzession lässt sich am Beispiel Fahrradfahren veranschaulichen: Das Drehmoment der Räder sorgt dafür, dass ein schnell fahrendes Fahrrad bei Neigung in Richtung der Gravitation nicht umkippt, sondern eine Kurve fährt (der Fahrradfahrer legt sich in die Kurve). Vgl. Tipler/Mosca 2007, S. 295ff. 42 Vgl. Storey 2006, S. 7. Tesla (T) ist die Maßeinheit für magnetische Feldstärken.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 123



Gasen) in vielfältiger Form im Raum bewegen (Lageänderung, Eigendrehung, Drehung umeinander etc.) bleibt die Präzessionsachse der Kerne fast genau am Magnetfeld ausgerichtet. Jedoch verlieren die Spin-Polarisationsachsen im Magnetfeld durch leichte Feldinhomogenitäten ihrer Umgebung ihre totale Gleichverteilung und tendieren innerhalb von einigen Millisekunden bis Sekunden (je nach Substanz) minimal zu einer Parallelausrichtung zur Feldachse.43 Dieser Effekt führt zu einer sogenannten Nettomagnetisierung. Die Nettomagnetisierung ist (bei einer Feldstärke von 1,5 T) ungefähr so groß, als ob sich innerhalb von hunderttausend isotroper (gleichverteilter) Polarisationsachsen eine parallel zum Magnetfeld ausrichtete. Wegen der winzigen Nettomagnetisierung gilt die MRT als inhärent unempfindliche Methode.44 Der Verlauf des Polarisationsvektors von einem Gleichgewichtszustand in einen anderen wird als ›Relaxation‹ bezeichnet und ist für unterschiedliche Substanzen (z.B. Fett, Wasser) auf charakteristische Weise unterscheidbar.45 Die Unterscheidbarkeit kommt dadurch zustande, dass die Bewegungen des Moleküls, in das ein Atomkern eingebettet ist, zwar keine Auswirkung auf die Polarisationsachse der Atomkerne haben, die Umgebung von Atomkernen aber Einfluss auf den Verlauf der Relaxation hat. Blieben die Spins von ihrer Molekülumgebung gänzlich unbeeinflusst, wäre die Relaxationsgeschwindigkeit aller Wasserstoff enthaltenden Substanzen gleich und MRT würde nicht funktionieren: Unmittelbar nach dem Anlegen des Magnetfeldes oder einem elektromagnetischen Puls gibt es noch keinen magnetischen Effekt, auf dessen Basis Substanzen unterschieden werden könnten. Erst über unterschiedliche Relaxationsverläufe lassen sich verschiedene organische Substanzen kontrastieren, auch wenn die Resonanz nur eines Atomkerns (Wasserstoff) gemessen wird. 5.2.2 Longitudinale und transversale Magnetisierung Die erste Relaxation vom isotropen Zustand zur Ausprägung einer Nettomagnetisierung im externen Magnetfeld kann aus zwei Gründen nicht gemessen werden. Erstens ist der starke Magnet, der für das Magnetfeld B0 sorgt, permanent, das heißt: er lässt sich nicht an- und ausschalten. Bei der MRT wird das zu untersuchende Körperteil langsam in ›die Röhre‹ geschoben. Das auf die zu unter43 Vgl. Levitt 2008, S. 30ff. 44 Vgl. Storey 2006, S. 15. Die Angabe dieser Zahl variiert in der Literatur stark. Der Wert Storeys ist hundertfach kleiner als etwa eine Angabe bei Logothetis, nach welcher der Magnetisierungseffekt mit eins zu Zehnmillionen angegeben wird (Logothetis 2008b, S. 1). 45 Vgl. Storey 2006, S. 7.

124 | D ER M ENSCH ALS NEURONALE M ASCHINE?

suchende Region wirkende Magnetfeld verändert sich graduell; es lässt sich kein Anschaltzeitpunkt definieren. Zweitens ist die Magnetisierung des Körpers im Vergleich zum äußeren Magnetfeld so winzig, dass sie vollständig von diesem überlagert wird. Diese Magnetisierung in Richtung des externen Magnetfeldes wird longitudinale oder Längsmagnetisierung genannt. Abbildung 11: Longitudinale Relaxation und FID46

Quelle: Storey 2006, S. 17.

Um die Nettomagnetisierung messbar zu machen, wird sie mithilfe eines starken elektromagnetischen Pulses (Radio Frequency Puls/RF-Puls47) aus der Richtung des äußeren Magnetfeldes weggelenkt – z.B. um 90˚. Durch den (ablenkenden) RF-Puls wird dem System Energie zugeführt; die Ablenkung ist also gleichzeitig ein Anregungsvorgang.48 Sie funktioniert nur für die Kerne, deren Larmorfrequenz genau der Frequenz des RF-Pulses entspricht. Die Magnetisierung, die durch den RF-Puls orthogonal zum äußeren Magnetfeld B0 ausgerichtet ist, wird 46 Im stabilen Gleichgewichtszustand (equilibrium) entspricht die Richtung des äußeren Magnetfeldes B0 der Ausrichtung der Nettomagnetisierung M. Die Larmorfrequenz wird mit ω (klein-Omega) bezeichnet. 47 Als Radiowellen werden elektromagnetische Wellen im Frequenzbereich zwischen einigen kHz und ~3 GHz bezeichnet. Im deutschen wird statt RF-Puls auch die Abkürzung HF-Puls (für Hochfrequenzpuls) verwendet. ›Puls‹ meint eine Abfolge elektromagnetischer Impulse. 48 Die genauen Umstände dieser Energieaufnahme unter quantenmechanischem Paradigma lassen sich mathematisch nachvollziehen bei Levitt 2008, S. 144ff. und S. 231ff. Ein Sketch der Prozesse findet sich auch bei Storey 2006, S. 12ff.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 125



als transversale oder Quermagnetisierung bezeichnet. Nach Abschalten des RFPulses kreiselt (präzediert) die transversale Magnetisierung zurück in Richtung des äußeren Magnetfeldes. Bei dieser Relaxation wird Energie in Form von Radiowellen abgegeben, die empfangen und interpretiert werden können. Die Frequenz der emittierten Radiowellen entspricht abermals genau der Larmorfrequenz der angeregten Atomkerne (z.B. 500 MHz für 1H bei einer Feldstärke von 11,74 T49). Bei jeder Umdrehung nimmt die transversale Magnetisierung und mit ihr das empfangbare Signal weiter ab. Diese ›native‹ Relaxation wird als FID (Free Induction Decay, deutsch: freier Induktionszerfall) bezeichnet (vgl. Abbildung 11). Der Signalrückgang hat neben der longitudinalen Relaxation noch eine zweite Komponente: einen Rückgang der Quermagnetisierung durch Dephasierung, der unabhängig von der longitudinalen Relaxation ist. Die gekippte longitudinale Nettomagnetisierung kann in der transversalen Ebene auch als partielle Phasenkohärenz der Spinvektoren interpretiert werden. Winzige Unregelmäßigkeiten im Magnetfeld und der gegenseitigen Beeinflussung der Protonen führen zu einer Dephasierung – die partielle Phasenkohärenz nimmt schnell ab.50 Um die Zeit der Signalakquise und damit die Signalqualität zu erhöhen, wird durch einen 180˚-Puls diese durch Dephasierung bedingte Relaxationszeit künstlich verlängert, indem der Dephasierungsprozess ›umgedreht‹ wird (vgl. Abbildung 12, es werden nur Prozesse auf der transversalen Ebene dargestellt). Durch einen 180˚Puls werden die Präzessionsrichtungen gedreht: Die Spinachsen, die vorher ›schneller‹ waren und daher zum Zeitpunkt des 180˚-Pulses weiter dephasiert sind als langsamere, sind auch nach der Umkehr weiterhin schneller, haben aber auch einen weiteren Weg zurückzulegen um wieder ›in Phase‹ zu kommen. Der Prozess der Rephasierung wird auch Refokussierung genannt.

49 Vgl. Levitt 2008, S. 12. 50 Vgl. Levitt 2008, S. 299. Die Unregelmäßigkeiten im Magnetfeld haben konstante und fluktuierende Komponenten. Die Fluktuationen führen zu einer irreversiblen Dephasierung (T2). Die konstanten Magnetfeldinhomogenitäten führen zu einer viel schnelleren Dephasierung (FID oder T2*). Aufgrund ihrer Konstanz sind sie aber reversibel (vgl. auch Weishaupt/Köchli/Marincek 2006, S. 40).

126 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Abbildung 12: Dephasierung und Refokussierung auf transversaler Ebene

Quelle: Levitt 2008, S. 265 und S. 302f.

Durch einen RF-Puls kommt es zu einer partiellen transversalen Phasenkohärenz von Spinachsen (a). Unregelmäßigkeiten im Magnetfeld und Beeinflussung der Spinachsen untereinander führen zu einer Dephasierung (b). Durch einen refokussierenden 180˚-Puls (c) wird eine erneute transversale Phasenkohärenz herbeigeführt (d), die in einem sogenannten Spin-Echo resultiert. Der transversale Teil der Magnetisierung bleibt hier unberücksichtigt. Die Abbildungsteile b und d verwenden für die Vereinfachung einen sogenannten rotating frame (rotierenden Rahmen). Um an Übersichtlichkeit zu gewinnen, wird angenommen, dass sich das Koordinatensystem in einer Eigenrotation um die z-Achse befindet, dessen Frequenz der durchschnittlichen Larmorfrequenz entspricht. Durch diesen ›Trick‹ wird die Drehbewegung der Vektoren um die Achse des externen Magnetfeldes aus der Zeichnung herausgenommen – Spinvektoren, die mit der Larmorfrequenz rotieren, erscheinen statisch. Eine größere Phasenkohärenz bedeutet kumulativ ein stärkeres Signal, eine stärkere Divergenz ein schwächeres. Abbildung 13 zeigt den Effekt von Phasenüberlagerungen auf das emittierte Signal. Nur wenn die einzelnen Protonen als Reaktion auf den Refokussierungspuls wieder weitgehend kohärent präzedieren, wird ein Signal messbar.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 127



Abbildung 13: Auswirkung der Phasenkohärenz auf die Amplitude des Signals

Quelle: Levitt 2008, S. 302.

Die Zeit zwischen Initialpuls und dem Resonanzsignal (dem Echo) wird als Echozeit (TE) bezeichnet. Zwischen Echo und 180˚-Refokussierungspuls liegt genau so viel Zeit wie zwischen Initialpuls und Refokussierungspuls (jeweils TE/2). Abbildung 14: Zustandekommen eines Spin-Echos

Quelle: Storey 2006, S. 20.

Der Refokussierungspuls ist nicht auf einen Einsatz beschränkt. Unbegrenzt lassen sich 180˚-Pulse aber nicht zur Regeneration des Signals einsetzen, da nicht alle zu Dephasierung führenden Prozesse reversibel sind (z.B. Fluktuationen im

128 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Magnetfeld oder molekulare Veränderungen im Körper).51 Abbildung 14 fasst die einzelnen Schritte, durch die das erste Spin-Echo erzeugt werden kann, grafisch zusammen. Auch hier werden die Vektoren wieder so dargestellt, als rotierte der Rahmen. Die Spinvektoren scheinen dadurch in entgegengesetzte Richtungen zu dephasieren, obwohl sie sich ohne ›rotating frame‹ natürlich nur in eine Richtung (mit unterschiedlichen Geschwindigkeiten) bewegen.

5.3 S TRUKTURELLE MR-T OMOGRAPHIE Bei der NMR-Spektroskopie wird die Probe in der Regel mit breitbandigen RFPulsen angeregt. Über die unterschiedlichen Frequenzen der Echos und ihre Amplituden können dann Rückschlüsse auf die Zusammensetzung der Probe gezogen werden, weil alle Atomkerne, deren Spin ungleich null ist, verschiedene Larmor- und somit auch Echofrequenzen haben. Bei der Magnetresonanztomographie wird gewöhnlich nur Wasserstoff angeregt. Im Folgenden wird beschrieben, wie aus Unterschieden in der Signalstärke auf die Art des Ursprungsgewebes rückgeschlossen wird und die Abhängigkeit der Larmorfrequenz von der Magnetfeldstärke für die Bildgewinnung genutzt wird. Während die vorangegangenen Darstellungen sich mit der allgemeinen Darstellung der Vorgänge der Magnetresonanz befassten, sind die folgenden Ausführungen hauptsächlich für die Tomographie relevant. 5.3.1 Parameter der Signalentstehung: PD, T 1 , T 2 Es gibt drei Parameter, die bei der Magnetresonanztomographie die Stärke des messbaren Signalkontrastes bestimmen: Erstens wird die Signalstärke durch die Menge anregbarer Spins pro Volumen bestimmt – also durch die Protonendichte (PD). Zweitens kommt das Signal zustande durch den Energieverlust des Systems durch die longitudinale Relaxation. Die longitudinale Relaxation wird T1Relaxation genannt. Drittens kommt es durch die Dephasierung der transversalen Magnetisierung zu Signalüberlagerung und -auslöschung (T2-Relaxation). Obwohl die beiden Relaxationsprozesse T1 und T2 unabhängig voneinander ablaufen, wirken sie sich gemeinsam auf das empfangene Signal aus. Nur durch die mit der T1-Relaxation verbundene Energieabgabe kommt es überhaupt zu einem empfangbaren Signal. Je weiter jedoch die mit der T2-Relaxation verbundene

51 Vgl. auch Abbildung 27 (S. 152).

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 129



Dephasierung fortschreitet, desto mehr ›rauscht‹ das Signal – desto kleiner wird die Amplitude (vgl. Abbildung 13).52 Die Relaxationsverläufe von Protonen hängen von ihrer unmittelbaren Umgebung ab, also den Molekülen, in die sie eingebunden sind: Wasserstoffnuklei in Wasser haben andere Relaxationsverläufe als Wasserstoffnuklei in Fett. Das bedeutet: Gewebe, das überwiegend Fett enthält, liefert eine andere Signalintensität als Gewebe, das mehr Wasser enthält. Gewebe, das über eine hohe Protonendichte verfügt, liefert immer eine höhere Signalintensität als Gewebe mit niedriger Protonendichte. Ein stärkeres Signal wird auf den sogenannten Schnittbildern heller dargestellt als ein schwächeres. Für jedes Volumen, dessen Signalintensität sich zu einem bestimmten Zeitpunkt der Pulssequenz (oder unter vergleichbaren Rahmenbedingungen) messen lässt, ergibt sich ein Grauwert. Jeder Pixel eines Bildes, das per struktureller Magnetresonanztomographie erstellt wird, repräsentiert eine solche Signalintensität. Der Bildkontrast repräsentiert also das Verhältnis von Fett zu Wasser. Mit Abfolgen unterschiedlicher RFPulse – sogenannten Pulssequenzen – lässt sich entweder ein T1-, ein T2- oder ein nach Protonendichte gewichteter Kontrast erreichen. Abbildung 15 zeigt (symbolisch) Unterschiede in den Relaxationsverläufen von Fett und Wasser. Abbildung 15: Magnetisierungsverlauf bei T2 bzw. T1-Relaxation

Quelle: Eigenanfertigung.

Der Verlauf der Magnetisierung ist jeweils auch Indikator für den Verlauf der Signalstärke: Beim T2-Parameter führt die durch stärkere Dephasierung bedingte abnehmende transversale Magnetisierung Mxz zu einem abnehmenden Signal. Andererseits ist beim T1-Parameter das Signal umso stärker, je schneller die longitudinale Magnetisierung Mz durch Relaxation zunimmt (je schneller das Sys52 Weil die T2-Relaxationszeit i.d.R. wesentlich kürzer ist als die T1-Relaxationszeit und mehrere Messvorgänge pro Schicht nötig sind, um ein ausreichendes Signal zu erhalten, lassen sich die Parameter T1, T2 und Protonendichte unterschiedlich gewichten.

130 | D ER M ENSCH ALS NEURONALE M ASCHINE?

tem Energie an seine Umgebung abgibt). Die T1-bedingte Signalstärke entspricht also der ersten Ableitung der T1-Funktion (ohne Abbildung) – sie nimmt über die Zeit ab. Die longitudinale Relaxation verläuft für Fett schneller als für Wasser (Fett liefert das stärkere Signal und erscheint somit heller als Wasser), die transversale Dephasierung verläuft für Fett aber ebenfalls schneller (Fett liefert das schwächere Signal und erscheint somit dunkler als Wasser). Je nachdem, zu welchem Zeitpunkt das Signal gemessen wird, lässt sich die Wirkung des einen oder anderen Parameters betonen: Zu einem Zeitpunkt, an dem T1 keinen oder wenig Kontrast liefert, T2 aber starken Kontrast, nennt man das Bild T2-gewichtet – Fett erscheint dunkel, Wasser hell. Wird zu einem Zeitpunkt gemessen, an dem T1 hohen Kontrast liefert, T2 aber nur niedrigen oder keinen, ist das Bild T1 gewichtet – Fett erscheint heller als Wasser. Wird zu einem Zeitpunkt gemessen, an dem weder T1 noch T2 Kontrast liefert, kommt das Signal allein durch die Protonendichte zustande – auch diese ist für unterschiedliche Gewebe charakteristisch, PD-Gewichtung liefert in der Regel aber weniger Kontrast als T1- oder T2Gewichtung.53 5.3.2 Gradienten Wenn bisher von RF-Pulsen die Rede war, so waren damit stets Anregungs- und Fokussierungspulse gemeint. RF-Pulse werden in der Magnetresonanztomographie jedoch für unterschiedliche Zwecke eingesetzt. Als sogenannte Gradienten sorgen sie für Variationen im Magnetfeld, mit deren Hilfe sich die Signalherkunft codieren lässt, sodass sich Bildinformationen mehrdimensional rekonstruieren lassen.54 Die bisher beschriebenen Vorgänge beziehen sich nämlich stets auf ein (gesamtes) Volumen. Um unterscheidbare Signale für die dreidimensionale Rekonstruktion eines Körpers zu erhalten, bedarf es in sogenannten Pulssequenzen eines Zusammenspiels von Anregungs-, Rephasierungs- und Gradien53 Vgl. auch S. 146, Abbildung 26. Weitere anschauliche und ausführlichere Informationen über das Zusammenwirken unterschiedlicher Parameter finden sich bei McRobbie et al. 2008, S. 30ff., S. 65ff. und S. 153ff. Eine weitere Möglichkeit zur Beeinflussung von Geweberelaxationsverläufen sind (extern zugeführte) Kontrastmittel. Durch magnetfeldverändernde Eigenschaften von im Blutkreislauf zirkulierenden Kontrastmitteln über die Wände der Blutgefäße hinaus kann (in vivo) Einfluss auf Relaxationszeiten verschiedener Gewebearten genommen werden, wodurch sich Kontraste zwischen diesen Geweben erhöhen. Wie genau sich der Bildkontrast beeinflussen lässt, ist für diese Arbeit aber nicht von Belang. 54 Vgl. Abschnitt 5.4.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 131



tenpulsen. Mithilfe von Gradienten werden Signale aus dem ganzen Körper so codiert, dass sie sich bestimmten dreidimensionalen Volumeneinheiten (sogenannten Voxeln) zuordnen lassen. Abbildung 16: Schichten und Voxel

Quelle: McRobbie et al. 2008, S. 60.

Die Helligkeit jedes Pixels auf einem Bild repräsentiert die relative Signalstärke einer Volumeneinheit (eines Voxels) des Körpers. Ein Voxel trägt immer als Ganzes zur Signalintensität bei. Innerhalb eines Voxels lassen sich keine Strukturen unterscheiden. Abbildung 17 zeigt am Beispiel einer einfachen zweifarbigen zweidimensionalen Struktur, wie sich die Ununterscheidbarkeit innerhalb eines Pixels (bzw. Voxels) auf die bildliche Darstellung auswirkt. Abbildung 17: Effekt unterschiedlicher Auflösungen

Quelle: Eigenanfertigung nach Weishaupt/Köchli/Marincek 2006, S. 29.

Kontrastgrenzen innerhalb einer Bezugseinheit verschwimmen zu einem Durchschnittswert für den gesamten Messpunkt. Aus klar abgrenzbarem Schwarz und Weiß in der Vorlage wird ein komplett grauer Bildpunkt. Bei niedriger Auflösung verschwinden Strukturen gänzlich: Strukturen kleiner als oder im Bereich der Voxelgröße sind auf den Bildern nicht erkennbar (ist der Mund geöffnet? Haben die Augen Pupillen?). Je nachdem, wie eine Struktur in die Messpunktematrix fällt, kann sie auch zu unterschiedlichen Abbildungen führen. Im abgebildeten Beispiel fallen der linke und der untere Rand anders in die Detektormatrix als der obere und der rechte Rand: Die ursprünglich völlig symmetrischen

132 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Rundungen erscheinen einmal ziemlich dunkel und einmal sehr hell und kaum rund. In der dritten Dimension der MRT kommt es außerdem zu Lücken (sogenannten Gaps) in der Signalakquisition, die dadurch zustande kommen, dass die einzelnen Schichten sich nicht völlig ›scharf‹ voneinander abgrenzen lassen. 5.3.2.1 Dimension Eins: Schichtselektion Beim Schichtselektionsgradienten wird über einen RF-Puls eine temporäre Änderung der Gesamtmagnetisierung hervorgerufen, über die das Anregungsgebiet in eine Dimension lokal begrenzt wird: Der Schichtselektionsgradient baut ein zusätzliches Magnetfeld auf,55 sodass in z-Richtung56 (Richtung des B0-Feldes) an jedem Ort eine andere Feldstärke auf den Körper wirkt (vom Kopfende zum Fußende nimmt das Magnetfeld, je nach Richtung des Gradienten, graduell zu bzw. ab). Innerhalb der xy-Ebene wird die Magnetfeldstärke durch den Schichtselektionsgradienten nicht beeinflusst und bleibt (zunächst) homogen. Abbildung 18: Schichtselektion mithilfe eines Gradientenfeldes57

Quelle: McRobbie et al. 2008, S. 119.

55 Im Vergleich zum statischen Magnetfeld ist das Gradientenfeld sehr schwach: je nach Anwendung im Bereich von Micro- bis Millitesla. Dadurch sind die Änderungen der Ausrichtung des Feldes durch diese Gradienten zu vernachlässigen. 56 Die Richtung aller Gradienten ist im Tomographen frei wählbar. Auch Schichten, die orthogonal oder schräg zum äußeren Magnetfeld liegen, sind realisierbar. Die in Abschnitt 5.3.2 dargestellten Richtungszuordnungen (x, y, z) sind – in Kongruenz mit dem Gros der Literatur – willkürlich gewählt. 57 GSS bezeichnet den Schichtselektionsgradienten als lineare Variation des Magnetfeldes B0 in z-Richtung. F1-f4 stehen für die unterschiedlichen Frequenzbänder, mit denen sich bei konstantem Gradienten verschiedene Schichten anregen lassen. Die Schichtdicke ist bei realen Messungen üblicherweise wesentlich kleiner als auf der Abbildung dargestellt.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 133



Durch die lineare Zunahme des Magnetfeldes ist auch die Larmorfrequenz der Protonenspins an jedem Ort in z-Richtung eine andere. Mit einem sinusförmigen Puls (Puls mit nur einer Frequenz) ließe sich also nur eine unendlich dünne Schicht anregen. Statt mit einem sinusförmigen Puls wird deshalb mit einer ganzen Bandbreite von Frequenzen ›gepulst‹, die Schichten der gewünschten Dicke anregen. Je dicker die angeregte Schicht ist, desto mehr Protonen tragen zum Echo bei, desto besser wird die Signalqualität, desto schlechter wird aber gleichzeitig die Auflösung in z-Richtung. Über den Schichtselektionsgradienten wird die Signallokalisation in einer Dimension gelöst. Für die Darstellung der Möglichkeiten der zusätzlich nötigen Signallokalisation soll angenommen werden, dass die über den Schichtselektionsgradienten ausgewählte Schicht keine Tiefe hat.58 5.3.2.2 Dimension Zwei: Frequenzcodierung Ganz ähnlich wie der Schichtselektionsgradient funktioniert auch der Frequenzgradient durch eine lineare Veränderung des Magnetfeldes (hier in x-Richtung). Abbildung 19: Richtung eines Frequenzgradienten

Quelle: Storey 2006, S. 31.

Durch (zusätzliche) Frequenzvariation lässt sich eine weitere Signaldimension lokalisieren: Beim Frequenzgradienten geht es jedoch nicht darum, nur bestimmte Protonen durch gezielte Anregung auszuwählen. Stattdessen wird die Gradientenstärke so gewählt, dass nach wie vor die Larmorfrequenzen aller Protonen der ausgewählten Schicht innerhalb der Bandbreite des RF-Pulses liegen. Im emittierten Signal überlagern sich dann sämtliche dieser Frequenzen. Die Überlagerung von Frequenzen lässt sich mathematisch wieder in die einzelnen Frequenzen auftrennen. Durch eine solche (Fourier-) Transformation kann dem Signal die zweite räumliche Dimension entnommen werden: Mit stärker werdendem Magnetfeld nimmt die Larmorfrequenz und somit auch die Frequenz des emit58 Die Schichttiefe besitzt für die Interpretation der Bildrepräsentation eine große Wichtigkeit, sie würde aber die folgenden Darstellungen unnötig verkomplizieren.

134 | D ER M ENSCH ALS NEURONALE M ASCHINE?

tierten Signals in x-Richtung zu. Da die Magnetfeldvariation (stetig) linear verläuft, gibt es keine ›natürliche‹ (diskrete) Frequenzclusterung. Die Menge der Frequenzcluster59 bestimmt die Bildauflösung. Je mehr Frequenzcluster gewählt werden, desto besser wird die Bildauflösung, desto weniger Protonenspins sorgen aber für das Signal. Die Signalqualität nimmt mit zunehmender Auflösung ab. 5.3.2.3 Dimension Drei: Phasencodierung Für die dritte noch zu lokalisierende Raumdimension lässt sich die Frequenzcodierung nicht einsetzen. Ein Magnetfeld kann nicht in solcher Art dreidimensional ›aufgespannt‹ werden, dass es an allen Orten im Raum eine eineindeutig zuzuordnende Stärke annimmt. Zwangläufig nähmen bei einem dritten Frequenzgradienten verschiedene Orte im Raum die gleiche Magnetfeldstärke an. Trotzdem wird auch das Zuordnungsproblem der dritten Dimension (in y-Richtung) mithilfe von Gradientenpulsen bearbeitet. Abbildung 20: Richtung eines Phasengradienten

Quelle: Storey 2006, S. 31.

Der Phasengradient sorgt ebenfalls für ein kleines zusätzliches (lineares) Magnetfeld. In der y-Richtung wird aber nicht der Einfluss des Gradienten auf die Frequenz, sondern auf die Phase des Signals gemessen. Der Frequenzgradient wird nur während der Signalakquisition geschaltet, um den Effekt auf die Spindephasierung so gering wie möglich zu halten. Der Phasengradient wird hingegen für eine begrenzte Zeit vor der Signalakquisition geschaltet. Dadurch hat er während des Echos keinen Einfluss auf die Spinfrequenz mehr. Die kurzfristige Veränderung des Magnetfeldes hat dann aber die Phasen der Spinvektoren in yRichtung verändert: In die eine Richtung wurden sie für kurze Zeit beschleunigt, in die Gegenrichtung ebenso kurz abgebremst. Nach Abschalten des Phasengradienten behalten die Spins ihre relativen Phasenunterschiede bei. Zum Zeitpunkt des Echos unterscheiden sich die Spins in x-Richtung also geringfügig in ihrer 59 Statt ›Cluster‹ wird auch der Begriff ›Partition‹ verwendet.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 135



Frequenz, und in y-Richtung unterscheiden sie sich in ihrer Phase: je stärker der Phasengradient, desto höher ist der Grad der Dephasierung. Im Verlauf der Achse des Phasengradienten (y-Richtung) treten je nach Stärke des Gradienten60 Dephasierungen von mehreren Perioden (›Runden‹) auf. Abbildung 21 zeigt, wie das Auffächern der transversalen Vektoren eine ›Phasenhelix‹ bilden würde, wenn die Protonendichte im gesamten angeregten Gewebe homogen wäre. Jede Säule repräsentiert einen Ausschnitt aus dem Verlauf der Magnetisierungsvektoren unter verschieden starken Phasengradienten (für je eine Position in x-Richtung). Das Summensignal der einzelnen Säulen der Abbildung tendiert bei steigender Gradientenstärke gegen Null, da sich gegenläufige Phasen auslöschen (vgl. Abbildung 13, S. 127). Abbildung 21: Wirkung eines Phasengradienten bei Protonenhomogenität

Quelle: Eigenanfertigung nach Levitt 2008. S. 307.

Die Annahme einer homogenen Protonendichte dient jedoch ausschließlich der Visualisierung der Prinzipien der Phasencodierung. Die angeregten Protonen sind im Gewebe natürlich nicht gleich verteilt, deswegen kommt es zu verwertbaren Signalemissionen. Die Herkunft des Signals äußert sich in der Phasencodierung gänzlich anders als in der Frequenzcodierung. Der Ortsrekonstruktion liegt das Prinzip zugrunde, dass die Protonendichte der gesamten Schicht als periodische Funktion beschrieben werden kann, die sich als Summe einzelner (sinusförmiger) Frequenzanteile beschreiben lässt (vgl. Abbildung 23a und b). Entspricht eine dieser Basisfrequenzen der Protonendichtefunktion genau der Periodenfrequenz einer Phasenhelix, summieren sich die Vektoren genau dieser Frequenz; alle anderen Frequenzen löschen sich durch ihre Phasenunterschiede gegenseitig aus.61 Da ein 60 Mit Gradientenstärke ist hier die maximale Differenz der induzierten Magnetfeldstärke in y-Richtung gemeint. 61 Vgl. McRobbie et al. 2008, S. 120ff.

136 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Zusammenhang zwischen Gradientenstärke und Periodenfrequenz besteht, kann mit jeder Gradientenstärke genau eine sinusförmige Teilfrequenz aus der Funktion der Protonendichte aufgedeckt werden. Abbildung 22: Abhängigkeit des Signals von der Ortsverteilung angeregter Protonen

Quelle: Eigenanfertigung nach McRobbie et al. 2008, S. 122.

Abbildung 22 zeigt diesen Zusammenhang in vereinfachter Form. Statt der kompletten Helix werden nur einander entgegengesetzte Vektoren betrachtet. Bei gleichmäßiger Protonendichte löschen sie sich gegenseitig aus (linker Teil). Bei regelmäßig wiederkehrenden Dichteminima (angedeutet durch die schwarzen Flächen im rechten Teil) kommt es zu einem messbaren Signal. Bei schwachen Gradienten werden die langwelligen, bei starken Gradienten die kurzwelligen Teile der Protonendichtefunktion empfangen. Eine direkte Zuordnung von Signalfrequenz zu einer bestimmten Position in Richtung der yAchse ist bei der Phasencodierung nicht möglich – durch die Phasencodierung enthält das empfangene Signal stets Frequenzkomponenten der Funktion der Protonendichte aus der gesamten angeregten Schicht. Für jede Wellenlänge muss daher jeweils ein neuer Phasengradient geschaltet werden.

5.4 B ILDREKONSTRUKTION

UND B ILDQUALITÄT BEI DER STRUKTURELLEN MRT

Das letztlich über Radiofrequenzantennen des Tomographen empfangene Signal hat viele verschiedene Bestandteile. Bevor es inhaltlich interpretiert werden kann, sind diverse Nachbearbeitungen erforderlich. Neben dem zur Ortscodierung intentional verzerrten Echo der Anregungspulse enthält das empfangene Signal zufällige Komponenten (sogenanntes Rauschen). Die zufälligen Komponenten spielen vor allem bei der funktionellen MRT eine wichtige (störende) Rolle, aber auch bei der strukturellen MRT tritt stets ein Signalrauschen auf, das ›gefiltert‹ werden muss. Das Rauschen im Tomographen hat einen ähnlichen Einfluss auf das Ergebnis wie das Rauschen bei analogem Radioempfang: Das

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 137



Verhältnis von gewolltem Signal zu zufälligen und Störkomponenten ist entscheidend für die Ergebnisqualität. Bei der MRT hat das Spinecho eine sehr viel niedrigere Amplitude als das Anregungssignal. Zufällige Signalkomponenten kommen vor allem durch spontane Photonenemissionen von zufällig angeregten Protonen im Körper und Fluktuationen im Magnetfeld zustande (auch diese entstehen vor allem durch Molekülbewegungen im Körper selbst – z.B. durch Blutfluss). Zusätzlich können systematische Signalstörungen theoretisch durch jeden stromführenden Leiter des Tomomographen, durch externe elektromagnetische Strahlung oder ebenfalls durch anatomische Begebenheiten (Lufträume wie etwa Stirn- und Nasennebenhöhlen oder Zahnspangen/Kronen) verursacht werden.62 Die Rolle des Signal/Rauschverhältnisses wird bei der Bildinterpretation (Abschnitt 5.5) weiter ausgeführt, für die Erklärung der Bildrekonstruktion werden hier die Signalkomponenten, die nicht auf Protonenechos durch intendierte RF-Pulse zurückzuführen sind, vernachlässigt. Abbildung 23 veranschaulicht die Komposition eines komplexen Signals (a) aus einzelnen Sinusschwingungen (b). Die Umwandlung eines analogen (stetigen periodischen) Signals in ein digitales Signal, das aus diskreten Einzelwerten besteht, wird Sampling genannt. Dabei wird die analoge Funktion in regelmäßigen Abständen ›abgetastet‹ (gesampelt) und ihr Wert an den gesampelten Stellen festgehalten. Die Samplingwerte lassen sich entweder in Zahlen- oder, wie hier, auch in Grauwerten codieren. Abbildung 23: Fouriertransformation, Graustufencodierung und K-Raum-Grauwertmatrix

Quelle: http://www.revisemri.com/tutorials/what_is_k_space/

Teil c der Abbildung zeigt ein Grauwertsampling der Funktion a. Eine solche Zeile von Grauwerten enthält alle frequenzcodierten Ortsinformationen einer 62 Vgl. Huettel/Song/McCarthy 2003, S. 217ff.

138 | D ER M ENSCH ALS NEURONALE M ASCHINE?

angeregten Schicht sowie die Amplitude der einzelnen Wellen in Interferenz mit jeweils einer Phasencodierfrequenz. Der Vorgang der Signalaufzeichnung und Digitalisierung wird für jeden Phasencodiergradienten wiederholt. So entsteht eine Matrix aus Grauwerten (d), die Informationen bezüglich der periodischen Verteilung signalemittierender Protonen innerhalb der angeregten Schicht enthält. Eine solche Matrix wird als K-Raum bezeichnet.63 Die erste und die letzte Zeile repräsentieren das Signal unter dem Phasengradienten mit der größten positiven und größten negativen Steigung und somit die kürzesten Wellenlängen. Die beiden mittleren Zeilen (ky=1 und ky=-1) repräsentieren das Signal unter dem Phasengradienten mit der kleinsten positiven und der kleinsten negativen Steigung – somit die längsten Wellenlängen.64 Ein einzelner Punkt repräsentiert erstens die Wellenlänge der von ihm angezeigten Verteilung durch seine Entfernung zur Matrixmitte in ky-Richtung; er repräsentiert zweitens die Richtung der von ihm repräsentierten Verteilung durch seine relative Position zum Matrixmittelpunkt; drittens repräsentiert seine Helligkeit die Amplitude der von ihm repräsentierten Verteilung. Das Zentrum des K-Raumes bildet den Schnittpunkt aller Verteilungen. Deswegen ist das Zentrum des K-Raumes stets hell. Abbildung 24 visualisiert Wellenlänge und Richtung, ohne die Amplitude zu berücksichtigen. Abbildung 24: Informationscodierung im K-Raum

Quelle: Siemens 2003, S. 117.

Die in diesem zweidimensionalen K-Raum-Spektrum enthaltenen Informationen über Richtung, Frequenz und Amplitude einzelner Dichtewellen der angeregten 63 Ausführlichere Erläuterungen über zweidimensionale Fourier-Transformationen und den Zusammenhang von K-Raum und Bildraum finden sich bei Huettel/Song/McCarthy 2003, S. 75ff. 64 Vgl. Abschnitt 5.3.2.3.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 139



Protonen geben eine vollständige Beschreibung der Eigenschaften eines Bildes. Bild und K-Raum-Spektrum sind mathematisch verlustfrei ineinander überführbar. Jeder Pixel im K-Raum beschreibt eine Welle, die sich durch das gesamte Bild fortsetzt. Eine Verkleinerung des K-Raums bewirkt also nicht eine Verkleinerung der Ausmaße des Bildraumes – in Frequenzcodierrichtung sind diese ja ohnehin willkürlich zu bestimmen.65 Stattdessen werden bestimmte Wellenlängen aus der Bildkomposition entfernt. Wellen hoher Frequenz (mit kurzer Wellenlänge) geben Konturen des Bildes wieder und erhöhen die Bildschärfe. Niedrigfrequente Wellen geben Auskunft über Flächenkontraste. Abbildung 25 zeigt den Effekt der Anzahl von Phasencodierschritten (Zeilen in der K-Raum-Matrix) auf die bildliche Rekonstruktion der Dichte signalemittierender Protonen. Wie in den Abschnitten 5.3.2.3 und 5.4 dargestellt, lässt sich nach nur einer Anregung keine ausreichende Lokalisation des Signals vornehmen – Pulssequenzen müssen mehrmals (mit unterschiedlichen Phasengradienten) wiederholt werden. Abbildung 25: Sequenzwiederholungen und Bildqualität

Quelle: Felmlee 1989, S. 719ff., rekombiniert aus Abb. 1-3, 5, 7, 9, 10, 12.

Abbildung 25 hat einige Transformationsprozesse hinter sich: Druck, Scan/Kompression, Nachbearbeitung/Kompression und erneuten Druck. Der Qualitätsgewinn bei hoher Sequenzwiederholungsrate ist höher, als es hier den Anschein hat. Der K-Raum wird in dieser Bildfolge von innen nach außen erschlossen. Bei 65 Vgl. Abschnitt 5.3.2.2.

140 | D ER M ENSCH ALS NEURONALE M ASCHINE?

wenigen Wiederholungen werden üblicherweise nur schwache (negative und positive) Gradienten geschaltet, bei vielen Wiederholungen werden die Gradienten sowohl im Negativen als auch im Positiven stärker. Der K-Raum kann, je nach Schaltung der Gradienten, aber nahezu beliebig erschlossen werden. So lassen sich z.B., wenn nur begrenzte Zeit für den Messvorgang zur Verfügung steht, gezielt niedrig- oder hochfrequente Teile aus dem Frequenzspektrum extrahieren.66 Neben der bisher stets als Regelfall behandelten Sequenz, bei der auf je einen Anregungspuls ein Refokussierungspuls folgt (Spin-Echo-Sequenz) gibt es andere Kombinationen von Pulsen, die zur Signalgewinnung eingesetzt werden können. Die Wahl der Pulssequenz und ihrer Parameter (Ortscodierung, TE, TR67) ist entscheidend nicht nur für die Bildgewichtung (T1, T2, T2*, PD68), sondern auch für Signalqualität, Auflösung und Dauer des Scans. MRT-Bilder sind immer das Ergebnis eines Kompromisses aus Signalqualität, Auflösung und Geschwindigkeit. Mit Signalqualität ist der Anteil von gezielt induzierten Spinechos am gesamten empfangenen Signal gemeint. Dieses Verhältnis von Signal zu Rauschen wird üblicherweise mit SNR (engl. Signal to Noise Ratio) bezeichnet. Je mehr Protonenechos zum Signal beitragen, desto unwahrscheinlicher wird es, dass gemessene Signalunterschiede auf zufälligem Rauschen basieren. Es gibt vielfältige Faktoren, die auf die Menge der intendierten Signalemission Einfluss haben: die gewählte Schichtdicke, die Partitionierung (Clusterung) der Frequenzcodierung, die Zeit zwischen Sequenzwiederholungen, verschiedene Arten der Signalmessung und die Magnetfeldstärke. Bei der Frequenzcodierung wird ein empfangenes Signal in eine willkürlich festgelegte Anzahl von Partitionen unterteilt. Die Anzahl der Partitionen ist proportional zur Auflösung des Bildes und umgekehrt proportional zur Signalstärke pro Voxel. Die Signalqualität ist umso höher, je geringer die Auflösung des Bildes ist. Das gilt auch für die gewählte Schichtdicke. Je dicker eine Schicht gewählt wird, desto besser ist das SNR. Im Umkehrschluss bedeutet das: Je besser ein Bild aufgelöst ist, je detaillierter es seine Vorlage abzubilden scheint, desto wahrscheinlicher wird es, dass Bildkontraste auch durch zufällige Signalunterschiede zustande kommen. Andererseits tragen bei nur wenigen Partitionen bzw. großer Schichtdicke unter Umständen anatomisch sehr unterschiedliche Bereiche

66 Vgl. Huettel/Song/McCarthy 2004, S. 120ff. und 416ff. sowie McRobbie et al. 2008, S. 246ff. 67 Vgl. Abschnitte 5.3.2 und 5.2.2. 68 Vgl. Abschnitt 5.3.1.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 141



zum Signal eines Pixels bei, sodass schlecht aufgelöste Bilder trotz hohem SNR Details ›verschlucken‹ und deswegen unbrauchbar werden können.69 Die Anzahl der Phasencodierschritte ist ausschlaggebend für die Bildqualität (vgl. Abbildung 25) und bestimmt maßgeblich die Zeitdauer eines Scanvorgangs. Bei zeitkritischen Messungen (wie generell bei der Messung von Änderungen im Blutsauerstoffgehalt bei der funktionellen Magnetresonanztomographie) können nur wenige Sequenzwiederholungen stattfinden, was zu einer begrenzten Bildauflösung führt. Für Versuche mit Kleintieren muss diese Aussage relativiert werden: Bei Tierversuchen werden mitunter sehr hohe Magnetfeldstärken eingesetzt (bis zu 20 T). Die Homogenität des Feldes kann hier trotz der hohen Magnetfeldstärke gewährleistet werden, da der Durchmesser einer Röhre, die eine Maus aufnehmen kann, natürlich erheblich kleiner sein kann als bei Tomographen für Menschen. Da Bewegungen des Probanden (egal ob Mensch oder Tier) während des Scanvorgangs das Signal stark stören können, müssen die Probanden/Versuchstiere bei hochauflösenden Scans fixiert werden (je höher die Auflösung, desto schwerwiegender machen sich schon kleine Bewegungen bemerkbar). Bei fixierten und/oder anästhesierten Tieren lassen sich also hochauflösende Bilder mit hohem SNR erzeugen. Für Versuche am Menschen bestehen hier, vor allem aus ethischen Gründen, wesentlich mehr Freiheitsgrade. Je mehr Freiheitsgrade jedoch bei einer Versuchsreihe für den Probanden bestehen, dies stellt Lindemann in einer ethnografischen Analyse in einem neurowissenschaftlichen Forschungslabor fest, desto weniger verlässlich lassen sich die gemessenen Ergebnisse auf die gegebenen Stimuli zurückführen. Eindeutige Ergebnisse können sich nur aus vollständig kontrollierten Versuchen ergeben und diese sind beim Menschen kaum möglich.70 Mit der magnetischen Feldstärke steigt die Anzahl der angeregten Protonen pro Volumeneinheit linear an. In den 1990er Jahren hat sich die übliche Feldstärke der Tomographen von 0,1 auf 1,5 Tesla erhöht. Jüngere Geräte verfügen meist über Feldstärken von 3-5 Tesla. Zu Forschungszwecken sind auch Tomographen von 7-9 Tesla in Betrieb. Je höher die Feldstärke des permanenten Magnetfeldes, desto besser ist das theoretische SNR. Die Erhöhung der Feldstärke ist jedoch auch mit Problemen verbunden, deren Lösungen noch gesucht werden: Je stärker das statische Magnetfeld, desto schwieriger ist seine Homogenität zu gewährleisten und desto stärker wirken sich Feldinhomogenitäten auf Spindephasierungen aus. Bei starken Magnetfeldern wird die Larmorfrequenz erhöht, wodurch auch die Frequenz des emittierten Signals steigt und die T1- und T2Relaxationszeiten kürzer werden. Diese Zunahme an Geschwindigkeit erfordert 69 Vgl. auch Abbildung 17 (S. 131). 70 Vgl. Lindemann 2005, S. 765 ff; vgl. auch Abschnitte 3.1.2 und 3.2.

142 | D ER M ENSCH ALS NEURONALE M ASCHINE?

nicht nur neue Empfangstechniken mit erhöhter temporaler Sensibilität (höhere Sampling-Raten), sondern führt auch dazu, dass magnetfeldbeeinflussende biologische Prozesse das Signal stärker stören. Gerade für Störungen, die vom Körper selbst verursacht werden, sind technische Lösungen nicht einfach zu finden. Bei frühen ›ultra high field‹-Tomographen war z.B. das SNR aus subkortikalen Hirnregionen schlechter als bei schwächeren Feldern. Dennoch werden große Erwartungen in die Verbreitung von Geräten mit immer höheren Feldstärken gesetzt. Über Neu- und Weiterentwicklungen von Pulssequenzen und Empfangstechniken sind im Zusammenhang mit der Magnetfeldstärke bei der strukturellen Magnetresonanztomographie weitere Verbesserungen in der Datenqualität zu erwarten.71 Je nach Einsatzzweck gibt es unterschiedliche Anforderungen und Einschränkungen bei MRT-Untersuchungen. Aufnahmen vom sich bewegenden Herzen erfordern zum Beispiel sehr schnelle Pulssequenzen, das anzuregende Volumen ist jedoch vergleichsweise klein. Bei strukturellen Untersuchungen an der Wirbelsäule muss ein wesentlich größeres Volumen angeregt werden und gegebenenfalls ist eine höhere Bildauflösung erforderlich. Durch unterschiedliche Abfolgen von Anregungs-, Dephasierungs- und Gradientenpulsen lässt sich für viele Einsatzgebiete ein geeigneter Kompromiss aus Signalqualität und Geschwindigkeit der Scanprozedur finden. Eine Möglichkeit, die benötigte Zeit der Messung zu begrenzen, ist die Akquise von nur Teilen des K-Raums. Werden z.B. nur 16 statt 256 Frequenzen gemessen, reduziert sich die benötigte Zeit auf ein Sechzehntel. Die potenzielle Auswirkung auf die Bildqualität lässt sich anhand der Abbildung 25 erahnen. Je weniger Frequenzen gesampelt werden, desto unvollständiger wird das Bild. Entweder fehlt Bildschärfe, wie in der Abbildung dargestellt; oder es fehlen Flächenkontraste, wenn statt langwelligen kurzwellige Frequenzen aufgenommen werden.72 Eine andere Möglichkeit für die Zeitersparnis besteht darin, nach jeder Anregung eine Vielzahl von Refokussierungspulsen einzusetzen und somit pro Anregung eine Vielzahl von Echos zu erzeugen. Die Aufnahmezeiten verschiedener Pulssequenzen unterscheiden sich extrem, die optische Qualität der Bilder variiert ebenso stark und jede Variante erzeugt charakteristische Bildfehler. Eine Aussage darüber, wo Bilder der strukturellen MRT Kontraste darstellen, die auch im untersuchten Körper vorhanden sind und wo sie nur Verfahrensartefakte abbilden, erfordert profunde Kenntnisse der eingesetzten Verfahren und Erfahrung bei der Interpretation. Bei der funkti71 Vgl. McRobbie et al. 2008, S. 325ff. 72 Je nachdem, welcher K-Raumabschnitt gesampelt wird, sieht das Ergebnis der Qualitätsreduktion aber nicht zwangsläufig genauso aus wie in Abbildung 25 dargestellt.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 143



onellen MRT werden strukturelle Bilder nur als Projektionsfläche genutzt, damit Signalschwankungen anatomischen Strukturen zugeordnet werden können.73 Dafür wird üblicherweise eine T1-gewichtete Sequenz verwendet – die Aufnahme des kompletten Cerebrums in einer Auflösung von 1 mm isotrop und gutem SNR benötigt dabei je nach Scanner zwischen fünf und 20 Minuten. Bei der funktionellen MRT erfolgen die Messungen des gleichen Volumens in maximal drei Sekunden.74

5.5 B ILDREPRÄSENTATION

DER STRUKTURELLEN

MRT

Nachdem einige der physikalischen, technischen und mathematischen Prozesse, die zur Signalproduktion und zur Bildreproduktion der strukturellen MRT eingesetzt werden, geklärt sind, soll nun die Frage bearbeitet werden, was strukturelle MRT-Bilder repräsentieren. Auf den ersten Blick wirken MRT-Bilder wie schwarz/weiß-Fotografien des Gehirns. Bei T1-gewichteten Bildern erscheint wie auf Fotos von Gehirnpräparaten graue Substanz dunkler als weiße Substanz (vgl. Abbildung 26, S. 146). Diese oberflächliche Gemeinsamkeit liegt daran, dass weiße Substanz ihre Farbe vor allem durch Gliazellen erhält, die mit einem starken Fettanteil bei T1-Gewichtung ein stärkeres Signal liefern als die hauptsächlich wasserhaltigen Zellkörper der Nervenzellen in der grauen Substanz. Auch auf einer physikalischen Analyseebene lassen sich Gemeinsamkeiten zwischen Fotografie und MRT-Bild aufzeigen: Bei beiden Bildentstehungstechnologien sorgen Photonen für das Signal, das zur Bildrekonstruktion genutzt wird. Bei der Fotografie treten vom Objekt reflektierte Photonen mit dem Filmmaterial einer analogen oder dem CCD-Sensor75 einer Digitalkamera in Wechselwirkung, bei der MRT werden sie von wasserstoffprotonenhaltigem Gewebe selbst (nach vorheriger Anregung) emittiert. Ohne Licht als Photonenquelle kann kein Foto zustande kommen, ebenso wie bei der MRT ohne vorherige elektromagnetische Anregung kein Echo zu beobachten ist,76 doch bei der MRT wird

73 Vgl. Abschnitt 6.4. 74 Vgl. Abschnitt 5.6.1. 75 Das Akronym CCD steht für Charge-coupled Device 76 Hier könnte eingewendet werden, dass ein Beschuss mit Radiowellen gänzlich verschieden sei von natürlichem Sonnenlicht und diese beiden Photonenquellen sich nicht miteinander vergleichen ließen. Radiowellenpulse müssen tatsächlich viel mehr kontrollierte Eigenschaften haben, um ein Bild zu erzeugen, als das (in gewisser Hinsicht auch unvollständige und ungerichtete) Photonengemisch im Sonnenlicht, wenn

144 | D ER M ENSCH ALS NEURONALE M ASCHINE?

nicht über Veränderungen am ursprünglichen Photonenstrahl über bekannte Interaktionsprozesse auf den Gegenstand rückgeschlossen. Die von den Antennen des Tomographen aufgefangenen Photonen sind ›neu‹. Sie entstehen durch Quantensprünge der Energieniveaus von Protonen. Die zur Anregung genutzten Photonen sind als Energie vollständig im System aufgegangen oder haben es wieder verlassen, ohne zu interagieren. Die Photonen des Echos entstehen im Vorgang der Energieabgabe – vorher gibt es sie nicht.77 Wie oben aufgezeigt, liegt der wesentliche Unterschied zwischen Fotografie und MRT in der Art der nötigen Vermittlungstransformationen, die vom ursprünglichen Objekt bis zur Bildrezeption durchlaufen werden. Bei der Fotografie unterscheidet sich auch die Wellenlänge des vom Objektiv aufgefangenen Lichtes vergleichsweise wenig von der Wellenlänge, durch die sein Abbild vom Auge erfasst wird. Radiowellen können im Gegensatz zu sichtbarem Licht Materie durchdringen. Sie müssen aber, um für Menschen sinnlich erfahrbar zu werden, in andere Schwingungen ›übersetzt‹ werden. Übersetzungen können zu Schallwellen (wie bei Funk oder Radio) oder eben auch zu periodischen Helligkeitsunterschieden (in MRT-Bildern) führen. Auf diese Art betrachtet, sind strukturelle MRT-Bilder so etwas wie Falschfarbenbilder, wie sie zum Beispiel in der Astronomie verwendet werden, um kleine Kontraste in unsichtbarer Strahlung sichtbar zu machen.78 Kontraste, auf die die Bilder verweisen, sind, abgesehen von den Artefakten des Herstellungsvorganges, im Gewebe tatsächlich vorhanden – wenn auch nicht in der gleichen Skalierung. Strahlungsintensitäten werden in Graustufen umgewandelt, die so skaliert werden, dass sie dem es zum Fotografieren eingesetzt wird. Wenn bei der Fotografie als Photonenquelle aber künstliches Licht (z.B. ein Blitz) zum Einsatz kommt, wird deutlich, dass der Unterschied in der Kontrolle der Photonenquelle vor allem ein gradueller ist (ähnlich dem Mikroskopieren mit unterschiedlichen Wellenlängen. Vgl. Abschnitte 4.1 und 4.4). Dennoch: Ihre Anfänge fand die Fotografie in ›natürlichem‹ Licht. Die MRT ist ohne technisch kontrollierte Bedingungen – starken, homogenen magnetischen Feldern und präzise pulsbaren Radiowellen – nicht möglich. 77 In dieser Eigenschaft ähnelt die MRT der Fluoreszenzmikroskopie, bei der durch Anregung eines Stoffes, der in die zu untersuchende Probe aufgebracht wird, Licht in einer Wellenlänge erzeugt wird, die verschieden ist von der des Anregungslichtes. Aus dieser Perspektive kann MRT als eine Art Radiolumineszenz bezeichnet werden: Die Desaktivierung vom angeregten Zustand in den Grundzustand vollzieht sich in einer Strahlungsemission. 78 Vgl. Hasinger 2007. Die Analogie stimmt aber nicht vollständig, da die Astronomie bereits vorhandene Strahlung in Farben umwandelt und das Universum nicht erst von der Erde aus zur Lumineszenz angeregt werden muss.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 145



menschlichen Auge möglichst wenig ›Störungen‹ und guten Kontrast bieten.79 Die Beschreibung des Gegenstandes ist bei strukturellen MRT-Bildern anderer Natur als beim Foto. Aber der Grad der Lichtreflexion und die Fett/WasserZusammensetzung sind beides genuine Eigenschaften von Gewebe. Die Vermittlungsprozeduren der MRT sind technisch komplex, aber nicht ohne natürliches Pendant: das Decodierungsverfahren, das nötig ist, um MRT-Bilder aus elektromagnetischen Summensignalen zu erzeugen, hat Ähnlichkeit mit dem Encodierungsverfahren, über das im Auge einfallendes Licht in Nervensignalabfolgen umgewandelt wird.80 Auch auf anderen Ebenen der Bildgewinnung ähneln sich Fotografie und MRT: Ist die Signalqualität schlecht, kommt es durch die zufällige Signalschwankungen beim Foto oder der MRT zu Rauschen – ähnlich dem hörbaren Rauschen beim (analogen) Radio. Dem Bildrauschen lässt sich in der Fotografie einerseits durch eine Verbesserung der Empfindlichkeit von Objektiven, Filmen oder digitalen Sensoren, andererseits (in jüngerer Zeit) durch statistische Glättungen und andere mathematische Filter entgegenwirken, bei denen Bildelemente auf erfahrungsbasierte Annahmen über deren grundsätzliche Beschaffenheit überprüft und gegebenenfalls an diese angepasst werden. Die Entwicklung empfindlicherer Sensoren hat bei MRT ihre Grenzen, da das Gros der Signalstörungen nicht der Apparatur, sondern dem untersuchten Gegenstand selbst – dem lebendigen Körper – entspringt.81 Das gilt insbesondere für die potenziell größte Quelle von Signalstörungen: Bewegungen der Versuchsperson bei der strukturellen MRT machen gegebenenfalls das Ergebnis unbrauchbar, sie sind aber im Bild sichtbar (als sogenannte Bewegungsartefakte) enthalten. »MR scanners do not have absolutely uniform magnetic fields, the gradients don’t produce exactly the pulse shapes programmed by the pulse sequence and patients don’t keep still. These problems, and many others, produce artefacts in MR imaging. An artefact can be defined as any feature in an image which misrepresents the object in the field of view. This could be a bright signal lying outside the body, or lack of signal where there should be something. It might also be a distortion in the image, so that a straight line appears 82

curved, or a certain area is artificially magnified or reduced.«

79 Der Farbraum kann gestaucht oder gestreckt werden und es werden Filter zur Minimierung des Bildrauschens angewendet. Vgl. McRobbie et al. 2008, S. 57ff. 80 Ebd., S. 117ff.; vgl. auch Maffei/Fiorentini 1973. 81 Vgl. auch Abschnitt 3.2. 82 McRobbie et al. 2008, S. 79ff.

146 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Bei der Nachbearbeitung des Signals verwendet die Tomographie etablierte Verfahren der Bildbearbeitung. Die Codierung von Amplituden in Graustufen ist für gewöhnlich so automatisiert, dass der Schwellenwert, der überschritten werden muss, damit überhaupt ein Grauwert (statt Schwarz) dargestellt wird, bei jedem Scan neu ermittelt wird. Diese ›Optimierung‹ wird von den Herstellern von Tomographen üblicherweise so in die Software integriert, dass der Nutzer des Gerätes sich ihr nicht bewusst zu werden braucht. Der Verzicht auf Sichtbarkeit solcher automatischen Anpassungen ist analog zu Rauschunterdrückung, Bildstabilisator und Weißabgleich in digitalen Fotokameras, die ihre Modulationen und Filter automatisch anwenden, ohne dass der Fotograph ihre Funktionsweise kennen oder überhaupt von ihrer Existenz wissen müsste. Abbildung 26: Varianten der Darstellung von Hirnschnittbildern83

Quelle: Huettel/Song/McCarthy 2008, S. 11 und S. 189.

Die potenzielle Bildauflösung unterscheidet MRT und Fotografie deutlich. Während professionelle Kameras mehr als 12 Mio. Pixel effektiv auflösen können, besteht ein MRT-Schnittbild des Kopfes üblicherweise aus nicht mehr als 262.144 (512x512) Pixeln. Dennoch können MRT-Bilder dem ungeübten Blick vermutlich leicht als Fotografie erscheinen. Abbildung 26 markiert Unterschiede und Ähnlichkeiten in Erscheinungsformen von Hirnschnittbildern: Spalte A zeigt 83 Spalte A: unterschiedliche Gewichtungen; Spalte B.: unterschiedliche Bildkontraste; Spalte C: Fotografie und Negativ eines Gehirnpräparates.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 147



eine Gegenüberstellung von T1- und T2-gewichteten MRT-Scans der gleichen Person und Schicht, Spalte B zeigt einen T1-Datensatz mit zwei unterschiedlichen Bildkontrasteinstellungen, Spalte C zeigt ein Graustufenfoto eines Hirnschnittpräparats und sein Negativ. Bei medizinisch genutzten Schnittbildern sind die Parameter der Aufnahmetechnik üblicherweise vermerkt, da nur mit ihrer Kenntnis rekonstruiert werden kann, welche Gewebe (Tumore, Entzündungen, Läsionen etc.) auf dem Bild potenziell (un)sichtbar sind. Strukturelle MRT-Bilder sind nicht selbst-evident. Um zu wissen, was auf einem Bild zu sehen ist, muss (neben anatomischem Wissen) dezidiertes Wissen über die eingesetzten Verfahren beim Interpreten vorhanden sein. Ein ›Schatten‹ kann im Zusammenhang mit einer Pulssequenz auf eine Pathologie hindeuten, während er bei einer anderen Pulssequenz womöglich nur Ausdruck eines Verfahrensartefaktes ist. Dass Foto und MRT-Bild auch in anderer Hinsicht als der Auflösung nicht äquivalent sind, wird vor allem dann deutlich, wenn der Ursprung der Sichtbarkeit eines T2- oder T2*-gewichtetes Bildes mit dem einer Fotografie verglichen wird. Beim T2-gewichteten MRT-Bild erscheint Wasser hell, Fett dunkel und somit die graue Substanz (v.a. Nervenzellkörper in der Hirnrinde) heller als die weiße Substanz (v.a. fetthaltige Gliazellen).84 Sichtbar wird bei der strukturellen MRT ausschließlich Gewebekontrast, der durch Unterschiede in den Relaxationsgeschwindigkeiten und der Dichte eines wasserstoffprotonenhaltigen Gewebes begründet ist. Ein Gewebe kann schwarz oder weiß sein – solange das Wasser-zu-Fett-Verhältnis und die Protonendichte ähnlich sind, liefert es stets ein ähnliches Signal und damit den gleichen Grauwert auf dem Bild. Andererseits sind Grauwerte nicht normiert und MRT-Geräte nicht standardisiert. Das bedeutet: Die automatische Bildgenerierungssoftware ermittelt anhand mathematischer Algorithmen, welcher Ausschnitt aus dem Spektrum der jeweils empfangenen elektromagnetischen Wellen in Graustufen umgerechnet wird. Dieses reduzierte Spektrum wird dann so gedehnt, dass der sichtbare Kontrast maximiert wird (der gesamte Bereich der darstellbaren Graustufen für die Visualisierung genutzt wird).85 Dies führt dazu, dass zwei Scans der gleichen Person und Schicht an unterschiedlichen Tagen unterschiedliche Bilder liefern können. Auf unterschiedlichen Geräten sind Bildunterschiede wohl noch deutlicher.86 Mit Blick auf nicht vorhandene Normierungen entspricht der Stand der Entwicklung des Messinstrumentes MRT also dem Stand der Mikroskoptechnik 84 Vgl. auch Abschnitt 5.6.2. 85 Vgl. McRobbie et al. 2008, S. 57ff. 86 Vgl. ebd., S. 61.

148 | D ER M ENSCH ALS NEURONALE M ASCHINE?

in der ersten Hälfte des 20. Jahrhunderts. Da es bislang auch keine Konzepte gibt, wie sich eine solche Normierung umsetzen ließe, könnte man sogar argumentieren, dass die Parallele zur Mikroskopentwicklung zu Zeiten vor Abbe im 19. Jahrhundert zu ziehen sei.87 In Verbindung mit größer werdenden Auflösungen wird bei der MRT auch von MR-Mikroskopie gesprochen;88 daher soll hier nochmals auf einen prinzipiellen Unterschied zwischen MRT und der oben ausgiebiger behandelten Transmissionsmikroskopie hingewiesen werden. Bei allen mikroskopischen Transmissionsverfahren muss das jeweilige Präparat so beschaffen sein, dass seine Strukturen für einfallende Strahlung Kontraste liefern. Bilder von Durchlicht- oder Transmissionselektronenmikroskopen sind Schattenbilder: Je dünner ein Präparat ist (je weniger Widerstand es der Strahlung bietet), desto stärker ist das empfangene Signal. Bei der Magnetresonanztomographie hingegen wird das Signal umso stärker, je mehr Gewebe elektromagnetische Wellen emittiert. Die Beurteilung der Bildqualität von MRT-Bildern wird durch die versteckte Dreidimensionalität erschwert. Eine bestimmte Auflösung auf dem Bild (in der x/yEbene) heißt bei der MRT eben nicht, dass Strukturen dieser Größe auch in jedem Fall sichtbar werden, selbst wenn sie sich in ihren Relaxationszeiten deutlich voneinander unterscheiden. Zieht sich diese Struktur nicht orthogonal zur Schnittebene durch die gesamte Schicht, wird ihr Kontrast innerhalb der dritten Dimension relativiert oder verschwindet ganz. Zudem werden bei der Anregung von verschiedenen Schichten Lücken zwischen den einzelnen Anregungsschichten gelassen. Ein wellenförmiger elektromagnetischer Puls, wie er für die Gradientenfelder eingesetzt wird, könnte nämlich nur dann eine wirklich geradflächig abgegrenzte Schicht anregen, wenn er unendlich lang wäre.89 Die Lücken verhindern Überschneidungen von angeregten Schichten, die ansonsten zu Bildfehlern führen würden.90 Zusätzlich zu der Unvollständigkeit des MRT-Bildes, die im kleinen Anteil der anregbaren Proto-

87 Vgl. Abschnitt 4.1. 88 Vgl. Gimi 2006 sowie Huettel/Song/MacCarthy 2008, S. 420ff. Bei der MR-Mikroskopie wird mit starken Magnetfeldern, kleinen Präparaten und niedrigen Temperaturen gearbeitet, um die Protonenanregungsquote und somit die Signalqualität zu maximieren. 89 Vgl. McRobbie et al. 2008, S. 98f. Genau genommen ist also keine Schicht an allen Stellen wirklich gleich dick. 90 Diese Einschränkung trifft in dieser Form nur auf Pulssequenzen mit zeilenweise akquiriertem K-Raum zu. Für strukturelle Bilder wird der K-Raum allerdings fast ausschließlich zeilenweise erschlossen.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 149



nen an der Gesamtprotonenzahl im Gewebe begründet ist,91 entstehen durch die Lücken zwischen Schichten auch Lücken in der dreidimensionalen Rekonstruktion einer Serie von MRT-Schnittbildern.92 Analog zu den Ansätzen bei der Mikroskopie, über unterschiedliche Wellenlängen verschiedene Interaktionsprozesse zwischen den elektromagnetischen Wellen und dem Präparat sichtbar zu machen,93 gäbe es bei der MRT die Möglichkeit, anstelle von Wasserstoffnuklei andere Atomkerne anzuregen. Doch kein anderer Atomkern mit Spin94 tritt in so vielen Geweben und in der gleichen Dichte auf wie 1H. Es gibt inzwischen MRT-Anwendungen, die Helium- (³He) oder Xenonisotope (129Xe) für die Kontrastgewinnung nutzen; diese Gase werden dem Organismus aber über die Atemluft zugeführt, sodass keine ›natürlichen‹ Vorkommnisse im Organismus abgebildet werden.95 Auch eine in-vivo-Spektroskopie, die Hirnbereiche auf Teile ihrer chemischen Zusammensetzung untersuchen kann, ist realisierbar.96 Methodendiversität entsteht bei der MRT aber vor allem durch verschiedene Möglichkeiten, Interaktionen von Wasserstoffkernen für die Bildgebung nutzbar zu machen. Diffusions- und Perfusionsprozesse von Wasser lassen z.B. Rückschlüsse auf die Organisation von Nervensträngen zu (»Fiber Tracking«); per »Arterial Spin Labeling« lassen sich dreidimensionale Abbilder von Blutgefäßen erstellen (Angiografie) und über die Suszeptibilität von Hämoglobin kann der relative Blutsauerstoffgehalt in verschiedenen Hirnbereichen rekonstruiert werden. Da der relative Blutsauerstoffgehalt in Zusammenhang mit überdurchschnittlicher Nervenaktivität stehen kann, lässt sich die funktionelle MRT für neurokognitive Fragestellungen nutzen. Um diese Art der Bildgebung geht es bei der funktionellen Magnetresonanztomographie.

91 Vgl. Abschnitt 5.2.1. 92 Das Programmieren von Lücken im Scanvorgang ist jedoch nicht bei allen Pulssequenzen nötig; die Ausmaße der Lücken sind zudem mit üblicherweise 10 % der Schichtdicke gering. (Vgl. McRobbie et al. 2008, S. 62f.) 93 Vgl. Abschnitt 4.4. 94 Vgl. Abschnitt 5.1.2. 95 Vgl. Mai 2006. 96 Vgl. McRobbie et al. 2008, S. 306ff.

150 | D ER M ENSCH ALS NEURONALE M ASCHINE?

5.6 F UNKTIONELLE MR-T OMOGRAPHIE Eine übliche Argumentationskette in der Erklärung für den biologischen ›Ursprung‹ des Signals der funktionellen Magnetresonanztomographie lautet wie folgt: Ein Stimulus gehe mit einer Aktivierung von Neuronen oder bestimmten neuronalen Netzwerken einher. Die so hervorgerufene Nervenzellenaktivität benötige Energie, die den Nervenzellen über Blutsauerstoff zugeführt werde. Die Sauerstoffkonzentration im Blut lasse sich mit fMRT messen und sei als Korrelat der neuronalen Aktivität der entsprechenden Hirnregion aufzufassen.97 In einer kritischeren Erklärungsvariante wird betont, dass Hirnaktivität nur sehr indirekt über die unterschiedlichen magnetfeldverändernden Eigenschaften von sauerstoffreichem und sauerstoffarmem Hämoglobin im Blut gemessen werde und dass die Änderung im Blutsauerstoffgehalt in zeitlichen Dimensionen vonstattengehe, die weit gröber sind als elektrophysiologisch messbare Zellaktivitätsänderungen (z.B. mittels EEG). Der Zusammenhang zwischen bioelektrischer Aktivität von Nervenzellen und Änderungen im Blutfluss bzw. Blutsauerstoffgehalt wird neurovaskuläre oder hämodynamische Kopplung genannt (Abschnitt 5.6.2). Die magnetfeldverändernden Eigenschaften von Blutfluss und Sauerstoffgehalt werden unter BOLD-Kontrast (BOLD steht für »Blood Oxygen Level Dependent«) zusammengefasst (Abschnitt 5.6.1). Dass es eine Korrelation zwischen Blutsauerstoffgehalt und Nervenaktivität gibt, ist inzwischen unstrittig. Das heißt jedoch weder, dass die Vorgänge der neurovaskulären Kopplung vollständig verstanden wären, noch, dass zwischen BOLD-Kontrast und Nervenzellaktivität eineindeutige Beziehungen bestünden (Abschnitt 6.3). Die Scannerhardware und die Art der Messungen stellen Anforderungen an die Eigenschaften ihrer Untersuchungssubjekte und limitieren die Bandbreite untersuchbarer Fragen. Wie Versuche aufgebaut sind, die als Ausgangspunkt der Lokalisation von Hirnfunktionen dienen, wird in Abschnitt 6.1 erläutert. Statistische Signifikanzen zwischen zwei Versuchsbedingungen werden farblich codiert und auf eine strukturelle Vorlage projiziert; so entsteht ein (nicht nur auf Laien) suggestiv wirkendes Kompositum (Abschnitt 6.4). Die Besprechung der funktionellen Magnetresonanztomographie wird abgeschlossen, indem die Problempotenziale der Trans-

97 Diese Auffassung, dass der verabreichte Stimulus für das fMRT-Signal verantwortlich ist, wird manchmal als Linearitätsprinzip bezeichnet. Das Linearitätsprinzip beinhaltet die Annahme, dass eine Veränderung des Stimulus (z.B. in Dauer oder Intensität) eine proportionale Veränderung des fMRT-Signals nach sich zieht. Argumente für und gegen eine solche Annahme diskutieren Huettel/Song/McCarthy 2008, S. 230ff.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 151



formationsprozesse von der Theorie des Protonspins bis zum publizierten Bild noch einmal nachgezeichnet werden und ihre Bedeutung für den Prozess der Wissensgewinnung diskutiert wird (Abschnitt 6.5). Ein zentraler Aspekt der folgenden Darstellungen ist, inwiefern sich bei Experimenten mit fMRT konstante Rahmenbedingungen erzeugen lassen, inwiefern also bei fMRT von Versuchen ceteris paribus die Rede sein kann. Gleichbleibende Bedingungen sind die Mindestvoraussetzung an ein Experiment, mit dessen Hilfe Gesetzmäßigkeiten aufgestellt bzw. erkannt werden sollen.98 5.6.1 Paramagnetismus und EPI Hämoglobin enthält – ebenso wie Fettverbindungen und Wasser – selbst Wasserstoffkerne, die zu einem MR-Signal beitragen. Zusätzlich hat Hämoglobin aber (lokal begrenzte) magnetfeldverändernde Eigenschaften, durch die es auch die Relaxationszeiten von Wasserstoffprotonen in der Umgebung beeinflusst wie z.B. in Wassermolekülen im Blut und im interzellulären Raum. Stoffeigenschaften, die zu Veränderungen eines externen Magnetfeldes führen, werden allgemein als Diamagnetismus bezeichnet, wenn sie das Feld stärken und als Paramagnetismus, wenn sie es schwächen.99 Hämoglobin, ein Protein, mit dessen Hilfe Sauerstoff im Blut transportiert wird, kann sowohl dia- als auch paramagnetische Eigenschaften haben, abhängig davon, ob es gerade Sauerstoff transportiert (oxigeniertes Hämoglobin) oder nicht (desoxigeniertes Hämoglobin). Je nachdem, welche Pulssequenzen für die fMRT eingesetzt werden, wirken sich die magnetfeldverändernden Eigenschaften unterschiedlich auf das Signal aus. Mithilfe dieser unterschiedlichen Eigenschaften lassen sich etwa die Diffusion von Wasser (z.B. zur Rekonstruktion der Verläufe von Nervenfasern), die Perfusion von Blut in umliegendes Gewebe oder eben der relative Blutsauerstoffgehalt (als Indikator für ›Hirnaktivität‹) messen.100 Bei all diesen Verfahren müssen die Daten in wesentlich kürzerer Zeit gesammelt werden als bei strukturellen Bildern (die nachfolgenden Ausführungen beziehen sich jedoch nur auf BOLD-fMRT, also der Messung des relativen Blutsauerstoffgehalts). Häufig dazu verwendete Pulssequenzen sind sogenannte EPI-Sequenzen.101 Im Anschluss an einen Anregungspuls werden mithilfe wechselnder direkt aneinander anschließender Gradienten bis zu 128 Echos erzeugt. Bei partieller K-Raumakquise lässt sich so eine komplette Schicht in 100 ms aufnehmen, ein ganzes Gehirn in wenigen Sekunden. 98 Vgl. Abschnitt 3.1.2. 99 Vgl. Levitt 2008, S. 24. 100 Vgl. McRobbie et al. 2008, S. 325. 101 Das Akronym EPI steht für Echo Planar Imaging.

152 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Der Zeitdruck bei der Datenakquise führt zu insgesamt niedriger Signalintensität und SNR – bei jedem Echo ohne erneute Anregung nehmen sie weiter ab. Abbildung 27: Schema einer EPI-Sequenz

Quelle: McRobbie et al. 2008, S. 326.

Die Variabilität des Signals beträgt bei der fMRT nur wenige Prozent. Kleine Variabilität ist kein Problem per se: Auch kleinste Zeitspannen oder minimale Temperatur- und Größenunterschiede lassen sich mit den geeigneten Verfahren zuverlässig messen. Problematisch bei der fMRT ist vor allem, dass der Anteil an der Gesamtvariabilität des Signals, der sich eindeutig auf Änderungen des Blutsauerstoffgehalts zurückführen lässt, ebenfalls sehr gering ist. Signalschwankungen – das einzige, was bei der fMRT gemessen wird – haben ihre Ursachen im Übrigen auch in Temperatur- und Magnetfeldschwankungen sowie in Störungen, die von Bewegungen des Probanden und biologischen Prozessen seines Körpers ausgehen.102 Die Frage, die mit fMRT-Versuchen zu beantworten versucht wird, ist daher normalerweise nicht quantitativer, sondern qualitativer Natur.103 Die Größe des Unterschiedes am gemessenen Signal tritt zurück hinter die Analyse, ob Differenzen überhaupt anders als nur zufallsbedingt zustande kommen.104 5.6.2 Neurovaskuläre Kopplung, BOLD und Auflösung In biopsychologischen Lehrbüchern findet sich die Angabe, dass das menschliche Gehirn über 20 Prozent des im Gesamtorganismus verstoffwechselten Sauer102 Vgl. Huettel/Song/McCarthy 2008, S. 243 und 259. 103 Vgl. Kida/Hyder 2006, S. 189. 104 Vgl. Abschnitt 6.3.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 153



stoffs und ca. 70 Prozent der verfügbaren Glucose nutzt – wesentlich mehr als jedes andere Organ.105 Sauerstoff und Glucose werden beide im biochemischen Prozess der aeroben Glycolyse gebraucht, um Adenosindiphosphat (ADP) effizient zu Adenosintriphosphat (ATP) anzureichern. Aus der Spaltung von ATP in ADP gewinnen Zellen ihre Energie.106 Im Gegensatz zu anderen Organen kann das Gehirn nur sehr begrenzte Mengen von den ›Rohstoffen‹ der Glycolyse speichern und ist daher auf eine fortwährende Versorgung über den Blutkreislauf angewiesen.107 Im Ruhezustand sind Nervenzellen (Neurone) bereits ›geladen‹. Das heißt, sie können ohne weitere Aufnahme von Energie einen bioelektrischen Impuls aussenden. Erst für die Wiederherstellung (und in geringerem Maße für die Aufrechterhaltung) dieses sogenannten Ruhepotenzials wird Energie benötigt. Sauerstoff und Glucose diffundieren durch winzige Blutgefäße (Kapillaren) in den interzellulären Raum, von wo aus sie wiederum in Nerven- und Gliazellen aufgenommen werden können.108 Gliazellen gelten deswegen als Unterstützerzellen; ihre Anzahl übersteigt die der Neurone im Gehirn um mindestens eine Größenordnung.109 Ihr hoher Fettgehalt ist ausschlaggebend für den Kontrast zwischen grauer und weißer Substanz bei Verfahren der strukturellen MRT.110 Weiße Substanz im Gehirn besteht hauptsächlich aus Nervenzellfortsätzen (Axonen) die mit Gliazellen ummantelt (myelinisiert) sind, graue Substanz vor allem aus Nervenzellkörpern (Somata). Abbildung 28: Schemazeichnung eines myelinisierten Neurons

Quelle: https://secure.wikimedia.org/wikipedia/en/wiki/File:Neuron_Hand-tuned.svg

105 Vgl. Kolb/Whishaw 2005, S. 25. 106 Vgl. Huettel/Song/McCarthy 2008, S. 165ff. 107 Vgl. Kida/Hyder 2006, S. 179. 108 Vgl. Birbaumer/Schmidt 2006, S. 25. 109 Vgl. Kolb/Whishaw 2005, S. 82ff. 110 Vgl. Abschnitt 5.5.

154 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Glia und Neurone machen jeweils etwa 50 Prozent des Gesamtgehirnvolumens aus,111 innerhalb der grauen Substanz (dem Cortex) gehen jedoch nur etwa 12 Prozent des Volumens auf Gliazellen zurück.112 Verschieden Arten von Gliazellen ›isolieren‹ Nervenzellen elektrisch voneinander und beschleunigen die Übertragung von bioelektrischen Impulsen durch Myelinscheiden, sie sind Vermittler in Stoffwechselvorgängen, bilden die sogenannte Blut-/Hirnschranke und sind an Nervenwachstums- und Nervenregenerationsprozessen beteiligt. Die meisten Nervenzellen befinden sich in einem Abstand von weniger als 50 µm einer Kapillare.113 Arterielle Kapillaren führen sauerstoffreiches Blut, venöse Kapillaren transportieren sauerstoffärmeres Blut zurück zu Lunge und Herz. Überdurchschnittliche Nervenzellaktivität führt zu einer Ausdehnung von Kapillaren in der Nähe. Die Erweiterung der Blutgefäße hat ein erhöhtes Blutvolumen und damit einen erhöhten Blutfluss zu Folge. Durch den erhöhten Zufluss an sauerstoffreichem Blut steigt der relative Sauerstoffgehalt in der entsprechenden Region (im Verhältnis von oxigeniertem zu desoxigeniertem Hämoglobin114). Der Sauerstoffverbrauch erhöhter Nervenzellaktivität schlägt sich also nicht in gesenktem, sondern (mit mehrsekündigem zeitlichem Abstand) in erhöhtem Blutsauerstoffgehalt nieder, was nach der Entdeckung des BOLD-Effekts Anfang der 1990er Jahre zunächst für Verwunderung sorgte.115 Die Veränderungen in Blutfluss und Blutvolumen, die zu einer Veränderung des relativen Blutsauerstoffgehalts beitragen, werden ›hämodynamische Antwort‹ (auf gestiegene Zellaktivität) genannt. BOLD-fMRT misst von den vielfältigen und komplexen Teilen der hämodynamischen Antwort über den Umweg von Magnetfeldschwankungen die Änderung des Verhältnisses von sauerstoffreichem zu sauerstoffarmem Blut pro Volumeneinheit.116 Wie der blutsauerstoffabhängige fMRTKontrast mit neuronaler Aktivität zusammenhängt und warum mehr Sauerstoff nachfließt als für die aerobe Glykolyse notwendig ist (während Glucose in viel ›bedarfsgerechteren‹ Mengen nachkommt), ist bisher nicht in allen Einzelheiten verstanden.117 111 Vgl. Birbaumer/Schmidt 2006, S. 24. 112 Vgl. Kolb/Whishaw 2005, S. 35. 113 Vgl. Birbaumer/Schmidt 2006, S. 25. 114 Der fMRT-Kontrast der über den relativen Blutsauerstoffgehalt gemessen wird, wird BOLD-Kontrast (blood oxygen level depentent contrast) genannt. 115 Vgl. Kida/Hyder 2006, S. 180 sowie Huettel/Song/McCarthy 2008, S. 196ff. 116 Vgl. Abschnitt 5.6.1. 117 Nach den besten Prädiktoren für BOLD-Responsefunktionen sucht z.B.: Logothetis et al. 2001 (vgl. auch Huettel/Song/McCarthy 2008, S. 209f. sowie S. 214). Der Frage, welchen Anteil Glykolyse, Blutfluss und Blutvolumen am BOLD-Signal haben, ge-

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 155



Die Genauigkeit, mit der sich Veränderungen im relativen Blutsauerstoffgehalt lokalisieren lassen, beruht – wie bei der strukturellen MRT – auf der verwendeten Technik (Magnetfeldstärke und -konstanz, Spulensensitivität etc.) und der ›Aufnahmezeit‹.118 Die Genauigkeit der Lokalisation überdurchschnittlich aktiver Nervenzellen mithilfe von BOLD-fMRT hängt hingegen einerseits vom Grad der lokalen und temporären Kongruenz von relativer Sauerstoffkonzentration und Nervenzellaktivität und andererseits von der Dauer der überdurchschnittlichen Aktivität ab. Während die Technik noch Weiterentwicklungspotenzial hat, könnte die Zuordnung von Sauerstoffkonzentration zu Nervenaktivität prinzipielle Grenzen der BOLD-fMRT aufzeigen. Ein Ortsvergleich von BOLDSignal und bioelektrischer Nervenaktivität zeigt, dass die Grenzen der als ›aktiv‹ angezeigten Areale nie exakt zusammenfallen. Zum Teil unterscheiden sie sich nur in Bruchteilen von Millimetern, teils liegen sie aber auch über 2 mm auseinander.119 Im Bereich des primären visuellen Cortex (ein Hirnbereich am Hinterkopf, an den Signale der Sehnerven weitergeleitet werden) sind lokale Differenzierungen im Aktivitätsniveau von Nervenzellen sehr präzise möglich (auf der Ebene sogenannter kortikaler Säulen120) – Ähnliches scheint auch für den auditiven Cortex zu gelten. Schon im sensorischen und motorischen Cortex (Hirnbereiche, die ebenfalls direkte Verbindungen zu Reizverarbeitung und Bewegungsapparat außerhalb des Gehirns haben), wird die Differenzierung jedoch erheblich schwieriger.121 Die Grenzen der potenziellen Lokalisationspräzision sind grundsätzlich davon abhängig, wie gut kortikale Säulen anatomisch und funktionell hen verschiedene Studien mit unterschiedlichen Ergebnissen nach (vgl. Kida/Hyder 2006, S. 183, Table 1). Welche Teile der hämodynamischen Antwort die valideste Aussage über den Ort der Aktivierung von Nervenzellen zulassen, untersuchen Lindquist et al. 2008. 118 Vgl. Abschnitt 5.4. Bei der funktionellen Bildgebung lässt sich jedoch nicht konstatieren, dass eine längere Aufnahmezeit zu valideren Ergebnissen führt. Zwar steigt das Signal-/Rauschverhältnis, jedoch ist bei langen Aufnahmezeiten die Abbildung schneller kognitiver Funktionen natürlich nicht möglich. 119 Vgl. Disbrow 2000, S. 9718-9723. 120 Kortikale Säulen sind regelmäßig organisierte ›Zellhaufen‹ mit einer Größe von ca. 0,25² mm² * π *2 mm=0,79 mm³. Ein solcher Zellverband enthält bis zu 70.000 Nervenzellen. Die Anzahl der kortikalen Säulen im menschlichen Cortex wird auf 2 Millionen geschätzt. Die elektrischen (nicht jedoch die chemischen) Aktivitäten einer kortikalen Säule (aus dem Hirn einer 14 Tage jungen Ratte) können seit 2006 auf einem ›Supercomputer‹ simuliert werden (vgl. Markram 2006, S. 153-160 sowie http://bluebrain.epfl.ch/). 121 Vgl. Huettel/Song/McCarthy 2008, S. 215ff.

156 | D ER M ENSCH ALS NEURONALE M ASCHINE?

voneinander unterscheidbar sind – im visuellen Cortex sind diese Nervenzellverbände im Vergleich zu anderen Hirnregionen besonders gut differenzierbar (beispielsweise, wenn die Hirnaktivität durch kontrollierte Reizung der Retina von anästhesierten Affen hervorgerufen wird).122 Schwierigkeiten bei der Lokalisation entstehen weiterhin dadurch, dass der tatsächliche Sauerstoffbedarf nicht mit der Menge an zugeführtem Sauerstoff übereinstimmt. Der überschüssige Sauerstoff, der nicht in Glycolyseprozesse einfließt, sorgt für eine Erhöhung des relativen Blutsauerstoffanteils auch in den venösen Kapillaren in der Umgebung. Insofern besteht ein gewisses Risiko, dass in der Nähe dicker Venen eine dem BOLD-Signal zugrunde liegende Nervenaktivität überschätzt wird.123 Auch wenn es nicht Ziel dieser Arbeit sein kann, den aktuellen Forschungsstand zum Verständnis der Repräsentation des BOLD-Signals oder sämtliche potenziellen Zuordnungsprobleme zu diskutieren, lassen sich folgende grundsätzliche Aussagen bei der Lokalisation von Hirnfunktionen mit BOLD-fMRT treffen: Nach heutigem Wissensstand ist davon auszugehen, dass BOLD-fMRT (axonale) Nervenzellaktivität nicht im engeren Sinne repräsentiert, aber dennoch mit dieser korreliert.124 Die Korrelation zwischen BOLD-Signal und Nervenaktivität ist dann besonders hoch und lokal besonders kongruent, je geordneter die Zellanatomie in einem bestimmten Bereich ist und je besser sich ein Reiz isolieren lässt, also sich die Rahmenbedingungen kontrollieren lassen. Sobald Nervensignale nicht nur einen einfachen retinalen oder auditiven Reiz widerspiegeln, sondern Teil eines Verarbeitungsprozesses sind, sinkt die Präzision einer Lokalisation erheblich. Zum Beispiel können sowohl erregungssteigernde (exzitatorische) als auch erregungshemmende (inhibitorische) Nervenzellverbindungen zu einer Steigerung der BOLD-Signalstärke führen; inhibitorische Verbindungen können aber auch zu einem Signalabfall führen, wenn durch ihre Aktivität die umgebenden exzitatorischen Zellen überproportional gehemmt werden.125 Die Stärke der Änderungen im BOLD-Signal hängt auch davon ab, wie viele Blutgefäße welcher Dicke in den ›Aufnahmebereich‹ eines Voxels fallen.126 Sie korreliert, je nach der Organisation von Blutgefäßen im entsprechenden Bereich, kaum mit der elektrisch gemessen Stärke der Nervenzellkörperaktivität.127 Wegen dieser unterschiedlichen Unwägbarkeiten bei der Lokalisation von Nerven122 Vgl. Bartels/Logothetis/Moutoussis 2008, S. 450. 123 Vgl. Huettel/Song/McCarthy 2008, S. 216ff. 124 Vgl. Bartels/Logothetis/Moutoussis 2008, S. 445. Vgl. auch Abschnitt 6.3. 125 Vgl. Logothetis 2008, S. 873. 126 Vgl. S. 131, Abbildung 17 sowie Huettel/Song/McCarthy, S. 214f. 127 Vgl. Kida/Hyder 2006, S. 189.

B ASISTHEORIEN

UND

T ECHNIKEN

DER

MRT

| 157



aktivität konstatiert Logothetis, dass nur sehr wenige Fragestellungen überhaupt dafür geeignet seien, mit hochauflösenden uhf-Tomographen128 untersucht zu werden.129 Die Frage, wie hoch fMRT auflösen müsste, um Hirnfunktionen wirklich verstehen zu können, beantwortet Logothetis mit einem Zitat des Neuroanatomen Valentino Braitenberg. Dieser habe den Vergleich aufgestellt, dass es doch sinnlos sei, mit dem Mikroskop Zeitung lesen zu wollen.130 FMRT kann heute bei einigen Fragestellungen mit lokal begrenztem Untersuchungsort Ergebnisse mit Voxelgrößen von rund 0,125 mm³ liefern. In dieser Auflösung können immerhin Unterschiede in Aktivitäten einzelner Zellverbände differenziert werden.131 Für Fragestellungen, die am Menschen bei Bewusstsein untersucht werden, um komplexe kognitive oder emotionale ›Hirnfunktionen‹ zu lokalisieren, ist die technisch machbare maximale Auflösung jedoch völlig unerheblich. Viel mehr als durch die oben beschriebenen Ungenauigkeiten kommt es hier zu Einschränkungen durch Versuchsaufbau, Bewegungsartefakte, und mathematischen/statistischen Transformationen, die bei Experimenten mit mehr als einer Versuchsperson vorgenommen werden müssen. Bei Lokalisationsexperimenten der kognitiven Neuropsychologie, die nicht nur einen kleinen Bereich, sondern BOLD-Kontraste im ganzen Gehirn untersuchen, wird mit Voxelgrößen von bis zu 100 mm³ gearbeitet – dem 800-fachen Volumen des technisch Machbaren.132 Der limitierende Faktor bei der Untersuchung höherer kognitiver Funktionen im menschlichen Gehirn ist nicht die potenzielle Auflösung der aktuellen Tomographentechnik, sondern die Begleitumstände der Versuchsdesigns sowie die Individualität menschlicher Gehirne und ihrer Funktionen.

128 Uhf steht hier für »ultra high field«. Als uhf-Tomographen werden Geräte mit einem statischen Magnetfeld ab 7 T bezeichnet. 129 Durch höhere Feldstärken wird jedoch eine Verbesserung in der Differenzierbarkeit der verschiedenen Ursachen des BOLD-Signals erwartet. (Vgl. Kida/Hyder 2006, S. 177 sowie Huettel/Song/McCarthy 2008, S. 213 und 250ff.) 130 Logothetis 2008, S. 871. Vgl. auch Abschnitt 6.5. 131 Vgl. FN 120 (S. 155). 132 Vgl. Friston 2007, S. 14.

6. Bildgenese und Interpretation der fMRT

Nachdem die Basistheorien und -techniken der MR-Bildgebung behandelt sind, wird in diesem Kapitel untersucht, wie die farbigen Elemente der Hirnbilder und ihre Suggestivkraft zustande kommen. Es geht in den folgenden Darstellungen nicht um eine Generalkritik an allen Wissenschaftsbereichen, die fMRT einsetzen, sondern v.a. um Aspekte der Publikumswirksamkeit1 bestimmter Experimente und der Schlüsse, die – bisweilen verfahrenstechnisch unbegründbar – aus ihnen gezogen werden. Die verwendeten Beispiele sind ausgewählt worden, weil sie in populärwissenschaftliche Medien – gegebenenfalls zusammen mit Äußerungen von Neurowissenschaftlern, die sich in bio- oder neuropsychologischen Fachdiskursen nicht finden – dargestellt und diskutiert werden.

6.1 V ERSUCHSDURCHFÜHRUNG Damit ein MR-Tomograph und Experimente mit ihm funktionieren können, müssen Umgebung und Versuchspersonen eine Reihe von Bedingungen erfüllen. Ein typischer 3 T-Tomograph ist deutlich über 2 m lang und wiegt zwischen 5 und zehn Tonnen. Massive elektromagnetische Strahlungsemissionen im Ultrakurzwellenbereich bei gleichzeitiger Sensibilität gegenüber elektromagnetischen Einflüssen von außen erfordern speziell abgeschirmte Räume für MRTs. Wegen des starken Magnetfeldes dürfen sich in diesem Raum keine ferrometallischen Gegenstände befinden. Die äußere Form des Gehäuses richtet sich nach Designvorstellungen unterschiedlicher Hersteller; der runde Einlass im Inneren hat aber stets einen Durchmesser von 40-70 cm. Je enger der Durchmesser ist, desto stabiler kann das magnetische Feld aufgebaut werden, desto besser sind die

1

Zur Bedeutung der Publikumswirksamkeit für die Hirnforschung vgl. auch Abschnitt 3.3 sowie Janich 2009, S. 91ff.

160 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Scanergebnisse.2 Enge Durchmesser begünstigen aber klaustrophobische Anfälle und schließen von vornherein Versuchspersonen mit Übergewicht aus. Sichtkontakt nach draußen bzw. zum Stimulus wird über Umlenkspiegel oder spezielle Brillen hergestellt. Ist der Tomograph in Betrieb, gibt er laute Klopf- und Fiepgeräusche von sich. Versuchspersonen müssen deswegen während der Scanvorgänge stets Gehörschutz tragen. Um Bewegungen des Probanden zu minimieren, werden gelegentlich Vakuumkissen oder Beißschienen eingesetzt.3 Für unerfahrene Probanden ist es dennoch so gut wie unmöglich, über längere Zeit entspannt und gänzlich still zu liegen – je länger eine Scansession andauert, desto größer ist die Gefahr bewegungsinduzierter Datenfehler. Versuche, die sprachliche Äußerungen des Probanden erfordern, können wegen schlechter Operationalisierbarkeit und auch wegen der mit dem Sprechen verbundenen Kopfbewegungen nicht ohne weiteres mit fMRT durchgeführt werden.4 Probanden geben Rückmeldung üblicherweise dadurch, dass sie unterschiedliche Knöpfe drücken. FMRT-Versuche finden stets unter diesen Bedingungen von Enge, massiver Lautstärke, weitgehender physischer Isolation, Bewegungsarmut und Sprachlosigkeit statt. Besonders die letzten drei Bedingungen schränken die Möglichkeit, typisch menschliche Eigenschaften mittels fMRT zu untersuchen, extrem ein. Ein Experiment, das unter den genannten Bedingungen starke und gut reproduzierbare Ergebnisse bringt, ist der sogenannte Hand-Squeezing-Versuch:5 Auf Anweisung ballt der Proband beide Hände zur Faust und löst sie nach einem definierten Zeitraum wieder. Gemessen wird einmal, während der Proband entspannt liegt und einmal, während er die Hände zu Fäusten ballt. Die Messwerte der beiden Datenerhebungen werden voneinander subtrahiert. Der Unterschied zwischen den beiden Zuständen lokalisiert gewissermaßen das Faustballen. Abbildung 29 zeigt Grauwerte von zwei Messungen (A, B) und den Unterschied zwischen ihnen (C). Wegen des niedrigen Signal-/Rauschverhältnisses von fMRT-Messungen ist der Unterschied im direkten Vergleich kaum ersichtlich. Erst das Subtraktionsbild mit erhöhtem Kontrast lässt Unterschiede deutli2

Vgl. Abschnitt 5.4. Es gibt im klinischen Bereich auch zu drei Seiten offene Scanner, die allerdings mit so niedrigen Feldstärken arbeiten, dass sie für die Forschung ungeeignet sind. In der Forschung an Tieren und bei der Magnetresonanzmikroskopie wird mit Geräten mit wesentlich kleineren Durchmessern (20 cm und weniger) und Feldstärken bis zu 20 T gearbeitet.

3

Vgl. Huettel/Song/McCarthy 2008, S. 74f.

4

Den Aufwand, der betrieben werden muss, um bewegungsbedingte Signalschwankungen bei der Auswertung zu berücksichtigen und die Herausforderungen bei der Interpretation solcher Versuche beschreiben Huang/Carr/Cao 2001.

5

Vgl. Huettel/Song/McCarthy 2008, S. 243f.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 161



cher hervortreten. Auffallend ist, dass nicht nur an den Orten, an denen ein Unterschied zu erwarten ist (am motorischen Cortex; seine Position auf einer Seite wird vom Fadenkreuz angezeigt), sondern auch an anderen Orten innerhalb und selbst außerhalb des Kopfes Signalunterschiede zu Tage treten. Während die Unterschiede außerhalb des Kopfes plausibel nur thermischen (Zufalls-) Schwankungen zugeschrieben werden können, bleiben die restlichen Änderungen unerklärt. Die Qualität der Bilder ist wegen der Notwendigkeit, schnelle Pulssequenzen zu benutzen, um ein Vielfaches geringer als bei der strukturellen MRT. Von einer solchen Messung bis zu farbigen Abbildungen, die sich in Publikationen finden, erfolgen noch einige Bearbeitungsschritte.6 Abbildung 29: fMRT-Unterschiedsmessung

Quelle: Huettel/Song/McCarthy 2008, S. 244.

Der Verlauf einer hämodynamischen Antwort7 (z.B. nach dem Ballen der Faust) erstreckt sich über mindestens 10 Sekunden. Üblicherweise wird etwa 46 Sekunden nach der Präsentation des Stimulus gemessen; dann ist der messbare Effekt durchschnittlich am höchsten. Welche Form und welchen Verlauf die BOLD-Funktion hat, ist von Hirnregion zu Hirnregion, von Stimulus zu Stimulus und von Mensch zu Mensch unterschiedlich.8 Um ›zufällige Aktivierungen‹ aus dem Ergebnis zur filtern, werden Experimente an möglichst vielen Versuchspersonen und mit vielen Wiederholungen sich ähnelnder Stimuli durchgeführt. Aus allen gemessenen Reaktionen aller Versuchspersonen auf die Stimuli wird dann ein Durchschnitt gebildet. Bei Einzelmessungen ist der Anteil an scheinbar zufälligen Aktivierungen so hoch und der Unterschied in der Stärke des BOLD-Signals so niedrig, dass die Messung einer Reaktion auf einen Stimu-

6

Vgl. Abschnitte 6.3 und 6.4.

7

Vgl. Abschnitt 5.6.2.

8

Vgl. ebd., S. 211f., 233f. und 264ff.

162 | D ER M ENSCH ALS NEURONALE M ASCHINE?

lus in der Regel keine Auswertung zulässt.9 Je länger ein Test dauert und je komplexer die Aufgaben sind, mit denen sich ein Proband im Tomographen beschäftigt, desto weniger kann davon ausgegangen werden, dass sich ein Proband ausschließlich mit dem präsentierten Material befasst oder gar, dass er sich auf immer gleiche Weise mit dem Stimulus auseinandersetzt (z.B. eine Aufgabe löst, die komplexer ist, als eine Hand zu schließen).10 Raichle et al. zeigten Mitte der 1990er Jahre, dass sich Hirnaktivierungen in verschiedenen Phasen bei der Bearbeitung einer Aufgabe unterscheiden: Je häufiger eine Aufgabe durchgeführt wird, desto rückläufiger ist der zerebrale Blutfluss in solchen Bereichen, die anfänglich zur Bearbeitung der Aufgabe besonders durchblutet waren.11 Wie Krakelberg hinzufügt, gilt dies aber nicht für alle Bereiche und nicht für alle untersuchten Zeitspannen gleichermaßen. Zudem kann die Wiederholung von Stimuli auch zu einer Disinhibierung – also zu einer ›enthemmten‹ Aktivitätssteigerung – führen.12 Das Prinzip der naturwissenschaftlichen Forschung ist die Beantwortung geschlossener Fragen. Durch diese Art der Fragestellung ist gewährleistet, dass sich die Frage überhaupt beantworten lässt, aber auch, in welchem Modus sie beantwortet werden kann (geschlossene Fragen beinhalten beispielsweise: wo?, wann?, ja oder nein?, wie lange?, wie viel?). Solche Fragen, die intendieren, aus einer Reihe von Antworten generalisierbare Aussagen über eine Population zu treffen, enthalten zwingend Vorannahmen über die Beschaffenheit der Sache; sie implizieren einen Eigenschaftsentwurf.13 Beim Hand-Squeezing-Versuch lautet die Frage, auf welchen Ort in den Gehirnen der Probanden sich gemessene Signalunterschiede zurückführen lassen. Das Verhalten eines Probanden läuft nur dann im Sinne der Fragestellung ab, wenn er parallel zum jeweiligen Signal die Hand schließt oder öffnet und sich 9

Vgl. Abbildung 29.

10 Vgl. McRobbie et al. 2008, S. 344f. sowie ausführlicher Poeppel 1996, S. 345. Der Artikel von Poeppel untersucht Experimente zur Linguistik, die mithilfe der Positronenemissionstomographie (PET) durchgeführt wurden. PET benötigt zwar noch längere Stimulationsphasen als fMRT, trotzdem bleibt die Einschränkung auch für fMRT bestehen. 11 Vgl. Raichle et al. 1994. 12 Vgl. Krakelberg/Boynton/Wezel 2006, S. 254. Von der Wiederholung der Stimuli abhängende Veränderungen des BOLD-Signals unterscheiden sich auch interindividuell. (Vgl. Huettel/Song/ McCarthy 2008, S. 234f.) Eine stete leichte Variation des Stimulus im Versuchsverlauf kann bei bestimmten Versuchen den Einfluss solcher Effekte auf die erhobenen Daten (wiederholte Messungen des BOLD-Signals) verkleinern. 13 Vgl. Lindemann 2005, S. 767.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 163



ansonsten unverändert verhält. Die Vorannahme der Messung lautet, dass es im motorischen Cortex eine mit der Bewegung der Hand korrespondierende neuronale Aktivität gibt, die zu einem veränderten Blutfluss führt und so ein BOLDKontrast messbar wird. Kontrolliert werden kann jedoch nur die Motorik des Probanden. Ob er Schmerz empfindet, während er eine Faust ballt, oder ob er zunächst wegen des Experiments aufgeregt ist und im späteren Verlauf Schrittfolgen für den abendlichen Tanzkurs rekapituliert, lässt sich über die im Versuchsaufbau inkorporierte geschlossene Frage nicht in Erfahrung bringen. Je komplexer die ›Hirnreaktion‹ auf einen Stimulus wird, desto verschwommener wird die Datenlage und desto schwieriger wird die Interpretation der Daten. Die Lokalisationsauflösung sinkt drastisch und die Bildung von Durchschnitten aus vielen Messungen vieler Versuchspersonen sorgt außerdem für ein Ergebnis auf dem kleinsten Nenner: Intra- und individuelle Unterschiede werden bei der Durchschnittsbildung gezielt nivelliert, da sie nicht von zufällig verteilten Messfehlern zu unterscheiden sind. Im Sinne der fMRT ist alles Abweichende und Einmalige nichts als Rauschen. Die Idee, die menschliche Hirnreaktion z.B. auf Elemente komplexer sozialer Beziehungen zu lokalisieren, wird absurd: es werden nur Gemeinsamkeiten in der Durchblutung über einen mehrsekündigen Zeitraum dargestellt. Für individuelle Konnotationen und spontane Assoziationen – Eigenschaften, die die meisten Menschen als konstitutive Elemente ihrer Person erachten – sind durchschnittsbildende Verfahren blind. Die Einschränkung, dass Abweichungen nicht erfassbar sind, gilt, wie dargestellt, schon auf rein naturwissenschaftlicher Ebene. Die Ebene von individuell erlebten Bedeutungen, also die Einbindung von Situationen und Stimuli in Lebensumstände, Selbst- und Weltkonzepte, kann mit der fMRT prinzipbedingt nicht erfasst werden. »Wesentlich aber für die soziale Umwelt des Menschen ist, daß sie ein System von Bedeutungen darstellt. Ein Haus wird nicht als Stein oder Holz, sondern als Obdach betrachtet, 14

ein Weg ist nicht planierte Erde, sondern ein Zugang, eine Spur.«

Wird dieser Umstand ignoriert, kann durchaus der Eindruck entstehen, dass bildgebende Verfahren den Menschen als eine durch ihr Gehirn determinierte Maschine zeichnen. Dies ist aber eine Fehlinterpretation, da andere Aspekte des menschlichen Lebens und Erlebens mit fMRT schlichtweg nicht untersuchbar sind, weil Auswertungen auf der Basis einzelner Stimuli nicht erfolgen können 14 Canguilhem 1989, S. 28. Zum Aspekt individueller Bedeutungen beim Lernen und der Blindheit neurobiologischer Beschreibungen von Lernvorgängen ihnen gegenüber vgl. Meyer-Drawe 2003, S. 508.

164 | D ER M ENSCH ALS NEURONALE M ASCHINE?

und weil sich Inhalte von Assoziationen, Konnotationen und Bedeutungen nicht im Stoffwechsel manifestieren. Eine so geartete Deutung der fMRT, dass man mit ihr dem Gehirn bei der Arbeit zuschauen könne, lässt sich mit Ludwik Fleck als ›stilgemäße Wahrnehmung‹, als ›Sinn-Sehen‹ innerhalb eines geschlossenen Systems deuten.15 Die Objektivierung, die durch die Ausklammerung individuellen Verstehens in reproduzierbaren Versuchen vollzogen wird, wird zum Ideal der wissenschaftlichen Suche nach Wahrheit erklärt,16 obwohl der Verhaltenshorizont der Probanden bewusst eingeschränkt wird, weil sich nur geschlossene Fragen für Versuche mittels fMRT operationalisieren lassen. Die entstehenden Bilder bieten ein hohes Maß an Anschaulichkeit, ohne jedoch die engen Grenzen des Untersuchungsherganges mit zu veranschaulichen; fMRT-Bilder sind ›Sinn-Bilder‹,17 die den Rahmen für mögliche Interpretationen setzen.

6.2 E RGEBNISINTERPRETATION – F ALLBEISPIEL G EDANKENLESEN An einem Beispiel für ein Experiment, das in den Medien hohe Wellen geschlagen hat, soll erläutert werden, welche Probleme bei der Interpretation der Bedeutung eines Versuchsausgangs auftreten können. John Dylan Haynes äußert 2007, dass es »mithilfe der Kernspintomographie erstmals gelungen [sei], eine komplexe und verborgene Absicht treffsicher zu identifizieren.«18 Die Probanden konnten dabei, wie im wissenschaftlichen Artikel19 mehrfach wiederholt wird, völlig frei entscheiden, welche von zwei vorgegebenen Optionen sie intentional verfolgen möchten. In der populärwissenschaftlichen Zeitschrift Technology Review liest sich die Zusammenfassung des Experiments wie folgt: »Mit fMRI erfahren Forscher mitunter auch mehr über die Vorgänge im Kopf einer Versuchsperson, als diese selbst darüber weiß. Mit einer solchen Entdeckung sorgt JohnDylan Haynes vom Bernstein Centre [sic!] for Computational Neuroscience in Berlin im Februar 2007 für internationales Aufsehen. Er ließ seine Versuchspersonen unter fMRIBeobachtung wählen, ob sie bei einer Rechenaufgabe zwei Zahlen addieren oder subtra-

15 Vgl. Fleck 1980, S. 165ff. 16 Vgl. ebd., S. 188f. 17 Vgl. ebd., S. 186. 18 Hövel 2007, S. 16. 19 Vgl. Haynes 2007.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 165

 hieren wollten. Dabei konnten die Wissenschaftler mit 70-prozentiger Trefferquote die Entscheidung vorhersagen – und zwar mehrere Sekunden bevor die Probanden die Zahlen überhaupt zu sehen bekamen. Neurologisch gesehen ist das eine halbe Ewigkeit.«

20

Diese Zusammenfassung vereinfacht nicht nur, wie es von einer populärwissenschaftlichen Darstellung zu erwarten ist; sie entstellt das Versuchsergebnis und ist damit symptomatisch für die Weise, in der interessierte Laien mit neurokognitiver Forschung konfrontiert werden. Wie nachfolgend gezeigt werden wird, führt ein unzureichendes Verständnis von Fragestellung, Versuchsaufbau, -durchführung und -instrumentarium in Verbindung mit einer bestimmten Erwartungshaltung zu einer mangelhaften Darstellung und Interpretation. Dabei tragen auch die Äußerungen der Wissenschaftler selbst nicht immer zur Klärung von missverständlichen oder fehlerhaften Darstellungen bei. So betont Haynes in einem Interview mit der Berliner Zeitung, das anlässlich dieser Studie geführt wurde, dass es seit kurzem Techniken gäbe, »mit denen man dem Gehirn quasi online beim Denken zusehen kann.«21 Im Fachartikel ist von ›Denkbeobachtungen‹ hingegen nicht die Rede. In der Berliner Zeitung gibt Haynes auch über die Zukunft seiner Methode eine Prognose ab: »In einigen Jahren wird man an Hirnscans ablesen können, ob jemand zum Beispiel in einem El-Kaida-Ausbildungscamp gewesen ist oder ob einer schon mal eine Bomben-Bauanleitung studiert hat.« Diese Vorhersage mag für Politiker bestimmten Einschlags verlockend klingen, ist nach der Betrachtung des tatsächlich durchgeführten Versuchs jedoch unverständlich. An der Studie nahmen acht Probanden teil; jeder Versuchsdurchgang hatte drei Schritte: Auf einem ersten Bildschirm wird der Proband aufgefordert, sich vorzunehmen, im nächsten Schritt entweder zu addieren oder zu subtrahieren. Die Zeit zwischen der ersten Anweisung und dem Bildschirmbild, auf dem die beiden zu verrechnenden Zahlen erscheinen, variiert zufällig zwischen 2,7 und 10,8 Sekunden. In dieser Zeit soll sich der Proband ganz darauf konzentrieren, ob er addieren oder subtrahieren will. Um den Zeitpunkt des Festlegens oder möglicherweise gar um vorbewusste Hirnaktivität, wie in der Technology Review suggeriert,22 ging es in dem Versuch also überhaupt nicht.23 Die Variation

20 Grabar 2008, S. 31. 21 Hövel 2007. 22 Vgl. Grabar 2007, S. 32; s.o. 23 Kurze Zeit später erschien jedoch tatsächlich aus einer anderen Arbeitsgruppe um Haynes eine fMRT-Version der (über Jahrzehnte hinweg kontrovers diskutierten) Libet-Experimente (vgl. Soon 2008). Dort lag die Trefferquote bei ebenfalls dichoto-

166 | D ER M ENSCH ALS NEURONALE M ASCHINE?

der Zeitspanne sollte nur dafür sorgen, dass der Proband auf seine Wahl konzentriert bleibt und nicht gedanklich abschweift; denn schon dadurch wäre das Versuchsergebnis gefährdet worden. Auf dem letzten Bildschirm erscheinen, von Durchgang zu Durchgang unterschiedlich angeordnet, vier Zahlen – jeweils eine pro Ecke. Eine Zahl ist das richtige Ergebnis für die Addition und eine andere Zahl das richtige Ergebnis für die Subtraktion der beiden vorher gezeigten Zahlen; die anderen beiden Zahlen stellen keine Ergebnisse der durchzuführenden Rechenoperationen dar. Jeder Ecke ist fest eine Taste zugeordnet, die der Proband stellvertretend für die Position der Zahl drücken soll, die das Ergebnis der von ihm durchgeführten Rechenoperation ist. Abbildung 30: Versuchsablauf zum Lesen verborgener Intentionen im Gehirn24

Quelle: Haynes et al. 2007, S. 324.

Bei der Datenauswertung wird in einem ersten Schritt nach Orten im Gehirn des Probanden gesucht, in denen sich erhöhte Signalamplituden bei der Konzentration auf die eine oder andere Rechenoperation lokalisieren lassen. Dazu werden die gemessenen BOLD-Antworten der einzelnen Durchläufe um die Bewegungen des Probanden korrigiert und so transformiert, dass sich die Daten aller Versuchspersonen in einem gemeinsamen Raum (hier einem MNI-Referenzgehirn) abbilden lassen.25 Damit das funktioniert, wird die ursprüngliche Auflösung von

mem Versuchsausgang allerdings bei weniger als 60 %. (Vgl. außerdem Libet 2007, S. 160ff.) 24 Das schwarze Quadrat in der Mitte dient als Blickfixierungspunkt. Augenbewegungen stören die Messung und sollen auf diese Weise minimiert werden. 25 Vgl. Abschnitt 6.4.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 167



isotrop 3 mm über einen Gauß-Filter auf 6 mm ›geglättet‹.26 Die Lokalisation erfolgt, indem der Durchschnitt der geglätteten BOLD-Signale in der Konzentrationsphase mit den durchschnittlichen BOLD-Signalen nach der Ausführung verglichen wird. Die Orte, an denen sich überzufällige Unterschiede im BOLDSignal ergeben, sind Ausgangspunkte der weiteren Analyse: Im zweiten Schritt der Datenauswertung wird danach gesucht, ob sich in den vormals identifizierten Regionen ›Muster‹ in den Signalstärken benachbarter Voxel ausmachen lassen, aus denen sich ableiten lässt, ob der Proband sich vorgenommen hatte, zu addieren oder zu subtrahieren.27 Der Ausgang des Experimentes ist dichotom: entweder das Ergebnis einer Addition oder das einer Subtraktion. Die vom Probanden durchzuführende Operation ist also eine Auswahl zwischen nur zwei Alternativen (ohne jegliche soziale Relevanz oder individuelle Bedeutung28). An verschiedenen Orten im Gehirn lassen sich Muster identifizieren, aus denen sich (je nach Ort) mit einer Genauigkeit von bis zu 71 Prozent ableiten lässt, ob sich ein Proband vorgenommen hatte, zu addieren oder zu subtrahieren. Zunächst wirkt diese Quote ziemlich hoch. Da es aber nur zwei mögliche Ausgänge bei jedem Durchgang gibt, liegt allein die Wahrscheinlichkeit, den Ausgang einer Rechnung richtig zu raten, bei 50 Prozent. Der Versuch erhöht die Quote also um 21 Prozentpunkte (40 Prozent) gegenüber bloßer Zufallsvorhersagen z.B. in Form von Münzwürfen. Rund 5/7 der Trefferquote kommen durch Zufall zustande. Unklar bleibt außerdem, was Haynes et al. wirklich gemessen haben. Zwar konnte durch das Versuchsdesign z.B. ausgeschlossen werden, dass es sich um Vorbereitungen auf das Bewegen eines bestimmten Fingers handelt, möglicherweise haben die Probanden aber einfach lieber addiert als subtrahiert, dann hätte der Versuch vielleicht eine Art Vorfreude gemessen. Zudem stellen die Versuchsteilnehmer – acht Personen aus dem Umfeld des Forschungsinstituts – keine repräsentative Stichprobe dar. Es ist ungewiss, wie die Trefferquote für andere Stichproben aussähe. ›Gedankenlesen‹ mithilfe der fMRT ist also bei diesem Verfahren aus dem Jahr 2007 und dichotomen Versuchsausgängen sehr weit da26 Vgl. Haynes et al. 2007, S. 326. Zur Bedeutung der Auflösung vgl. Abschnitt 5.6.2. Zur Rolle von Normalisierung und Glättung vgl. Abbildung 34 sowie Friston 2007, S. 13f. 27 Die Mustererkennung ist eine Weiterentwicklung gegenüber der einfachen kognitiven Subtraktion aus dem ersten Auswertungsschritt zur Lokalisation. Sie wird immer häufiger bei neurokognitiven Experimenten eingesetzt, in Lehrbüchern wird sie aber bisher, wenn überhaupt, nur sehr knapp behandelt. Daher wird sie im Rahmen dieser Arbeit nicht weiter berücksichtigt. 28 Zur Relevanz sozialer und individueller Bedeutung vgl. Abschnitte 3.1.1 und 3.3.

168 | D ER M ENSCH ALS NEURONALE M ASCHINE?

von entfernt, ein Lesen in einem alltäglichen Sinne zu sein. Die Formulierung einer Quote ist typischer Ausdruck einer deskriptiven statistischen Aussage. Statistik wird aber nur dort benötigt, wo eben nicht sicher ›gelesen‹ werden kann, weil kein eindeutiger Zusammenhang zwischen den Variablen besteht.

6.3 K ORRELATIVE B EZIEHUNGEN Der Korrelationskoeffizient r ist eine statistische Kennzahl für die Stärke eines (linearen) Zusammenhanges zwischen zwei Variablen. Zusammenhänge bestehen z.B. zwischen dem Radius eines Kreises und seinem Umfang, zwischen Größe und Gewicht von Säugetieren oder zwischen Bildungs- und Einkommensniveau. Ein Korrelationskoeffizient kann bei positiven Zusammenhängen (je mehr A desto mehr B) zwischen 0 (kein Zusammenhang) und 1 (perfekter Zusammenhang) liegen, bei negativen Zusammenhängen (je mehr A desto weniger B) zwischen 0 und -1. Eine Quadratur des Korrelationskoeffizienten ergibt den sogenannten Determinationskoeffizienten r². Mit r² lässt sich ein korrelativer Zusammenhang anschaulich quantifizieren: Ein Korrelationskoeffizient von r= .6 ergibt einen Determinationskoeffizienten von r²= .36 und bedeutet, dass sich 36 Prozent der Varianz der Variablen B durch die Varianz von A beschreiben lassen (und umgekehrt). Über Ursachen gibt der Korrelationskoeffizient keine Auskunft. Einerseits wäre es plausibel zu behaupten, dass das Einkommensniveau vom Bildungsstand einer Person abhängt. Andererseits könnte man sich auch gut eine Aristokratie vorstellen, in der nur Mitglieder der Oberschicht überhaupt Zugang zu Bildung haben und auch nur sie auf gut bezahlte Posten berufen werden können. Die Korrelation zwischen Bildungs- und Einkommensniveau bestünde auch hier, der Grund für beides wäre aber die soziale Herkunft. Auch die Höhe des Korrelationskoeffizienten sagt nur etwas über die Stärke eines Zusammenhangs, nicht aber über einen ursächlichen Zusammenhang aus. Anders ist dies nur bei perfekten Zusammenhängen, wie dem Zusammenhang zwischen Radius und Umfang eines Kreises. Hier kann der eine nicht variieren während der andere konstant bleibt, was bei Korrelationen kleiner 1 möglich ist. Eine Vergrößerung des Radius geht immer mit einer Vergrößerung des Umfangs einher. Bei solchen eineindeutigen Zusammenhängen wird zur Beschreibung natürlich kein Korrelationskoeffizient benötigt, stattdessen ist hier die Notation U=2πr (der Umfang eines Kreises entspricht seinem Durchmesser mal der Kreiszahl Pi) vorzuziehen. Wäre fMRT ein Verfahren, das Auskunft über physisch

B ILDGENESE UND I NTERPRETATION DER F MRT

| 169



determinierte Gesetzmäßigkeiten geben könnte,29 wären im Verfahrensablauf vor allem solche mathematisch eindeutig beschreibbaren Zusammenhänge zu erwarten. Das ist jedoch nicht der Fall: Der einzige Zusammenhang dieser Art unter den Arbeitsschritten der MRT ist die Fouriertransformation zwischen Bild- und K-Raum.30 Zur Verdeutlichung des Unterschiedes zwischen eindeutig ursächlichen Beziehungen und mehrdeutigen Beziehungen führen Huettel/Song/McCarthy das Beispiel einer Dampfmaschine an, das hier in veränderter Form aufgegriffen wird. Das Sicherheitsventil einer Dampfmaschine pfeift (korrekte Funktion vorausgesetzt) immer dann und nur dann, wenn der Dampfdruck einen bestimmten Schwellenwert übersteigt. Das Pfeifen des Sicherheitsventils lässt sich also auf genau eine Ursache zurückführen. Eine solche Beziehung wird ›eineindeutig‹ genannt: der Dampfdruck ist sowohl notwendig als auch hinreichend für die Aktivität des Überdruckventils. Etwas anders sieht der Mechanismus beim Aktionspotenzial einer Nervenzelle aus. Ein Aktionspotenzial lässt sich einerseits dann beobachten, wenn die bioelektrische Spannung am Axonhügel einen bestimmten Schwellenwert übersteigt, dort also ein Aktionspotenzial ausgelöst wird. Andererseits können z.B. per elektrischer intrakranialer Stimulation oder elektromagnetischer transkranialer Magnetstimulation (TMS) Aktionspotenziale induziert werden, ohne dass die Schwellenspannung am Axonhügel erreicht wird. Bei manueller Stimulation lässt sich das Aktionspotenzial nicht mehr eindeutig einer Ursache zuschreiben; ein Überschreiten der Schwellenspannung am Axonhügel führt aber immer dann zu einem Aktionspotenzial, wenn die Zelle ein Ruhepotenzial aufgebaut hat.31 Die Schwellenspannung ist in diesem Beispiel hinreichend aber nicht notwendig für das Zustandekommen eines Aktionspotenzials, wohingegen das Ruhepotenzial notwendig aber nicht hinreichend für das Auslösen eines Aktionspotenzials ist. Der Zusammenhang zwischen neuronaler Aktivität und fMRT-Signal ist noch indirekter. Eine Veränderung des Signals kann nicht nur von einer Nervenzellaktivität, sondern z.B. auch über eine Veränderung des Sauerstoffgehaltes der Atemluft oder durch Bewegungen des Probanden im Tomographen erzeugt werden.32 Für den Fall, dass sich alle Einflussfaktoren auf das BOLD-Signal bis auf den zu Untersuchenden konstant halten ließen, könnte die Veränderung des BOLD-Signals quantifizierbar auf die unabhängige Variable (den zu untersu29 Vgl. Abschnitt 3.1. 30 Vgl. Abschnitt 5.4. 31 Vgl. Birbaumer/Schmidt 2006, S. 37f. 32 Vgl. auch Sirotin/Das 2009.

170 | D ER M ENSCH ALS NEURONALE M ASCHINE?

chenden Einflussfaktor) zurückgeführt werden. Da die Versuchsbedingungen bei lebenden Menschen bei Bewusstsein jedoch nicht konstant gehalten werden können,33 lässt sich nie genau angeben, wie viel der Veränderung der einen Variable auf eine Veränderung der anderen Variable zurückzuführen ist. Während das Übersteigen des Luftdruckschwellenwertes bei der Dampfmaschine nur eine Reaktion – nämlich das Auslösen des pfeifenden Überdruckventils – zur Folge hat, hat eine Veränderung des Sauerstoffgehalts in der Atemluft (z.B. durch Veränderung der Atemfrequenz) vielfältige Wirkungen auf den Organismus, wie z.B. eine Beschleunigung des Herzschlags, der wiederum Einfluss auf den Blutfluss hat etc. Wird zudem berücksichtigt, dass überdurchschnittliche Nervenaktivität über einen gewissen Zeitraum hinweg und in großen Zellhaufen stattfinden muss, um überhaupt detektierbar zu sein, lässt sich konstatieren, dass Nervenzellaktivität weder notwendig noch hinreichend für Änderungen im MRT-Signal ist. Messen lässt sich hingegen, wie verlässlich ein Experiment reproduzierbar zu den gleichen Ergebnissen führt: Sogenannte Finger-Tapping-Experimente, bei denen die Gehirnaktivität während der Bewegung eines Fingers mit der Gehirnaktivität in Ruhe verglichen wird, gehören zu den am zuverlässigsten zu reproduzierenden Experimenten der fMRT.34 Dennoch korrelieren die Messungen im Bereich der erwartungsgemäß stärksten Hirnaktivität im Motorcortex nur mit r= .7,35 was bedeutet, dass sich ungefähr die Hälfte der Varianz des gemessenen fMRT-Signals durch die Bewegung der Finger erklären lässt. Da sich Experimente ceteris paribus bei der fMRT nicht realisieren lassen, da kein eineindeutiger Zusammenhang zwischen Hirnaktivität und fMRT-Signal besteht, und da das SNR bei schnellen fMRT-Pulssequenzen (zumindest derzeit) außerordentlich niedrig ist, kann der Effekt eines Stimulus auf das BOLD-Signal nicht zuverlässig quantifiziert werden. Stattdessen geben farbige Bilder als Ergebnis von fMRT-Experimenten wieder, ob lokalisierte Signalschwankungen überzufällig und in plausiblem zeitlichem Zusammenhang mit gegebenen Stimuli auftreten.36 Dafür werden einerseits Durchschnitte aus vielen Versuchsdurchgängen gebildet, um Zufallsschwankungen zu minimieren. Andererseits müssen (idealer Weise) alle anderen Einflussfaktoren auf das Signal, die mit den Stimuli korrelieren – das können z.B. Bewegungen oder Änderungen in der Atmung als Reaktion auf die Stimuli sein – identifiziert und aus den Daten herausgerechnet werden. Bewegungen des Probanden lassen sich dabei nicht immer vollständig 33 Vgl. Abschnitt 3.2. 34 Finger-Tapping-Experimente sind insofern vergleichbar mit dem im Abschnitt 6.1 beschriebenen Hand-Squeeze-Experiment. 35 Vgl. Kong et al. 2007, S. 1175. 36 Vgl. Abschnitt 6.4.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 171



nachträglich korrigieren.37 Alle nicht identifizierten, mit den Stimuli zusammenhängenden Faktoren, die das Signal beeinflussen, können das Ergebnis verfälschen: Sie führen zu Signalschwankungen, deren Ursache kein zufälliges Ereignis ist – die also durch Durchschnittsbildungen nicht getilgt werden – aber deren Auslöser auch keine Änderung der Gehirnaktivität als Folge des Stimulus sein muss. Eine Korrelation, z.B. ein gleichzeitiges Auftreten zweier Merkmale, sagt nichts über deren ursächlichen Zusammenhang aus. Auch zwischen Kriminalitätsrate und Speiseeiskonsum oder zwischen Storchenpopulation und Geburtenrate bestehen jeweils signifikante Korrelationen, dennoch ist Speiseeis ebenso wenig die Ursache für Kriminalität wie Störche es für Kinderreichtum sind.38 Daraus aber zu schließen, Korrelation sei synonym für unbedeutend, wäre falsch. Gegebenenfalls lassen sich die möglichen Ursachen für eine Änderung des fMRT-Signals plausibel eingrenzen. Bei einem fMRT-Experimenten kann die Signaländerung dann auf einen verabreichten Stimulus zurückgeführt werden, wenn das Experiment sauber durchgeführt wird, alle Störungen minimiert, Reststörungen erkannt und in der Auswertung berücksichtigt werden, die Versuchsperson immer gleich und in antizipierter Weise auf die präsentierten Stimuli reagiert, Messfehler sich bei Durchschnittsbildung nivellieren und das gewählte Versuchsdesign dazu geeignet ist, eine lokal begrenzte Durchblutungsänderung im Gehirn hervorzurufen. Ließen sich die Einflüsse auf das fMRT-Signal voneinander isoliert messen und in gleicher Weise quantifizieren, könnte sogar errechnet werden, welcher Faktor wie viel der Änderung im BOLD-Signal aufklärt.39 Qualität und Validität eines Experimentes sind v.a. von fachfremden Lesern eines Artikels schwer zu beurteilen. Stehen als Quelle allein Hirnschnittbilder zur Verfügung, lässt sich über Stärke und Validität eines Zusammenhangs gar

37 Z.B. kann bei Bewegungen während der Phase der Messung nach der Stimuluspräsentation eine Schicht doppelt, nur zum Teil oder gar nicht angeregt werden, bevor das emittierte Signal gemessen wird. Diese Art von Fehler lässt sich nicht korrigieren; bleiben solche Messungen unbemerkt und werden nicht aus der Auswertung entfernt, ist das Ergebnis des Versuchs unweigerlich verfälscht. (Vgl. Huettel/Song/McCarthy 2008, S. 271ff.) 38 Für den Zusammenhang zwischen Speiseeiskonsum und Kriminalitätsrate könnte das Wetter eine plausible Erklärung bieten, Storchenpopulation und Kinderquote könnten vom Grad der Industrialisierung einer Region abhängen. Weitere unterhaltsame Beispiele für nicht-ursächliche Korrelationen gibt z.B. Krämer 2002, S. 165ff. 39 Vgl. Bortz 2005, S. 511ff.

172 | D ER M ENSCH ALS NEURONALE M ASCHINE?

nichts aussagen,40 und selbst aus Artikeln in angesehenen Fachzeitschriften geht nicht unbedingt hervor, ob die Auswertung statistisch einwandfrei abgelaufen ist. Für ausufernde Diskussionen sorgte eine Forschergruppe um den Statistiker Ed Vul mit einem im Mai 2009 erschienenen, vorab schon in einer Onlineversion verfügbaren Aufsatz, der »überraschend hohe Korrelationen« bei der Erklärung von fMRT-Signalen durch Emotionen und Persönlichkeitsmerkmale untersucht.41 Vul et al. argumentieren, dass die Gesamterklärungskraft eines sich über viele Durchgänge und Versuchspersonen erstreckenden fMRT-Versuchs nicht höher sein könne als das Kreuzprodukt der Reliabilitätswerte der einzelnen zugrunde liegenden Messverfahren (z.B. die Zuverlässigkeit, mit der ein Persönlichkeitstest tatsächlich Persönlichkeit zu messen vermag, oder eine Test-RetestReliabilität42). Bei vielen der analysierten Studien sei aber festzustellen gewesen, dass ihre scheinbare, am Korrelationskoeffizienten festgemachte Erklärungskraft höher ist, als die Reliabilität einzelner Komponenten. Aus den untersuchten Publikationen selbst war die Ursache für diese Problematik nicht erkennbar. Vul et al. befragten die Autoren von 55 Studien nach Details bei der Datenauswertung. Dabei stellte sich heraus, dass in 29 der 55 Studien ein statistisches Datenfilterverfahren (ein sogenannter threshold-Filter) auf solche Weise eingesetzt wurde, dass die Auswertung selbst dann eine deutliche Korrelation ergeben hätte, wenn die Daten ausschließlich aus Rauschen (zufälligen Schwankungen) bestanden hätten. In Anlehnung an frühere Präparationstechniken der Mikrokopie, bei denen gegebenenfalls im Präparat vor allem das Präparationsverfahren zur Darstellung kam,43 manifestierte sich hier für die fMRT der Extremfall, bei dem unter Umständen nur das Datenauswertungsverfahren selbst durch die Bilder dargestellt wird. Während die Metaanalyse von Vul et al. in Kommentaren (in der gleichen Ausgabe der Zeitschrift) überwiegend Zurückweisung erhält,44 findet sich dort auch ein Beitrag von Yarkoni, der ihre Perspektive nicht nur übernimmt, sondern darüber hinaus konstatiert, dass der von Vul et al. kritisierte Umgang mit dem threshold-Filter nur einen kleinen Teil möglicher Übertreibungen in veröffentlichten Korrelationskoeffizienten ausmache.45 Ein weiterer wichtiger Grund für aufgeblähte Zusammenhänge sei die oft kleine Anzahl an beteiligten Versuchs40 Vgl. Abschnitt 6.4. 41 Vgl. Vul 2009. 42 Vgl. Kong et al. 2007, S. 1175. 43 Vgl. Abschnitt 4.1.3, insbesondere S. 87. 44 Zu den Vorwürfen gehört auch, Vul et al. hätten selbst methodisch äußerst unsauber gearbeitet (vgl. Liebermann/Berkman/Wager 2009). 45 Vgl. Yarkoni 2009.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 173



personen, die im Zusammenhang mit einer bestimmten (t-) Statistik stärkere Korrelationen ausweise als es mit einer größeren Zahl an Probanden der Fall wäre. Yarkoni fordert, dass eine Analyse der Teststärke (statistical power) in den Methodenteil jeder fMRT-Studie aufgenommen werden müsse und resümiert, dass fMRT-Studien mit veröffentlichten Korrelationen von r= .7 oder mehr grundsätzlich mit Misstrauen zu begegnen sei. Eine mögliche Erklärung für die unangemessene Anwendung statistischer Werkzeuge ist (semi-)automatische Auswertungssoftware (darunter Brain Voyager, SPM oder Freesurfer), die die Anwendung verschiedener Module und Filter ohne die genaue Kenntnis ihrer Voraussetzungen und potenziellen Fehlerquellen erlaubt.46 »It is tempering for those new to the technique to assume that it is unnecessary to understand the working of such programs. Indeed, one can use the technique of fMRI without understanding its physical and biological foundations, making those foundations seem unnecessary for (or even impediments to) scientific progress. We believe that as these attitudes have become increasingly common, they almost invariably lead to research errors, false claims, or misinterpretations. […] One should not blindly trust data analysis packages, because each statistical approach, like any other aspect of research, has strengths and weaknesses. […] The power of fMRI allows researchers to not only address important 47

questions, but also to make spectacular mistakes.«

Somit bleibt festzuhalten, dass die Beurteilung von Zusammenhängen und den mit ihnen verbundenen Kennwerten bei der fMRT nicht unproblematisch ist. Anscheinend wurden Auswertungsmethoden nicht immer in gebotener Weise angewendet, und selbst wenn eine Auswertung statistisch sauber erfolgt, muss eine Korrelation zwischen Stimuli und Signalschwankungen nicht auf die gewünschte Weise durch den Stimulus verursacht sein – in Grenzfällen kann selbst eine graduelle Veränderung des statischen Magnetfeldes im Tomographen (bekannt als scanner drift) zu statistisch signifikanten Ergebnissen führen.48 Aus Kennwerten oder gar aus bildlichen Darstellungen allein ist die Validität einer Studie deshalb nicht ersichtlich. Es erscheint fragwürdig, ob sich das PeerReview-Verfahren in allen Fällen als Instanz der Qualitätskontrolle eignet. Andernfalls, so läge die Vermutung nahe, hätte die Studie von Vul et al. nicht ein so 46 Vgl. auch Huettel/Song/MacCarthy 2008, S. 267ff. Hier werden, über die Überprüfung der Datenqualität und Teststärke hinaus, unabhängige Qualitätssicherungsmaßnahmen für sämtliche Schritte eines fMRT-Versuchs gefordert. 47 Ebd., S. 512f. 48 Vgl. ebd., S. 337.

174 | D ER M ENSCH ALS NEURONALE M ASCHINE?

eklatantes Problem identifizieren können. Hier könnte die durch wiederholte Anwendung verursachte Etablierung einer bestimmten Methode – ihre Eingliederung in den selbstverständlichen Denkstil – zu einer fachinternen Blindheit gegenüber ihren Mängeln geführt haben. Vul et al. verweisen außerdem auf einen viel zitierten Artikel von Ioannidis,49 der Faktoren nennt, die zu einer hohen Rate an Publikation führen können, deren Ergebnisse fälschlicherweise positiv erscheinen. Darunter befinden sich neben Prädiktoren für Irrtümer, die sich aus methodischen Überlegungen ergeben (z.B. Größe und Art der Stichprobe oder Effektstärke), auch Faktoren, deren Einfluss nur über soziale Interaktionsprozesse zu erklären ist, nämlich: finanzielle Interessen oder die Anzahl der Konkurrenten im Forschungsfeld.50 Die Implikationen nicht-spezifizierbarer Wirkungsrichtungen statistischer Zusammenhänge auf die Interpretation von Ergebnissen in sozialen Kontexten sollen an folgendem Beispiel erläutert werden: In einer Studie von 2000 stellten Raine et al. fest, dass eine Gruppe von Probanden, bei denen eine dissoziale Persönlichkeitsstörung (antisocial personality disorder, APD) diagnostiziert wurde, gegenüber den gesunden Mitgliedern einer Kontrollgruppe durchschnittlich 11 Prozent weniger Volumen an grauer Substanz im präfrontalen Cortex (PFC) aufwiesen.51 Über einen Zusammenhang zwischen Funktionen des PFC und Sozialverhalten wird schon lange geforscht, und Raines Untersuchungen sind inzwischen mehrfach repliziert. Doch lassen sich aus diesen Befunden Rückschlüsse vom Volumen der grauen Substanz einer bestimmten Hirnregion einer Person auf ihr Sozialverhalten ziehen oder sogar eine psychiatrische Störung diagnostizieren? Mehr als ein Drittel der APD-Patienten der Untersuchung von Raine und Kollegen wiesen Volumina an grauer Substanz im PFC auf, die über dem Durchschnitt der Kontrollgruppe lagen. Ein verringertes Volumen an grauer Substanz im PFC ist also weder notwendig noch hinreichend für das Auftreten einer dissozialen Persönlichkeitsstörung. Auch wenn Verletzungen des präfrontalen Cortex zu Persönlichkeitsveränderungen führen können,52 ist die Reichwei-

49 Vgl. Ioannidis 2005. 50 Ethnografische Analysen sozialer Prozesse in der Hirnforschung bietet Dumit 2004. Weitere Berichte über den Umgang mit medizinischen Bildern liefert Burri 2008. 51 Vgl. Raine 2000. Für die Analyse der Hirnvolumina wurde nur die strukturelle MRT verwendet, die zusätzlichen charakteristischen Ungenauigkeiten der fMRT treten hier nicht auf. 52 Das prominenteste Beispiel bildet wohl der Fall von Phineas Gage, einem Eisenbahnarbeiter, an dem eine starke Persönlichkeitsveränderung beobachtet wurde, nachdem er einen Unfall überlebte, bei welchem sich eine Stahlstange durch einen Teil seines

B ILDGENESE UND I NTERPRETATION DER F MRT

| 175



te dieses Befundes aus aggregierten Daten also begrenzt. Es lässt sich beispielsweise kein Grenzwert identifizieren, ab welcher Abweichung vom durchschnittlichen PFC-Volumen ein Individuum als sozial gestört gelten solle.53 Analog ist auch eine leicht über- oder unterdurchschnittliche Durchblutung bestimmter Hirnareale nicht notwendig oder hinreichend für die Erklärung menschlicher Eigenschaften.

6.4 D ARSTELLUNGSSTILE – F MRT-B ILDER ALS K OMPOSITA Einen Beitrag zur hohen Einschätzung der Bedeutung neurowissenschaftlicher Studien leisten auch viele der üblichen Darstellungsweisen der fMRT. Die Abbildungen in diesem Abschnitt zeigen einen Ausschnitt aus der Vielfalt, mit der die Essenz aus Versuchsergebnissen visualisiert werden sollen. Abbildung 31 zeigt in der linken Hälfte eine anatomische Aufnahme, die mit den Parametern einer funktionalen Pulssequenz aufgenommen wurde. Die rechte Seite zeigt zum Vergleich eine T1-gewichtete strukturelle Aufnahme der gleichen Schnittebene der gleichen Person. Abbildung 31: Funktionelle versus strukturelle Parameter

Quelle: Huettel/Song/McCarthy 2008, S. 281.

Zunächst fällt auf, dass hier eine Detailarmut vorliegt, die sich auf üblicherweise veröffentlichten fMRT-Bildern nicht findet. Diese Diskrepanz lässt sich primär dadurch erklären, dass die Ergebnisse des funktionellen Teils der MRT fast immer auf eine strukturelle Aufnahme oder ein Referenzgehirn projiziert werden, da die Bilder sonst keine schnelle visuelle Orientierungshilfe bieten könnten –

Schädels bohrte. Eine Rekonstruktion seiner Hirnverletzung bieten Damasio et al. 1994. 53 Vgl. auch Gazzaniga 2006, S. 95ff.

176 | D ER M ENSCH ALS NEURONALE M ASCHINE?

denn das ist in originär wissenschaftlichen Kontexten schließlich ihr Zweck.54 Referenzgehirne werden immer dann verwendet, wenn es Vergleiche zwischen unterschiedlichen Studien zu ermöglichen gilt. Würde bei jedem Versuch ein neues ›Durchschnittshirn‹ aus den Aufnahmen der Gehirne der Teilnehmer gebildet, wären Vergleiche nicht möglich. Andere Wissenschaftler könnten Forschungsergebnisse nicht nachvollziehen, da ein gemeinsames Referenzbezugssystem fehlte. An zwei Beispielen soll kurz erläutert werden, dass Referenzgehirne in der Vergangenheit allerdings keine besonders repräsentativen Bezugssysteme waren. Talairach und Tournoux entwickelten 1988 ein Referenzgehirn,55 indem sie eine Hemisphäre einer über 60-jährigen verstorbenen Frau vermaßen, die frei präparierten anatomischen Strukturen mit Koordinaten belegten und die Koordinaten der einen Hirnhälfte spiegelten, um ein vollständiges Gehirn zu erhalten. Wegen der Koordinaten für anatomische Strukturen (und Brodmann-Areale) hat dieses Modell seinen Status als Referenz bis heute erhalten können. Arbeiten Hirnforscher im Talairach-Raum, können sie anhand der Koordinaten, an denen sie Effekte messen, im zugehörigen Atlas nachschlagen, welche anatomische Struktur (wahrscheinlich) zu einer Erhöhung des BOLD-Signals beiträgt. Abbildung 32 (oben) nutzt als Projektionsfläche ein Talairach-Referenzgehirn. Abbildung 32: Datenvisualisierung auf Talairach- und MNI-305Referenzgehirn

Quelle: Outputvarianten der Auswertungssoftware SPM (oben), Holderegger 2007, S. 473 (unten).

Ein anderes, ebenfalls häufig verwendetes Referenzgehirn, wurde vom Montreal Neurological Institute (MNI) als Durchschnitt aus 305 strukturellen Hirnscans entwickelt. Abbildung 32 (unten) zeigt als Projektionsfläche ein solches ›Durch54 Eine seltene originäre fMRT-Abbildung findet sich z.B. bei Genovese 2002, S. 876. Wenn nicht kontextbedingt klar wäre, was hier dargestellt ist, wäre die Anhäufung von Pixeln kaum als Hirnscan zu identifizieren (vgl. auch Abschnitt 4.2.3). 55 Vgl. Talairach/Tournoux 1988.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 177



schnittsgehirn‹. Repräsentativ ist jedoch auch das MNI-305-Gehirn nicht. Es beruht auf gemittelten Daten der Gehirne von 239 Männer und 66 Frauen (alle Rechtshänder) im Durchschnittsalter von 23,4 (±4,1) Jahren. Da sich alle Gehirne in Form und Funktion, Volumen und Masse voneinander unterscheiden, zeichnen sich Durchschnittsgehirne durch eine gewisse Unschärfe aus.56 Um Scans von Einzelpersonen an einen Standardraum anzupassen, sodass das Gros markanter anatomischer Strukturen mit dem Referenzgehirn übereinstimmt, müssen sie in allen drei Raumdimensionen in nicht-linearer Weise transformiert werden. Dieser Transformationsprozess wird »Warping« genannt. Abbildung 33 zeigt den Effekt des Warpings auf eine gleichmäßig unterteilte Fläche. Eine vormals plane Fläche kann nach dem Warping fast beliebige Formen annehmen, indem sie nicht-linear in drei Raumdimensionen gezogen und gestaucht wird. Ein Voxel kann sich nach dem Warping an einer anderen Stelle im Raum wiederfinden, und er kann mehr oder auch weniger Raum (d.h.: Gehirn) repräsentieren als vorher. Abbildung 33: Nicht-lineare Raumtransformation (Warping)

Quelle: Friston 2007, S. 67 und 70.

Bei Abbildung 32 (oben) sticht ins Auge, dass die farblichen Markierungen nicht grob pixelig wirken, wie bei der in Graustufen codierten Darstellung eines Messergebnisses in Abbildung 29C (S. 161), sondern viel besser aufgelöste Ränder und Abstufungen aufweist.57 Dies ist durch den dem Warping folgenden Bearbeitungsschritt, das Glätten (engl.: Smoothing) zu erklären. 56 MNI- und Talairach-Referenzgehirne lassen sich mathematisch ineinander überführen (allerdings nicht immer genau), sodass auch für die Identifikation anatomischer Strukturen bei Versuchen im MNI-Raum der Talairach-Atlas genutzt werden kann. 57 Im unteren Teil von Abbildung 32 ist eine Voxel-Blockstruktur noch am ehesten zu erkennen. Das bedeutet nicht, dass die verwendete Methode schlechter ist als bei den übrigen Darstellungen, sondern nur, dass die Daten weniger geglättet wurden.

178 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Abbildung 34: Glättung (Smoothing) per Gauß-Filter

Quelle: Eigenanfertigung.

Durch Warping entstehen zwangsläufig räumliche Missrepräsentationen. Um diese zu kompensieren, werden Daten so ›geglättet‹, dass das Signal aus einem Voxel auf die Nachbarvoxel verteilt wird: Voxel mit starkem Signal strahlen auf ihre Nachbarn aus, Voxel mit wenig Signal dimmen ihre Nachbarn. Die Auflösung des Bildes sinkt beim Smoothing deutlich; jedoch geht die Blockstruktur der Voxel verloren, wodurch eine höhere Auflösung suggeriert wird. Abbildung 34 visualisiert diesen Effekt an einer willkürlich zusammengestellten Menge schwarzer Quadrate. Neben Projektionsfläche und Glättungsgrad unterscheiden sich fMRTDarstellungen außerdem durch ihre Farbgebung. Farben können gleichzeitig eine ganze Reihe verschiedener Versuchsteilergebnisse codieren – in verschiedenen Bildern können die gleichen Ergebnisse aber auch ganz unterschiedlich dargestellt werden: Im oberen Teil von Abbildung 35 dienen die unterschiedlichen Farben dazu, Reaktionen auf verschiedene Stimuli zu lokalisieren. Im mittleren Teil werden zwei Farbskalen verwendet (die eine von Braun über Rot zu Gelb, die zweite von Blau über Violett zu Weiß), um einerseits Aktivierung (durchschnittlich erhöhtes Signal) und andererseits Inhibierung (durchschnittlich niedrigeres Signal) als hämodynamische Antwort auf einen Stimulus anzuzeigen. Abbildung 32 (oben) und Abbildung 35 (dritte Zeile) repräsentieren jeweils den gleichen Datensatz. Bei Abbildung 35 sind die statistischen Signifikanzniveaus unterschiedlich gewählt (ein Signifikanzniveau ist Ausdruck der Entscheidung, wie wahrscheinlich ein Unterschied in den Daten zwischen zwei Versuchsbedingungen im Bild farblich gekennzeichnet wird, obwohl er zufallsbasiert ist). Statt Signifikanzniveau wird manchmal auch von Irrtumswahrscheinlichkeit gesprochen: Bei einem Signifikanzniveau von p=0,05 ist zu erwarten, dass von 100 gemessenen Voxeln fünf irrtümlich als signifikant eingestuft werden, obwohl sich ihre Signalemissionen nur zufällig voneinander unterscheiden.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 179



Ein kompletter Hirnscan enthält mindestens 60.000 Voxel, was ohne Korrektur bei p=0,05 zu etwa 3000 fälschlicherweise als signifikant angezeigten Voxeln führen kann; das zeigt sich besonders offensichtlich an ›Aktivierungen‹ in Hirnhäuten und Schädeldecke im rechten Bild der dritten Zeile von Abbildung 35. Die Visualisierung des Datensatzes wirkt mit der nötigen Korrektur (ganz links) völlig anders als ohne. Auch die beiden Teile von Abbildung 32 (S. 176) wirken allein aufgrund unterschiedlicher Darstellungsweisen sehr verschieden. Bei diesen beiden Varianten sind Daten und Signifikanzniveau identisch. Der einzige Unterschied: Links sind Signifikanzwerte über eine Farbskala codiert (dunkel: niedrige Signifikanz, hell: hohe Signifikanz), rechts wird die Signifikanz allein über die Intensität einer Farbe angezeigt. Abbildung 35: Modellierung und Farbgebung

Quelle: Hasson 2008, S. 2543 (oben), Online-Tutorial des mri3dXZusatzprogramms zur Auswertungssoftware Freesurfer (mitte), Huettel/Song/McCarthy 2008, S. 358 (unten).

Die oberen beiden Zeilen von Abbildung 35 illustrieren eine relativ junge Option der Datenvisualisierung; in ihnen tritt der Modellcharakter der Projektionsfläche

180 | D ER M ENSCH ALS NEURONALE M ASCHINE?

deutlicher zutage.58 Die zugrunde liegenden Gehirnmodelle sind hier ›aufgeblasen‹ worden (zweite Zeile, mittig: zu 70 Prozent aufgeblasen, rechts: vollständig aufgeblasen). Die Hirnrinde (der Cortex) ist im Schädel gewellt und bildet Hügel (Gyri) und Furchen (Sulci) – in nicht-aufgeblasenem Zustand (zweite Zeile, links) sind die Sulci kaum sichtbar. Dies kann unter Umständen dazu führen, dass eine helle oder intensive Farbe als Projektion auf einem Referenzgehirn gar keinen hohen Signifikanzwert anzeigt, sondern lediglich große (nicht-sichtbare) Stellen im Sulcus hinter der Färbung mit niedrigen Signifikanzwerten. In der ersten Zeile von Abbildung 35 ist das aufgeblasene Hirnmodell zusätzlich aufgefaltet. Diese Form der Projektionsfläche lässt wenig Raum für Verwechselung mit einem realen Gehirn. Ganz im Gegensatz dazu verkörpert die Darstellungsweise in Abbildung 36 wohl am ehesten den bildlichen Eindruck der Annahme, dem Hirn beim Denken zuschauen zu können. Abbildung 36: fMRT-Bildmetaphorik

Quelle: http://www.radiologie.rub.de/imperia/md/images/institut/mrt/fmri.jpg

Die Einbettung des anatomischen Schnittbildes in eine Kopfform (die Konturen des Kopfes eines Probanden lassen sich aus Messungen der strukturellen MRT problemlos extrahieren) und die warme Farbgebung hauchen dem Bild beinahe

58 Vor- und Nachteile solcher Gehirnmodelle vertieft z.B. Essen 2004.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 181



Leben ein. Auf der anderen Seite enthält das Bild viele für die Interpretation nötige wissenschaftliche Angaben: Am rechten Rand finden sich Farbskalen für die Codierung von Signifikanzwerten, und am linken unteren Bildrand sind Scanparameter vermerkt. Die Holzmaserung der Kopfrekonstruktion hat allerdings ausschließlich eine Ästhetisierungsfunktion; sie ist aus wissenschaftlicher Sicht in keiner Weise relevant.59 Zu resümieren bleibt: Ohne Erläuterung (Scan- und Glättungsauflösung, Signifikanzwerte und angewendete Korrekturmaßnahmen, Farbcodierung und Teststärke) haben Bilder der fMRT keine wissenschaftliche Aussage. Durch ihren Kompositcharakter und durch die unumgängliche Anwendung von Smoothingalgorithmen suggerieren sie eine Präzision, die Welten von der Datenlage entfernt sein kann – von Auflösung und Schärfe der Projektionsflächen lassen sich keine Rückschlüsse auf die Datenqualität ziehen. Die Verwendung von Farbskalen der Schwarzkörperstrahlung (von schwarz über rot und gelb zu weiß) kann eine Interpretationen im Sinne einer offensichtlichen und sicheren Aktivierung begünstigen.60 Dabei sagen Signifikanzwerte nur wenig über Effektstärken aus, und über Modifikationen an statistischen Parametern lässt sich aus fast jedem Datensatz eine eindrucksvolle Abbildung erstellen.61 Die Frage, die Ottino 2003 im Magazin Nature stellt, liegt dann auch bei der fMRT nahe: Nützen solche Präzision vorgaukelnden High-Tech-Abbildungen dem wissenschaftlichen Verständnis?62

6.5 Z USAMMENFASSUNG UND B EWERTUNG Die funktionelle Magnetresonanztomographie ist ein instrumentelles Forschungsverfahren, das von der Hirnforschung genutzt wird, um funktionelle Zusammenhänge zwischen lokalen Veränderungen im zerebralen Sauerstoffmetabolismus und motorischen Aktionen sowie Reizverarbeitung aufzuzeigen. Sie wird insbesondere im anatomischen Bereich eingesetzt, um zum Beispiel Fragen der funktionellen Verknüpfungen und stabilen neuronalen Reorganisationen zu beantworten, die durch Studien bei Hirnverletzten oder mithilfe elektrischer Stimulationsverfahren im Rahmen von Operationen am offenen Gehirn aufgeworfen wurden, sich mit diesen Mitteln aber nicht beantworten ließen.

59 Vgl. FN 140 (S. 107). 60 Vgl. Fischel/Hennig 2004. 61 Vgl. auch Abschnitt 6.3. 62 Vgl. Ottino 2003, S. 474.

182 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Im klinischen Bereich konnte die fMRT beispielsweise zu einem besseren Verständnis der Beweglichkeitsregeneration nach Schlaganfällen beitragen, indem Ort und Verlauf zerebraler Plastizität aufgezeigt und als Indikator für den Erfolg der Rehabilitation nutzbar gemacht werden konnten.63 FMRT ist jedoch eine unempfindliche Methode und anfällig für Artefakte sowie Fehlinterpretationen, sodass auch im anatomischen Bereich kleine und schnelle plastische Veränderungen derzeit nicht zufriedenstellend untersucht werden können. Aufgrund der Komplexität der physikalischen, biologischen und statistischen Voraussetzungen bei Versuchsanordnung, -durchführung und Ergebnisinterpretation sind Sach- und Fachkenntnisse in vielen Forschungsfeldern nötig: Physik, Ingenieurwesen, Zellbiologie, Neuroanatomie, Kognitions-/ Emotionspsychologie, Experimentalpsychologie und Statistik. Für einen Forscher scheint es kaum möglich, vollständige Kenntnisse in all diesen Bereichen zu haben. Ein medizinisches MRT-Lehrbuch beginnt gar mit der Feststellung, dass ein Forscherleben nicht ausreiche, Expertenwissen in allen Bereichen der MRT zu sammeln, und es wird davor gewarnt, beim Erlernen des Verfahrens die Grundlagen zu vernachlässigen, da dies zu einer Verfälschung der wissenschaftlichen Befunde führen könne. »A lifetime is not enough to become an expert in every aspect [of MRI]. Clinicians, technologists and scientists all struggle with the study of the subject. The result is sometimes an obscurity of understanding or a dilution of scientific truth regarding in misconceptions.«

64

Es gibt einige Labore, bei denen zu einem Auswertungsteam Physiker, Arzt, Biologe, Psychologe und Statistiker gehören. Doch auch durch diese interdisziplinäre Zusammenarbeit kann es zu Verschiebungen der Einschätzung der Validität von Endergebnissen kommen. In jedem Fachbereich gibt es eine Kultur, die sich in der Formulierung von Ergebnissen in Darstellungsstilen, verwendeten Idiomen und Metaphern und im Umgang mit Unsicherheiten äußert. Fachintern sind die sozialen Codes bekannt – fachübergreifend ist die Beurteilung von Ergebnissen jedoch nicht immer sicher und fehlerfrei möglich. Ergebnisse anderer Fachgebiete müssen aber geradezu als wahre und stabile Fakten behandelt werden, um überhaupt ein Weiterarbeiten zu ermöglichen.65 Auf diese Weise kann Wissen unzulässiger Weise ein ontologischer Status zugeschrieben werden – die Schwächen und Interpretationsprobleme der einzelnen Bereiche, die zu falschen 63 Vgl. Ward/Frackowiak 2006. 64 McRobbie et al. 2008, S. 1f. 65 Dumit 2004, S. 11 und 55ff.; vgl. auch Abschnitt 4.2.3.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 183



Rückschlüssen führen können, treten in den Hintergrund.66 Im Folgenden werden potenzielle Probleme nochmals zusammengefasst wiedergegeben. Die kritische Darstellung soll für Ursachen von Über- und Fehlinterpretationen von Bildern sensibilisieren und sie verhindern helfen. Die komplexen physikalischen Grundlagen der Kernspinresonanz werden durch das Instrument Tomograph inkorporiert und für den Nutzer unsichtbar gemacht. Z.B. ist aufgrund der lange Zeit fast durchgängig unvollständigen, ungenauen oder fehlerhaften Darstellungen in Standardlehrbüchern davon auszugehen, dass kaum ein Mediziner oder Neuropsychologe mit den Ungereimtheiten vertraut ist, die schon die Interpretation von elementarem Kernspin birgt.67 Ob Kenntnisse in Bereichen der Teilchenphysik für medizinische Anwendungen der MRT nötig ist, lässt sich diskutieren – in Gebieten der funktionellen MRT sollten die Unschärfen der physikalischen Theorie aber nachvollzogen werden. So kann dazu beigetragen werden, dass Versuchsergebnissen vorsichtiger interpretiert und keine voreiligen Schlüsse zu Bedeutungen und Konsequenzen der Befunde gezogen werden. Über die Frage der philosophischen Implikationen physikalischer Theorie hinaus bleibt festzuhalten, dass MRT üblicherweise nur mit der Eigenschaft eines einzigen Typs von Atomkernen – dem einprotonigen Wasserstoff 1H – arbeitet und eine inhärent unempfindliche Methode ist.68 Die technisch theoretisch realisierbare Auflösung sowohl der strukturellen als auch der funktionellen Magnetresonanztomographie ist in beindruckender Weise gesteigert worden.69 Die Bilder verschweigen jedoch stets ihren dreidimensionalen Charakter. Die Auflösung in zwei Raumrichtungen (z.B. 250 x 250 µm) ist kein Garant dafür, dass Strukturen in Pixelgröße auch wirklich unterscheidbar sind, wenn die dritte Dimension entsprechend größer ist und sich die Struktur nicht orthogonal zur Bildachse durch die gesamte Schichttiefe fortsetzt. Bei der funktionellen Magnetresonanztomographie ist die technisch maximal machbare Auflösung ohnehin nur für sehr wenige Fragestellungen relevant. Glättungsalgorithmen vergröbern bei interindividuellen Versuchsdesigns unterscheidbare Voxel bis um das 800-fache der technisch maximal realisierbaren Auslösung. Für die Validität von Experimenten der fMRT erscheint ohnehin das Signal-/Rauschverhältnis bedeutsamer als die Auflösung. 66 Wie sich Wissen verändert, wenn es zwischen Wissenschafts- oder Gesellschaftsbereichen transferiert wird, untersuchen Hoof/Jung/Salaschek 2011. 67 Vgl. Abschnitt 5.1.3. 68 Vgl. Abschnitt 5.2.1. 69 Die Geschwindigkeit der Weiterentwicklungen ist aber ein weiteres Indiz dafür, dass sich die MRT als Methode noch in einem sehr frühen Entwicklungsstadium befindet (vgl. Abschnitt 4.5).

184 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Das Signal-/Rauschverhältnis ist Ausdruck der Frage, wie viel der gemessenen Signalschwankung tatsächlich auf die antizipierten Hirnreaktionen zurückzuführen ist. Bei struktureller Bildgebung ist es um ein vielfaches besser als bei funktioneller Bildgebung, weil für die Aufnahmeprozesse wesentlich mehr Zeit zur Verfügung steht (mehrere Minuten statt weniger Sekunden). Bei strukturellen Bildern lässt sich die Qualität über das Kontrast-/Rauschverhältnis am Bild selbst erkennen, funktionelle Bilder müssen bei neurokognitiven Fragestellungen über viele Versuchsreihen hinweg gemittelt werden, damit überhaupt ein Unterschied zwischen Signal und Rauschen festgestellt werden kann. Einerseits durch die Projektion von farblich codierten statistischen Kennwerten auf strukturelle Hintergründe oder ›Referenzgehirne‹ und andererseits durch Smoothingprozesse werden Grade an Eindeutigkeit und Genauigkeit der Verfahren suggeriert, die nicht viel mit den tatsächlichen gemein haben. Es scheint sogar, dass diese Diskrepanz durch die Verwendung etablierter statistischer Methoden, die jedoch nicht in allen Fällen unzweifelhafte Ergebnisse liefern, noch verstärkt wird.70 Letztlich ist auch nicht vollständig verstanden, wie ein BOLD-Kontrast genau mit der Aktivität von Nervenzellen zusammenhängt. Sicher ist, dass keine einfache und eindeutige Überführung des einen in die andere möglich ist. Schon der Verlauf der Funktion des relativen Blutsauerstoffgehalts als Antwort auf neuronale Aktivität unterscheidet sich von Stimulus zu Stimulus und von Versuchsperson zu Versuchsperson. Auch die Aktivität hemmender Nerven kann ein verstärktes BOLD-Signal nach sich ziehen. Die Genauigkeit der räumlichen Übereinstimmung zwischen BOLD-Signal und Neuronenaktivität hängt von der Struktur des Blutgefäßsystems an der entsprechenden Stelle ab. Die Lokalisationsgenauigkeit variiert um mindestens den Faktor 10. Die BOLD-Antwort auf überdurchschnittliche Aktivität erfolgt verzögert und wird üblicherweise sechs Sekunden nach dem Stimulus gemessen – bioelektrische Nervenimpulse könnten in dieser Zeit bis zu mehreren hundert Metern zurücklegen.71 Mit der schrittweisen Deutung von Versuchsdurchführung, Datenanalyse und Darstellungsweisen bildgebender Verfahren kann nun eine kritische Antwort auf die Frage formuliert werden, was Bilder von Lokalisationsexperimenten mit mehreren Versuchspersonen unter Einbezug der Bedingungen ihrer Erstellung zeigen: farblich codierte statistische Kennwerte, die an einem künstlichen Referenzgehirn grob anzeigen, in welchen Hirnbereichen Signalunterschiede zwischen zwei Versuchsbedingungen im Durchschnitt wahrscheinlich überzufällig auftreten. In krassem Gegensatz zu dieser Beobachtung steht die gebräuchliche

70 Vgl. Abschnitte 6.2-6.4. 71 Vgl. Abschnitt 5.6.2.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 185



Metapher, diese oder jene Hirnregion würde als Antwort auf einen bestimmten Stimulus aufleuchten.72 Im Manifest der Hirnforscher, einem von etablierten Neurowissenschaftlern populärwissenschaftlich veröffentlichtem Ausblick über Möglichkeiten und Entwicklungspotenzial gehirnbezogener Forschung, stellen die Autoren eine Analogie für fMRT her: »Das ist in etwa so, als versuchte man die Funktionsweise eines Computers zu ergründen, indem man seinen Stromverbrauch misst, während er verschiedene Aufgaben abarbeitet.«73 Ein anderer unter Neurowissenschaftlern kursierender Vergleich beschreibt fMRT als den Versuch, die Funktion eines Motors in einem Auto bei voller Fahrt mithilfe einer Wärmebildkamera erklären zu wollen, die auf einem Satelliten in einer Erdumlaufbahn montiert ist. Auch wenn solche Äußerungen eher kokettierend als wirklich ernst gemeint wirken, erscheinen sie unter Berücksichtigung der Voraussetzungen und Randbedingungen ihres Zustandekommens eher unter- als übertrieben. Ein fMRT-Signal gibt keine Auskunft darüber, wie viel Sauerstoff (›Strom‹) verbraucht wird, sondern über den Ort des Stoffwechsels,74 und während die Satellitenanalogie das Signal-/Rauschverhältnis neurokognitiver Versuche angemessen veranschaulichen mag, finden weder Komplexität noch Plastizität des Gehirns im Motor Entsprechungen. Ersteres besteht nicht nur aus abermilliarden Nervenzellen und Glia, unzähligen Synapsen und Transmitterstoffen, sondern 72 Die Argumente, die diesem Resümee vorausgingen, hier nochmals in Kurzfassung: I.) Messdaten werden stets über mehrere Versuchsdurchgänge und Personen gemittelt. II.) Die Nullhypothese, die bei der Auswertung getestet wird, lautet: Die gemessenen Unterschiede der verglichenen Versuchsbedingungen beruhen auf Zufallsschwankungen. III.) Die Wahrscheinlichkeit, dass die Nullhypothese verworfen wird, obwohl sie beibehalten werden müsste, ist dann gering, wenn das Signifikanzniveau konservativ gewählt und die Alphafehlerkumulation entsprechend korrigiert wird (z.B: durch Bonferroni oder Familiy-Wise Error). IV.) Die Niveaus, auf denen Unterschiede signifikant erscheinen (die Nullhypothese verworfen wird), werden farblich codiert. V.) Bei interindividuellen Vergleichen werden die beim Warping entstandenen Missrepräsentationen durch Smoothing per Gauss-Filter geglättet, wodurch sich die Auflösung vergröbert – z.B. auf 6³=216mm³ pro Voxel. VI.) Die Orte, die auf Referenzgehirnen markiert werden, entsprechen keiner individuellen Aktivität mehr, sondern bilden nur Gemeinsamkeiten ab. VII.) Referenzgehirne können Individualgehirne nicht vollständig repräsentieren – alle realen Gehirne unterscheiden sich in Form und Funktion. Insofern sind Referenzgehirne künstlich, sie stellen nicht den Prototypen eines Gehirns dar (vgl. auch Abschnitt 4.2.2). 73 Elger et al. 2004, S. 33. 74 Vgl. Abschnitt 5.6.2.

186 | D ER M ENSCH ALS NEURONALE M ASCHINE?

ändert auch fortwährend seine Struktur. Die extreme Mittelbarkeit des Messverfahrens wird aber nicht einmal von allen Forschern als Hauptproblem der fMRT gesehen: »The deep limitations of fMRI studies come neither from the physics nor the physiology; they arise from the experimental design«, meinen Huettel, Song und McCarthy75 und verweisen damit auf die Randbedingungen, welche die Untersuchungsmöglichkeiten von fMRT-Experimente stark einschränken.76 Aus fMRT-Ergebnissen grundsätzliche Aussagen über die conditio humana ableiten zu wollen, scheint – wenn die obigen Argumente als gültig anerkannt werden – vermessen. Die Frage, was Aktivierungsmuster für menschliche Sozialität bedeuten, ist dann überhaupt nur spekulativ zu beantworten. Es kann kein neuronales Äquivalent für Gedanken geben, das mit dem lebensweltlichen Verständnis von Gedanken übereinstimmt – Gedanken sind soziale Konstrukte mit sehr unterschiedlichen Bedeutungen und Verwendungskontexten, sie lassen sich nicht auf Protonenspins oder paramagnetische Eigenschaften reduzieren.77 Auf der Basis einer Lokalisation erhöhten Blutsauerstoffgehalts Aussagen über das Wesen des Menschen zu treffen, ist vergleichbar mit dem Versuch, ein Buch interpretieren zu wollen, von dem allein der Index bekannt ist. Selbst wenn es irgendwann möglich sein sollte, allen Orten (oder ›neuronalen Netzen‹) erhöhter ›Aktivität‹ bestimmte und eindeutige Funktionen zuzuordnen, stünde in der Buchanalogie nur zusätzlich zum Index noch ein Glossar zur Verfügung. Über Index und Glossar ergeben sich vielleicht Hinweise auf Inhalte – so kann mithilfe der fMRT mit einer Trefferquote, die besser ist, als sie bei bloßem Raten wäre, (nach vorheriger Trainingsphase) wiedererkannt werden, ob sich ein Proband auf eine Addition oder eine Subtraktion,78 auf Sellerie oder ein Flugzeug79 konzentriert – Bedeutung und Eigenheiten des Buches und des Menschen lassen sich so aber nicht erfassen. Ohnehin können, wie in Kapitel 3 dargelegt wurde, Ergebnisse von Experimenten, die mithilfe naturwissenschaftlicher Instrumente auf Basis geschlossener Fragen gewonnen wurden, »von Geistes- und Sozialwissenschaften nicht einfach übernommen werden […], denn es muss in Rechnung gestellt werden, dass das naturwissenschaftliche Naturverständnis einem prinzipiell anderen Methoden- und Gegenstandsverständnis geschuldet ist, das konstitutiv in die Ergebnisse eingeht.«80 75 Huettel/Song/McCarthy 2008, S. 493. 76 Vgl. Abschnitt 6.1. 77 Vgl. Abschnitte 3.1.1 und 5.1.3. 78 Vgl. Haynes 2007. 79 Vgl. Mitchell 2008. 80 Lindemann 2005, S. 769.

B ILDGENESE UND I NTERPRETATION DER F MRT

| 187



Letztlich bilden fMRT-Studien ausschließlich (intra- und interindividuelle) Gemeinsamkeiten bei Reaktionen auf Stimuli ab. Experimente, an denen eine kleine Gruppe von Studenten und Mitarbeitern an Forschungseinrichtungen als Stichprobe teilnimmt, können dabei nicht einmal annähernd als repräsentativ für alle Altersgruppen, Milieus oder Kulturzugehörigkeiten gelten. Hier müsste ein nächster Schritt sein, Verfahren zu entwickeln, mit denen sich individuelle Unterschiede von Hirnfunktionen darstellen lassen. Der Weg dorthin könnte z.B. über Clusteranalysen führen, für die jedoch erheblich größere und repräsentative Stichproben benötigt würden.81 Abschließend ist zu konstatieren: Je komplexer zu untersuchende Verhaltensweisen und ihre sozial relevanten Hintergründe sind, desto ungenauer und ungeeigneter ist die Methode der funktionellen Magnetresonanztomographie für ihre Erklärung. Wenn der Mensch unter bildgebenden Verfahren als neuronale Maschine erscheint, dann deswegen, weil die Messinstrumente und Versuchsaufbauten keine anderen Ergebnisse zulassen. Ein genauerer Blick zeigt aber, dass solche Schlüsse auf die conditio humana Kurzschlüsse sind.

81 »Mit der Clusteranalyse werden die untersuchenden Objekte so gruppiert, dass die Unterschiede zwischen den Objekten einer Gruppe bzw. eines ›Clusters‹ möglichst gering und die Unterschiede zwischen den Clustern möglichst groß sind« (Bortz 2005, S. 565).

7. Resümee und Ausblick

»Wir können es uns einfach nicht länger leisten, unsere wichtigste ökonomische Ressource – die Gehirne der Menschen – zu behandeln, als wüssten wir nichts über deren Funktion. Es gilt, das heute bereits Machbare auch tatsächlich umzusetzen, um uns allen, 1

den Jungen und Alten, besseres Lernen und damit ein besseres Leben zu ermöglichen.«

So drückte sich Manfred Spitzer 2003 in der Wochenzeitung Die Zeit aus. Sein Artikel fiel zeitlich gesehen in die letzten Ausläufer der Diskussionen um Neurodidaktik als Reaktion auf den ›PISA-Schock‹ des Jahres 2001. Als Hirnforschungsthema deutscher Feuilletons folgte zunächst die Debatte um Willensfreiheit versus neuronale Determination, bevor nach einiger Zeit das Thema ›NeuroEnhancement‹ ins Zentrum öffentlichen Interesses gerückt wurde. Indem Spitzers Forderung nach der Umsetzung des Machbaren im Lichte dieser noch immer aktuellen Debatte betrachtet wird, kommt eine bedeutende Eigenschaft des zugrunde liegenden Menschenbildes zum Vorschein: Das Bild vom Menschen als neuronaler Maschine ist in Bezug auf seine pädagogische Umsetzung von Anfang an auf utilitaristische Affirmation ausgerichtet und kann als Universalargument in Diskursen zu unterschiedlichsten Problemfeldern eingesetzt werden. Zwei basale Theoreme gelten als Fundament dieses ›neurowissenschaftlichen‹ Menschenbildes: Zum einen sei das menschliche Gehirn eine biomechanische Maschine, die den Naturgesetzen unterliege; zum anderen seien Menschen identisch mit ihren Gehirnen. Beide Thesen beruhen nicht auf neueren Erkenntnissen neurowissenschaftlicher Forschung, sondern finden sich mit unterschiedlichen Nuancen immer wieder in der Geschichte der Life-Sciences und ihrer Vorgänger. Beide Theoreme weisen Lücken auf – das Blue Brain Project unter

1

Spitzer 2003.

190 | D ER M ENSCH ALS NEURONALE M ASCHINE?

der Leitung Henry Markrams2 wird durch die rechnergestützte Simulation von Hirnstrukturen und -funktionen innerhalb des nächsten Jahrzehntes dazu beitragen, weitere dieser Lücken zu identifizieren. Die These von der Identität von Person und Gehirn beinhaltet zudem einen Kategoriefehler, wenn Gegebenheiten der sozialen Welt durch Elemente der physischen Welt erklärt werden. Neuropädagogik begibt sich, wo sie die populärwissenschaftlichen Interpretationen neurowissenschaftlicher Forschungsergebnisse umzusetzen sucht, unweigerlich in ein subalternes Abhängigkeitsverhältnis und trägt zur Festigung eines Menschenbildes bei, für welches das wissenschaftliche Fundament schwach ist, die suggestive Macht der Bilder aber umso stärker. Da die direkte menschliche Wahrnehmung auf kleine Teilbereiche der Realität beschränkt ist, setzt ein Zugang zu allen anderen Aspekten Transformationen voraus. Instrumentell vermittelte Zugänge zu einem Forschungsbereich sind auf den Ausschnitt der reellen Welt limitiert, in welchem die verwendeten Instrumente Wechselwirkungen hervorrufen können. Je spezifischer der Bereich des Interesses ist, desto mehr setzt die hervorgerufene Wechselwirkung ein Eingreifen voraus. Die Instrumente der Beobachtungen verändern gegebenenfalls den beobachteten Gegenstand, der an die Untersuchungsmöglichkeiten angepasst werden muss – z.B. über Präparation bei der Mikroskopie oder Verhaltensregeln bei psychologischen Experimenten. Die instrumentell hervorgerufenen Wechselwirkungen müssen dann in eine Form übersetzt werden, die vom Menschen wahrgenommen und weiterverarbeitet werden kann. Nicht nur diese Übersetzungsprozesse, sondern auch die Trennung zwischen Signifikantem und Unwichtigem, letztlich auch die Formulierung der Fragen, die am Gegenstand bearbeitet werden, sind von Denk- und Darstellungsstilen beeinflusst und historisch variabel. Sehen mit technischen Hilfsmitteln ist keine bloße Verlängerung der Sinne, sondern hat eine eigene Qualität. Was sichtbar gemacht wird, hängt immer von Forschungsinteressen, Vorwissen sowie den damit verbundenen Untersuchungsmöglichkeiten und Weltbildern eines Fachbereiches ab. Weltbilder, Vorwissen und Methoden bedingen einander und wirken sich gemeinsam auf den jeweils vorgefundenen Denkstil aus: »[J]emand erkennt etwas […] aufgrund des bestimmten Erkenntnisbestandes […] als Mitglied […] in einem bestimmten Denkkollektiv.«3 Mit Beginn der Entwicklung komplexer mechanischer Instrumente, die dem Menschen die Arbeit erleichtern oder ihm als Hilfsmittel zu Strukturierungen der Welt dienen, gibt es Bestrebungen, den Menschen in umgekehrter Analogie als Maschine darzustellen und zu ergründen. Heutige Welt- und Menschenbilder 2

http://bluebrain.epfl.ch.

3

Fleck 1980, S. 54.

R ESÜMEE UND A USBLICK

| 191



westlicher Kulturen sind in hohem Maße durch instrumentelle Zugänge zur Welt geprägt und mit den Verfahren der bildgebenden Hirnforschung wird das Bild einer neuronalen Maschine als jüngste Variante des Mensch-Maschine-Vergleichs gezeichnet und massenmedial transportiert. Die vorliegende Arbeit hat sich mit der Frage befasst, inwieweit dieses Bild vom Menschen durch Forschungstraditionen geprägt ist und inwiefern moderne neurowissenschaftliche Verfahren es rechtfertigen, den Menschen mit dem Anspruch von Allgemeingültigkeit als neuronale Maschine zu beschreiben. Dabei wurde dargestellt, dass die bildgebenden Verfahren, die von populärwissenschaftlich und interdisziplinär in pädagogischen Kontexten publizierenden Neurowissenschaftlern als Nachweis für das Theorem der neuronalen Maschine herangezogen werden, dieses nicht belegen können. Stattdessen zeigt die Betrachtung dieser Verfahren, dass ihre bevorzugte Nutzung den Blickwinkel anthropologischer Forschung einschränkt, wenn nur noch das erforscht wird, was sie darzustellen vermögen. Würde das Bild vom Menschen als neuronaler Maschine in der Pädagogik handlungsleitend, so bedeutete dies eine wissenschaftlich nicht begründbare Engführung. In den Abschnitten 5.5 und 6.5 werden die Grenzen struktureller und funktioneller MRT-Bilder dargestellt. Nachfolgend sollen die wichtigsten Erkenntnisse, die über die Interpretation von Bildgenese und -inhalten hinausgehen, noch einmal kritisch zusammengefasst werden. Eingangs wurde festgestellt, dass Erziehungswissenschaft und Pädagogik gegenüber Neurowissenschaften ein geringeres gesellschaftliches Ansehen haben. Einer der Gründe für ihre mäßige Reputation ist der unerfüllbare Anspruch an die Pädagogik, als gesellschaftliche Reparaturinstanz zu fungieren. Erziehungswissenschaftlern und Pädagogen wird selten ein besonderer Expertenstatus in Sachen Erziehung und Bildung zuerkannt, da so gut wie jede Person als Erzieher oder Bildner (zumindest seiner selbst) zu fungieren scheint. Hingegen wird Neurowissenschaftlern, die ohne Bezug auf die Disziplin Erziehungswissenschaft (populärwissenschaftlich) pädagogisch publizieren, dieser Status eher zugebilligt. Dass solche fachfremd publizierenden Neurowissenschaftler die Erziehungswissenschaft anscheinend nicht als gleichwertige wissenschaftliche Disziplin ansehen, wird an Form und Inhalt vieler interdisziplinär veröffentlichter Texte deutlich. Dabei übertreffen die fachübergreifend publizierten Beiträge in Sachen Komplexitätsreduktion teilweise sogar noch die für eine breite Leserschaft geschriebenen populärwissenschaftlichen Darstellungen. In pädagogischen Bereichen agierende Neurowissenschaftler begünstigen eine Lesart ihrer Beiträge, die die Unbestimmbarkeit pädagogischer Einwirkungen als eine (geisteswissen-

192 | D ER M ENSCH ALS NEURONALE M ASCHINE?

schaftliche) Illusion wertet. Erziehungswissenschaftliche Charakterisierungen sozialer Beziehungen als ›prinzipiell offen‹ – d.h. nicht oder nur eingeschränkt gesetzmäßig beschreibbar – seien vor allem auf die unzureichenden geisteswissenschaftlichen Methoden zurückzuführen. Im Gegensatz dazu zeigten naturwissenschaftliche Verfahren, wie die Aufnahme und Verarbeitung neuen Wissens wirklich funktioniere, welche Bedingungen für Wissenszuwächse erfüllt sein müssten, welche Rahmenbedingungen für Heranwachsende förderlich, welche schädlich seien und welche (neuronalen) Prinzipien Lernen und Verhalten determinierten. Der Anstrich von Eindeutigkeit ist vor allem bedingt durch Bedeutungsübertragungen in Form von sprachlichen und bildlichen Metaphern. Ihr Gebrauch bewirkt eine scheinbar direkte lebensweltliche Anknüpfbarkeit und ersetzt eine Methodendiskussion. Metaphorisch verbreitete neurowissenschaftliche Erkenntnisse scheinen selbstevident, ohne dass die Bedingungen der Wissenskonstitution überprüfbar sind. Aus historischer Sicht besonders beliebt ist seit mehreren Jahrhunderten die Metapher vom Menschen als Maschine, deren aktuellste Version das proklamierte Bild vom Menschen als neuronaler Maschine ist (Kapitel 2). Diese Vorstellung fußt auf den miteinander verknüpften Annahmen, dass erstens das Gehirn eine zelluläre, chemisch modulierte Maschine ist und zweitens, dass sämtliches Fühlen, Denken, Handeln vom Gehirn ausgeht, der Mensch also sein Gehirn ist (2.4). Jedoch basiert das Bild der neuronalen Maschine auf einer wissenschaftlich unzulässigen Vermischung von lebensweltlichen und naturwissenschaftlichen Ebenen (Kapitel 3). Dennoch hat es, vor allem in westlichen Gesellschaften, Auswirkungen auf menschliche Selbstinterpretation und menschliches Handeln, die sich objektiv messbar am veränderten Umgang mit Psychopharmaka zeigen (2.5) und in Wechselwirkung mit gesellschaftlichen Werteveränderungen stehen (3.3). Diskurse zwischen einerseits biologisch und andererseits geisteswissenschaftlich ausgerichteten Wissenschaften, die sich den Menschen zum Untersuchungsobjekt machen, unterliegen aufgrund ihrer unterschiedlichen Forschungstraditionen, Begriffsverwendungen und ihres anders gearteten Wissenschaftsverständnisses stets einem besonderen Risiko des Missverstehens. Einer Neigung zum Nominalismus in den Geisteswissenschaften steht dabei eine biowissenschaftliche Tendenz zum naturwissenschaftlichen Realismus gegenüber. Während Naturwissenschaften anstreben, individuelle Bedeutung aus der Wissensgewinnung möglichst auszuklammern, betonen vor allem Soziologen die Notwendigkeit der Beachtung sozialer Rahmenbedingungen bei der Gewinnung von Wissen. Begriffliche Disparitäten tauchen unter anderem auf beim Verständnis von ›Reduktion‹ (einerseits als vollständige Überführung zweier Theorien inei-

R ESÜMEE UND A USBLICK

| 193



nander, andererseits im Sinne von verlustreicher Engführung) und von ›Artefakten‹ (einerseits im wörtlichen Verständnis von ›künstlich hergestellt‹, andererseits als Verfahrensfehler). In Kapitel 3 wird erläutert, dass ein Ansatz, der versucht, menschliche Eigenschaften mithilfe von Experimenten auf Naturgesetze zurückzuführen, aus wissenschaftstheoretischen Überlegungen mit starken Einschränkungen bei der Ergebnisinterpretation verbunden ist, da sich im naturwissenschaftlichen Rahmen keine Aussagen über Sinnzusammenhänge treffen lassen. Die Erschließung von Zugängen zu Gegenständen, die sich einer unvermittelten Erfahrung entziehen, ist durch Vorwissen und verfügbare Instrumente bedingt, begrenzt und gegebenenfalls geleitet (Kapitel 4). Damit aber an einem Gegenstand überhaupt etwas sichtbar wird, muss er bearbeitet, das heißt, an die zur Verfügung stehenden Untersuchungsverfahren angepasst werden. Um solchermaßen instrumentell vermittelte Einblicke für andere erfahrbar zu machen, sind weitere Vermittlungsschritte nötig; diese resultieren üblicherweise in Abbildungen, die im Rahmen fachspezifischer Standards selektiv sind, also bestimmte Eigenschaften des dargestellten Untersuchungsgegenstandes betonen und andere aussondern. Am Beispiel der Mikroskopie hat sich gezeigt, wie sehr bestehende Annahmen über die Beschaffenheit der Welt das beeinflussen, was Wissenschaftler über ihre Experimente wahrnehmen. Wie nahe Abbildungen der ›Natur‹ kommen können, ist hingegen eine Frage, die nicht abschließend beantwortet werden kann. Im direkten Vergleich zwischen Lichtmikroskopie und funktioneller Magnetresonanztomographie ist im Hinblick auf den Umgang mit Bildern bemerkenswert, dass die fMRT-Hirnbilder nicht auf direktem Wege wieder in den Erkenntnisprozess einfließen. Während die mithilfe der Mikroskopie erstellten Bilder als Ausgangspunkt weiterer Erkenntnisentwicklung fungierten (4.5), dienen fMRT-Bilder ausschließlich dem schnelleren Überblick über Messungen. Sie stellen keine Forschungsergebnisse im engeren Sinne dar, sondern illustrieren diese, und sie festigen indirekt über Affirmationen des Denkkollektivs die Überzeugung, Menschen nicht-invasiv, live und in Farbe ›in die Köpfe gucken‹ zu können (3.3). Die Untersuchung der Bedingungen der Bildgenese, von leitenden physikalischen Theorien über Variablen psychologischer Experimente sowie ihrer Ergebnisinterpretation bis zur ästhetischen Gestaltung von Hirnmodellen und -bildern, zeigt eine Anzahl von Erklärungslücken und potenziellen Fehlerquellen auf, die im Abschnitt 6.5 dieser Arbeit zusammengefasst sind. Wie für die Mikroskopie gilt auch für die MRT, dass eine unveränderte Wiedergabe eines Gegenstandes, also ein Modell, das in allen Belangen der Realität entspricht, weder möglich ist,

194 | D ER M ENSCH ALS NEURONALE M ASCHINE?

noch Ziel einer Abbildung sein kann. Übertragen in medizinische Kontexte bedeutet dies, dass es ein Bild, welches etwa alle möglicherweise vorhandenen Pathologien sichtbar macht, bei der MRT nicht geben kann (5.5). Bei den physikalischen Grundlagen der MRT geht das Analogieverbot so weit, dass sich nanoskopische Vorgänge mit lebensweltlichem Vokabular überhaupt nicht sinnvoll beschreiben lassen (5.1.3). Während bei der Lichtmikroskopie Interaktionen zwischen Gegenstand und elektromagnetischen Wellen aus dem sichtbaren Bereich für die Bildentstehung sorgen, sind die Parameter der strukturellen MRT Magnetisierungszerfall (Relaxation) und Protonendichte (5.3.1). Die funktionelle BOLD-MRT gewinnt Daten aus magnetfeldverändernden Eigenschaften des Blutsauerstoffträgers Hämoglobin. Kritische Faktoren für die Erkenntnisgewinnung mittels MRT sind einerseits die Zeitdauer und andererseits die Menge angeregter und folglich Photonen emittierender Substanz (5.4). Beide Faktoren sind auf funktionellen Hirnbildern (zumindest für Fachfremde) nicht ersichtlich. Kontraintuitiv ist außerdem die dreidimensionale Basis von Hirnschnittbildern (5.5). Während bei Bildern der strukturellen MRT die Datenqualität an der Bildqualität abzuschätzen ist, ist dies bei Bildern der funktionellen MRT nicht der Fall. Funktionelle Hirnbilder stellen die statistische Signifikanz von Hypothesentests farblich codiert an Referenzgehirnen dar. Die Genauigkeit der Lokalisation erscheint (nach Augenscheinevidenz) bei interindividuell ausgerichteten Versuchen aufgrund von Smoothingalgorithmen und des Kompositcharakters funktioneller Hirnbilder viel höher, als sie verfahrensbedingt sein kann (6.4). Die MRT lässt sich zudem nur unter bestimmten Bedingungen für psychologische Experimente nutzen: massive Lautstärke, Enge, weitgehende physische Isolation, Bewegungsarmut und zumeist Sprachlosigkeit. Beim gegenwärtigen Stand der Entwicklung werden mit der fMRT aus aggregierten Daten fast ausschließlich Gemeinsamkeiten untersucht. Individualität wird per Durchschnittsbildung ausgelöscht (6.1). Es ist klar, dass unter solchen Umständen nur bestimmten (geschlossenen) Fragen mithilfe der MRT nachgegangen werden kann, und dass der Mensch, wenn er mit Verfahren untersucht wird, die ähnlichen Einschränkungen unterliegen, mit einem dezimierten Erlebnis- und Verhaltensrepertoire erscheint. In wissenschaftlichen ebenso wie in populärwissenschaftlichen Darstellungen wird Vermögen und Erfolg stets mehr Aufmerksamkeit gewidmet als Verfahrensgrenzen und Misserfolgen. Auch bei Darstellungen der bildgebenden Hirnforschung gibt es Hinweise auf unkritische Selektionsprozesse in Verbindung mit der Interpretation von Korrelationen und aggregierten Daten (6.2 und 6.3). In der gegenwärtigen Situation, in der Forschungsergebnisse ›marktgängig‹

R ESÜMEE UND A USBLICK

| 195



gemacht werden (müssen), ist bei der Interpretation von Ergebnissen der Hirnforschung ein hohes Maß an Vorsicht geboten – insbesondere, wenn keine dezidierten Kenntnisse der zugrunde liegenden Theorien und verwendeten Verfahren vorhanden sind. Aktuell agiert die Pädagogik in einem Feld, in dem neurowissenschaftliches Wissen in Form von neuropharmakologischen Interventionsmöglichkeiten bereits in die schulische Lebenswelt eingedrungen ist (2.5). Die außerordentliche Steigerung im Gebrauch von Psychostimulanzien im letzten Jahrzehnt ist auch deswegen bemerkenswert, weil der in Deutschland gebräuchlichste Wirkstoff Methylphenidat (bekannt unter den Handelsnamen Ritalin oder Concerta) bereits seit den 1950er Jahren auf dem Markt ist und sich der gegenwärtige stark verbreitete Konsum daher nicht durch eine Neuentwicklung in der Folge aktueller Ergebnisse der Hirnforschung begründen lässt. In Anbetracht dieses in Deutschland kontinuierlich steigenden Konsums von Psychopharmaka und der anhaltenden Popularität bildgebender Hirnforschung ist festzustellen, dass die Tendenz, den Menschen von seinem Gehirn aus zu betrachten und ihn in erster Linie über sein Gehirn zu definieren, breite Akzeptanz findet. Der Reiz der bildgebenden Hirnforschung, die auf den ersten Blick das Bild der neuronalen Maschine nahezulegen und die Funktion der Maschine aufzuklären scheint, ist verständlich. Schließlich verspricht das Konzept der neuronalen Maschine effektive Steuerungsmöglichkeiten in Erziehungs- und Lehrprozessen und Kriterien zur Bewertung pädagogischen Handelns. Ehrgeizigen Eltern und manchen Pädagogen könnte diese Aussicht gefallen, andere fühlten sich vielleicht eher an ein Prokrustesbett erinnert, in dem der Zögling gewaltsam äußeren ›Erfordernissen‹ angepasst wird. Wie die Analyse der funktionellen Magnetresonanztomographie gezeigt hat, sind bildgebende Verfahren indessen weit davon entfernt, den Menschen als neuronale Maschine dingfest zu machen. »Wer versteht, wie ein Motor funktioniert, kann ihn auch besser reparieren«,4 lautet das Hauptargument der Befürworter neuropädagogischer Theorien. Doch Kenntnisse über Aufbau und Funktion des Motors helfen wenig beim Führen eines Fahrzeugs. Aufgabe der pädagogischen Anthropologie ist es in Anbetracht dieser Perspektive, der Diskussion um neurowissenschaftliche Ergebnisse alternative Deutungen hinzuzufügen. Dabei kann das Ziel der Aufarbeitung neuropsychologischer Experimentalpraktiken nicht sein, fremde Forschungsergebnisse per se abzulehnen, sondern zu thematisieren, was sonst den Menschen noch ausmacht. Denn warum »sollten uns die immensen Fortschritte auf dem Gebiet der […]

4

Spitzer 2003; vgl. auch OECD 2007, S. 13.

196 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Beobachtungstechnologien, die uns etwas zu sehen geben, was wir noch nie sahen, dazu zwingen, jetzt nichts anderes mehr zu sehen?«5 Neurowissenschaftler, die in pädagogischen Kontexten publizieren, scheinen sich an den Aussagen des OECD-Berichts 2002 zu orientieren, nach denen die Erziehungswissenschaft eine Kunstform und keine Wissenschaft im engeren Sinne sei.6 Die Interpretation von experimentell erwirkten Versuchsergebnissen, die in naturwissenschaftlichen Veröffentlichungen üblicherweise mit der gebotenen Vorsicht und unter Berücksichtigung der Umstände der Datengewinnung erfolgt, konzentriert sich in fachfremden Kontexten vor allem auf lebensweltliche Anknüpfbarkeit, die gegebenenfalls auf innerfachlich tradierten oder persönlichen Weltbildern beruht. Die Grenzen der Erkenntnismittel werden dort weder thematisiert noch berücksichtigt. Hirnbilder funktioneller Bildgebungsverfahren unterstützen die Trivialisierung in besonderer Weise, indem sie, z.B. durch die Nutzung einer Farbgebung nach der Skala der Schwarzkörperstrahlung, Bedeutungen aus der Lebenswelt – rot zeigt Aktivität an – übertragen und dem Betrachter die Möglichkeit einer intuitiven Deutung einräumen, die in den wissenschaftlichen Verfahren nicht angelegt ist. Das so entworfene Bild vom Menschen als einer neuronalen Maschine basiert auf einer Fehleinschätzung. Denn weder unter mathematisch-physikalischen noch unter semantischen Gesichtspunkten lässt sich der Mensch als neuronales System naturwissenschaftlich beschreiben (3.1). Mit Blick auf die Tradition der Selbstdeutung des Menschen in technischen Gebilden ist zu konstatieren, dass die Erwartung und die Überzeugung, aus bildgebenden Verfahren Hinweise auf konstitutive Merkmale des Menschen ableiten zu können, sich eben nicht aus den Verfahren selbst ergibt, sondern aus historisch gewachsenen Vorannahmen, oder, wie Fleck sie nennt, zeitstabilen »UrIdeen«.7 Normative Ableitungen aus Ergebnissen der Hirnforschung sind unter Berücksichtigung der vielen unkontrollierbaren Faktoren, die menschliches Erleben und Handeln stets begleiten, vor allem Ausdruck von Menschen- und Weltbildern. Für den Fortschritt der Wissenschaft ist es notwendig, aus Forschungsergebnissen Hypothesen abzuleiten und Normen zu formulieren, diese müssen aber stets als hypothesengeleitet erkennbar sein. Solchen Aussagen den Anstrich naturwissenschaftlicher Zwangsläufigkeit zu geben und zugleich der Pädagogik Unwissenschaftlichkeit zu unterstellen, ist schwerlich zu rechtfertigen.

5

Meyer-Drawe 2008, S. 99.

6

Vgl. OECD 2002, S. 9.

7

Fleck 1980, S. 35ff.

R ESÜMEE UND A USBLICK

| 197



Bei bildgebender Hirnforschung handelt es sich nicht um eine Natur-, sondern um eine integrative Wissenschaft, deren Forschungsfragen und Versuche auf Basistheorien aus den Bereichen der Physik, Biologie, Anatomie, Psychologie und Statistik angewiesen sind und bei der Ergebnisinterpretation nicht ohne lebensweltliche Bedeutungszuschreibungen auskommen. Dass sich Denkgewohnheiten im Bereich der Neurowissenschaften von den verwendeten Basistheorien gelöst haben, konnte in dieser Arbeit vor allem für die Physik belegt werden, und auch für die statistischen Elemente der fMRT-Auswertung ergaben sich deutliche Hinweise in diese Richtung. Die Erschließung neuer Forschungsfelder wird vereinfacht durch den Gebrauch von Metaphern, die Bedeutungen aus bekannten Zusammenhängen auf neue Kontexte übertragen und somit den Bereich bearbeitbarer Forschungsfragen strukturieren. Dieser Metapherncharakter darf nicht in Vergessenheit geraten. Die Metaphern der neuronalen Maschine bergen neben ihrem Nutzen der Veranschaulichung stets die Gefahr von Suggestionen. Detailliert dargestellte Referenzgehirne entsprechen keinem wirklichen Gehirn, farblich codierte Signifikanzwerte aus aggregierten Daten keiner wirklichen neuronalen Aktivität. Das so präsentierte Bild der neuronalen Maschine wird vielmehr stabilisiert durch das systematische Ausblenden von Abweichungen und Widersprüchen als Folge der für die Weiterverarbeitung notwendigen Komplexitätsreduktionen bei der Zusammenfassung der Untersuchungen von Einzelaspekten. Es ist aus der Kombination betagter psychologischer Ur-Ideen entstanden, und es ist die Voraussetzung heutiger neurokognitiver Forschung, nicht ihr Ergebnis. Die Zukunft der pädagogischen Praxis wird auch davon abhängen, ob es gelingt, ein Bewusstsein für Geltungsbereiche und Grenzen von wissenschaftlichen Modellen zu schaffen. Konstitutiv für Modelle ist das Merkmal der Vereinfachung. Ein Modell schafft neue Erkenntnismöglichkeiten, indem es Komplexität reduziert oder metaphorisch neue Bedeutungszusammenhänge erschließt. Aufgrund der vorgenommenen Vereinfachungen haben Modelle beschränkte und definierbare Geltungsbereiche. Wird einem Konzept jedoch universelle Geltung zugeschrieben, kommt leicht der Verdacht auf, dass mit ihm nicht-wissenschaftliche Ziele verfolgt werden. Ein erneuter Blick auf Verfahren der Bildgebung lohnt sich für die Erziehungswissenschaft möglicherweise dann, wenn Clusteranalysen Unterschiede zwischen verschiedenen repräsentativen Gruppen aufdecken und Individualität nicht mehr als ›Messfehler‹ ausradiert wird. Aufwand und Kosten, die mit Experimenten verbunden wären, deren Daten Clusteranalysen zuließen, wären aufgrund der notwendigen Masse an Versuchspersonen bei der fMRT jedoch enorm, sodass sie einen solchen Status vermutlich nicht erreichen wird. Bei ei-

198 | D ER M ENSCH ALS NEURONALE M ASCHINE?

nem entsprechenden Verfahrenssubstitut gilt es dann abermals zu fragen, was die Erziehungswissenschaft mit Syntaxtheorien anfangen kann, die semantisch gefüllt werden müssen. Ein frühzeitiges Einschalten in Sinndiskussionen von erziehungswissenschaftlicher Seite trüge dazu bei, Geltungsbereiche und potenzielle Anwendungsgebiete der Konzepte schneller zu klären, als dies bei der aktuellen, durch bildgebende Verfahren gestützten Version der neuronalen Maschine der Fall ist. Ein fortgeführter Dialog von Erziehungswissenschaftlern und Neurowissenschaftlern bezüglich pädagogischer Forschungsfelder auf Augenhöhe scheint erstrebenswert, er würde aber die Rezeption erziehungswissenschaftlicher Theorien durch Neurowissenschaftler voraussetzen; der Blick auf interdisziplinäre Publikationen und Forschungskollaborationen der Vergangenheit (wie das gescheiterte NIL-Projekt) stimmt diesbezüglich jedoch pessimistisch. Was den neuropsychologischen Denkstil angeht, den Menschen als neuronale Maschine zu betrachten, so ist die nächste Entwicklungsstufe bereits absehbar. Neurowissenschaftler des Forschungszentrums Jülich arbeiten daran zu lokalisieren, an welchen Orten im Gehirn verschiedene Rezeptoren für Neurotransmitter in welchen Konzentrationen auftauchen.8 Mithilfe des Wissens über die Verteilung der Rezeptoren können aus Lokalisationsexperimenten Rückschlüsse auf beteiligte Neurotransmitter gezogen werden. Struktur und Funktion des Gehirns werden mit steigender Genauigkeit aufeinander bezogen werden können und die Darstellungen auf Hirnbildern werden differenzierter wirken. Doch auch diese Lokalisation der Verknüpfung von Hirnphysiologie und -chemie geschieht probabilistisch und kann auf Individualität keine Rücksicht nehmen. Die Daten für die Hirnkarten, die die Rezeptorverteilungen kennzeichnen, können nur post mortem und per Durchschnittsbildung gewonnen werden. Der »neue, multimodale Blick auf die anatomische, funktionelle und molekulare Organisation«9 des Gehirns unterliegt damit der gleichen prinzipiellen und bedeutenden Einschränkung wie die herkömmliche BOLD-fMRT. Auch die Lücke zwischen der sozialen und der biologischen Sphäre kann dabei nicht sinnvoll überbrückt werden. Alles in allem ergibt sich für eine neurowissenschaftlich inspirierte Erziehungswissenschaft folgendes Szenario: Das Bild des Menschen als neuronale Maschine propagiert seine Anpassung an gegebene Rahmenbedingungen und verliert durch die Konzentration auf einzelne Gehirne den Blick für strukturelle Missstände. Da sich Neuropädagogik in der Terminologie Flecks im exoterischen Kreis des Denkkollektivs um das neuropsychologische Denkgebilde befindet, hat sie wenig Aussicht, aktiv an der neuropsychologischen Theoriebildung teilzunehmen und bleibt in einem Abhängigkeitsverhältnis zum esoteri8

Vgl. Zilles/Amunts 2009.

9

Ebd., S. 331 (übersetzt durch mich, U.S.).

R ESÜMEE UND A USBLICK

| 199



schen Kreis der Neurowissenschaftler; sie kann jedoch das gesamte Denkkollektiv in seinem Denkstil bestärken. »Wenn eine Auffassung genug stark ein Denkkollektiv durchtränkt, wenn sie bis ins alltägliche Leben und bis in sprachliche Wendungen dringt, wenn sie im Sinne des Wortes zur Anschauung geworden ist, dann erscheint ein Widerspruch undenkbar, unvorstell10

bar.«

Würde die neuronale Maschine einen solchen unumstößlichen Status erreichen, verlöre das entsprechende Denkkollektiv die Möglichkeit, Individuen als Teil ihrer sozial bedeutsamen Umwelt wahrzunehmen. In letzter Konsequenz müsste in einer Gesellschaft lebenslanger Lerner mit dem Ziel größtmöglicher Leistung und Lerneffizienz jedes unangepasste Verhalten als Hirnstörung interpretiert werden. Das Bild der neuronalen Maschine mag in bestimmten Fällen (etwa bei der Therapie von Schlaganfällen, Tinnitus oder Schizophrenie) weiterhelfen; als primäre oder gar alleinige Deutung des Menschen erscheint es nicht sinnvoll. Eine Konzentration geisteswissenschaftlicher Forschung auf das Gehirn birgt die Gefahr einer Verarmung der wissenschaftlichen Methodenlandschaft und einer eindimensionalen Weltsicht. Die vorliegende Analyse des Denkgebildes vom Menschen als neuronaler Maschine führt hingegen zu einem Plädoyer für plurale Forschung und die Besinnung auf eine Sichtweise auf den Menschen, welche, vor dem Hintergrund individueller Sinn- und Bedeutungshorizonte, soziale Beziehungen einschließt und Biografien sowie Lebensumstände berücksichtigt.

10 Fleck 1980, S. 41.

Literatur

Abbe, E.: Beiträge zur Theorie des Mikroskops und der mikroskopischen Wahrnehmung. In: Ders.: Gesammelte Abhandlungen. Erster Band. Abhandlungen über die Theorie des Mikroskops. Jena 1904. S. 45-100. Akademie der Wissenschaften und der Literatur (Hrsg.): Soemmerring-Forschungen. Beiträge zur Naturwissenschaft und Medizin der Neuzeit. Band 1. Stuttgart 1985. Albertus Magnus: De praedicab. IX, 3. Opera omnia. Herausgegeben von A. Borgnet. Paris 1890. Andresen, S.: Grenzen der Anerkennung – Anerkennung der Grenzen. In: Ricken, N. (Hrsg.): Über die Verachtung der Pädagogik. Analysen – Materialien – Perspektiven. Wiesbaden 2007. S. 121-135. Arnold, M.: Aspekte einer modernen Neurodidaktik. Emotionen und Kognitionen im Lernprozess. München 2002. Ash, C.: Hooke’s Microscope. In: Trends in Microbiology 6,10 (1998). S. 391. Baars, B.; Banks, W.; Newman, J. (Hrsg.): Essential Sources in the Scientific Study of Consciousness. Cambridge, London 2003. Bammé, A. et al.: Maschinen-Menschen Mensch-Maschinen. Grundrisse einer sozialen Beziehung. Reinbek bei Hamburg 1983. Barnbaum, C.: Hubble Space Telescope. World Book Online Reference Center. 2004. World Book, Inc. http://www.nasa.gov/worldbook/hubble_telescope_worldbook.html Barsch, A.; Hejl, P.: Zur Verweltlichung und Pluralisierung des Menschenbildes im 19. Jahrhundert: Einleitung. In: Dies (Hrsg.): Menschenbilder. Zur Pluralisierung der Vorstellung von der menschlichen Natur (1850-1914). Frankfurt am Main 2000. S. 7-90. Bartels, A.; Logothetis, N.; Moutoussis, K.: fMRI and its interpretations: an illustration on directional selectivity in area V5/MT. In: Trends in Neuroscience 31,9 (2008). S. 444-453.

202 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Bass, S.: How does the Proton Spin? In: Science 315 (2007). S. 1672-1673. Bayertz, K.: Wissenschaftstheorie und Paradigmabegriff. Stuttgart 1981. Becker, N.: Die neurowissenschaftliche Herausforderung der Pädagogik. Bad Heilbrunn 2006(a). Becker, N.: Von der Hirnforschung lernen? Ansichten über die pädagogische Relevanz neurowissenschaftlicher Erkenntnisse. In: Scheunpflug, A.; Wulf, Ch. (Hrsg.): Biowissenschaft und Erziehungswissenschaft. [Zeitschrift für Erziehungswissenschaft, Beiheft 5/2006.] Wiesbaden 2006(b). S. 177-200. Becker, N.: Die Lust an der Versuchung der Hirnforschung. Über die paradoxen Folgen neurowissenschaftlicher Stellungnahmen zu pädagogischen Fragen. In: Kirchhöfer, D.; Steffens, G. (Red.): Infantilisierung des Lernens? Neue Lernkulturen – ein Streitfall. [Jahrbuch für Pädagogik 2006.] Frankfurt am Main 2007. Becker, N.: Technologien, Bilder, Reduktionen. Erziehungswissenschaftliche Reflexionen über den Reiz neurowissenschaftlicher Offerten. In: Schlüter, S.; Langewand, A. (Hrsg.): Neurobiologie und Erziehungswissenschaft. Die neueren Konjunkturen pädagogischer Wissenschaftsforschung aus historischer und systematischer Perspektive. Bad Heilbrunn 2010. S. 22-37. Bennett, M. et al.: Neuroscience and Philosophy: Brain, Mind, and Language. New York 2007. Berger, Ch.: Elementarteilchenphysik. Von den Grundlagen zu den modernen Experimenten. Berlin, Heidelberg, ²2006. Bethge, K.; Wiedemann, B.: Kernphysik. Eine Einführung. Berlin, Heidelberg ³2008. Birbaumer, N.; Schmidt, R.: Biologische Psychologie. Heidelberg 2006. Birkenbiehl, V.: Stroh im Kopf? – Oder: Gebrauchsanweisung für’s Gehirn. Speyer 1983. Bisanz, E. et al.: Maschinenphantasien. Zur Kulturgeschichte des MenschMaschinen-Verhältnisses. [Ausstellungskatalog zur gleichnamigen Ausstellung im deutschen Hygiene-Museum Dresden vom 11.07.-24.09.1994.] Boden, M.: Mind as Machine. A History of Cognitive Science. Oxford, New York 2006. Boehm, G.: Movens Bild. Zwischen Evidenz und Affekt. Paderborn und München 2008. Borck, C.: Message in a bottle from ›the crisis of reality‹: on Ludwik Fleck’s interventions for an open epistemology. In: Studies in History and Philosophy of Biological and Biomedical Sciences 35 (2004). S. 447-464. Borck, C.: Schreibende Gehirne. In: Ders.; Schäfer, A. (Hrsg.): Psychographien. Zürich und Berlin 2005. S. 89-110.

L ITERATUR

| 203



Borck, C.: Communicating the Modern Body. In: Canadian Journal of Communication 32 (2007a). S. 495-520. Borck, C.: Der industrialisierte Mensch. Fritz Kahns Visualisierungen des Körpers als Interferenzzone von Medizin, Technik und Kultur. In: WerkstattGeschichte 47 (2007b). S. 7-22. Borck, C.: Fritz Kahn – Humanist und technischer Aufklärer. In: Debschitz, U. v.; Debschitz, Th. v.: Fritz Kahn. Maschine Mensch. Wien 2009. S. 8-19. Bortz, J.: Statistik für Human- und Sozialwissenschaftler. Heidelberg 62005. S. 511 ff. Braun, A.-K.: Wie Gehirne laufen lernen oder: »Früh übt sich, wer ein Meister werden will!« Überlegungen zu einer interdisziplinären Forschungsrichtung »Neuropädagogik«. In: Herrmann, U.: Neurodidaktik. Grundlagen und Vorschläge für gehirngerechtes Lehren und Lernen. Weinheim und Basel, 2., erweiterte Auflage 2009. S. 134-147. Bredekamp, H. et al.: Bildwelten des Wissens. In: Bredekamp, H.; Werner, G. (Hrsg.): Bilder in Prozessen. [Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 1,1.] Berlin 2003. S. 9-20. Breidbach, O.: Nervenzellen oder Nervennetze? Zur Entstehung des Neuronenkonzepts. In: Florey, E.; Breidbach, O.: Das Gehirn – Organ der Seele? Zur Ideengeschichte der Neurobiologie. Berlin 1993. S. 81-126. Breidbach, O.: Bilder des Wissens. Zur Kulturgeschichte der wissenschaftlichen Wahrnehmung. München 2005. Breidbach, O.: Naturbilder und Bildmodelle. Zur Bildwelt der Wissenschaften. In: Hinterwaldner, I.; Buschhaus, M. (Hrsg.): The Picture’s Image. Wissenschaftliche Bilder als Komposit. München 2006. S. 23-43. Breidbach, O.: Mikrowelten – Robert Hookes Flohzirkus. In: Elsner, N. (Hrsg.): Bilderwelten. Vom farbigen Abglanz der Natur. Göttingen 2007. S. 141-160. Büchel, Ch.; Karnath, H.-O.; Thier, P.: Methoden der kognitiven Neurowissenschaften. In: Karnath, H.-O.; Thier, P. (Hrsg.): Neuropsychologie. Heidelberg ²2006. S. 7-29. Burri, R.: Doing Images. Zur Praxis medizinischer Bilder. Bielefeld 2008. Canguilhem, G.: Der Gegenstand der Wissenschaftsgeschichte. In: Lepenies, W. (Hrsg.): Wissenschaftsgeschichte und Epistemologie. Frankfurt am Main 1979. S. 22-37. Canguilhem, G.: Gehirn und Denken. In: Ders.: Grenzen medizinischer Rationalität: historisch-epistemologische Untersuchungen (hrsg. von G. Herman, übersetzt von M. Noll). Tübingen 1989. S. 7-40. Cartwright, N.: Die Wahrheit erklärt nicht viel. In: Hampe, M. (Hrsg.): Naturgesetze. Paderborn 2005. S. 147-168.

204 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Changeux, J.-P.: Der neuronale Mensch. Wie die Seele funktioniert – die Entdeckungen der neuen Gehirnforschung. Hamburg 1984. Clarke, E.; Dewhurst, K.: Die Funktionen des Gehirns. Lokalisationstheorien von der Antike bis zur Gegenwart. München 1973. Coca, V.; Nink, K.: Arzneimittelverordnungen nach Alter und Geschlecht. In: Schwabe, U.; Paffrath, D. (Hrsg.): Arzneiverordnungs-Report 2009. Aktuelle Daten, Kosten, Trends und Kommentare. Heidelberg 2009. S. 901-914. Coca, V.; Nink, K.; Schröder, H.: Ökonomische Aspekte des deutschen Arzneimittelmarktes 2008. In: Schwabe, U.; Paffrath, D. (Hrsg.): Arzneiverordnungs-Report 2009. Aktuelle Daten, Kosten, Trends und Kommentare. Heidelberg 2009. S. 143-200. Cruse, H.: Ich bin mein Gehirn. Nichts spricht gegen den materialistischen Monismus. In: Geyer, Ch.: Hirnforschung und Willensfreiheit. Zur Deutung der neusten Experimente. Frankfurt am Main 2004. S. 223-228. Damasio, H. et al: The Return of Phineas Gage: Clues About the Brain from the Skull of a Famous Patient. In Science 264, 5162 (1994). S. 1102-1105. Daston, L.; Galison, P.: The Image of Objectivity. In: Representations 40 (1992). [Special Issue: Seeing Science.] S. 81-128. Daston, L.; Galison, P.: Das Bild der Objektivität. In: Geimer, P. (Hrsg.): Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt am Main 2002. S. 29-99. Daston, L.; Galison, P.: Objektivität. Frankfurt am Main 2007. Debschitz, U. v.; Debschitz, Th. v.: Fritz Kahn. Man Machine. Wien 2009. Dennis, M. A.: Graphic Understanding: Instruments and Interpretation in Robert Hooke’s Micrographia. In: Science in Context 3,2 (1989). S. 309-364. Detel, W.: Perspektiven einer Freiheitstheorie. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007. S. 349-374. Derbolav, J.: Handeln, Handlung, Tat, Tätigkeit. In: Ritter, J.; Gründer, K.; Gabriel, G. (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 3: G-H. Basel 1974. Sp. 992-994. Descartes, R.: Von der Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung. Übersetzt und herausgegeben von Lüder Gäbe. Hamburg 1990. Dierig, S.: Rudolf Virchow und das Nervensystem. Zur Begründung der zellulären Neurobiologie. In: Florey, E.; Breidbach, O. (Hrsg.): Das Gehirn – Organ der Seele? Zur Ideengeschichte der Neurobiologie. Berlin 1993. S. 55–80.

L ITERATUR

| 205



Disbrow, E. et al: Functional MRI at 1.5 Tesla: A comparison of the blood oxygenation level-dependent signal and electrophysiology. In: Proceedings if the National Academy of Sciences USA 97,17 (2000). S. 9718-9723. Ditzen, S.: Brechen, Schleifen, Brennen. Aspekte instrumenteller Bedingungen in den Bildern der frühen Mikroskopie. In: Schramm, H; Schwarte, L.; Lazardzig, J. (Hrsg.): Instrumente in Kunst und Wissenschaft. Zur Architektonik kultureller Grenzen im 17. Jahrhundert. [Theatrum Scientiarium Band 2.] Berlin 2006a. S. 362-376. Ditzen, S.: Der Satyr auf dem Larvenrücken. Zum Verhältnis von instrumentellem Sehen und Bildtraditionen. In: Heßler, M. (Hrsg.): Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit. München 2006b. S. 41-56. Ditzen, S.: Zeichnen am Fenster zum Mikrokosmos – Technik als Einigungshilfe auf Bilder. In: Hinterwaldner, I.; Buschhaus, M. (Hrsg.): The Picture’s Image. Wissenschaftliche Visualisierung als Komposit. München 2006c. S. 129-142. Dumit, J.: Is It Me or My Brain? Depression and Neuroscientific Facts. In: Journal of Medical Humanities 24,1/2 (2003) S. 35-47. Dumit, J.: Picturing Personhood. Brain Scans and Biomedical Identity. Princeton 2004. Elger, E. et al.: Das Manifest. Gegenwart und Zukunft der Hirnforschung. In: Gehirn und Geist 6/2004. S. 30-37. Elsner, N.: Bilder einer Religion des Wahren, Guten, Schönen. Ernst Haeckels Kunstformen der Natur. In: Ders. (Hrsg.): Bilderwelten. Vom farbigen Abglanz der Natur. Göttingen 2007. S. 281-322. Emschermann, P.: Präparationstechniken. In: Sauermost, R.; Freudig, D. (Red.): Lexikon der Biologie. Bd. 11: Phallaceae - Resistenzzüchtung. Heidelberg 2003. S. 243-244. Engels, E.-M.: Plädoyer für eine nichtreduktionistische Neurophilosophie. In: Dies.; Hildt, E.: Neurowissenschaften und Menschenbild. Paderborn 2005. S. 221-249. Engelsman, S. B.: Antoni van Leeuwenhoek. 1632 – 1723. Tentoonstelling in het Museum Boerhaave van 26 november 1982 tot en met 1 mei 1983, in het Science Museum, Londen van juni 1983 tot en met september 1983. Leiden 1982. Essen, D. van: Surface-based approaches to spatial localization and registration in primate cerebral cortex. In: NeuroImage 23 (2004). S. 97-107. Felmlee, J. et al.: Magnetic resonance imaging phase encoding: A pictorial essay. Radiographics 9,4 (1989). S. 717-722.

206 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Fiorentini, E.: Subjective Objective. The Camera Lucida and Protomodern Observers. In: Fischel, A. (Hrsg.): Instrumente des Sehens. [Bredekamp, H.; Werner, G. (Hrsg.): Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 2,2.] Berlin 2004. S. 58-66. Fioretini, E.: Instrument des Urteils. Zeichnen mit der Camera Lucida als Komposit. In: Hinterwaldner, I.; Buschhaus, M. (Hrsg.): The Picture’s Image. Wissenschaftliche Visualisierung als Komposit. München 2006. S. 44-58. Fischel, A.; Hennig, J.: Brains on Fire – Bilder der Neurobiologie. Ein Gespräch mit Randolf Menzel und David Poeppel. In: Fischel, A. (Hrsg.): Instrumente des Sehens. [Bredekamp, H.; Werner, G. (Hrsg.): Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 2,2.] Berlin 2004. S. 87-97. Fleck, L.: Zur Krise der ›Wirklichkeit‹. In: Die Naturwissenschaften 17 (1929). S. 425-430. Fleck, L.: Entstehung und Entwicklung einer wissenschaftlichen Tatsache (1935). Frankfurt am Main 1980. Fleck, L.: Schauen, sehen, wissen (1947). In: Ders.: Erfahrung und Tatsache. Gesammelte Aufsätze. Frankfurt am Main 1983a. S. 147-173. Fleck, L.: Wissenschaftstheoretische Probleme (1946). In: Ders.: Erfahrung und Tatsache. Gesammelte Aufsätze. Frankfurt am Main 1983b. S. 128-146. Florey, E.: Memoria. Geschichte der Konzepte über die Natur des Gedächtnisses. In: Ders.; Breidbach, O. (Hrsg.): Das Gehirn – Organ der Seele? Zur Ideengeschichte der Neurobiologie. Berlin 1993. S. 151-215. Fox-Keller, E.: Nature and the Natural. In: BioSocieties 3,2 (2008). S. 117-124. Fraassen, B. van: The scientific Image. Oxford 1980. Frazzetto, G.; Anker, S.: Neuroculture. In: Nature Reviews Neuroscience 10 (2009). S. 815-821. Frey, G.: Experiment. In: Ritter, J.; Gründer, K.; Gabriel, G. (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 2: D-F. Basel 1972. Sp. 868-870. Frey, G.: Konventionalismus. In: Ritter, J.; Gründer, K.; Gabriel, G. (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 4: I-K. Basel 1976. Sp. 10781079. Friedrich, G.: Allgemeine Didaktik und Neurodidaktik. Eine Untersuchung zur Bedeutung von Theorien und Konzepten des Lernens, besonders neurobiologischer, für die allgemeindidaktische Theoriebildung. Frankfurt am Main 2005. Friston, K.: Statistical Parametric Mapping: The analysis of functional brain images. Amsterdam 2007.

L ITERATUR

| 207



Froehlich, T. et al.: Prevalence, Recognition, and Treatment of AttentionDeficit/Hyperactivity Disorder in a National Sample of US Children. In: Archives of Pediatrics & Adolescent Medicine 161,9 (2007). S. 857-864. Gawlick, G.: Naturalismus. In: Ritter, J.; Gründer, K.; Gabriel, G. (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 6: Mo-O. Basel 1984. Sp. 517-519. Gazzaniga, M. S.; Ivry, R. B.; Mangun, G. R.: Cognitive neuroscience: The biology of the mind. 2nd Edition. New York, NY, USA 2002. Gazzaniga, M.: The Ethical Brain. The Science of Our Moral Dilemmas. New York 2006. Geimer, P. (Hrsg.): Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt am Main 2002. Gendolla, P.: Vertauschte Bilder. Maschinenmenschen im Film (Metropololis, Modern Times, Casanova, Stepford Wives, Welt am Draht). In: Glaser, H. (Hrsg.): Maschinenmenschen. Frankfurt am Main u.a. 1988. S. 169-181. Genovese, Ch.; Lazar, N.; Nichols, Th.: Thresholding of Statistical Maps in Functional Neuroimaging Using False Discovery Rate. In: Neuroimage 15 (2002). S. 870-878. Gerlach, D.: Geschichte der Mikroskopie. Frankfurt am Main 2009. Gerthsen, Ch.; Meschede, D.: Physik. Berlin, Heidelberg 232006. Gerthsen, D.: Unsichtbares sichtbar machen. In: Könches, B.; Weibel, P. (Hrsg.): Unsichtbares. Algorithmen als Schnittstellen zwischen Kunst und Wissenschaft. Wabern 2005. S. 222-241. Gigerenzer, G.: From Tools to Theories: A Heuristic of Discovery in Cognitive Psychology. In: Psychological Review 98,2 (1991). S. 254-267. Gimi, B.: Magnetic Resonance Microscopy: Concepts, Challenges, and State-ofthe-Art. In: Prasad, P. (Hrsg.): Magnetic Resonance Imaging. Methods and Biologic Applications. [Methods in Molecular Medicine Bd. 124.] Totowa 2006. S. 59-84. Göbel, R. (Hrsg.): Wissensspeicher Physik. Berlin 1998. Goldstein, E. B.: Wahrnehmungspsychologie. Berlin 22002. Götze, Ch.: Multiple Image Stack Browsing. In: Fischel, A. (Hrsg.): Instrumente des Sehens. [Bredekamp, H.; Werner, G. (Hrsg.): Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 2,2.] Berlin 2004. S. 103105. Greely, H. et al.: Towards responsible use of cognitive-enhancing drugs by the healthy. In: Nature Advance Online Publication. doi:10.1038/456702a. 2008. Grabar, E.: Die Spur der Gedanken. Wissenschaftler entschlüsseln derzeit das Denken und Fühlen von Menschen in einer nie gekannte Detailliertheit – und

208 | D ER M ENSCH ALS NEURONALE M ASCHINE?

legen damit die Grundlage für Gedankenlesemaschinen und eine neue Generation von Lügendetektoren. In: Technology Review. November 2008. S. 28-34. Griffiths, D.: Einführung in die Elementarteilchenphysik. Berlin 1996. Haeckel, E.: Kunstformen der Natur. Hundert Illustrationstafeln mit beschreibendem Text, allgemeine Erläuterung und systematische Übersicht. Leipzig 1904. Nachdruck: Wiesbaden 2004. Hacking, I.: Was heißt ›soziale Konstruktion?‹. Frankfurt am Main ³2002 (1999). Hacking, I.: Einführung in die Philosophie der Naturwissenschaft. Stuttgart 1996. Hagner, M.: Der Geist bei der Arbeit. Historische Untersuchungen zur Hirnforschung. Göttingen 2006. Hampe, M.: Philosophische Erklärungen von Naturgesetzen (Einleitung). In: Ders. (Hrsg.): Naturgesetze. Paderborn 2005. S. 9-23. Hanson, L.: Is Quantum Mechanics Necessary for Understanding Magnetic Resonance? In: Concepts of Magnetic Resonance Part A. Vol. 32A (5) (2008). S. 329-340. Harwood, J.: Ludwik Fleck and the Sociology of Knowledge. In: Social Studies of Science 16,1 (1986). S. 173-187. Hasson, U. et al: A Hierarchy of Temporal Receptive Windows in Human Cortex. In: The Journal of Neuroscience 28,10 (2008). S. 2539-2550. Hasinger, G.: Die Farben des Himmels. In: Elsner, Norbert (Hrsg.): Bilderwelten. Vom farbigen Abglanz der Natur. Göttingen 2007. S. 85-112. Haynes, J.-D. et al.: Reading Hidden Intentions in the Human Brain. In: Current Biology 17 (2007). S. 323-328. Heinemann, T.: ›Hirnforschung‹ zwischen Labor und Talkshow – Ideal der Wissenstransformation? In: Hoof, F.; Jung, E.-M.; Salaschek, U.: Jenseits des Labors. Transformationen von Wissen zwischen Entstehungs- und Anwendungskontexten. Bielefeld 2011. S. 215-237. Heinemann, T.: ›Neuro-Enhancement‹ – Gesellschaftlicher Fortschritt oder neue Dimension der Medikalisierung? In: Liebsch, K.; Manz, U. (Hrsg.): Leben mit den Lebenswissenschaften. Wie wird biomedizinisches Wissen in Alltagspraxis übersetzt? Bielefeld 2010. S. 131-151. Heisenberg, W.: Physik und Philosophie. [Weltperspektiven Bd. 2.] Berlin 1959. Helmeke, C.; Poeggel, G.; Braun, K.: Differential Emotional Experience Induces Elevated Spine Densities on Basal Dendrites of Pyramidal Neurons in the Anterior Cingulate Cortex of Octodon Degus. In: Neuroscience 104,4 (2001). S. 927-931. Hennig, J.: Vom Experiment zur Utopie. Bilder der Nanotechnologie. In: Fischel, A. (Hrsg.): Instrumente des Sehens. [Bredekamp, H.; Werner, G.

L ITERATUR

| 209



(Hrsg.): Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 2,2.] Berlin 2004. S. 9-18. Hennig, J.: Die Versinnlichung des Unzugänglichen. Oberflächendarstellungen in der zeitgenössischen Mikroskopie. In: Heßler, M. (Hrsg.): Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit. München 2006a. S. 99-116. Hennig, J.: Instrumentelle Bedingungen in Bildern der Rastertunnelmikroskopie. In: Schramm, H; Schwarte, L.; Lazardzig, J. (Hrsg.): Instrumente in Kunst und Wissenschaft. Zur Architektonik kultureller Grenzen im 17. Jahrhundert. [Theatrum Scientiarium Band 2.] Berlin 2006b. S. 377–391. Hennig, J.: Lokale Bilder in globalen Kontroversen: Die heterogenen Bildwelten der Rastertunnelmikroskopie. In: Hinterwaldner, I.; Buschhaus, M. (Hrsg.): The Picture’s Image. Wissenschaftliche Visualisierung als Komposit. München 2006c. S. 243-259. Herrmann, U.: Neurodidaktik. Grundlagen und Vorschläge für gehirngerechtes Lehren und Lernen. Weinheim und Basel, 2., erweiterte Auflage 2009. Herrmann, U. et al.: Überflüssige oder verkannte Disziplin? Erziehungswissenschaft zwischen Ratlosigkeit und Betriebsamkeit, Theoriekonjunkturen und Theorieverschleiß. In: Benner, D.; Heid, H.; Thiersch, H. (Hrsg.): Beiträge zum 8. Kongreß der Deutschen Gesellschaft für Erziehungswissenschaft. [Zeitschrift für Pädagogik, 18. Beiheft.] Weinheim und Basel 1983. S. 443463. Heßler, M. (Hrsg.): Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit. München 2006. Hilts, P. J.: Memory’s Ghost: The Strange Tale of Mr. M. and the Nature of Memory. New York 1995. Hinterwaldner, I.; Buschhaus, M. (Hrsg.): The Picture’s Image. Wissenschaftliche Visualisierung als Komposit. München 2006. Hörl, E.: Das kybernetische Bild des Denkens. In: Hagner, M.; Hörl, E. (Hrsg.): Die Transformation des Humanen. Beiträge zur Kulturgeschichte der Kybernetik. Frankfurt am Main 2008. S. 161-195. Hövel, J., auf dem: Der Gedankenleser. Der Psychologe John-Dylan Haynes über die Kunst, das Gehirn beim Denken zu beobachten. Interview mit JohnDylan Haynes. In: Berliner Zeitung vom 24.03.2007. S. 16. Hövel, J., auf dem: Pillen für den besseren Menschen. Wie Psychopharmaka, Drogen und Biotechnologie den Menschen der Zukunft formen. Hannover 2008. Hoffmann, F.: Realismus. In: Ritter, J.; Gründer, K.; Gabriel, G. (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 8: R-Sc. Basel 1992. Sp. 148-150.

210 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Hoof, F.; Jung. E.-M.; Salaschek, U. (Hrsg.): Jenseits des Labors. Transformationen von Wissen zwischen Entstehungs- und Anwendungskontexten. Bielefeld 2011. Huang, J.; Carr, Th.; Cao, Y.: Comparing Cortical Activations for Silent and Overt Speech Using Event-Related fMRI. In: Human Brain Mapping 15 (2001). S. 39-53. Hügli, A.: Bilder oder Argumente – Bilder statt Argumente? In: Döpinghaus, A.; Helmer, K. (Hrsg.): Bild – Bildung – Argumentation. [Beiträge zur Theorie der Argumentation in der Pädagogik Bd. 5.] Würzburg 2009. S. 15-39. Hüther, G.: Bedienungsanleitung für ein menschliches Gehirn. Göttingen 2001. Huettel, S.; Song, A.; McCarthy, G.: Functional Magnetic Resonance Imaging. Sunderland ²2008. Ioannidis, J.: Why Most Published Research Findings Are False. In: PLoS Medicine 2,8: e124 (2005). S. 696-701. Jäncke, L.: Methoden der Bildgebung in der Psychologie und den kognitiven Neurowissenschaften. [Heuer, H.; Rösler, F.; Tack, W. (Hrsg.): Standards Psychologie.] Stuttgart 2005. Janich, P.: Über den Einfluß falscher Physikverständnisse auf die Entwicklung der Neurobiologie. In: Florey, E.; Breidbach, O. (Hrsg.): Das Gehirn – Organ der Seele? Zur Ideengeschichte der Neurobiologie. Berlin 1993. S. 309-326. Janich, P.: Was ist Information? Frankfurt am Main 2006. Janich, P.: Naturwissenschaft vom Menschen versus Philosophie. In: Ders. (Hrsg.): Naturalismus und Menschenbild. Hamburg 2008. S. 30-51. Janich, P.: Kein neues Menschenbild. Zur Sprache der Hirnforschung. Frankfurt am Main 2009. Kahn, F.: Es ist ein Wunder, daß wir länger als zwei Minuten leben. Der Mensch – die komplizierteste Maschine. In: Berliner Illustrierte Zeitung. Nr. 44 (1926). S. 1467-1468. Kandel, E.: Auf der Suche nach dem Gedächtnis. München 2007. Kay, L. E.: From Logical Neurons to Poetic Embodiments of Mind: Warren S. McCulloch’s Project in Neuroscience. In: Science in Context 14,4 (2001). S. 591-614. Keiner, E.; Tenorth, H.-E.: Die Macht der Disziplin. In: Kraft, V. (Hrsg.): Zwischen Reflexion, Funktion und Leistung: Facetten der Erziehungswissenschaft. [Beiträge zur Theorie und Geschichte der Erziehungswissenschaft Bd. 27.] Bad Heilbrunn 2007. S. 155-173. Kida, I.; Hyder, F.: Physiology of Functional Magnetic Resonance Imaging. In: Prasad, P. (Hrsg.): Magnetic Resonance Imaging. Methods and Biologic Ap-

L ITERATUR

| 211



plications. [Methods in Molecular Medicine Bd. 124.] Totowa 2006. S. 175195. Koch, Ch.: Die Zukunft der Hirnforschung. Das Bewusstsein steht vor seiner Enthüllung. In: Geyer, Ch. (Hrsg.): Hirnforschung und Willensfreiheit. Zur Deutung der neuesten Experimente. Frankfurt am Main 2004. S. 229-234. Koch, Ch.; Tononi, G.: Consciousness and the Brain: What’s the Connection? Unveröffentlichter Vortrag vom 04.06.2009 in der Berlin-Brandenburgischen Akademie der Wissenschaften. Könneker, K. (Hrsg.): Wer erklärt den Menschen? Hirnforscher, Psychologen und Philosophen im Dialog. Frankfurt am Main ²2007 (2006). Kolb, B.; Whishaw, I.: An introduction to brain and behavior. New York ²2005. Kong, J. et al.: Test–retest study of fMRI signal change evoked by electroacupuncture stimulation. In: NeuroImage 34 (2007). S. 1171–1181. Krämer, W.: So lügt man mit Statistik. München ³2002. Krakelberg, B.; Boynton, G.; Wezel, R. van: Adaptation: from single cells to BOLD signals. In: Trends in Neuroscience 29,5 (2006). S. 250-256. Kremer, B.: Das große Kosmos-Buch der Mikroskopie. Stuttgart 2002. Krüger, H.-P.: Einleitung. In: Ders. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007. S. 9-24. Kühne, U.: Der Mensch als Industriepalast. Eine Ausstellung über den seltsamen, aber faszinierenden Ikonographen der Naturwissenschaften Fritz Kahn. [Bericht zur Sonderausstellung im Berliner Medizinhistorischen Museum der Charité »Fritz Kahn – Maschine Mensch« vom 22.01.-11.04.2010.] http://www.heise.de/tp/r4/artikel/31/31997/1.html Kuhn, Th. S.: Die Struktur wissenschaftlicher Revolutionen. 2. Rev. Frankfurt am Main 192006 (1969). La Mettrie, J. O. de: Der Mensch eine Maschine. Übersetzt, mit einer Vorrede und mit Anmerkungen versehen von Max Brahn. Leipzig 1909. Latour, B.: Science in Action. How to follow scientists and engineers through society. Cambridge 1987. Latour, B.: The force and the reason of experiment. In: LeGrand, H. E. (Hrsg.): Experimental Inquiries. Dordrecht, NL 1990. S. 49-80. Latour, B.: Iconoclash. Gibt es eine Welt jenseits des Bilderkrieges? Berlin 2002. Laucken, U.: Über die semantische Blindheit einer neurowissenschaftlichen Psychologie. Oder: Was hätte uns eine so gewendete Psychologie zum »Dialog der Kulturen« zu sagen? In: Journal für Psychologie 11 (2003). S. 149-175.

212 | D ER M ENSCH ALS NEURONALE M ASCHINE?

LeFevre, G.; Dawson, K.; Morrow, A.: The Extent of Drug Therapy for Attention Deficit-Hyperactivity Disorder Among Children in Public Schools. In: American Journal of Public Health 89,9 (1999). S. 1359-1364. Lenoir, T.: Practice, Reason, Context: The Dialogue Between Theory and Experiment. In: Science in Context 2 (1988) S. 3-22. Leonhard, K.: Bildbesprechung. Dalenpatius sieht etwas, das Leeuwenhoek nicht sieht. In: Fischel, A. (Hrsg.): Instrumente des Sehens. [Bredekamp, H.; Werner, G. (Hrsg.): Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 2,2.] Berlin 2004. S. 55-57. Leonhard, K.: Blut sehen. In: Hinterwaldner, I.; Buschhaus, M. (Hrsg.): The Picture’s Image. Wissenschaftliche Visualisierung als Komposit. München 2006. S. 104-128. Levitt, M.: Spin Dynamics. Basics of Nuclear Magnetic Resonance. Second Edition. Chichester 2008. Libet, B.: Mind Time. Frankfurt am Main 2007. Liebermann, M.; Berkman, E.; Wagner, T.: Correlations in Social Neuroscience Aren’t Voodoo. In: Perspectives on Psychological Science 4,3 (2009). S. 299-307. Lindemann, G.: Beobachtung der Hirnforschung. In: Deutsche Zeitschrift für Philosophie 53 (2005). S. 761-781. Lindemann, G.: Plädoyer für einen methodologisch pluralistischen Monismus. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007. S. 401-410. Linden, W.: Und seh, dass wir nichts wissen können? Erkenntnisprobleme der Hirnforschung. In: Ders.; Fleissner, A.: Geist, Seele und Gehirn. Entwurf eines gemeinsamen Menschenbildes von Neurologen und Geisteswissenschaftlern. [Philosophie. Forschung und Wissenschaft. Band 16.] Münster 2004. S. 9-20. Lindquist, M. et al.: Rapid three-dimensional functional magnetic resonance imaging of the initial negative BOLD response. In: Jounal of Magnetic Resonance 191 (2008). S. 100-111. Löwenstein, S.: Menschen-Bilder – Bildgebende Verfahren in der Hirnforschung und ihre Bedeutung für die Erziehungswissenschaften. In: Döpinghaus, A.; Helmer, K. (Hrsg.): Bild – Bildung – Argumentation. [Beiträge zur Theorie der Argumentation in der Pädagogik Bd. 5.] Würzburg 2009. S. 157-178. Logothetis, N. et al.: Neurophysiological investigation of the basis of the fMRI signal. In: Nature 412, 6843 (2001). S. 150-157.

L ITERATUR

| 213



Logothetis, N.: What we can do and what we cannot do with fMRI. In: Nature 453 (2008a). S. 869-878. Logothetis, N.: What we can do and what we cannot do with fMRI. Supplementary Information. In: Nature 453 (2008b). http://www.nature.com/nature /journal/v453/n7197/suppinfo/nature06976 html . Lohff, B.: Emil du Bois-Reymonds Interpretation des physiologischen Reizbegriffs. In: Mann, G. (Hrsg.): Naturwissen und Erkenntnis im 19. Jahrhundert: Emil Du Bois-Reymond. Hildesheim 1981. S. 105-115. Lohse, M.; Lorenzen, A.; Müller-Oerlinghaus, B.: Psychopharmaka. In: Schwabe, U.; Paffrath, D. (Hrsg.): Arzneiverordnungs-Report 2006. Aktuelle Daten, Kosten, Trends und Kommentare. Heidelberg 2006. S. 819-868. Lohse, M.; Müller-Oerlinghausen, B.: Psychopharmaka. In: Schwabe, U.; Paffrath, D. (Hrsg.): Arzneiverordnungs-Report 2009. Aktuelle Daten, Kosten, Trends und Kommentare. Heidelberg 2009. S. 767-810. Luhmann, N.; Schorr, K.-E.: Reflexionsprobleme im Erziehungssystem. Stuttgart 1979. Maffei, L.; Fiorentini, A.: The Visual Cortex as a Spatial Frequency Analyser. In: Vision Research 13 (1973). S. 1255-1267. Mai, V.: Hyperpolarized Gas and Oxygen-Enhanced Magnetic Resonance Imaging. In: Prasad, P. (Hrsg.): Magnetic Resonance Imaging. Methods and Biologic Applications. [Methods in Molecular Medicine Bd. 124.] Totowa 2006. S. 325-345. Mandler, G. A.: Consciousness: Respectable, useful, and probably necessary (1975). In: Baars, B.; Banks, W.; Newman, J. (Hrsg): Essential Sources in the Scientific Study of Consciousness. Cambridge, London 2003. S. 15-33. Markram, H.: The Blue Brain Project. In: Nature Reviews Neuroscience 7 (2006). S. 153-160. Mattenklott, G.: Metaphern in der Wissenschaftssprache. In: Schramm, H. et al. (Hrsg.): Bühnen des Wissens. Interferenzen zwischen Wissenschaft und Kunst. Berlin 2003. S. 28-49. McCulloch, W.: Warum der Geist im Kopf ist (1951). In: Ders.: Verkörperungen des Geistes. Wien 2000. S. 93-158. McRobbie, D. et al.: MRI. From Picture to Proton. Second Edition. Cambridge 2008. Merkel, R. et al.: Intervening in the Brain. Changing Psyche and Society. [Ethics of Science and Technology Assessment. Volume 29.] Berlin und Heidelberg 2007. Meyer-Drawe, K.: Mensch und Maschine. Nachdenkliches zu neuzeitlichen Selbstkonzeptionen des Menschen. In: Ruhloff, J.; Schaller, K. (Hrsg.): Pä-

214 | D ER M ENSCH ALS NEURONALE M ASCHINE?

dagogische Einsätze. Festschrift für Theodor Ballauf zum achtzigsten Geburtstag. Sankt Augustin 1991. S. 121-128. Meyer-Drawe, K.: Von der Marionette bis zum autopoietischen System. Maschinenbilder in der Pädagogik. In: Vierteljahresschrift für wissenschaftliche Pädagogik. 71,4 (1995a). S. 258-373. Meyer-Drawe, K.: Mit der Präzision eines Uhrwerks denken: René Descartes. In: Acta Comenia 11 (1995b). S. 47-60. Meyer-Drawe, K.: »Menschen sind Maschinen der Engel« (Jean Paul). In: Jamme, Ch. (Hrsg.): Kunst und Geschichte im Zeitalter Hegels. [HegelDeutungen. Band 2.] Hamburg 1996. S. 71-89. Meyer-Drawe, K.: Das Rätsel der Maschine Mensch. Die Natur der Bewegung. In: Der blaue Reiter. Journal für Philosophie 9 (1999). Meyer-Drawe, K.: Lernen als Erfahrung. In: Zeitschrift für Erziehungswissenschaft 6,4 (2003). S. 505-514. Meyer-Drawe, K.: Menschen im Spiegel ihrer Maschinen. [Grathoff, R.; Waldenfels, B. (Hrsg.): Übergänge. Texte und Studien zu Handlung, Sprache und Lebenswelt. Band 29.] München ²2007. Meyer-Drawe, K.: Diskurse des Lernens. München 2008. Meyer-Drawe, K.: »Sich einschalten«. Anmerkungen zum Prozess der Selbststeuerung. In: Lange, U.; Rahn, S.; Seittler, W.; Körzel, R. (Hrsg.): Steuerungsprobleme im Bildungswesen. Wiesbaden 2009. S. 19-34. Meyer-Drawe, K.: Die Macht des Bildes – eine bildungstheoretische Reflexion. In: Zeitschrift für Pädagogik 56,6 (2010). S. 805-817. Meyer-Drawe, K.; Witte, E.: Bilden. In: Konersmann, R. (Hrsg.): Wörterbuch der philosophischen Metaphern. Darmstadt 2007. S. 61-80. Mitchell, T. et al.: Predicting Human Brain Activity Associated with Meanings of Nouns. In: Science 320 (2008). S. 1191-1195. Morasch, G.: Hirnforschung und menschliches Selbst. Eine erziehungswissenschaftliche Konzeption des Selbst unter Berücksichtigung neurobiologischer Erkenntnisse. Heidelberg 2007. Müller, T.: Erziehungswissenschaftliche Rezeptionsmuster neurowissenschaftlicher Forschung. In: Scheunpflug, A.; Wulf, Ch. (Hrsg.): Biowissenschaft und Erziehungswissenschaft. [Zeitschrift für Erziehungswissenschaft, Beiheft 5/2006.] Wiesbaden 2006. S. 201-216. Ne’eman, Y.; Kirsh, Y.: Die Teilchenjäger. Berlin und Heidelberg 1995. Nelle, F.: Im Rausch der Dinge. Poetik des Experiments im 17. Jahrhundert. In: Schramm, H. et al. (Hrsg.): Bühnen des Wissens. Interferenzen zwischen Wissenschaft und Kunst. Berlin 2003. S. 140-167.

L ITERATUR

| 215



Nettis, J.: An Account of a Method of Observing the Wonderful Configurations of the Smallest Shining Particles of Snow, with Several Figures of Them. In: Philosophical Transactions 49 (1755). S. 644-648. OECD (Hrsg.): Understanding the Brain: Towards a New Learning Science. Paris 2002. OECD (Hrsg.): Understanding the Brain: The Birth of a Learning Science. Paris 2007. Oelkers, J.: Kybernetische Pädagogik: Eine Episode oder ein Versuch zur falschen Zeit? In: Hagner, M.; Hörl, E. (Hrsg.): Die Transformation des Humanen. Beiträge zur Kulturgeschichte der Kybernetik. Frankfurt am Main 2008. S. 196-228. Ogawa, S. et al.: Brain magnetic resonance imaging with contrast dependent on blood oxygenation. In: Proceedings of the National Academy of Sciences 87 (1990). S. 9868-9872. Ottino, J. M.: Is a picture worth 1,000 words? Exciting new illustration technologies should be used with care. In: Nature 421 (2003). S. 474-476. Pauen, M.: Ratio und Natur. Warum unsere Fähigkeit, nach Gründen zu handeln, auch durch reduktive Ansätze nicht in Frage gestellt werden kann. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007. S. 417429. Pauen, S.: Zeitfenster der Gehirn- und Verhaltensentwicklung: Modethema oder Klassiker? In: Herrmann, U.: Neurodidaktik. Grundlagen und Vorschläge für gehirngerechtes Lehren und Lernen. Weinheim und Basel, 2., erweiterte Auflage 2009. S. 31-40. Peitgen, H.-O.: Der Der Bedeutungswandel der Bilder in der Medizin. Bilder zwischen Deutung und Wissen. In: Könches, B.; Weibel, P. (Hrsg.): Unsichtbares. Algorithmen als Schnittstellen zwischen Kunst und Wissenschaft. Wabern 2005. S. 98-121. Peitgen, H.-O.: Der Der Bedeutungswandel der Bilder in der Medizin. Bilder zwischen Deutung und Wissen. In: Elsner, N. . (Hrsg.): Bilderwelten. Vom farbigen Abglanz der Natur. Göttingen 2007. S. 209-232. Plessner, H.: Über Menschenverachtung (1953). In: Ders.: Conditio humana. [Dux, G., Marquard; U.; Ströker, E. (Hrsg.): Helmuth Plessner. Gesammelte Schriften. Bd. 8.] Frankfurt am Main 1983. S. 105–116. Poeppel, D.: A critical review of PET studies of phonological processing. In: Brain and Language 55 (1996). S. 317-351.

216 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Popper, K. R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hamburg 41984 (1973). Prasad, P. (Hrsg.): Magnetic Resonance Imaging. Methods and Biologic Applications. [Methods in Molecular Medicine Bd. 124.] Totowa 2006. Prinz, W.: Der Mensch ist nicht frei. Ein Gespräch. In: Geyer, Ch. (Hrsg.): Hirnforschung und Willensfreiheit. Zur Deutung der neusten Experimente. Frankfurt am Main 2004. S. 20-26. Putscher, M.: Pneuma, Spiritus, Geist. Vorstellungen vom Lebensantrieb in ihren geschichtlichen Wandlungen. Wiesbaden 1973. Raichle, M. et al.: Practice-related changes in human brain functional anatomy during non-motor learning. In: Cerebral Cortex 4 (1994). S. 8-26. Raine, A. et al.: Reduced Prefrontal Gray Matter Volume and Reduced Autonomic Activity in Antisocial Personality Disorder. In: Archives of General Psychiatry 57 (2000). S. 119-127. Ratey, J.: Das menschliche Gehirn. Eine Gebrauchsanweisung. Düsseldorf 2001. Reichardt, O.; Stürenberg, C.: Lehrbuch der Mikroskopischen Photographie mit Rücksicht auf naturwissenschaftliche Forschungen. Leipzig 1868. Rheinberger, H.-J.; Hagner, M. (Hrsg.): Die Experimentalisierung des Lebens. Experimentalsysteme in den biologischen Wissenschaften 1850/1950. Berlin 1993. Rheinberger, H.-J.: Experimentalsysteme und epistemische Dinge. Göttingen ²2002 (2001). Rheinberger, H.-J.: Präparate – ›Bilder‹ ihrer selbst. In: Bredekamp, H.; Werner, G. (Hrsg.): Oberflächen der Theorie. [Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik. Band 1,2.] Berlin 2003. S. 9-19. Rheinberger, H.-J.: Epistemologie des Konkreten. Studien zur Geschichte der modernen Biologie. Frankfurt am Main 2006. Ricken, N.: Über die Verachtung der Pädagogik. Eine Einführung. In: Ders. (Hrsg.): Über die Verachtung der Pädagogik. Analysen – Materialien – Perspektiven. Wiesbaden 2007. S. 14-40. Rieger-Ladich, M.: Akzeptanzkrisen und Anerkennungsdefizite: Die Erziehungswissenschaft als subalterne Disziplin? In: Ricken, N. (Hrsg.): Über die Verachtung der Pädagogik. Analysen – Materialien – Perspektiven. Wiesbaden 2007. S. 159-182. Riezler, K.: Die Krise der ›Wirklichkeit‹. In: Die Naturwissenschaft 16 (1928). S. 705-712. Riskin, J. (Hrsg.): Genesis redux: essays in the history and philosophy of artificial life. Chicago 2007. Robenek, H. (Hrsg.): Mikroskopie in Forschung und Praxis. Darmstadt 1995.

L ITERATUR

| 217



Rose, N.: The Neurochemical Self and Its Anomalies. In: Ericson, R. (Hrsg.): Risk and Morality. Toronto 2003. S. 407-437. Rose, N.: Becoming Neurochemical Selves. In: Stehr, N. (Hrsg.): Biotechnology, Commerce and Civil Society. New Brunswick 2004. S. 89-126. Roth, G.: Fühlen, Denken, Handeln. Wie das Gehirn unser Verhalten steuert. Neue, vollständig überarbeitete Ausgabe. Frankfurt am Main 2003. Roth, G.: Warum sind Lehren und Lernen so schwierig? In: Zeitschrift für Pädagogik 50,4 (2004). S. 496-506. Roth, G.: Gehirn, Gründe und Ursachen. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007. S. 171-185. Ryle, G.: Der Begriff des Geistes. Stuttgart 1992. Salaschek, S.; Bröker, J.: Die Stifterbilder in der Christuskirche. [Ibbenbürener Studien. Bd. 2.] Ibbenbüren 1993. Salaschek, U.; Wistuba, F.: Zu der Ontologisierung eines Menschenbildes und deren pädagogischen Implikationen. In: Schlüter, S.; Langewand, A. (Hrsg.): Neurobiologie und Erziehungswissenschaft. Die neueren Konjunkturen pädagogischer Wissenschaftsforschung aus historischer und systematischer Perspektive. Bad Heilbrunn 2010. S. 38-53. Schaaf, L.: Camera Obscura und Camera Lucida. Bild und Vorstellung vor Erfindung der Photographie. In: Dewitz, B.; Nekes, W. (Hrsg.): Ich Sehe Was Was Du Nicht Siehst! Sehmaschinen und Bilderwelten. Die Sammlung Werner Nekes. [Katalog zur gleichnamigen Ausstellung im Museum Ludwig, Köln, 27. September bis 24. November 2002.] S. 48-53. Scheich, H.: Lernen unter der Dopamindusche. Was uns Versuche an Mäusen über die Mechanismen des menschlichen Gehirns verraten. In: Die Zeit (Nr. 39) vom 18.09.2003. http://www.zeit.de/2003/39/Neurodidaktik_2 Schickore, J.: Fixierung mikroskopischer Beobachtungen: Zeichnung, Dauerpräparat, Mikrofotografie. In: Geimer, P. (Hrsg.): Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt am Main 2002. S. 285-310. Schild, H.: MRI Made Easy. Berlin 1990. Schlack, R. et al.: Die Prävalenz der Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) bei Kindern und Jugendlichen in Deutschland. Erste Ergebnisse aus dem Kinder- und Jugendgesundheitssurvey (KiGGS). Bundesgesundheitsbl Gesundheitsforsch Gesundheitsschutz 50 (2007). S. 827–835.

218 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Schmidt-Biggemann, W.: Maschine. In: Ritter, J.; Gründer, K.; Gabriel, G. (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 5: L-Mn. Basel 1980. Sp. 790-802. Schmiedbach, H.-P.: Pathologie bei Virchow und Traube, Experimentalstrategien in unterschiedlichen Kontexten. In: Rheinberger, H.-J.; Hagner, M. (Hrsg.): Die Experimentalisierung des Lebens. Experimentalsysteme in den biologischen Wissenschaften 1850/1950. Berlin 1993. S. 116-134. Schneider, H. J.: Reden über Inneres. Ein Blick mit Ludwig Wittgenstein auf Gerhard Roth. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007. S. 223-239. Schramm, H; Schwarte, L.; Lazardzig, J. (Hrsg.): Instrumente in Kunst und Wissenschaft. Zur Architektonik kultureller Grenzen im 17. Jahrhundert. [Theatrum Scientiarium Band 2.] Berlin 2006. Schumacher, R.: Hirnforschung und schulisches Lernen. In: Herrmann, U.: Neurodidaktik. Grundlagen und Vorschläge für gehirngerechtes Lehren und Lernen. Weinheim und Basel, 2., erweiterte Auflage 2009. S. 124-133. Schwarte, L.: Die Anatomie des Hirns als Instrumentalisierung der Vernunft. In: Schramm, H; Schwarte, L.; Lazardzig, J. (Hrsg.): Instrumente in Kunst und Wissenschaft. Zur Architektonik kultureller Grenzen im 17. Jahrhundert. [Theatrum Scientiarium Band 2.] Berlin 2006. S. 194-219. S. 196 ff. Schwegler, H.: Reduktionismen und Physikalismen. In: Pauen, M.; Roth, G. (Hrsg.): Neurowissenschaften und Philosophie. Eine Einführung. München 2001. S. 59-82. Searle, J.: Minds, Brains and Science. Cambrigde, MA, USA 132003 (1984). Siemens Medical Solutions (Hrsg.): Magnete, Spins und Resonanzen. Eine Einführung in die Grundlagen der Magnetresonanztomographie. Erlangen 2003. Singer, W.: Unser Menschenbild im Spannungsfeld von Selbsterfahrung und neurobiologischer Fremdbeschreibung. [Reden und Aufsätze der Universität Ulm, H. 11.] Ulm 2003. Singer, W.: Entscheidungsgrundlagen. In: Linden, W.; Fleissner, A.: Geist, Seele und Gehirn. Entwurf eines gemeinsamen Menschenbildes von Neurologen und Geisteswissenschaftlern. [Philosophie. Forschung und Wissenschaft. Band 16.] Münster 2004. S. 21-30. Singer, W.: Wann und warum erscheinen uns Entscheidungen als frei? Ein Nachtrag. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimo-

L ITERATUR

| 219



natsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007(a). S. 187-202. Singer, W.: Selbsterfahrung und neurobiologische Fremdbeschreibung. Zwei konfliktträchtige Erkenntnisquellen. In: Krüger, H.-P. (Hrsg.): Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie. [Deutsche Zeitschrift für Philosophie. Zweimonatsschrift der internationalen philosophischen Forschung. Sonderband 15.] Berlin 2007(b). S. 39-59. Singh, I.; Rose, N.: Neuro-forum: An introduction. In: BioSocieties 1,1 (2006). S. 97-102. Sirotin, Y.; Das, A.: Anticipatory haemodynamic signals in sensory cortex not predicted by local neuronal activity. In: Nature 457 (2009). S. 475-480. Sitte, P.: Methodengefüge und Erkenntnisfortschritt. In: Naturwissenschaften 60 (1973). S. 333-339. Smee, A.: The Process of Thought Adapted to Words and Language. Together with a Description of the Relational and Differential Machines. London 1851. Snyder, J.: Sichtbarmachung und Sichtbarkeit. In: Geimer, P. (Hrsg.): Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt am Main 2002. S. 142-167. Soon, Ch. et al.: Unconscious determinants of free decisions in the human brain. In: Nature Neuroscience 11,5 (2008). S. 543-545. Spitzer, M.: Medizin für die Pädagogik. Warum wir es uns gar nicht leisten können, das Lernen nicht wissenschaftlich zu untersuchen. In: Die Zeit (Nr. 39) vom 18.09.2003. http://www.zeit.de/2003/39/Neurodidaktik Spitzer, M.: Vorsicht Bildschirm! Elektronische Medien, Gehirnentwicklung, Gesundheit und Gesellschaft. München 2004. Spitzer, M.: Das Gehirn. Eine Gebrauchsanleitung. Reinbek bei Hamburg 2007a. Spitzer, M.: Vorsicht Bildschirm! Der Einfluss von Bildschirm-Medien auf die Entwicklung von Kindern und Jugendlichen. Original-Vortrag, März 2006. [DVD] Müllheim 2007b. Stern, E. et al.: Lehr-Lern-Forschung und Neurowissenschaften – Erwartungen, Befunde, Forschungsperspektiven. [Bundesministerium für Bildung und Forschung (Hrsg.): Bildungsreform. Band 13.] Berlin 2005. Stern, E.: Wie viel Gehirn braucht die Schule? In: Herrmann, U.: Neurodidaktik. Grundlagen und Vorschläge für gehirngerechtes Lehren und Lernen. Weinheim und Basel, 2., erweiterte Auflage 2009. S. 116-123. Stieler, W.: Der dritte Weg. Vom Original lernen statt am Reißbrett entwerfen: Drei Forschungsprojekte wollen Intelligenz durch eine Simulation der Gehirnstruktur entstehen lassen. In: Technology Review 9 (2007). S. 69-71.

220 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Storey, P.: Introduction to Magnetic Resonance Imaging and Spectroscopy. In: Prasad, P. (Hrsg.): Magnetic Resonance Imaging. Methods and Biologic Applications. [Methods in Molecular Medicine Bd. 124.] Totowa 2006. S. 3–57. Strausfeld, N.: Ramón y Cajals Taschenuhren. Schöne Neurone in schönen Gehirnen. In: Elsner, N. (Hrsg.): Bilderwelten. Vom farbigen Abglanz der Natur. Göttingen 2007. S. 161-190. Talairach, J.; Tournoux, P.: Co-planar stereotaxic atlas of the human brain. Stuttgart 1988. Tichy. M.: Neurowissenschaften und Pädagogik. Ein Diskurs und seine Probleme für die Praxis. In: Pädagogische Rundschau 61 (2007). S. 395-412. Tietzel, M.: L’homme machine. Künstliche Menschen in Philosophie, Mechanik und Literatur, betrachtet aus Sicht der Wissenschaftstheorie. In: Zeitschrift für allgemeine Wissenschaftstheorie 15,1 (1984). S. 34-70. Tipler, P.; Mosca, G.: Physik für Wissenschaftler und Ingenieure. Berlin, Heidelberg ²2007. Valenstein, E.: The War of the Soups and the Sparcs. The Discovery of Neurotransmitters and the Dispute Over How Nerves Communicate. New York 2005. Vidal, F.: Brainhood, anthropological figure of modernity. In: History of the Human Sciences 22,1 (2009). S. 5-36. Vögtli, A.; Ernst, B.: Wissenschaftliche Bilder. Eine kritische Betrachtung. Basel 2007. Vul, E. et al.: Puzzlingly High Correlations in fMRI Studies of Emotion, Personality, and Social Cognition. In: Perspectives on Psychological Science 4,3 (2009). S. 274-290. Wagenitz, G.: Die Pflanze und ihr Abbild. In: Elsner, N. (Hrsg.): Bilderwelten. Vom farbigen Abglanz der Natur. Göttingen 2007. S. 113-139. Ward, J.: The Student’s Guide to Cognitive Neuroscience. Hove and New York 2006. Ward, N.; Frackowiak, R.: The functional anatomy of cerebral reorganization after focal brain injury. In: Journal of Physiology-Paris 99,4 (2006). S. 425-436. Weinberg, S.: Facing Up. Science and Its Cultural Adversaries. Cambridge, MA, USA 2001. Weishaupt, D.; Köchli, V.; Marincek, B.: Wie funktioniert MRI? Eine Einführung in Physik und Funktionsweise der Magnetresonanzbildgebung. Heidelberg 52006. Wolters, G. (1984): Modell. In: Mittelstraß, J. (Hrsg.): Enzyklopädie Philosophie und Wissenschaftstheorie. Bd. 2: H-O. Mannheim, Wien, Zürich 1984. S. 911-913.

L ITERATUR

| 221



Wulf, Ch.: Einleitung. In: Schäfer, G.; Ders. (Hrsg.): Bild – Bilder – Bildung. [Pädagogische Anthropologie Band 10.] Weinheim 1999. S. 9-11. Yarkoni, T.: Big Correlations in Little Studies. Inflated fMRI Correlations Reflect Low Statistical Power – Commentary on Vul et al. In: Perspectives on Psychological Science 4,3 (2009). S. 294-298. Young, J.: Doubt and certainty in science: A biologist’s reflections on the brain. New York 1968. Zilles, K.; Amunts, K.: Receptor mapping: architecture of the human cerebral cortex. In: Current Opinion in Neurology 22 (2009). S. 331-339. Filme Chaplin, Ch.: Modern Times. USA 1936. Höfer, P.; Röckenhaus, F.: Expedition ins Gehirn. Deutschland u.a. 2006. Hutton, N.: Bluebrain – Year One: Documentary Film Preview. USA 2010. http://thebeautifulbrain.com/2010/02/bluebrain-film-preview/ Lang, F.: Metropolis. Deutschland 1927. Nuridsany, C.; Pérennou, M.: Microcosmos. Le peuple de l’herbe. Frankreich, Schweiz und Italien 1996. Internetquellen (überprüft am 13.11.2011) http://bluebrain.epfl.ch http://cubric.psych.cf.ac.uk/Documentation/freesurfer-notes/using-mri3dx-toview-functional-overlays-on-freesurfer-surfaces http://grin.hq.nasa.gov/ABSTRACTS/GPN-2002-000064.html http://thebeautifulbrain.com/2010/02/bluebrain-film-preview/ http://www.bfarm.de/SharedDocs/1_Downloads/DE/Pharmakovigilanz/stufenplv erf/methylphenidat_ke_annex.pdf http://www.fritz-kahn.com/bilder/galerie_gross/6Auto_Ohr.jpg http://www.imshealth.com/deployedfiles/imshealth/Global/Content/StaticFile/To p_Line_Data/Top%20Therapy%20Classes%20by%20U.S.RXs.pdf http://www.imshealth.com/deployedfiles/imshealth/Global/Content/StaticFile/To p_Line_Data/Top%20Therapy%20Classes%20by%20U.S.Sales.pdf http://www.revisemri.com

Danksagung

Dieses Buch ist als Inauguraldissertation zur Erlangung des akademischen Grades eines Doktors der Philosophie der Fakultät für Philosophie und Erziehungswissenschaft der Ruhr-Universität Bochum entstanden. Die mündliche Prüfung fand am 4. Februar 2011 unter der Leitung des Dekans Prof. Dr. Joachim Wirth statt. Die Berichterstattung übernahm Frau Dr. Ute Lange. Betreuer der Arbeit waren Frau Prof. Dr. Käte Meyer-Drawe und Herr Prof. Dr. Helmut Pulte. Die Dissertationsschrift trug den Untertitel »Zum Verhältnis von bildgebenden Verfahren und Menschenbildern in der Erziehungswissenschaft.« Mein Dank gilt Frau Prof. Dr. Meyer-Drawe für ihre Bereitschaft, meine Promotion im Fast Track eng zu betreuen und mich an der anregenden Arbeitsatmosphäre an ihrem Lehrstuhl teilhaben zu lassen. Außerdem danke ich Herrn Prof. Helmut Pulte für das Korreferat. Ich danke Herrn Frank Wistuba für seine stets offene Tür, seine konstruktive Kritik bei fachlichen und methodischen Herausforderungen und für die fruchtbare Zusammenarbeit. Julia Dettke, die den Arbeitsprozess kontinuierlich und geduldig begleitet hat, danke ich herzlich nicht nur für ihre vielen stilistischen und orthografischen Verbesserungen, sondern insbesondere auch für ihre seelische Unterstützung. Ein besonderer Dank gebührt ebenfalls meinen Eltern, die mich fortlaufend und auf unterschiedlichste Weise gefördert haben. Für ihre Freundschaft über die Institutsgrenzen hinaus danke ich auch Monika Gies und Jessica Wixfort. Der Ruhr University Research School danke ich für ihre großzügige finanzielle Unterstützung und für die vielen Erfahrungs- und Fortbildungsmöglichkeiten. Auch meinen Fellows an der Research School möchte ich herzlich für den großartigen interdisziplinären Austausch danken. Herr Prof. Dr. Boris Suchan und Frau Dr. Lian Gelis ermöglichten mir freundlicherweise Hospitationen in ihren jeweiligen Arbeitsbereichen. Dafür gilt auch ihnen mein Dank. Herrn Prof. Dr. Lothar Heuser danke ich herzlich für die

224 | D ER M ENSCH ALS NEURONALE M ASCHINE?

Genehmigung, eine besonders schöne MRT-Visualisierung aus seiner Abteilung für die Covergestaltung nutzen zu dürfen. Last but not least danke ich Herrn Adolf Flesch dafür, dass er mich schon zu Schulzeiten dafür sensibilisierte, wozu Modelle dienen und was sie nicht leisten können bzw. sollen; denn »ein Modell, das alle Details der Wirklichkeit berücksichtigt, ist genauso sinnvoll wie eine Landkarte im Maßstab eins zu eins.«

Science Studies Jochen Hennig Bildpraxis Visuelle Strategien in der frühen Nanotechnologie 2011, 332 Seiten, kart., zahlr. z.T. farb. Abb., 32,80 €, ISBN 978-3-8376-1083-3

Florian Hoof, Eva-Maria Jung, Ulrich Salaschek (Hg.) Jenseits des Labors Transformationen von Wissen zwischen Entstehungs- und Anwendungskontext 2011, 326 Seiten, kart., zahlr. z.T. farb. Abb., 32,80 €, ISBN 978-3-8376-1603-3

Christian Kehrt, Peter Schüssler, Marc-Denis Weitze (Hg.) Neue Technologien in der Gesellschaft Akteure, Erwartungen, Kontroversen und Konjunkturen 2011, 366 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-1573-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Stefan Kühl Der Sudoku-Effekt Hochschulen im Teufelskreis der Bürokratie. Eine Streitschrift Februar 2012, 172 Seiten, kart., 19,80 €, ISBN 978-3-8376-1958-4

Sibylle Peters Der Vortrag als Performance 2011, 250 Seiten, kart., 29,80 €, ISBN 978-3-8376-1774-0

Tristan Thielmann, Erhard Schüttpelz, Peter Gendolla (Hg.) Akteur-Medien-Theorie Juli 2012, ca. 800 Seiten, kart., zahlr. Abb., ca. 39,80 €, ISBN 978-3-8376-1020-8

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de