Grundlagenanalyse der Pädagogik als strenge praktische Wissenschaft [1 ed.] 9783428483778, 9783428083770

Die Arbeit setzt die 1978 von L.-M. Alisch und L. Rössner gemeinsam begonnene und dann weit vorangetriebene Forschung zu

112 92 69MB

German Pages 692

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Grundlagenanalyse der Pädagogik als strenge praktische Wissenschaft [1 ed.]
 9783428483778, 9783428083770

Citation preview

LUTZ-MICHAEL ALISCH

Grundlagenanalyse der Pädagogik als strenge praktische Wissenschaft

ERFAHRUNG

UND

DENKEN

Schriften zur Förderung der Beziehungen zwischen Philosophie und Einzelwissenschaften

Band 78

Gnmdlagenanalyse der Pädagogil~ als strenge praktische Wissenschaft

Von

Pro( Dr.

Lu~N.fichael~ch

Duncker & Humblot · Berlin

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Alisch, Lutz-Michael: Grundlagenanalyse der Pädagogik als strenge praktische Wissenschaft I von Lutz-Michael Alisch. - Berlin : Duncker und Humblot, 1995 (Erfahrung und Denken; Bd. 78) Zugl.: Braunschweig, Techn. Univ., HabiL-Sehr., 1990 ISBN 3-428-08377-6 NE:GT

Alle Rechte vorbehalten

© 1995 Duncker & Humblot GmbH, Berlin

Fotoprint: Color-Druck Dorfi GmbH, Berlin Printed in Germany ISSN 0425-1806 ISBN 3-428-08377-6 Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 9

Vorwort Wenn sich die Anfertigung einer wissenschaftlichen Arbeit über einen längeren Zeitraum erstreckt, kann nicht erwartet werden, daß ihre Entstehung störungsfrei verläuft. Damit sollen gar nicht einmal biographische Umstände angesprochen sein, sondern nur solche wissenschaftsinternen, die mit dem jeweiligen disziplinären Progreß zu tun haben. In allen hier tangierten Teilfachgebieten ist die Entwicklung nicht stehengeblieben, so daß es galt, sich zwischen ständiger Einarbeitung neuer Ergebnisse und der extensiven Ausführung des prinzipiellen Gedankenganges zu entscheiden. Der Verfasser hat sich dazu entschlossen, dort, wo die Argumentation der Arbeit durch Neuentwicklungen nicht grundsätzlich tangiert wurde, auf die nachträgliche Einarbeitung ausdifferenzierender Details zu verzichten. Auch wenn diese da und dort berücksichtigt worden wären, hätte das den Gang der Argumentation nicht verändert. Um sich davon zu überzeugen, sei der interessierte Leser auf einige meiner seit 1988 publizierten Arbeiten verwiesen, die zudem andeuten mögen, daß der Verfasser die einschlägigen Entwicklungen der Teilfachgebiete begleitet hat. Die vorliegende Arbeit setzt die mit Prof. Lutz Rössner t, Braunschweig, gemeinsam begonnene und von mir später weit vorangetriebene Forschung zu Technologischen Theorien in der Erziehungswissenschaft fort. Inzwischen erfreuen sich die Resultate dieser Forschung einer gewissen Beachtung durch Fachkollegen, aber auch durch Interessierte in den Bereichen Psychologie, Sozialpsychologie, Soziologie und Philosophie. Neben der technologischen Fragestellung greift die Arbeit aber auch die der verhaltens- und handlungstheoretischen Fundierung Technologischer Theorien auf, die ebenfalls ihre Wurzeln in gemeinsam mit Rössner begonnener Forschung hat (vgl. Alisch & Rössner 1977) und dann einen vorläufigen Abschluß in meiner Dissertation ( 1979) fand. Die nachfolgende Anwendung ihrer Resultate auf die empirischen Befunde zum Lehrerverhalten und zu Lehrerkognitionen wurde von Prof. Manfred Hofer, Braunschweig u. Mannheim, angeregt. Die Nutzung logischer und modelltheoretischer Mittel für die Analyse Technologischer Theorien schlug Prof. Herbert Stachowiak, Faderborn u. Berlin, vor. Die zahlreichen meßtheoretischen Betrachtungen und vieles mehr aus dem Umfeld der empirischen Pädagogik wären dem Verfasser ohne die

6

Vorwort

Arbeit am Seminar für Pädagogik der TU Braunschweig in den Jahren 197585 und ohne die Anregungen durch ihre Direktoren Profs. Karl Josef Klauer, Manfred Hafer und Rainer Pricke sicher nicht möglich gewesen. Die Erweiterung der verhaltenstheoretischen Forschungen hin zur Untersuchung Dynamischer Humansysteme geht auf die intensiven Diskussionen mit Profs. Norbert Müller t, Osnabrück, und Erich H. Witte, Hamburg, zurück. Pädagogische und diagnostische Anwendungen dieses Ansatzes entstanden auf Anregung von oder in Zusammenarbeit mit Dr. Henning Imker, Braunschweig, Prof. Karlheinz Ingenkamp, Landau, und allen Mitarbeitern des Jahres 1987 am Zentrum für empirische pädagogische Forschung, Landau. Der Exkurs über Subjektive Theorien ist speziell Prof. Norbert Groeben, Heidelberg u. Köln, verpflichtet, das Kapitel über das Vermittlungsproblem den Gesprächen mit Prof. Mark van de Vall, Leyden u. Buffalo. Die Ethikkonzeption wurde mit Mitgliedern der Kanunission "Ethik und Neue Technologien" des Niedersächsischen Kultusministeriums mehrfach diskutiert. Auf den Resilienzbegriff machte Dr. Wolf-Dieter Großmann, Wien, den Verfasser aufmerksam. Wenn auch keine der erwähnten Anregungen in direktem Zusammenhang mit der vorliegenden Arbeit stand, so sind sie insgesamt nicht aus dem wissenschaftlichen Werdegang des Verfassers fortzudenken und haben auf diesem Weg in die Arbeit Eingang gefunden. Insofern ist der Verfasser den genannten Personen zu Dank verpflichtet. Besonderer Dank für technische Hilfe bei der Anfertigung der Arbeit gebührt vor allen anderen Dr. Imker sowie Frau M. Wichers, Frau A. Sefzik, Frau I. Sporleder und den Herren Dipi.-Psych. H. Rathje, Hamburg, und Dipi.-Päd. V. Winters, Braunschweig. Meinem Sohn T. A. Alisch bin ich für die vielen inhaltlichen Diskussionen und seine Hilfe zutiefst verpflichtet. Dresden, im November 1994

Lutz-Michael Alisch

Inhaltsverzeichnis A. Einleitune

• . . . . . . . . . . . . . . • . . . . . . . . . . . . . . • . . • • • . . . . • . . . • . • . • . . . . • • . 13

8. Zur Anwendbarkeit pädagogischer Forschungsergebnisse- Das Vennittlungsproblem I. Chancenfor die Berücksichtigung wissenschaftlicher Ergebnisse durch Praktiker • •• • .•.• II. Kognitive Funktionen der Anwendung sozialwissenschaftlicher Ergebnisse . • • • • . . • . . . . !I!. Kommunikative Funktionen der Anwendung sozialwissenschaftlicher Ergebnisse • • . • • • . IV. Diagnostische Funktionen der Anwendung sozialwissenschaftlicher Ergebnisse • . • • • • . . 1. Begriffslogische Argumente fiir einen urteilend-bewertenden Diagnosebegriff . • . . . . . • . . 2. Diagnose und lnferenzen ..••..............•...••••. ••• ••• ••• • ... ... 3. Diagnose und Diagnostizieren im screening-{)ff-Modell kausaler Relationen: Eine Kritik 4. Diagnose. Verstehen und lnferenzbildung .•••...•••.• • • .••••••• .••. . ......

26 28 31 32 35 36 37 39 47

C. Der Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse und das Problem der metatheoretischen Fundierung erkenntnisorientierter Erziehungswissenschaft 50 I. Kognitiver und kultureller Nutzen erkenntnisorientierter Wissenschaft • . • • . . • • • • . • • • • 50 II. Systematik der Wissenschaft . . • • • . . . • • . . • • • . • • • . • • . . . . . . . . . . . • • . • . . . . • . 53 Ill. Gibt es erkenntnisorientierte erziehungswissenschaftliche Forschung? • . • . • • . . . . . . . . 55 1. Ein Unmöglichkeitsbeweis fiir erkenntnisorientierte Erziehungswissenschaft . • . . . . . . . . 57 2. Die Grenzen des deduktivistischen Rationale • • . • • • • . • • . . . • • . • . . . . . • • • . . • • • 60 a) Zur Wahrscheinlichkeit von Hypothesen und zur Möglichkeit des Induktivismus 61 Exkurs: Hilberts deduktionslogisch-beweistheoretisches Programm und seine Auswirkungen der Erziehungswissenschaft ....•••••••••••..•.••••..••••••••••••...•. 71 E.l: Klauers modester Operationalismus ....••....•..........•....••••.•••• 76 E.II: Rössners axiomatischer Ansatz . • . • • . • . • . . . • • • . • • . . • • • • • . • . • • • . . . • • . . 82 E.III: Gödeis Satz VI, seine Bedeutung fiir das Hilbert-Programm und einige erziehungswissenschaftliche Konsequenzen . • • . • . . . . . . . • • . . . • • . • • • . • . • • . 86 b) ATness •..•••.•••••• • ••.•••.••••.•••.••.••••••••••••••••••• 98 Exkurs: Theorien und Modelle ..••........••.... • •.....•.......••..••... 108 E.I. Die Standardauffassung • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • . • 109 E.II. Der strukturalistische Ansatz • . . . . . . . . . . . . . • • . . . . . . • • • • . • • • • • • • . • • • 117 E.III. Die strukturtheoretische Sichtweise • . . • . • • . • • • • • • • . . . • • . . • . . . • . • • • . • • 127 c) ATness und Rarnsey-Eliminierbarkeit • • • • . • . • • • • • • . . . • • . • • • • . • • • • • • • • 153 3. Induktivistisches Rationale, subjektive Wahrscheinlichkeitsinterpretation und Wahrscheinlichkeitskinematik • • • . . . . . . . . . . . . . • . • • . . . . . . . • . . . • . . . . . . . 184 IV. Zusammenfassung •......................••..•....••••••••••••.••• 214 D. Aspekte der pädagogischen Grundlagenforschung I. Lerntheorien, Lerntechnologien, Anwendungsaspekte • • • • • • . . • • • • • . • • . • • • . • • • • 1. Lerntheorien und psychologische Erklärungen fiir Lernprozesse • . . . • . • • . . • . • • • • . . a) Erkenntnistheoretische Positionen . • . . . . . . . • • • • . • • . . . . . • . . • • . • . . . . • . .

215 217 217 218

8

Inhaltsverzeichnis aa) Der Dualismus bb) Der Materialismus: Behaviorismus und Identitätslehre • • . . . . . . . . . . . . . . • • cc) Die Identitätsthese • . • • . . . • • • . • • • • • • • • • • . . . • • • • • • • • • • • • . . . . . • dd) Der Funktionalismus • . . • . • . • • • • • . . . • • . • . . . . • . . . . . . . • • . . . . . . . b) Was ist eine l..erntheorie? •.....•••......•.•••.•••..••...•.....••• c) Deterministische und probabilistische Lerntheorien . • • . • • . • . . • . . • • . . . . . . . . aa) Scanduras deterministische Theorie des strukturellen l..ernens • • . . . • . . . . . . • . Exkurs: Zur Anwendungsgüte deterministischer und probabilistischer Lerntheorien . . . • . . . bb) Eine Variante des Zwei-Stadien-l..emmodells • • . . . . . . . . . . . • • . . . . . • • . . d) Zur Erklärung von Lernprozessen • • • • • • • • • • • • • • • • • • • • • • • • • • • • ... . . • . aa) Deterministische Gesetze und das deduktiv-nomologische Erklärungsschema . . . . bb) Probabilistische Gesetze und induktiv-nomologische Erklärungen . . • . . . • . . . . e) Zusammenfassung • • • • • • . • . . • . . . . . . . . . • • • • . . . . . . • • • • • • . • . . • • • . 2. Grundlagenforschung und l..erntechnologien. Zur praktischen Relevanz von Lerntheorien ...•••..••••••.••••••••••••••••..••.......••....... a) Lerntheorien und die Voraussetzungen des l..ernens • • • • . • . • • • • • . . . • . • . • . . • . b) Zusammenfassung und Beurteilung • • • . . • • • • • • • • • • • • • • • • • . • • • • • • • • • • • c) Lerntheorien und effektivitätsorientierte Forschung • . . . . . . . . . . . . . . • • . . . . . . . aa) Begriffslernen . . . . • . . . • • • • • • • • • • • • • . . . . . . . . . . . • • . • . . . . . . . . bb) Die Bereitstellung von Begriffsdefinitionen • • • . . . . . . . . . . . • • • . • . . . . . . . cc) Zur Wirkung von rational sets • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • dd) Beziehungen zwischen Beispielen . . . . . . . • • . . . • . . . . . . . . . . . • . . . . . . . ee) Die angemessene Anzahl von Beispielen . . . • • . . • • • • . . . • . . . . • . • • • . . . . ff) Beziehungen zwischen Begriffen • . . . . • • • . • • • • • • • . • • • • . • . • . • • • . . . . gg) Technologisches Vorgehen • • • • • • • • • • • • • . • • • • • • • • • • • • • • • • . . . . • • hh) Zusammenfassung und Beurteilung . . . • . • • . . . . . . . . . . . . . • . . . . . . . . . d) Zur Handlungsrelevanz von Lerntheorien • • • • • • • • • • • • • • • • • . • • • • • . . . . . • . aa) Die Handlungsrelevanz der Kenntnis grundlegender Zusammenhänge • • • . . . . • • bb) Lerntheorien haben Handlungsrelevanz durch ihre Rolle in l..erntechnologien . . . . cc) Die Handlungsrelevanz von Lerntheorien und die Überschätzung der Wissenschaft dd) Erkenntniswert und Gebrauchswert von Lerntheorien •••••..•.••....•••. ee) Zur Handlungsrelevanz von l..erntheorien: Herbarts Programm . . • • • . . . . . . . . ff) Lerntheorien und Lehrerhandeln • • . . . . . . • • . . • • • • • • • • . • • • • • . . . . • • • gg) Zusammenfassung • . . • • . . . • . . . . . • . . • • • • • • • • • • . . . • • • • • . • . . • . //. Grundlagenforschung zum Lehrerverhalten . . . . . • • • • • . . . . . • . . . . . . • . . . . . . . . 1. Voraussetzungen fiir die Konstruktion von allgemeinen Lehrerverhaltenstheorien . • . . . . . a) Neurobiologischerfaßbare Merkmale . . . . • . . • • . • . . . . . . • • . . • • • • . • • • . . . b) Psychologischerfaßbare Merkmale • • • • • • • . • • • • • . . . • . . . • . • . . • • . . • • . . • c) Zum Problem soziologischerfaßbarer Merkmale des Lehrerhandeins • • • • . • • • • • • • 2. Allgemeine Lehrerverhaltenstheorien • • • • . . . . . . . • . . • • • • • • . . . • • • • • • • • . • • . a) Das Modell "sozialen"l..ehrerverhaltens . . . . . . • • • • • • • • • • • . . . . • • • • . . . . . . b) Das "handlungstheoretische" Modell des aggressionsbezogenen Lehrerverhaltens • . • • • c) Das "verhaltenstheoretische" Modell' des Lehrerverhaltens . • • • . • • . . • • . . • • . • • • 3. Variablenbetegongen •••••• • •••••••••••••••• • •..•..••.•.••••••.•.. a) Klassifizieren und Diagnostizieren • • . . . . . • • • • • • . . . . . . . . . . . . • • . • • . . . • b) Inferenzen und Informationsintegration • • • • • • . • . . . . . . . . . . . • . . • • . . . . . . . c) Expertenwissen • • • • • • • • • • • . • • • • • • • • • . . • . . . . . . . . . . • . . • • . . • . • • . • d) K~lexe Wissensgebilde und ihre Funktion: Subjektive Theorien • • • . • • . . • • • • . •

218 218 219 220 221 222 222 226 227 235 235 236 243 243 244 252 253 254 257 258 259 260 262 262 263 265 266 266 266 267 268 269 273 276 277 279 280 286 289 292 295 298 302 302 310 314 316

Inhaltsverzeichnis

9

Exkurs: Subjektive Theorien und mentale Modelle . • . • . • . . . . . . . . . . . . . . . . . . . . . . • E.l. Präzisierung des Begriffes Subjektive Theorie . . • • • • . . . . . . . . . • . • . • • • . • . . . . E.II. Aktivierung von Hintergrundwissen und Aktivierungszeit • • • • . . . . . . . . . . . • • . • • E.III. Vermutungen zu theoretischen Begriffen in Subjektiven Theorien • . . . • . . . . . . • . . E.IV. Vermutungen zum Aufbau komplexer Datenzusammenhänge . . . . • . • . • . . . . . . . • E.V. Auf der Suche nach kategorialen Repräsentationen • . . . • . • . . . . . . . • • . . . • . • . . E.VI. Definition des Begriffes "Mentales Modell" .•••.•............••••••.•••• e) Komplexe Wissensgebilde und ihre Funktion: Schülertypologien . . . . . . • • . . • . . . . f) Der Umgang des Lehrers mit der Zeit . . • . • . . . • • • • • • . . . . . . . . . . • . • • • . • • • g) Lehrererwartungen •••••• • .•••••••..••••..........••......••..• h) Das Planungsverhalten des Lehrers . • . • . . . . • . • . . . . . • . . • . . • . . . . . . . . . . . i) Das Entscheidungsverhalten des Lehrers . . . . . . • . . . • . . . . . . . • . . . • • . . . . . . . I/1. Zusammenfassung . . . . • . • . • • . . • • • . . . . . . • • . • . . . . . . . . . • . . . . . • . . . . • . .

320 321 324 327 330 334 335 342 346 352 358 359 361

E. Probleme der Grundlagenforschung . . . . . • • . • . . . . • . . . . • • . . . . • . . . • • . . . . . . . I. Kognitionspsychologisch orientierte Theorienbildung • • • . . . . • . . • . • • • • . • . . . . . • . 1. Theorien als Fiktionen?- Erkenntnistheoretisch begründete Antworten • • . • . • . . • . . . . a) Der realistische Standpunkt . • . • • • . . . . . . • • . • . . . . • . . . . . . . . . . . . . . . • . . b) Der instrumentalistische Standpunkt . • • . . • . • . • . . . . • . . . . . . . . . • • . . • . . . . c) Realismus, Instrumentalismus und Theorien als nützliche Fiktionen . . . . . • . . . . . . . 2. Schwächen der kognitionspsychologischen Metatheorien . . . . . . . • . . . . . • • . . . . • . . a) Das Problem der Ausdrucksstärke . . . . . . . . . . . . . . • . . . . . . . • . . . . . . • . . • . . b) Das Problem der Skolemisierung . . . . . . . . • . • . • . . • • . • • . . . . • . • . • • . . • • . aa) Kontrafaktisches, Verifikation und Falsifikation . . • . • . . . . . . . • . . • . . • . . . . bb) Die Referenzmenge von Theorien .....•.•.••.•.••.......•.•.•.••. cc) Ein Ausweg ..•...••.••••.•.....•.•.............•.•....... c) Das Problem der theoretischen Terme . . . • . . . . • . . . . . . . . . . . • . . . • . . . . . . . aa) Systematische Betrachtungen . . . . . . . . . • . . . • . • . . . . . . • . • . • • . . . . • . . bb) Kognitionspsychologische Überlegungen .•.•.•.....•.....••••.. . ..• 3. Ausblick .••.••••.••••• • •.•••.••••....••••• . .••••••••.•••..•.. !!. Theorien über mentale Zustandsfolgen, der Endlichkeitsstandpunkt, Theorie Dynamischer

363 363 364 365 365 366 367 367 368 370 370 377 380 380 382 386

Systeme und Konsequenzen der Gödel-Theoreme . . • . • . . • • • • • • . . • . • . . • . . . • • . • 1. Globale Analyse . . • • • • . • . • . . . . . . . . . . . • • • . . • • • • • • . . . . . • . . • . • • . • • • a) Der Endlichkeilsstandpunkt • . . . . • . • • . • . . . . • . • . . . . . • . . . . . . . • . . . . . . . b) Erste Entgegnung auf den Endlichkeilsstandpunkt • . . . . • . . . . . . . . . . • . . . . . . • c) Zweite Entgegnung . . . . . . . . . . . . . . . . . . . • • . . . . . . . • . . . . . . . . . . . . . . . aa) Globale Merkmale . . . . . . . • • • • . . • . • . • • . • . • . • • . . • . • • . • . • . . . . . bb) Qualitative Analysis •••...• •••• •....••• •. .• • •.••...••• •.... • cc) Poincare-Abbildungen und Skaleninvarianz . • . . . . . . . • . . . . . . . • . . . . . . . dd) Dissipative Systeme und Poincare-Abbildungen . . . . . . . . • . • • • . . • . . . . . . . ee) Attraktoren . . . . . . . . • . • • • • • • • • • . . . • . . . . . . . . . • . . • . . • . . . . . . . ff) Der Henon-Attraktor gg) Iterationen psychologisch gesehen • • • • . . • . • • • • . . . • • • • • . . . . • • • . . • . • hh) Die gestalttheoretische Isomorphieannahme . . • • • • • • . . . • • • • • . . • . • . • • • • ii) Stochastizität in konservativen Systemen • . • . • • . • . . • . • . . . . . . . • . • . . . . • ii) Stochastizität in konservativen und dissipativen Systemen . . • . . • . . . • . . . . . . . kk) Maßinvarianz, Transformationen, Ergodizität, K-Eigenschaften und Zellabbildungen, Bernoulli-Verschiebungen und abnehmende Korrelationsraten ..

389 390 391 391 393 393 394 396 399 401 402 404 405 407 411 413

10

Inhaltsverzeichnis II) Selbstähnlichkeit, nochmals der Henon-Attraktor und die Zurückweisung des Finitismus •.•••.•.•.••. • •••••••••••••...•.•.•••••••••..••••• d) Dritte Entgegnung auf den EndlichkeilSstandpunkt •.•••••••••.••••••••.••. aa) Die Ljapunov-Methode •••.•••••••••••••••.•••••••••• ••• • •••• bb) Stabilität .••••...••.••••••••••••.•••••..•••••••••... • •..• cc) Die Lokalitäts-Giobalitäts-Problernatik aaa) Emergenz •••••..•••••••••••••••••.••.•••••••••.•.•••• bbb) Präzisierung des der dritten Entgegnung unterliegenden Problems ••••.••• dd) Morphogenese und Gradientendynamik •••••••••••••••••••••••••••• aaa) Das I. morphogenetische Prinzip •••••••••••••••••••••••••••.. bbb) Das 2. morphogenetische Prinzip •••••• • •• • ••••.••••••.••••••. ccc) Das theoretische Modell unter Aspekten seiner empirischen Prüfung ddd) Das 3. morphogenetische Prinzip ••••• • ••..•••••••••••••••••.. ee) Lokale Diskontinuitäten, Singularitäten und Katastrophen ••••••••••••••.. aaa) Singularitäten •••..••••••••••.•••••..•••••••••••••••••. bbb) Falten, Kuspen und Whitneys Theorem ••••••••••••••••••••••••. ff) Katastrophen und die dritte Entgegnung auf den Endlichkeitsstandpunkt •••••••• e) Vierte Entgegnung auf den Endlichkeilsstandpunkt • • • • • • • • • . • • . . . • . • • • • . • . aa) Selbstorganisation durch Rekursion? • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • bb) Metalogisches und Rekursionstheoretisches • • . • • • • • • • • • . • • • • • • • • • • • • aaa) Der systematische Ort der Churchschen These • • • • • • • . • • • • • . • • • • . . bbb) Rekursivität, Stabilität, Partikularität • • • • • • • • • • • • • . • • • • • • . • • • • . ccc) Rekursive Funktionen •••••..•••••••••••••••...•••••.••••. ddd) Entscheidbarkeil und Berechenbarkeil • • • • • • • • • • • • • • • • • • • • • • • • • eee) Entscheidbarkeitsgrenzen • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • fft) Rekursivität, Strukturwandel, Stabilität, Systemsensitivität, Iteration und Dynamische Logik • • • • • • • • • • • • • • • • • • • . . • • • • • • • • • • • • • • • • • ggg) Partikularität • • • . • • • • • • • • • • • . • • • • • • • . • • • • • • • • • • • • • • . • . hhh) Zwischenergebnis • • • • • • • • • • • • • • • • • • • • • • • • • • • . • • • • • • • • • . cc) Was ist eine Logik? • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • dd) "Rekursive Logiken" • • • • • • • • • • • • • • • • • • • • . • • • • • • • • • • . . • . • • • • . ff) Endgültige Zurückweisung des Endlichkeilsstandpunktes • • • • • • • • . • • • • • • • • f) Warum globale Analyse? • • • • • • • • • • • • . • • . • • • • • . • • • • • • • • • • • • . . • • • • • 2. Konsequenzen der Gödel-Theoreme, insbesondere fiir Theorien über mentale Zustandsfolgen •••••••.••••.•.•••••.•••••••••••••••••••••••••••••••••• a) Lucas' Position ••••....••••••••.•••••••••••••••••••••••..•••.• aa) Epistemologie der Struktur-Analytizität • • • • • • • • • • • • • • • . • • • • • • • • • • • . bb) Lucas' Argumentation ••••• •• ••••• • .••••••••• •• .•••••••••• • •• b) Srnarts Kritik • • • • • • • • • • • • • . . • . . • • • • • • • • • . • . • . • . • • • • • • • • • • • . . . c) Whiteleys Kritik •••••••••••••••••••••••••••••••••••••••••••••• d) Georges Kritik • • • • • • • • • • • • • . • . • • . • • • • • • • • • • • • • . • • • • • • • • • • • • . . e) Erste Kritik von Good •••••••••••••••••••• • ••••••••••••••••• • ••• f) Lucas' Erwiderung • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • g) Die Kritik von Benacerraf . • • • • • • • • • • • • . • • • • • • • • • • • • . • • • • . . • • • • • • •

471 471 472 474 478 479 480 481 483 484

h) Lucas' Entgegnung • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • aa) Putnarns Standpunkt • • • • • • • • • • • • • • • • • • • • • • • • • • • • . • • • • . . • • • • • bb) Lucas' Erwiderung .•••• • ••••••••••••• • •• • •••••••••• • ••••••• i) Fuhrmanns Kritik • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • . • • • . . • • . • • .

492 495 495 497

425 427 428 430 432 436 436 437 438 439 440 442 446 447 449 450 452 452 453 454 454 455 456 457 460 462 462 463 465 467 468

Inhaltsverzeichnis

11

j) Arbib zur Gehirn-Maschine-Kontroverse . . . . . . • . . . . . . . . . . • . . . • . . . . . . . . 498 k) Von Neumann-Automaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505 1) Cherniavskys Differenzbeweis . . • . . . • . • • • • • • . • • • • . • • • • • • • • • • • • • • • • • 513 Exkurs: LaMettries Maschinenmensch und die Pädagogik • . . . . . . . . . . . . . . • • . . . . . . . 518 rn) Webbs Kritik an Lucas .••.••..•.•••....•..............•........ 521 n) Die zweite Kritik von Good . . . . . . . . . . . . . • . • • . . • . . • . . . . . . . . . . . . . . . 527 o) Die Kritik von Chihara . . • . . . . . . . . . . . . . . . . • . . . . . . . . . . . . • . . . . . . . . 528 p) Ein neues Argument von Slezak ............•..•...........••....... 533 q) Ehrenrettung für Lucas? . • • . . . . . . . . . . . . . . • . . . . . . . . . . . . . . . • . . . . . . . 536 F. Pädagogik als strenge praldische Wwenschaft

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547

I. Intuitiver Problemaufriß • • • • • • • • • • • . • • . . • • . . . . . . . . . . . • • • • . . • • • . • . . . . . 548 1. Die orthodoxe Sichtweise • . . • . • . . . . . . . . . • . . . . . . . . . . . . . . . . . • • . • . . . . . 2. Anwendungsproblerne • . . • • . . . . . . • • . . • . . . • • . . • . . . . . . • • . . • • • . . . . . . . 3. Metatheoretische Vorschläge zur Überwindung der orthodoxen Sichtweise . . • • . . . . . . . a) Bunges Regeln, Poppers Stückwerktechnologie und das Problern einer angemessenen Rekonstruktionslogik • . • . . • • • • • • • . • • • • • • • . • • • . • • . . • . • . • • . • • . • . • b) Agassis Technologiekonzeption ....... . . . ...... . .....•....... . ..... 4. Metatheoretische Pragmatisierung . . . . . . . . . . . . . • . . . . . . . . . . . . . . . • . . . . . . . 5. Theorien . . • . . . . . • . • . . . . . • . . . • . . . . . . . . • . . . . . . . . • . . • • . • • . . . . . . . 6. Technologische Theorien . . . • . . . . . . . . . • . . . • • . . • . . . • . . . . . . . . . . . . . . . . 7. Ein Anwendungsbeispiel . . . . • • . . . . . . . . • . . • • • . • • . . • • . . • • . . . . • . . . . . • . 8. Offene, noch ungelöste oder neue Problerne . . . . . . . • • . . . . . . • . . . . . . • • . . . . . . •

549 550 553 553 555 556 558 559 561 567

II. Zur Rekonstruktion Technologischer Theorien . . . . • . . . . . . . . . . . . . . . • . • . . . . . . . 573 1. Historisches . • • • • . . • . . • . . . . • . . • . . . . . . . . • . . • . • . . . . . . . . . . • . . . . 2. Logik der Praxis • . . . . . . . . . . . . . . . . . . . . . . . • . . . . . . . . . . • . . • . • . . • . 3. Die neo-pragmatische Wende: Voraussagen und System .. . ......••..•..... . 4. Technologische Theorien . . • • . . . . • . . . . • • . . . • . . . . . . . . . . . . . . . . . . . . a) Eine erste Rekonstruktion • . . . . . . • . . . • . . • • • . . . . . . • • . • • . . . . . . . . . b) Einbettung in eine Theorie rational-technologischen pädagogischen Handeins c) Qualitative Technologische Theorien . . . . . . . . . . . . . . . . . . . . . . . • • . . . .

... ... •.. .. . ...

574 580 587 591 592 600 . . . 603

IIJ. Sind die Erziehungswissenschaften Sozialtechnologien im modernen Sinne? - Oder: Die Pädagogik als strenge praktische Disziplin . . . . . . . . . . . . . . . . . . . . . . • • . . . . . . . 607 1. Erziehungswissenschaft - eine verpaßte Chance? . . . . . . . • . . . . . . . . . . . . • . . . . . . . a) Herausforderung durch die AI-Forschung . • . . . . • . . . . . . . . • . . . • • . . . • . . . . • b) Herausforderung durch Gentechnologie .......••............•• . ....... c) Was bleibt?- Bedeutung und Ethik .........•.•...•.•..•..... . .•..... d) Für eine 'explodierende' Erziehungswissenschaft 2. Erziehungswissenschaften - Sozialtechnologien im modernen Sinne? . . . . . . . . . . . . . . . a) Die Struktur traditioneller Systeme der Pädagogik . . . . . . . . . . . . • . . . . . . . . . . b) Das Technologieproblern ................• . . . . . . . . . . . . . . . . . . . . . . . c) Technological Change: Zwei Auffassungen zurempirischen Erziehungswissenschaft .. d) Fundierungsproblerne der technologischen Erziehungswissenschaft . . . . . . . . . . . . . aa) Noch einmal: Systematik der Wissenschaften • • . • • • • . • • • • • • • • • • . • • • . • bb) Noch einmal: Prognosemodelle . . . . . . . . • . . . . . . . . . . . . . . . . . . . . . . . cc) Konkurrierende Programmatiken . . . . . . • • . • • . . • • . . • • . . • • . . • . . . . . dd) Die Mill-Tradition • . . . . • • . . • • . • • . . . • . . . . . . . . . . . . . • . . . • • • . . . ee) Wertorientierungen und Urnstrukturierung der Forschungsziele . . • . • . • . . . • .

610 612 613 614 615 615 616 617 618 619 619 621 622 624 625

12

Inhaltsverzeichnis ff) Rückkehr der Ethik e) Vorläufiges Ergebnis • • • • . • • • • • • • • • • • • • . . • • • • • • • • • • • • • • • . • • • • • • f) Pädagogisches Wissen im Wandel • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • aa) Ethisches Wissen im Wandel • • • • • • • • • • • • • • • • • • • • • • • • . • . . • • • • • • bb) Pädagogisch-psychologisches Wissen im Wandel •••••••••••••....• • ••

629 633 634 635 635

cc) Pädagogisch-technologisches Wissen im Wandel • • • • • • • • . . . . • • • • • • • • • aaa) Wandel in der Konzeption Technologischer Theorien • • • • • • • • • • • • • • • bbb) Zustandsalgebra vs. Dynamiküberlagerung ••••••••.•••••.•••••• ccc) Lösbare und unlösbare Probleme • • . • • • • • • • • • • • • . • • • • • • • • • • • •

638 639 639 640

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642

A. Einleitung Nachdem eine zeitlang von einer Krisensituation im Hinblick auf das Selbstverständnis der Pädagogik gesprochen worden ist, neigt man neuerdings dazu, das als 'Krisenlamento zurückzuweisen (Terhart 1990, Tenorth 1990). Die Pädagogik hatte sich bis gegen Ende der 70er Jahre als praxisorientierte, manchmal auch technologische Wissenschaft verstanden und dann selbst mit der Frage nach ihrer praktischen Relevanz konfrontiert (vgl. DGtE-Kongreß von 1978). Seitdem wird dem Urteil, die Pädagogik hätte im Anschluß an die stürmische Phase ihrer im Zuge der Bildungsreform stattgehabten Expansion (Baumert/Roeder 1990) die ihr gebotene wissenschaftliche Chance verpaßt und die Behauptung ihrer praktischen Relevanz nicht eingelöst, mit unterschiedlichen Vorschlägen zur Neuorientierung entgegengetreten. Die Vorschläge beziehen sich dabei überwiegend auf die Reflexion des Theorie-Praxis-Bezuges. Anhänger der Luhmann-These (vgl. z.B. Luhmann/Schorr 1987) von der unüberbrückbaren Differenz der Systeme Erziehungswissenschaft und Erziehungspraxis wollen die Relevanzkrise durch den Rückzug der Erziehungswissenschaft auf Grundlagenforschung überwinden (so z.B. Baumert/ Roeder 1990). Vertreter der empirischen Pädagogik stellen fest, daß man trotz gewisser Erfolge noch zu wenig z.B. über Lehr-Lern-Zusammenhänge oder über das Lehrer- oder Erzieherverhalten weiß, um Technologien fundiert entwickeln zu können (z.B. Beck 1987; Weinert/Schrader/Helrnke 1990; Walberg 1990). Entsprechend setzen sie auf Fortführung und Intensivierung der Arbeit in den eingeschlagenen Forschungsrichtungen. Eine andere Gruppe von Erziehungswissenschaftlern sieht das Hauptproblem weniger in einem wissenschaftlichen Ergebnisdefizit begründet, als vielmehr in einer negativen Bilanz der Verwendung wissenschaftlichen Wissens durch die Praktiker. Zur Lösung wird vorgeschlagen, Mechanismen der Anwendung, Vermittlung und geeigneten Transformation von wissenschaftlichem Wissen verstärkt zu untersuchen bzw. sich allgemeiner dem Problem der Wissensverwendung zuzuwenden (Dewe/Ferchhoff/Radtke 1990). Wieder andere thematisieren das meßtheoretische Problem der Einheiten und meinen, daß der 'verkürzte' quantitative Ansatz durch einen verstehenden ergänzt werden sollte, um etwa Bedeutungszusammenhängen und deren Implikationen für das praktische Handeln gerechter werden zu können (Groeben 1986; Groeben/Wahl/Schlee/ Scheele 1988). Während im vorgenannten Vorschlag das Theorie-Praxis-Pro-

14

A. Einleitung

blem auf das Lancieren des wissenschaftlichen Wissens in die Praxis reduziert wurde, wird es hier in inadäquater Methodologie lokalisiert. Ganz anders nähern sich institutionsanalytische Ansätze dem Problem. Nur noch wenige Erziehungswissenschaftler meinen, mit fortschreitender Professionalisierung gehe eine Steigerung der Praxisrelevanz der Pädagogik einher, nämlich durch fortschreitende Verwissenschaftlichung des Professionswissens (z.B. Schwendenwein 1990). Im allgemeinen wird eher angenommen, daß Professionalisierung und Verwissenschaftlichung des Professionswissens in nur schwacher Abhängigkeit voneinander gesehen werden müssen und daß die weitgehende Praxisirrelevanz erziehungswissenschaftlicher Forschung z.B. in mangelnder fachinterner Konsensbildung über fundamentale Lehrinhalte (Thonhauser 1990) oder in fehlerhafter Ausgestaltung der pädagogischen Institutionen (Terhart 1990) im Hinblick auf professionelles Handeln begründet sein könnte. Die angesprochenen Vorschläge zur Überwindung mangelnder Praxisrelevanz der Erziehungswissenschaft scheinen eher anzudeuten, daß man einer tatsächlich vorliegenden Krisensituation noch nicht Herr geworden ist, als daß man es nur mit einem zu überwindenden Lamento zu tun hat. In der vorliegenden Arbeit wird gezeigt, daß die Krisensituation tief in den Grundlagen der Erziehungswissenschaft verwurzelt ist und zunächst nur durch eine Grundlagenanalyse aufgedeckt und überwunden werden kann. Dabei wird die Erziehungswissenschaft als technologische Disziplin aufgefaßt, der im Zuge modernster Wissenschaftsentwicklungen zwar hohe Bedeutung zukommt, aber auch eine Reihe von Herausforderungen entgegentritt. Nachdem vor allem die naturwissenschaftlichen Disziplinen lange Jahre Naturvorgänge als Objekte angesehen haben, denen man sich mit 'harten' Methoden zuwenden kann, vollzieht sich momentan ein grundlegender Wandel. Der Mensch selbst wird zu einem solchen Objekt, und seine Erforschung geht einher mit den Entwicklungen auf dem Gebiet der Analyse von Nichtlinearität, Selbstreferenz, Selbstorganisation usw. Die AI-Forschung hat die MenschMaschine-Kontroverse von der Biologie bis hin zur Philosophie in eine neue Phase treten lassen und sich dabei zugleich als einen der wesentlichsten technologischen Konkurrenten der Pädagogik etabliert. Das Problem der Nichtlinearität hat von der Physik bis hin zur Medizin, Psychologie oder Soziologie auf die Bedeutung nicht-regulärer Dynarniken verwiesen (vereinzelt findet man dazu auch in der Erziehungswissenschaft Beiträge, z.B. im Educational Researcher; vgl. auch Alisch 1990d). Von philosophischer Seite hört man zudem, daß die Wissenschaftsentwicklung an einer Epochenschwelle angelangt ist und daß der nunmehr entstehende neue Wissenstyp ein technologischer mit jeweils hoher interdisziplinärer Integrativität sein wird (Zimmerli). Angesichts derartiger Entwick-

A. Einleitung

15

Iungen darf gefragt werden, ob die Pädagogik an ihnen teilhat und zu welchen Konsequenzen das führt. Die Beantwortung der Frage beinhaltet auch eine Beschreibung, mit welchen Orientierungen versehen und mit welchen Mitteln ausgerüstet die Pädagogik in das neue Jahrtausend eintreten wird. Wenn davon die Rede war, daß die Krise tief in den Grundlagen der Erziehungswissenschaft verwurzelt ist, dann läßt sich das im Hinblick auf die soeben angesprochenen Wissenschaftsentwicklungen präzisieren. Hat die Erziehungswissenschaft teil an den Entwicklungen, dann beginnt sie, Humansysteme mit Mitteln und auf eine Weise zu untersuchen, für die sie bisher kaum über metatheoretische Begründungen und Durchdringungen verfügt. Es hat sich eingebürgert, an solcher Stelle einen Paradigmawechsel zu vermuten, was u.a. bedeutet, daß das traditionelle Methodeninventar einer fundamentalen Umstrukturierung unterworfen wird und daß völlig andersartige Theorien eine entscheidende Rolle zu spielen beginnen. Diesbezüglich zeichnet sich ab, daß erziehungswissenschaftlich relevante Theorien Abschwächungen des linearen Modells (beschreibbar z. B. über lineare stochastische Differentialgleichungen) und vor allem sukzessive auch nichtlineare Modelle enthalten werden (vgl. Alisch 1990). Die damit verbundenen technologischen Probleme laufen darauf hinaus, das Thema Berechenbarkeit, Vorhersagbarkeil und Stabilität neu zu variieren. Die bisherige pädagogisch-technologische Orientierung akzeptiert die prinzipielle Annahme, daß deduktive Systeme gesetzesartiger Aussagen zur vollständigen Berechnung menschlicher Verhaltensweisen bis auf geringe und situativ unterschiedliche stochastische Abweichungen gefunden und eingesetzt werden können. Berechenbarkeil zieht Vorhersagbarkeil nach sich, mithin die bis auf Fluktuationen punktgenaue Prognostizierbarkeil menschlichen Verhaltens, vorausgesetzt alle vorliegenden Bedingungen bleiben stabil. Wendet man Berechenbarkeit, Punktprognostizierbarkeit und Stabilität ins Technologische, so glaubt die Pädagogik bislang, daß es im Prinzip möglich sein sollte, punktgenau vorhersagbare, auf berechenbare instrumentelle Handlungen zurückführbare Situationen mit stabilen Bedingungen derart zu schaffen, daß in solchen Situationen realisierte instrumentelle Handlungen vorhersehbare, berechenbare und stabile Resultate hervorbringen, die Erziehungszielen genau entsprechen. Diese Auffassung geht mit dem linearen Modell einher, übrigens unabhängig davon, ob qualitative, probabilistische oder deterministische Theorien unterlegt werden (auch die Quantenphysik, basierend auf der SchrödingerGieichung, ist linear). Entsprechend hat sie sich ein kohärentes Grundlagengebäude geschaffen, das in seinen wesentlichen Aspekten dem deduktivistischen Rationale folgt (z.B. in der Variante des Kritischen Rationalismus K. R. Poppers).

16

A.

Einleitung

Die Argumentation der vorliegenden Arbeit bezweifelt die universelle Tragfähigkeit dieses Rationale ebenso wie die Lösbarkeit des Theorie-PraxisProblems auf dem (bislang vor allem von der social policy research eingeschlagenen) Weg der Vermittlungsforschung. Es wird gezeigt, daß es zwar so etwas wie erkenntnisorientierte und grundlagentheoretische Forschung in der Erziehungswissenschaft gibt, daß beide Richtungen aber nicht aufgrund metatheoretischer oder methodologischer Kriterien von der anwendungs- bzw. effektivitätsorientierten Forschung abgegrenzt werden können. Da es dennoch Unterschiede zwischen der erkenntnisorientierten und grundlagentheoretischen Forschung einerseits und der effektivitätsorientierten Forschung andererseits gibt, wird nachgewiesen, daß die Struktur von Theorien und Technologischen Theorien voneinander abweicht. Theorien aber gehören zum Fundament Technologischer Theorien, weshalb man die Beziehung zwischen ihnen vielleicht eine partielle Einbettung nennen könnte. Bis auf die Zurückweisung des deduktivistischen Rationale sind diese Ergebnisse schon mehr oder minder bekannt. Worin besteht nun das Neuartige? Seit Ende der 70er Jahre haben Alisch und Rössner (1978; 1978a; 1981; 1983; 1990) immer wieder betont, daß Zustandsänderungstheorien (Verhaltens- und Handlungstheorien vom- mathematisch gesprochen - evolutiven Typ) die geeignetsten Kandidaten für eine Fundierung Technologischer Theorien in der Erziehungswissenschaft sind. Um das zu untermauern, haben die Autoren eine allgemeine Verhaltenstheorie konstruiert (Alisch/Rössner 1977), die Alisch (1979; 1988) systematisch ausbaute. Interessanterweise sind es die logischmathematischen Gegebenheiten einer solchen Zustandsänderungstheorie menschlichen Verhaltens, die eine Modifikation der Konzeption Technologischer Theorien erzwingen, und es ist diese Modifikation, die der Erziehungswissenschaft über das Problem ihrer angeblich mangelnden praktischen Brauchbarkeit hinweghelfen kann. In der Technologieauffassung, die Berechenbarkeil mit Vorhersagbarkeil und Stabilität verbindet, waren die Mängel der Erziehungswissenschaft bereits vorgegeben, denn wer sich an der Elle eines pädagogischen 'Laplaceschen' Weltgeistes mißt, darf sich nicht wundern, wenn er an einer Realität scheitert, die sich ihm nie vollständig erschließt. Das Ziel praxisorientierter Pädagogik war deshalb aber nicht etwa zu hoch gesteckt - das hätte ja nur bedeutet, daß die Erziehungswissenschaft noch nicht weit genug in ihren Meß- und Datenerhebungsmethoden, in ihren statistischen Modellen und Schätzmethoden, in ihren Theorien und technologischen Verfahren vorangeschritten gewesen wäre. Nein, das Ziel war grundsätzlich verkehrt. Mit dem Lewinsehen Galileismus war für Psychologie und Pädagogik eine theoretische Orientierung präferiert worden, die lokale und atomistische Sichtweisen auszeichnete. Selbstverständlich gibt es temporal eingeschränkte, lokale Mikroprozesse, die pädagogisch-technologisch bedeutsam und gut beherrschbar sind (zur Illustration

A. Einleitung

17

denke man an Mnemotechniken im Bereich mechanischen Lernens). Verläßt man jedoch die temporale Limitierung, die Beschränkung auf das Lokale und die Mikroebene (man denke etwa an den Erwerb von Lehrerexpertise oder an die fluente Beherrschung von NLP-Techniken), dann erscheint es aussichtslos, das Auffinden eines vollständigen und lösbaren Systems von Differentialgleichungen und kontrolltheoretischen Verfahren zu erhoffen, um solche längerfristigen Prozesse punktgenau steuern zu können. lnsonderheit Zustandsänderungstheorien vom Typ der erwähnten Verhaltenstheorie machen nun aus dem Anschein der Aussichtslosigkeit Gewißheit. Um das besser verstehen zu können, betrachte man folgenden Einwand: Wenn man vollständige Berechenbarkeil nicht erzielen kann, begnüge man sich mit Approximationen. Dieser Einwand camoufliert seine Herkunft von einer spezifischen Variante des Endlichkeitsstandpunktes. Theorien wie die erwähnte Verhaltenstheorie beinhalten dagegen Eigenschaften, die bereits im Endlichen approximative Vorgehensweisen ins Leere laufen lassen. Sie erfassen nämlich eine Mischung von konservativen und dissipativen Systemdynarniken, die zwangsläufig Regionen unvorhersagbaren und unberechenbaren Verhaltens evozieren. Um sich das etwas zu verdeutlichen, gehe man davon aus, daß das menschliche Verhalten auf einer Mikroskala betrachtet den zur Verfügung stehenden Verhaltensraum stochastisch erkundet, während es, makroskalierend gesprochen, global Gleichgewichts- oder Anziehungsregionen (sog. Attraktoren) zustrebt. Punktgenaue Berechnungen sind für solche Systeme in den meisten ihrer Verhaltensregionen deshalb nicht möglich, weil die Systeme initial-bedingungssensitiv sind und von ihrer eigenen Geschichte abhängen. Wenn man so will, dann 'verschmieren' (G. Ludwig) die Vorhersagen, und man hat sich ihnen mit anderen als numerischen Verfahren zu nähern. Diese anderen Verfahren werden gewöhnlich als geometrische oder topalogische (auch qualitativ-analytische) Verfahren bezeichnet. Sie richten das Augenmerk auf qualitative Eigenschaften der verhaltenstheoretischen Annahmen, auf topalogisch skalierte Messungen und auf das Konzept der qualitativen Äquivalenz (vgl. ausführlicher dazu Alisch/Rölke 1987; das Konzept stammt von Zeemann) von Untersuchungsbefunden. Für Technologische Theorien ergibt sich deshalb bei Fundierung mit Zustandsänderungstheorien vom genannten Typ, daß auch sie nur noch topologisch-qualitativ sein können. Dem folgt, daß auf qualitative pädagogische Technologische Theorien gestütztes praktisches Handeln nicht mehr punktgenaues zielerreichendes erzieherisches Steuern eines Educanden sein kann, sondern z.B. - um nur eines herauszugreifen - der Versuch der Quasistabilisierung lernförderlicher Randbedingungskonfigurationen. In der Tat ergibt sich eine Fülle praxisrelevanter und - wenn man dem Ziel der punktgenauen Steuerbarkeit nicht mehr folgt - unmittelbar brauchbarer 2 Alisch

18

A. Einleitung

pädagogischer Technologiebereiche, in denen die Forschung allerdings erst am Anfang steht oder überhaupt erst initiiert werden muß (was nicht verwundert, denn die Grundlagenanalyse zeigt, wie die Krise im Selbstverständnis der Pädagogik überwunden werden kann und nicht, daß sie bereits überwunden worden ist). Um es noch einmal prägnant hervorzuheben: Aus den theoretischen Grundlagen der Pädagogik folgt zwingend, ( 1) daß der faktische Gehalt ihrer auf Praxisrelevanz gerichteten Ziele korrigiert werden muß, (2) daß mit dem Konzept qualitativer Technologischer Theorien über das, was technologie-gestützte pädagogische Praxis realistischerweise sein kann, anders gedacht werden muß und (3) daß sich die praktische Unbrauchbarkeit der Pädagogik nur vorgeblich als solche darstellt. (Damit ist am Selbstverständnis der Erziehungswissenschaft durchaus nichts zu verändern.) Bemerkenswert scheint dabei, daß sich diese Resultate aus einer Mischung von metatheoretischer und Grundlagenanalyse des theoretischen Inventars der Pädagogik ergeben. Bislang sind metatheoretische Untersuchungen lediglich für rekonstruktive oder methodologische Zwecke als sinnvoll angesehen worden. Objektwissenschaftliche Relevanz wurde ihnen abgesprochen. Dagegen zeitigt die vorliegende Arbeit unter Rückgriff auf eine Reihe von formalen Resultaten, daß es Entscheidungsprobleme bezüglich empirischer Theorien gibt, die nicht auf der Ebene der Theorien selbst oder allein mit theoretischen Mitteln gelöst werden können. Dieses Ergebnis stellt sich nach einer genaueren Betrachtung zweier in der Pädagogik bevorzugt beschrittener theoretischer Wege ein, des axiomatischen und des operationalistischen Vorgehens, diebeideauf einem uneingestandenen Import des Hilbert-Programms aus der Mathematik in die Erziehungswissenschaft beruhen. Die Gründe, die das Hilbert-Programm scheitern ließen, werden auch dazu verwendet, in der Mensch-Maschine-Kontroverse gegen den Mechanismus und gegen jede Form empirisch-psychologischen Vorgehens Stellung zu beziehen. Scheitern an diesen Gründen dann auch Zustandsänderungstheorien? Das hätte für Technologische Theorien der Erziehungswissenschaft fatale Folgen, speziell aber für die erwähnte Verhaltenstheorie, die explizit von einer asynchronen Automatenkonstruktion Gebrauch macht. Um dies zu prüfen, enthält die vorliegende Arbeit eine ausführliche Darstellung und Wertung der in der Mensch-Maschine-Kontroverse ausgetauschten Argumente einschließlich einer Darstellung der Grundzüge selbstreproduzierender zellularer Automaten, die sich als besonders wichtig für die aktionale Limitiertheil des technologischen Wissenshorizontes im neuen Wissenstyp sensu Zimmerli erweisen (vgl. dazu ausführlicher Alisch 1991b). Die Mensch-Maschine-Kontroverse gibt indes keinen Anlaß zur Revision von zustandsänderungstheoretischen Fundamenten Technologischer Theorien, da die aus der Hilbert-

A. Einleitung

19

Programm-Widerlegung herangezogenen Gründe inadäquat gebraucht werden. So kann das Konzept der qualitativen Technologischen Theorien historisch rekonstruktiv hergeleitet und zur Beantwortung der Frage verwendet werden, ob die Erziehungswissenschaften Sozialtechnologien im Sinne Zimmerlis sind. Interessanterweise ergibt sich im Zuge der Antwort auch die Gelegenheit dazu, einiges über die Rückkehr der Ethik in die Pädagogik zu sagen, wobei allerdings das Hauptargument neben der Bejahung der Frage selbst vor allem den oben erwähnten Ausweg der Differenztheoretiker in der Luhmann-Nachfolge zurückweist, die das Selbstverständnis der Pädagogik auf eine aus der Praxis sich zurückziehende Wissenschaft einschränken möchten. Methodisch werden in der vorliegenden Arbeit für pädagogische Kontexte sicher als ungewöhnlich umfangreich empfundene Rückgriffe auf logische, mathematische und quasiformale Mittel getätigt. Dabei ist allerdings zu bedenken, daß diese Mittel nicht in 'reiner' Verwendungsform genutzt werden, sondern in der Gebrauchsform pädagogischer Theorien und Technologischer Theorien. Worauf es bei dem Einsatz der Mittel vor allem ankommt, ist- soweit möglich - Beweise gegen bestimmte Auffassungen vorzulegen oder zumindest vorzubereiten. Dieses Vorgehen wird in der Pädagogik seltener angewandt, bestimmt sich aber aus der in Konkurrenzdisziplinen (wie der Al-Forschung) erkannten Notwendigkeit einer limitativ orientierten Methodologie. Technologische Disziplinen sind vor allem im Humanbereich darauf angewiesen, möglichst frühzeitig möglichst viele prinzipielle Begrenzungen für ihre Forschungen aufzufinden, und zwar beweisbar prinzipielle und damit also nicht transzendierbare Begrenzungen. Das entspricht nicht nur dem wissenschaftsethischen Standard, Experimente möglichst in limitativ gewissen und nicht in limitativ unwägbaren Aktionsräumen stattfinden zu lassen, sondern auch dem theoretischen Erfordernis, daß technologische Realisierbarkeil nur innerhalb unüberschreitbarer Grenzen gesucht werden sollte. Insofern stellt die vorliegende Arbeit einen Anwendungsfall dieser Vorgehensweise selbst dar, zeigt sie doch, daß die Pädagogik ihren praktischen Erfolg jenseits einer für sie prinzipiellen Begrenzung suchte und daß sie glaubte, an Realisierbarem versagt zu haben, wo eine prinzipielle Grenze ein Versagen oder Nichtversagen gar nicht zuließ. Weiterhin ist sehr viel Wert auf explizite Nachweise gelegt worden. So wird etwa an inhaltlichen Beispielen ausführlich gezeigt, was die psychologische Lernforschung tut und wie ihre Ergebnisse als Grundlagentheorien eingang in pädagogisch-technologische Zusammenhänge finden. Ebenso wird an Lehrerverhaltenstheorien nachgewiesen, daß sie pädagogischer Grundlagenforschung zugeordnet werden können. Die Ausführlichkeit hat den Vorteil argumentativer Seriosität und den Nachteil geringer didaktischer Luzidität. Wo Einzelargumenten detailliert nachgegangen wird (z. B. der Behauptung von Simon, bestimmte FITness-Eigenschaften von Theorien folgten auf einfache Weise

20

A. Einleitung

aus dem bos-Tarski-Theorem), da tritt der große Zusammenhang für einen Moment in den Hintergrund. Indes geht es in der vorliegenden Arbeit um nichts weniger als einen Vorschlag zur Überwindung der pädagogischen Grundlagenkrise, und nichts scheint angesichts dieses Vorhabens unangemessener, als didaktisch motivierte Großzügigkeit und mangelhafte technische Genauigkeit. Dies bedingte auch den Umfang der Arbeit. Schließlich sei noch erwähnt, daß die Arbeit ausschließlich lnternalitätsaspekte thematisiert. Es wird also keine Science of Seience-Analyse vorgelegt und keine Wissenschaftsforschung betrieben. Die Gründe hierfür würden zu weit führen. In der Quintessenz folgt die Arbeit der Auffassung, daß internale Instrumentarien an ihrem Erfolg gegenüber den Resultaten einer Forschung gemessen werden sollten, die die Internalitäts-Externalitäts-Dichotomie überwunden zu haben glaubt. Noch ist nicht erwiesen, daß die Pädagogik schlecht beraten wäre, wenn sie auch weiterhin die hochelaborierten internalen Instrumentarien für ihre Zwecke nutzt. Die einzelnen Kapitel der Arbeit folgen dem inneren Aufbau der Herausarbeitung einer theoretischen Lösung für ein Teilproblem und der Prüfung dieser Lösung wiederum durch eine Problematisierung. Dabei kommt es vor, daß der Problematisierung stattgegeben wird (z.B. gegenüber der social policy research-Lösung für das Vermittlungsproblem; vgl. Kap. B.) oder daß die Einwände zurückgewiesen werden (z.B. die zur Rettung des deduktivistischen Rationale; vgl. Kap. C.). Nur in einem Fall wurden Standpunkt- und Problemlösungsentwicklung und die anschließende Problematisierung wegen ihrer besonderen Bedeutung für die Verklammerung von Zustandsänderungsund Technologischen Theorien in zwei Kapitel aufgeteilt, nämlich bei der Abhandlung pädagogischer Grundlagentheorien (Kap. D. und E.). Gerade die Problematisierung (Kap. E.) stellt dabei jene umfangreichen Ergebnisse bereit, die dann die Konzeption der qualitativen Technologischen Theorien motivieren (Kap. F.). Der Anwendung intemaler Instrumentarien entspricht die Anwendung einer Klassifikation der Erziehungswissenschaften, die erkenntnisorientierte von grundlagentheoretischer und technologischer Forschung trennt. Jede solche Forschung erfüllt Zwecke, die jedoch zum Teil stark voneinander abweichen. Vereinfacht könnte man die Zwecke als Realisierungen im Spannungsfeld von Curiositas und Relevanz (Eigen 1988, 41) ansehen. Vermittlungsforschung müßte dann eigentlich die Rolle des Kontaktbahners zwischen Anwendungsgebieten und zweckerfüllenden Forschungsresultaten spielen, doch läßt sie die Aspekte der Curiositas vollkommen beiseite und beschränkt sich auf die der Relevanz. Das führt zur Zeit zu einer unzweckmäßigen Zurückdrängung erkenntnisorientierter Erziehungswissenschaft. (Man denke etwa an das nachlassende Interesse an der Untersuchung des pädagogischen Verhältnisses, obwohl dieses doch Bedingung der Möglichkeit und

A.

Einleitung

21

vermutlich sogar der Notwendigkeit von Erziehung überhaupt ist und auf tiefe Weise mit der Verteilung von Information im Umweltraum und der durch den radikalen Konstruktivismus von Maturana und Varela genauer analysierten Schöpfung von Bedeutung durch selbstorganisierende Systeme als Konstituenten jenes Raumes zusammenhängt.) Der innere Fortgang der vorliegenden Arbeit ist durch die genannte Klassifikation und den davor erwähnten Kapitelaufbau bestimmt. Im ersten Kapitel wird untersucht, ob der social policy research-Ansatz zur Lösung des Vermittlungsproblems tragfähig ist. Dabei wird festgestellt, daß der Ansatz zwar kognitive und kommunikative Funktionen wissenschaftlicher Ergebnisse für die Praxis zutreffend erfaßt, aber von einem inadäquaten Diagnosebegriff ausgeht und daher auch technologische Funktionen vollständig ignoriert. Via Vermittlungsforschung ist die Lösung der erziehungswissenschaftliehen Relevanzkrise nicht zu erwarten. Das erste Kapitel endet mit dem Hinweis darauf, daß die Vermittlungsforschung vor allem nicht zu klären vermag, welcher Art die erziehungswissenschaftlichen Gebilde sein könnten, die erfolgreiches Handeln wissenschaftlich gesichert ermöglichen. Spielen Logik der Forschung und Logik der Praxis dafür eine gemeinsame Rolle? Wie sind Erkenntnis- und praktischer Wert der Erziehungswissenschaft einzuordnen? Diesen Fragen widmet sich das zweite Kapitel, in dem auch die genannte Klassifikation detaillierter entwickelt wird. Sie regt zur genaueren Untersuchung der Existenz erkenntnisorientierter pädagogischer Forschung an, die noch von Brezinka für selbstverständlich gehalten, jedoch von v. Cube mit einem Unmöglichkeitsnachweis konfrontiert wurde. Das Aufeinanderprallen der Auffassungen von Brezinka und v. Cube beinhaltet im Prinzip das Aufeinanderprallen der deduktivistischen und induktivistischen Rationale und gibt Anlaß zu einer ausführlichen Kritik des erstgenannten. Dabei geht es vornehmlich um die Zurückweisung des Universalitätsanspruchs des deduktivistischen Rationale und um die Möglichkeit des Induktivismus (dies vor allem im Blick auf J. S. Mills Vorläuferfunktion für die Konzeption Technologischer Theorien). Mit dem deduktivistischen Rationale war unbemerkt das Hilbert-Programm in die Pädagogik importiert worden. Ein Weg zur Zurückweisung des genannten Universalitätsanspruchs besteht deshalb im Zurückweisen dieser Übernahme (vgl. Erster Exkurs), was u.a. am Beispiel von Rössner diskutiert wird. Mit der Zurückweisung des Hilbert-Programms geht die Ablehnung metamathematischer Konzepte für die Lösung der Probleme um deduktivistisches Rationale und Induktivismus einher. Gibt es eine Rettung für das deduktivistische Rationale jenseits der Metamathematik, aber mit endlichen Mitteln? Der Beantwortung dieser Frage geht Sirnon mit seinen FITness-Kriterien für Theorien nach. Wie die ausführliche Diskussion dieser Kriterien

22

A. Einleitung

zeigt, muß die Erziehungswissenschaft aus logischen Gründen von einer Reihe von Grundüberzeugungen zu theoretischen Termen und deren Elirninierbarkeit, zum Operationalisrnus, zur Nichtdefinierbarkeit theoretischer Konstrukte, zur Falsifizierbarkeit und zur Axiornatisierbarkeit Abschied nehmen, ohne daß dabei die Universalität des deduktivistischen Rationale zu retten ist. In einem zweiten Exkurs wird deshalb eine alternative Dimension für die Frage nach erkenntnisorientierter Erziehungswissenschaft aufgespannt, nämlich die der Struktur von Theorien. Dieser Dimension kommt anstelle der Frage nach dem geeigneten und die erziehungswissenschaftliehen Forschungsrichtungen jeweils auszeichnenden Rationale die eigentliche abgrenzende Bedeutung zu. Jeweils mit pädagogischen Beispielen versehen werden die Standardauffassung zu Theorien, der strukturalistische Ansatz (S-Prograrnrn) und die strukturtheoretische Sichtweise (L-Prograrnrn) dargestellt. Während sich die erkenntnisorientierte pädagogische Forschung durch die Struktur ihrer Ergebnisse (ihrer Theorien) semantisch kennzeichnen läßt, ist der Unterschied zur grundlagentheoretischen Forschung nur pragmatisch nachweisbar. Der Nachweis der Existenz solcher pädagogischer Forschung wird im dritten Kapitel angetreten. Dazu ist es notwendig, sich mit dem Standpunkt auseinanderzusetzen, die Pädagogik wende im Prinzip nur erkenntnisorientierte psychologische Theorien an und weise überhaupt keine genuine Grundlagenforschung auf. Nach einer genaueren Analyse deterministischer und probabilistischer Lerntheorien (als Beispielfall psychologischer Theorien) und ihrer jeweiligen Verwendung in wissenschaftlichen Systernatisierungen (z.B. Erklärungsargumenten) ist der Boden bereitet, um zu fragen, ob Lerntheorien außerhalb dieser erkenntnisorientierten Anwendungsform überhaupt praktische Relevanz gewinnen können. Ihr eingeschränkt vorhandener praktischer Nutzen wird wieder an Beispielen illustriert. Mit Hilfe von Lerntheorien lassen sich Bedingungen der Möglichkeit von Lernen gewinnen (prinzipielle Voraussetzungen). Auf der Basis von lerntheoretischen Resultaten kann effektivitätsorientierte Lernforschung aufgebaut werden (Beispiel: Begriffslernen). Lerntheoretische Kenntnisse (z. B. des Lehrers) besitzen Handlungsrelevanz (Herbarts Programm). Daneben wird der Frage nachgegangen, ob Lehrer tatsächlich in ihrem Handeln auf Wissen aus Lerntheorien zurückgreifen. Insgesamt zeigt sich, daß psychologische Theorien einige praxisrelevante kognitive Funktionen übernehmen können, daneben jedoch noch so viele Praxisproblerne offen lassen, daß zusätzliche grundlagentheoretische pädagogische Forschung notwendig ist, um praktische Brauchbarkeit der Theorien herbeizuführen. Das wird am Beispiel von Lehrerverhaltenstheorien und Lehrerhandlungsforschung weiter vertieft. Gegen die Verwendung grundlagentheoretischer Zustandänderungstheorien, wie sie sich theoretisch im Bereich der Erforschung des Lehrerverhaltens durchgesetzt

A. Einleitung

23

haben, aber auch wie sie die Basis handlungsorientierter Lerntheorien (und anderer mikromentaler erklärender Theorien; vgl. Varela 1990) bilden, sind zwei Einwände vorgebracht worden. Der erste, von Theo Herrmann formuliert, besagt, daß es sich bei Zustandsänderungstheorien nur um nützliche Fiktionen handelt. Der zweite greift die Gründe auf, die zur Zurückweisung des Hilbert-Prograrnms geführt haben, und besagt, daß Zustandsänderungstheorien des Mentalen in empirisch adäquater Form unmöglich konstruiert werden können. Beide Einwände sind zurückweisbar (Kap. E.). Gegen Herrmanns Einwand wird vor allem vorgebracht, daß bei einer Zentrierung der metatheoretischen Betrachtung auf Theorienstrukturen als relevante Dimensionen (s.o.) der Frage nach der universellen und dem Realismus verpflichteten Geltung von Theorien nur noch untergeordnete Bedeutung zukommt. Wichtiger ist die modellklassenspezifische Geltung der Theorien, im Hinblick auf welche zwischen fiktionalen und nichtfiktionalen Theorien nicht mehr unterschieden werden kann (vgl. E.1 .). Dem Einwand der Unmöglichkeit adäquater Zustandsänderungstheorien wird in zwei Schritten begegnet. Erstens wird gezeigt (E.II.1.), daß man die Begründungsbasis für den Unmöglichkeitsnachweis nicht durch die Einnahme des Endlichkeitsstandpunktes erschüttern kann. Zugleich wird die Universalität approximativen Denkens infrage gestellt. Es ist nicht möglich, den Endlichkeitsstandpunkt zur Rettung approximativer, lokaler und weitgehend linearer Verfahren und Theorien im Bereich von pädagogisch-technologisch relevanten Verhaltens- und Handlungssystemen durchzuhalten. Um das im Detail zu begründen, werden die Mittel globaler Analyse entwickelt und angewandt. Dabei ist es unumgänglich, einige Aspekte Dynamischer Systeme anzusprechen, die zwar nicht in jedem Teil nur allerneueste mathematische Entwicklungen enthalten, aber doch für pädagogisch-psychologische Zwecke als neuartig angesehen werden können. Die hier gewählte vorsichtige Formulierung ist absichtlich benutzt, denn es zeigt sich z.B. hinsichtlich der gestalttheoretischen Isomorphieannahme (Köhler 1920), daß die Psychologie durchaus auf eine gewisse Tradition bei der Untersuchung Dynamischer Systeme zurückblicken kann. (Interessanterweise vermag dieser Analyse eine Richtung entnommen zu werden, in der Köhlers Isomorphietheorie gegenüber der Kritik von Lashley wieder zu rechtfertigen ist.) Da seit Lewin (vgl. für die Pädagogik etwa Winnefelds feldtheoretische Untersuchungen) Potentialsysteme für die Erklärung menschlichen Verhaltens eine große Rolle spielen, wird u.a. auch das Problem der Emergenz im Zusammenhang mit der Umsetzung eines Potentials in Morphogenese dis~utiert. Die schlüssigste Behandlung des Problems gelingt im Rahmen der Singularitäts- oder Katastrophentheorie, woraus sich dann eine Erwiderung auf die revidierte Endlichkeitsauffassung ergibt.

24

A. Einleitung

Da die vorstehend genannten Aspekte Dynamischer Systeme von der System-Umwelt-Metapher Gebrauch machen, liegt es für den Endlichkeitsstandpunkt nahe, zu seiner Verteidigung die Metapher zu wechseln, z.B. hin zur Autopoiesis. Die Dynamik der Systeme wird dabei durch eine "rekursive Logik" charakterisiert. Diesem Wechsel von Metapher und Dynamik wird mit einer ausführlichen Zurückweisung der "rekursiven Logik" begegnet, und zwar einerseits durch eine Prüfung der Geeignetheil von Rekursivität zur vollständigen Erfassung Dynamischer Systeme und andererseits durch eine Klärung dessen, was eine Logik ist und ob "rekursive Logiken" für die intendierten Zwecke sinnvoll sind. Der Endlichkeitsstandpunkt kann daraufhin endgültig zurückgewiesen werden. Daß die Rekursivität zugunsten der globalen Analyse an Bedeutung verliert, leitet den Übergang von der klassisch-technologischen Auffassung der Pädagogik zu der qualitativer Technologischer Theorien ein. Aber noch ist mit der Zurückweisung des Endlichkeitsstandpunktes erst der Weg für den Einwand der Unmöglichkeit adäquater Zustandsänderungstheorien freigemacht, dem nun vor Vollzug des Übergangs zunächst in einem zweiten Schritt direkt begegnet werden muß (vgl. E.II.2). Dazu wird die Mensch-MaschineKontroverse entlang der Gründe nachgezeichnet, die schon das Hilbert-Prögramm beendeten. Als Resultat zeitigt die Kontroverse, daß der Einwand gegen Zustandsänderungstheorien nicht stichhaltig ist, insbesondere wegen einer Fehleinschätzung der Anwendbarkeit der erwähnten Gründe. Nachdem die Einwände gegen Zustandsänderungstheorien entkräftet worden sind, können solche Theorien und mit ihnen die Ergebnisse der globalen Analyse zu einer angemesseneren Sicht der Pädagogik als strenge praktische Wissenschaft beitragen (Kap. F.). Dazu wird die effektivitätsorientierte pädagogische Forschung in ihren wesentlichen Charakteristika an einem Beispielfall erläutert (F.I.). Im Anschluß daran steht der Rekonstruktion Technologischer Theorien in historischer und systematischer Weise nichts mehr entgegen (F.II.). Qualitative Technologische Theorien erweisen sich als solche, die auf topologischen Strukturen aufbauen. Da es in der vorliegenden Arbeit nur darauf ankommt, die Probleme, die die Pädagogik mit ihrem Selbstverständnis hat, zu lösen und zu zeigen, wie sie - wenn auch keine punktgenau berechenbare - Praxisrelevanz gewinnen kann, wird darauf verzichtet, die Rekonstruktion qualitativer Technologischer Theorien formal exakt durchzuführen. Stattdessen wird die Auseinandersetzung mit der Rückzugsposition (im Anschluß an Luhmanns Differenzthese) in der Erziehungswissenschaft gesucht und eine Prüfung der Zimmerlischen Technologiethese im Hinblick auf ihre fallspezifische Erfüllung durch die Pädagogik vorgenommen (F.III.).

A. Einleitung

25

Beide Fragestellungen ergeben sich vor allem vor dem Hintergrund verpaßter Entwicklungschancen der Pädagogik in den zurückliegenden 25 Jahren und zukünftiger Herausforderungen durch technologische Konkurrenzdisziplinen. Die bereichsspezifische Brauchbarkeit der Erziehungswissenschaft diesen Konkurrenten gegenüber wird vor allem auf ein scale order-Argument gestützt, das auch schon in der erwähnten Verhaltens- und Handlungstheorie (Aiisch 1988), in systernischen Ansätzen (Aiisch 1990) und in neueren Entwicklungen zu Lehrerverhaltenstheorien (Aiisch 1990a) eine Rolle gespielt hat. Abschließend wird angedeutet, daß der durch qualitative Technologische Theorien eingeleitete Wandel im Wissen der Pädagogik dem von ZimmerIi vermuteten Wandel hin zur Sozialtechnologie entspricht und daß im Zuge dieses Wandels die Rückkehr der Ethik (als rationales Gebäude) zu konstatieren ist. Daß in Zukunft auch auf dem intensiv diskutierten Gebiet der neuen Ethik mit einer pädagogischen Ethikorientierung zu rechnen sein wird, kann man der Skizze ihrer Konstruktion entnehmen.

B. Zur Anwendbarkeit pädagogischer Forschungsergebnisse Das Vermittlungsproblem Wenn eine Wissenschaft in eine Krise gerät und wenn sich daraufhin die Bedingungen ändern, unter denen sie sich fortzuentwickeln hat (Ansehen und Bewertung der Wissenschaft, zur Verfügung gestellte Ressourcen, Verwertungsmöglichkeiten etc.), dann reagieren die betroffenen Wissenschaftler gewöhnlich mit einer Rückbesinnung auf Grundlagenfragen. Sie versuchen, Zugangsweisen zur fachspezifischen Erkenntnis neu zu bestimmen, methodologisch orientiert die bisherige Forschungspraxis und ihre Ergebnisse zu analysieren und zukunftsweisende Auswege aus der Krise zu formulieren. Die Erziehungswissenschaft und auch Bereiche der sie fundierenden Psychologie und Sozialwissenschaften befinden sich in einer krisenhaften Situation. Vordergründig fällt auf, wie drastisch z.T. das Forschungspotential unter Vorgabe neuer Ausbildungsrichtwerte reduziert wird, z.B. durch politische Eingriffe in die universitäre Lehrerausbildung. Wissenschaftsintern treten dazu Fragen in den Vordergrund, in denen es (1) um den Erkenntnis- und praktischen Wert erziehungswissenschaftlicher Forschungsergebnisse geht, (2) um die Nutzung der Chancen, die der Erziehungswissenschaft im Zuge der Bildungsreform eröffnet wurden und (3) um die Herausforderung, die andere Wissenschaften mit anderer Arbeitsweise und großer Entwicklungsdynamik für die Erziehungswissenschaft darstellen. Es scheint mir, daß die deutsche Pädagogik einige der unter (2) genannten Chancen vertan hat, und der Herausforderung (3) durch die KI-Forschung wird z.B. ohne die Bereitschaft, mathematisches Rüstzeug bedingungslos einzusetzen, kaum zu begegnen sein. Auch aus dem internationalen Vergleich ergeben sich Aspekte, die zur Erhellung der momentanen Forschungssituation beitragen. Während die deutsche Erziehungswissenschaft empirische Forschungsausrichtungen eher als geduldete Randbereiche betrachtet, haben sich im anglo-amerikanischen Sprachraum die dem erkenntnistheoretischen Realismus und der empirischen Forschungsvorgehensweise verpflichteten educational sciences als unverzichtbarer Informant und Ratgeber für bildungspolitische Maßnahmen etabliert und in viele grundlagentheoretische und anwendungsorientierte Schwerpunkte differenziert (man vergleiche etwa die Veranstaltungsprogramme der

B. Anwendbarkeit pädagogischer Forschungsergebnisse

27

1990er Kongresse der Deutschen Gesellschaft für Erziehungswissenschaft und der Arnerican Educational Research Association). Dies ist zunächst nur ein Datum, auf das hingewiesen werden soll. Es wäre kurzsichtig, die Bewältigung der krisenhaften Situation mit der Ersetzung etwa verstehend ausgerichteter Erziehungswissenschaft durch empirische Pädagogik erreichen zu wollen. Im Gegenteil, es wird noch zu prüfen sein, inwiefern die Leistungen der erziehungswissenschaftliehen Teildisziplinen jeweils relevante Erkenntnisbeiträge liefern. Doch kann auch nicht darüber hinweggegangen werden, daß im Gegensatz zur anglo-amerikanischen Tradition die empirische Pädagogik im deutschen Sprachraum oft nur ein Korrektiv für Spekulation, Wertung und Meinung darstellt. Dabei wird nicht übersehen, daß Spekulation von Fall zu Fall real zutreffende Ergebnisse hervorbringt, daß Wertung pädagogischer Zielorientierung dient und daß Meinung wichtige erzieherische Funktionen übernimmt. Dennoch scheint es kurios, daß das ausschließlich auf Realitätsfeststellung gerichtete Forschungsbemühen nicht überwiegt und ggf. einer Grundsatzkritik und Korrektur durch spekulative Ansätze unterzogen wird, sondern daß der umgekehrte Fall vorliegt. Bei der Beurteilung dieses Sachverhaltes darf man allerdings nicht die Tendenz der deutschen empirischen Erziehungswissenschaft übersehen, sich oft freiwillig in Forschungsnischen und praxisirrelevante Enklaven zurückzuziehen, statt offensiv den eigenen Anwendungswert unter Beweis zu stellen. Bis auf die Teilnahme an vehement geführten wissenschaftstheoretischen Auseinandersetzungen, in denen Vorteile erfahrungswissenschaftliehen Vorgehens reklamiert wurden, scheint die empirische Pädagogik kaum zur eigenen positiven Leistungsbilanz beigetragen zu haben. So spricht einer ihrer führenden Vertreter vorn "fragwürdigen Beitrag der empirischen Erziehungswissenschaft zur Verbesserung von Praxis" (Krumm 1983) und kommentiert eine ausführliche Analyse von Zeitschriftenbeiträgen:"Wenn man an handlungsrelevantem Wissen ... interessiert ist, dann sind jene Untersuchungen, die dazu eine notwendige Voraussetzung bilden- .. : und darunter insbesondere solche mit hoher ökologischer Validität - bedenklich selten zu finden" (ebd., 55). Krumm beklagt weiterhin das Überwiegen von Korrelationsstudien (vgl. dazu auch König 1982) im Gegensatz zu theoretisch wohlfundierten Experimenten. Was bei dieser durchaus berechtigten Kritik zu denken gibt, ist die Auffassung, nur erklärungsorientierte, an den Idealen einer Kausalwissenschaft ausgerichtete Forschung sei praxisrelevant Diese Auffassung wird von Ingenkarnp (1983) geteilt, wenn er auch einen liberalisierten probabilistischen Kausalitätsbegriff zu favorisieren scheint. Beiden Auffassungen kann entgegengehalten werden, daß mit der Entdeckung erklärungsrelevanter Kausalzusammenhänge nicht immer auch das Verfahren zur Beseitigung eines

28

B. Anwendbarkeit pädagogischer Forschungsergebnisse

unerwünschten Tatbestandes gefunden ist. Und selbst wenn ein Kausalzusammenhang für die Entwicklung eines entsprechenden erzieherischen Verfahrens nutzbar sein sollte, so ist mit seiner Publikation in einem fachwissenschaftliehen Organ für seine Anwendung so gut wie nichts erreicht (van de Vall/Bolas 1982). Die empirische Erziehungswissenschaft hat sich zwar intensiv mit dem Technologieproblem auseinandergesetzt (Krapp/ Heiland 1981; Hierdeis 1984) und dabei die grundlegenden Standpunkte identifiziert, von denen aus nach einer Lösung gesucht werden kann (Huber/ Krapp/Mandl 1984). Was aber die technologisch orientierte Forschung selbst anbelangt und vor allem die Erforschung der Bedingungen, unter denen Untersuchungsergebnisse tatsächlich Anwendung finden, so muß man von einem deutlichen Produktivitätsmangel sprechen. Akzeptanzforschung, Steuerungstheorie oder zumindest ein pädagogisches Pendant zur policy research (Mitchell 1981) lassen sich im deutschsprachigen Raum kaum ausmachen, von systematischer Forschung auf diesem Gebiet ganz zu schweigen.

I. Chancen für die Berücksichtigung wissenschaftlicher Ergebnisse durch Praktiker Dabei hat die social policy research Ergebnisse anzubieten, die für den gesamten erzieherischen Bereich zu erheblichen Konsequenzen anregen könnten, etwa für die Ausbildung und für weite Einsatzmöglichkeiten von Diplom-Pädagogen und Magistern (MA-Pädagogik) oder für den Wandel erzieherischer Institutionen durch Innovation von innen heraus, also auf organisationsinternen Wegen (Dann et al. 1978). Van de Vall und Bolas (1982) haben z.B. festgestellt, daß so gut wie keine Möglichkeit besteht, sozialwissenschaftliche Erkenntnisse als alleiniges Wissensfundament für Entscheidungen in Organisationen zu etablieren. Sozialwissenschaftliche Erkenntnisse nehmen lediglich Einfluß auf Entscheidungen und dies je nach ihrer sozial perzipierten Wichtigkeit nur in mehr oder minder hohem Ausmaß. Das Ausmaß ist jedoch um so höher, je enger die Beziehungen zwischen Forschungsauftraggeber und Forschungsergebniskonsument sind. Günstig wirkt sich demnach aus, wenn die Organisation, die die Ergebnisse anwenden soll, auch gleichzeitig der Auftraggeber für das Forschungsvorhaben ist. Sind die auftraggebenden und abnehmenden Organisationen hingegen voneinander separiert und unabhängig, dann sinkt die Verwertungsbereitschaft für die Ergebnisse auf seiten der abnehmenden Organisation. Im Erziehungsbereich ist die organisationeile Separierung häufig nicht zu umgehen. Bleibt die Erziehungswissenschaft dann vom Entscheidungsvorgang ausgeschlossen? Dies muß nicht so sein, wenn man ein weiteres

I. Berücksichtigung wissenschaftlicher Ergebnisse

29

Untersuchungsresultat berücksichtigt, das van de Vall und Bolas (1982, 54) berichten: Wenn ein Beratungskomitee, bestehend aus Repräsentanten der Auftraggeber, der Konsumenten und der Forscher, installiert ist, wird die Beeinflussung von Entscheidungen durch Forschungsergebnisse höher eingeschätzt als bei Abwesenheit eines solchen Komitees. Neben Beeinflussungen auf diesen beiden Ebenen struktureller Variationen, genauer: der interorganisationellen und der Intergruppenbeziehungen, bestehen Beeinflussungsmöglichkeiten auch durch Variationen auf der Ebene der Interaktion von Rollenträgern. In social policy research projects, in denen Forscher am Identifizieren von Problemen und am Verfeinern der Problemstellungen beteiligt sind, ist die Beeinflussung von Organisationsentscheidungen größer als in Projekten, in denen Forscher lediglich Informationen sammeln, zusammenstellen und analysieren. Die naheliegende Konsequenz, daß sozialwissenschaftliche Forschungsergebnisse Entscheidungen besonders wirksam bei Vorliegen interorganisationeller Abhängigkeit, bei Installierung eines Beratungskomitees und bei Partizipation der Forscher an der Problemfindung beeinflussen, konnte von van de Vall und Bolas (1982, 55) ebenfalls bestätigt werden. Mit diesen strukturellen Maßnahmen ist jedoch erst der Rahmen abgesteckt, innerhalb dessen sozialwissenschaftliche Forschungsergebnisse günstig vermittelt und eingesetzt werden können. Das Wie, die Art und Weise der Vermittlung oder des Einsatzes, bleiben noch offen. Van de Vall und Bolas (1982, 57) untersuchten die entsprechenden Fragestellungen unter dem Aspekt, welche Funktionen policy research erfüllt. Sie grenzten dabei kognitive Funktionen von kommunikativen und diagnostischen ab. Bevor im einzelnen auf Untersuchungsergebnisse zu den Funktionen eingegangen werden soll, ist es notwendig, sich die erziehungswissenschaftliche Relevanz der Fragestellungen zu verdeutlichen, um deren Beantwortung es van de Vall und Bolas geht. In jüngerer Zeit hat man sich für die Pädagogik zunehmend darum bemüht zu klären, auf welche Weise wissenschaftliches Wissen angewendet werden kann. Dabei stieß man zunächst auf das Problem, welche Funktionen durch das Wissen überhaupt erfüllbar sind. Grob zusammengefaßt geht es um folgende: - kognitive Funktionen (Erkenntnisgewinnung; Ordnen, Verstehen und Erklären von Ereignissen und Tatbeständen; Aufzeigen von Kausalketten) - diagnostische Funktionen (Aufklärung über Realitätsumstände, die gewöhnlich negativ bewertet werden; Feststellung und Bewertung von Tatbeständen relativ zu einem vorgegebenen Soll-Zustand)

30

B. Anwendbarkeit pädagogischer Forschungsergebnisse

- technologische Funktionen (Feststellung der Voraussetzungen und prinzipiellen Begrenzungen für spezifisches instrumentelles Handeln; Konstruktion von Technologischen Theorien; Bereicherung des Wissenspotentials, aus dem Handlungsfolgen generiert werden können (= praktische Heuristik); instrumentell orientierte Prognostik) Verdeutlichen wir uns diese drei Funktionen am Beispiel lerntheoretischen Wissens: - kognitive Funktionen: Hier geht es um die theoretische Erfassung der Anlässe für Lernprozesse, der Prozesse selber, ihrer Dynamik und ihrer Ergebnisse. Die zahlreichen und thematisch oft heterogenen Forschungsresultate sollen dabei in eine theoretische Struktur integriert werden. Das Ergebnis dieser Bemühungen findet man in den Lehrbüchern über Lerntheorien. - diagnostische Funktionen: Der Schwerpunkt der Lerndiagnostik liegt vor allem im Bereich des Messens von Lernvorgängen und -ergebnissen (Guthke 1978) und in der Entwicklung von Bewertungsgesichtspunkten für die Meßergebnisse. So orientiert sich z.B. die kriteriumsorientierte Diagnostik an der Feststellung von Lernergebnissen (Pricke 1974) und an Möglichkeiten, Aussagen über ein erreichtes Lernniveau mit Zensierungsmodellen zu verbinden (Herbig 1977). - technologische Funktionen: Unter technologischen Gesichtspunkten ist lerntheoretisches Wissen auf mehrere Arten verwendbar. Man kann z. B. auf der Basis der Theorie des perzeptuellen Lernens aussagen, daß kein Lernvorgang ohne Stimulation einsetzt. Das bedeutet, daß Stimulation eine notwendige Voraussetzung für Lernvorgänge darstellt. Man kann aufgrund der Erkenntnisse zum chunking von einer prinzipiellen Kapazitätslimitierung für kurzfristige Informationsaufnahme ausgehen, die zu überschreiten illusorisch ist und zu keiner technologischen Anstrengung führen sollte. Eine andere Art der technologischen Verwendung lerntheoretischen Wissens besteht in der Entwicklung von Instruktionsverfahren. Ergebnisse der Untersuchung zu mentalen Rotationen, zu geistigen Versuchshandlungen und zu ikonischen Repräsentationen beim Problemlösen können z.B. zur Konstruktion von unterrichtsmethodischen Verfahren genutzt werden, durch die man mittels variabler und beweglicher OHP-Bilder Versuchshandlungen, ikonische Repräsentationen und ikonisch unterstütztes Problemlösen nachbildet und zugleich modelliert (vgl. im einzelnen Alisch/Alisch 1986). Solche Verfahren ermöglichen und erleichtern den Erwerb komplexer Denkstrategien (Für weitere technologische Verwendungen von lerntheoretischem Wissen vgl. Abschnitt D.l.2.). Ich hatte zu Beginn dieses Kapitels bereits darauf verwiesen, daß es mit zunehmend umfangreicherem Wissen zur Erfüllung der drei genannten Funk-

li. Kognitive Funktionen der Anwendung

31

tionen notwendig wird, eine weitere Funktion zu betrachten, nämlich die kommunikative. Sie soll es gewährleisten, daß wissenschaftliches Wissen den jeweiligen Anwender auch erreicht. Sowohl im Bereich der social policy research als auch im Bereich der Forschungen zu Wissenstransfer und -nutzung in der Pädagogik (Love 1985) scheint mir dabei allerdings ein Problem aufzutreten: Es geht überwiegend nur um den Transfer und die Nutzung von Wissen, das kognitive und diagnostische Funktionen erfüllt. Die Gefahr liegt nahe, daß handlungsrelevantes technologisches Wissen in den Hintergrund gerät, pointiert gesprochen: weil es im Transfer nicht gebraucht wird. Woran liegt es aber, daß technologisches Wissen so wenig in die Erfüllung kommunikativer Funktionen einbezogen wird? Wie wir sehen werden, hat das metatheoretische Gründe. Vor allem scheint mir eine unhaltbare Konzeption von Diagnostik in transferorientierten Forschungen vorzuliegen. Zur Bereinigung der Situation und zur Gewährleistung einer angemessenen Berücksichtigung technologischen Wissens im Transfer werde ich deshalb schwerpunktmäßig die verwendete Diagnostikkonzeption kritisieren.

II. Kognitive Funktionen der Anwendung sozialwissenschaftlicher Ergebnisse Wie werden die kognitiven Funktionen unter gleichzeitig erhöhter Einflußnahme auf Organisationsentscheidungen erfüllt? Die übliche Antwort bezieht sich auf die gegebenen Möglichkeiten der Erkenntnisverrnittlung: Kognitive Funktionen werden durch Publikationen von Forschungsergebnissen wahrgenommen. Doch ist dies wirklich eine technologisch wirksame Variante? Van de Vall und Bolas (1982) verneinen das und kommen aufgrund ihrer Untersuchungen zu einem alternativen Resultat. Die Publikationen von social policy research-Ergebnissen erhöhen nur dann die Beeinflussungsmöglichkeiten für Entscheidungen, wenn sie so abgefaßt werden, daß sie einem breiten Rezipientenkreis zugänglich sind und in geeigneten Organen erscheinen. Die Veröffentlichung im Hinblick auf einen professionellen Leserkreis verringert dagegen die Beeinflussungschancen, und zwar noch mehr, als wenn auf eine Publikation ganz verzichtet werden würde. Ergänzen kann man dies durch einen weiteren Befund. Orientiert sich der social policy researcher an den epistemologischen Standards, die für wissenschaftliche Veröffentlichungen in Soziologie, Psychologie, Erziehungswissenschaft etc. gelten, besteht die Gefahr einer Interferenz mit den auf Implementation bezogenen Standards, deren Einhaltung gewöhnlich erforderlich ist, um Entscheidungen durch sozialwissenschaftliches Wissen beeinflussen zu können.

32

B. Anwendbarkeit pädagogischer Forschungsergebnisse

Es erübrigt sich, unter Verwendung dieser beiden Befunde genauer zu analysieren, in welchem Maße Krumms (1982) Erwartungen bezüglich der Praxisrelevanz empirischer Pädagogik nuancierter formuliert werden müßten. Offensichtlich ist zweierlei: Erstens legt es die Frage nach den ForschungsStandards nahe, anwendungsbezogen forschende Erziehungswissenschaft, wenn sie handlungswirksam werden soll, nicht nur mit den Alternativen "Korrelationsstudie vs. Experiment" und "Deskription vs. Erklären" zu konfrontieren. Vielmehr scheint es notwendig, die "effektivitätsorientierten" (Alisch/Rössner 1978) Standards methodologisch und metatheoretisch weiter zu durchdringen, um der anwendungsbezogenen Erziehungswissenschaft ein geeignetes Fundament zu geben. Wie social policy research keine angewandte Sozialwissenschaft ist, so ist effektivitätsorientierte Erziehungswissenschaft keine angewandte Psychologie oder pädagogische Grundlagenforschung. Zweitens werden effektivitätsorientierte kognitive Funktionen nicht in wesentlichem Ausmaß - wie bisher angenommen - durch Formen professionellen Informationsaustausches gefördert. Es scheint, als würde damit der bislang in der Literatur sehr kritisch betrachteten Funktionsrolle des Metapraktikers, die Rössner (1978) konzipiert hat, zunehmend mehr und begründetere Bedeutung zukommen, wenn man nach Lösungen für Informationsvermittlungsprobleme sucht.

111. Kommunikative Funktionen der Anwendung sozialwissenschaftlicher Ergebnisse Dafür sprechen auch Befunde aus der Untersuchung von van de Vall und Bolas (1982, 59 ff.) hinsichtlich der Erfüllung kommunikativer Funktionen durch social policy research. Die Beeinflussungsmöglichkeit für Organisationsentscheidungen steigt, wenn schriftliche Berichte über Forschungsergebnisse durch Rückmeldungsstrategien für Auftraggeber und Konsumenten ergänzt werden. Als solche Strategien gelten: - Die Auswahl eines geeigneten und auch vom Auftraggeber akzeptierten Untersuchungsdesigns. Van de Vall und Bolas (1977) haben z.B. festgestellt, daß dabei Entscheidungserfordernisse in nicht unerheblichem Ausmaß die Prüfung wissenschaftlicher Hypothesen dominieren können. So wurden Surveydesigns als beeinflussungsrelevanter eingeschätzt als erklärungsbezogene Sozialexperimente. - Das timing, um Forschungsergebnisse zum erforderlichen Zeitpunkt mit anderen entscheidungsrelevanten Informationen und Handlungen koordiniert

ID. Kommunikative Funktionen der Anwendung

33

vorlegen und einsetzen zu können. Diese Strategie, von Williams (1976) als fundamental für den Erfolg von social policy research angesehen, legt es häufig nahe, daß zeitaufwendige Untersuchungsdesigns verzichtbar erscheinen, um sozialwissenschaftlich gestützte Beeinflussungsmöglichkeiten überhaupt aufrechtzuerhalten. Social policy research ist dabei mit dem Problem konfrontiert, bestmöglich abgesicherte Resultate erst dann vorlegen zu können, wenn kein entscheidungsbezogener Informationsbedarf mehr besteht. So muß ein unter timing-Gesichtsspunkten akzeptables design gewählt werden, wodurch die sozialwissenschaftliche Beratung ggf. auch auf unsicherere Informationen gestützt wird, als prinzipiell möglich wäre. - Die Nutzung unterschiedlicher Rückmeldetechniken. Dazu gehören z.B. die Informationsweitergabe auf mündlichem und schriftlichem Wege, der Informationsaustausch durch face-to-face Kontakte oder unter Verwendung elektronischer Hilfsmittel, formelle oder informelle Gespräche und die Verarbeitung von Informationen in der Organisationshierarchie und dies auf horizontale oder vertikale Weise. Es überrascht nicht, daß organisationsintern arbeitende Forscher mehr Zugang zu entsprechend verwendbaren Kommunikationskanälen haben als organisationsexterne Berater (van de Vall/Bolas 1981). -Die Manipulation des Umfanges, in dem Untersuchungsergebnisse mitgeteilt werden. Van de Vall/Bolas/Kang (1976) stellten fest, daß zwischen dem Umfang, gemessen in Seitenzahlen des Forschungsberichtes und dem Grad der Einflußnahme auf Entscheidungen eine negative Korrelation besteht. - Die selektiv-zielgerichtete Mitteilung von Untersuchungsergebnissen. Es erweist sich gelegentlich als nützlich, z.B. nicht nur Auftraggeber und Konsumenten über die Forschungsresultate zu informieren, sondern auch potentiell Betroffene der angestrebten Organisationsmaßnahme. - Die systematische Präsentation der Untersuchungsergebnisse. Hierbei wirkt sich positiv auf die Wahrung von Einflußmöglichkeiten des Wissenschaftlers aus (vgl. Bobbit et al. 1974), wenn er auf die Benutzung technischer Begriffe verzichtet oder ihre Häufigkeitsrate niedrig hält, wenn er Häufigkeitstabellen und Formalismen in einen Anhang seines Ergebnisberichtes aufnimmt und wenn er einzelnen Kapiteln des Berichtes Erleichterungen für den Rezipienten einfügt (etwa Zusammenfassungen), die aus Untersuchungen zum Textverstehen und zur Textverständlichkeit bekannt sind (vgl. Groeben 1982; Ballstaedt et al. 1981). In zusammenfassender Bewertung dieser Strategien geben van de Vall und Bolas (1982) einige Hinweise, die die wissenschaftlich fundierten Beeinflussungsmöglichkeiten für Organisationsentscheidungen erhöhen können: (1) Ergänzung schriftlicher Forschungsberichte durch Rückmeldestrategien; (2) 3 Alisch

34

B. Anwendbarkeit pädagogischer Forschungsergebnisse

Auswählen verschiedener Zielgruppen für die Ergebnisberichterstattung und Anpassung der Berichterstattung an deren spezifische Eigenarten, Rezeptionsmerkmale, Verarbeitungsfähigkeiten etc.; (3) Berücksichtigung der Strategien "timing" und "design-Auswahl" zu einem möglichst frühen Zeitpunkt innerhalb der Untersuchungsplanung. Wenn auch vor der ungeprüften Übertragung verschiedener Untersuchungsergebnisse von van de Vall, Bolas und Mitarbeitern auf bildungs- und sozialpolitische Vorhaben und auf den Einsatzbereich von Erziehungstechnologien gewarnt werden muß, so geben die Resultate doch insgesamt zu denken. Pädagogische Akzeptanzforschung scheint nicht nur in jenen Fällen nützlich oder notwendig zu sein, in denen ein erziehungspolitisches oder -organisatorisches Vorhaben auf Skepsis bei den entsprechend betroffenen Bevölkerungsgruppen stößt, sondern schon dann, wenn überhaupt an irgendeine praktische Verwertung wissenschaftlicher Ergebnisse gedacht wird. Unter diesem Aspekt kann nicht mehr ohne weiteres zurückgewiesen werden, daß Erziehungspraktiker sowohl praxisrelevante als auch fachsprachlich verständliche Ergebnisse von der Pädagogik fordern, insbesondere nicht mit dem Hinweis, die Praktiker hätten sich das episprachliche Niveau eines WissenschaftIers anzueignen. Forschungsresultate sind nur relativ zum Kenntnisstand und zum Können des Anwenders effektiv. Das soll jedoch nicht heißen, daß berufliche Fortbildung die Verbesserung der Rezeptionsfähigkeit von Erziehern außer acht lassen kann. Unzureichende Kenntnisse und Fähigkeiten dürfen keine Begründungsbasis für Theorieverdrossenheit sein (vgl. Alisch/Rössner 1981). Während sich aber social policy and welfare research und Fortbildungspraxis auf der Suche nach Wegen des Wissenstransfers, die für den Erzieher gangbar sind, entgegenkommen können, bleibt ein weiteres Kommunikationsproblem vor allem unter moralischen Gesichtspunkten offen. In der social policy researchist festgestellt worden, daß negative Rückmeldung (counter-feedback) zu einem social policy-Projekt die Einflußmöglichkeiten des Wissenschaftlers auf die Organisationsentscheidungen erhöht (van de Vall/ Bolas 1982). Es liegt auf der Hand, daß Wissenschaftler versucht sein könnten, durch gezielte Desinformation der Bevölkerungsgruppen, die von den Entscheidungen betroffen sind, deren Skepsis und Widerstandswillen anzuregen, nur um selbst einflußreicher zu werden und die Chance für die Berücksichtigung wissenschaftlicher Ergebnisse in den Entscheidungen zu verbessern. Die social policy research bietet für solche Fälle, in denen der verantwortliche Umgang mit Forschungsresultaten gefragt ist, keine Orientierungshilfen an. In Überlegungen zu erziehungswissenschaftliehen TechnoIogien wird dagegen bereits versucht, wenigstens metatheoretisch und mit Hilfe von Rationalitätskriterien den implizierten moralischen Anforderungen

N. Diagnostische Funktionen der Anwendung

35

technologischen Vorgehens gerecht zu werden (Alisch/Rössner 1978; Alisch 1981b). Es sei hier auch nochmals an den Funktionsträger Metapraktiker erinnert, der qua Ausbildung für den Umgang mit technologieimmanenten Wertund Moralfragen prädestiniert ist, jedenfalls in der Form, wie Rössner seine beruflichen Funktionen konzipiert hat.

IV. Diagnostische Funktionen der Anwendung sozialwissenschaftlicher Ergebnisse Mit der Behandlung diagnostischer Funktionen trifft man gewissermaßen das Zentrum anwendungsorientierter Forschung, denn es sind die Aufklärung über Tatbestände, ihre Einschätzung und Bewertung, die Erklärung ihrer Verursachung und die Bedingungen ihrer Veränderbarkeil involviert. Die damit verbundenen Probleme werden für die gesamte vorliegende Abhandlung thematisch sein. Hier im ersten Kapitel genügt deshalb eine kurze, dennoch aber wichtige Lösungen streifende Darstellung. Betrachtet man zunächst die diagnostischen Aufgaben der social policy research, die van de Vall und Bolas unter den genannten Funktionsfragestellungen untersuchen, drängt sich ebenfalls der Gedanke auf, daß Tätigkeiten und Fähigkeiten des Metapraktikers angesprochen sein könnten. Diagnostik wird im Rössnerschen Begriffssystem als Technologie des Vergleichens von Ist- mit Soll-Zuständen und des Bewertens der Vergleichsergebnisse aufgefaßt (vgl. Alisch/Rössner 1977). In z.T. semantisch damit verträglicher Weise fragen van de Vall und Bolas (1982), ob social policy researchdiagnostische Effekte erzielt, genauer: ob die Forschungsergebnisse die Wahrnehmung der zentralen Problemmerkmale durch die Entscheidungsberechtigten verändert, ob dann Kausalzusammenhänge anders gesehen werden und ob die Bedeutsarnkeitseinschätzung für das policy-Problem variiert. Die Wahrnehmung der Problemmerkmale und die Bedeutsamkeilseinschätzung entsprechen dabei dem Vergleichen und Bewerten (für den notwendigen Hintergrund zur Rechtfertigung dieser Auffassung vgl. Alisch 1980; 1983; 1984). In der Rössnerschen Analyse der Diagnostik werden dagegen die Inferenzen, die den Prozeß des Diagnostizierens begleiten, nicht thematisiert. Eine Form der Inferenzbildung bezieht sich auf das Verstehen und Erklären des diagnostizierten Ereignisses im Hinblick auf seine Verursachung. Van de Vall und Bolas subsumieren Inferenzen dieser Art der Diagnostik, was aus Gründen begrifflicher Klarheit nicht günstig ist.

36

B. Anwendbarkeit pädagogischer Forschungsergebnisse 1. Begriffslogische Argumente ftir einen urteilend-bewertenden Diagnosebegriff

Zwei Dinge sind dazu anzumerken: Erstens trägt natürlich trotz der begrifflichen Trennung zwischen Diagnose und Inferenz Diagnostik im Rössnerschen Sinne durch die von ihr erzielten Ergebnisse dazu bei, die Inferenzbildung zu erleichtern bzw. überhaupt erst zu ennöglichen. Der Effekt der Diagnostik, durch bewertete Klassifikation von Ereignissen weitergehende Schlüsse auf die Ereignisursachen zu erleichtern, hat - wie angedeutet - eine Reihe von Theoretikern dazu bewogen, Diagnostik als methodische Suche nach Ereigniserklärungen aufzufassen. Wenn oben behauptet wurde, daß diese Auffassung mit Nachteilen verbunden ist, bedarf das einer eingehenden Begründung. Zweitens soll also argumentativ abgesichert werden, inwieweit es begrifflich unzweckmäßig ist, erklärungsrelevante Inferenzbildung als Diagnostik aufzufassen. Zunächst kann unterschieden werden, ob Diagnostik als präskriptive Methodik (im Sinne von Technologie) oder als deskriptive Wissenschaft aufgefaßt wird. Sodann kann betrachtet werden, ob Diagnostik klassifikatorisch oder explanatorisch orientiert ist. Die Unterscheidungen lassen sich in folgendem Vierfelderschema darstellen:

~-----A------+----8------~

prlYkriPüv cle•kriPüv _

C

D

Abb. I: Merkmale zur Unterscheidung diagnostischer Forschungsansätze

Feld A kennzeichnet die Auffassung, wie sie von Rössner (1973) vertreten wird. Feld B entspricht dem Ansatz von Westmeyer (1972, 1974, 1975). Durch C wird die Erforschung der klassischen diagnostischen Urteilsbildung charakterisiert (vgl. z.B. Leichner 1975; 1976; 1977; 1979). D schließlich entspricht in seinen Merkmalen dem Ansatz, der sich mit diagnostischen Inferenzen und diagnostischer Prognostik beschäftigt (Wiggins 1973). Die Festlegungen einer Diagnostikkonzeption nach den Merkmalskonfigurationen B, C oder D sind ungünstig, weil - Diagnostik nach C oder D nicht technologisch ausgerichtet ist; - nach D Erklärungen für Ereignisse gesucht werden, deren faktisches Vorliegen und deren systematische symptomabhängige Einordnung in ein Klassifiktionssystem ungeprüft als gegeben vorausgesetzt werden;

IV. Diagnostische Funktionen der Anwendung

37

- nach B nicht über ein Verfahren gewährleistet ist, daß man ein Ereignis erst korrekt klassifiziert, bevor man es explanativen oder prognostischen Vor-gehensweisen unterzieht. Rössners Auffassung vermeidet nicht nur diese Nachteile, genauer: sie enthält nicht nur eine technologische, wertungs- und urteilsbezogene Grundlage für Diagnostik, sondern berücksichtigt überdies die begrifflichen Unterscheidungen, durch die diagnosespezifische Vorgänge des Urteilensund Bewertens von diagnoseunspezifischem Inferieren, Erklären und Prognostizieren abgegrenzt werden. Das ist der entscheidende Aspekt. Die Bedeutung der Einführung eines neuen Begriffs in ein wissenschaftliches Begriffsnetz hängt zentral davon ab, daß die Referenzleistungen des Begriffes nicht von (bereits in Verwendung befindlichen) anderen Begriffen erbracht werden können. Die diagnostische Erklärung, die diagnostische Prognose oder das diagnostische Schließen unterscheiden sich von den üblichen wissenschaftlichen Operationen des Erklärens, Prognostizierens oder Schließens nur durch ihren Anwendungsbereich. Dieser wird als diagnostisch qualifiziert. Die diagnostischen Operationen sind also wissenschaftliche Operationen, die auf Diagnosen angewendet werden. Es mag sein, daß für den Anwendungsbereich unter technologischem Aspekt nicht alle denkbaren Inferenzoperationen infrage korrunen. Das ändert jedoch nichts an der Sachlage. Eine diagnostische Inferenz ist eben eine Inferenz, angewandt auf Diagnosen. Um zu wissen, was diagnostische Inferenzen sind, muß man lediglich wissen, was Diagnosen und was Inferenzen sind. Mithin zeichnet der Begriff "diagnostische lnferenz" eine Teilmenge von Inferenzen im Sinne einer differentia specifica aus, während nichts Präzisierendes zum Diagnosebegriff ausgesagt wird. 2. Diagnose und Inferenzen

Man kann die Begründungen auch noch etwas anders präsentieren: Der Begriff "Diagnose" bezeichnet bei Rössner das Ergebnis, das sich aus der Anwendung einer Konjunktion von Operationen ergibt. Damit ist gewährleistet, daß ein neuer Referenzbereich eingeführt ist, und zwar sogar einer, der die nachfolgende Konstruktion eines Begriffsnetzes für Diagnostik und Therapie vereinfacht. Diagnose wird weitgehend strukturell festgelegt. Das enthebt u.a. von der Lösung des leidigen Problems, daß man wissen muß, was als Symptom zu gelten hat und was wofür Symptom ist, bevor man erklären kann, warum das durch Symptome erkennbare Ereignis aufgetreten ist. Die strukturelle Festlegung des Diagnosebegriffes, eine ebensolche für den Begriff der diagnostischen Inferenz und eine für den Begriff der Intervention stellen bereits das vollständige Basisvokabular für Diagnostik und Therapie dar. Alle weiteren Nuancierungen können auf diese Festlegungen zurückgeführt wer-

38

B. Anwendbarkeit pädagogischer Forschungsergebnisse

den. So sind diagnostische Erklärungen oder Prognosen spezielle Inferenzen, gewöhnlich hypothetische Syllogismen, die man durch semantische und pragmatische Zusatzmerkmale auszeichnet. Wie wenig ggf. eine Diagnose mit lnferenz und Intervention zu tun hat, zeigt folgender Gedankengang: Theoretiker, die den Begriff Diagnose auf den der Erklärung zurückführen, gehen im allgemeinen davon aus, daß die lnterventionsinformationen relativ zu dem gegebenen Zeitpunkt vollständig aus Erklärungen gewonnen werden können, die nach dem Reichenbachsehen screening-off-Modell kausaler Relationen aufgebaut sind. Nun kann allerdings der Fall eintreten, daß eine Diagnose vorliegt, die besagt: Der Ist-Zustand weicht vom Soll-Zustand in nicht-tolerierbarer Weise ab, und zwar so, daß der Ist-Zustand Element der Menge der zum Soll-Zustand komplementären negativen Soll-Zustände ist. Das impliziert, daß das Vorliegen des IstZustandes ein Realisiertsein des Soll-Zustandes völlig ausschließt (vgl. Alisch 1979). Die Erklärung des Ist-Zustandes mag einige kausal positiv relevante Bedingungen für sein Auftreten enthalten. Kausal relevante Bedingungen in diesem Sinne sagen jedoch nichts über die Umstände aus, die ggf. zur Persistenz des Ist-Zustandes beitragen. Und eben um das Auflösen der Persistenz geht es in der Intervention, wenn andere Bedingungen die der Situation inhärente Änderungsdynamik im Hinblick auf den Ist-Zustand stören. Was nützt für die Intervention das Wissen um Entstehungsgründe bezüglich des Ist-Zustandes angesichts der Bedingungen, die seinen Übergang in einen anderen Zustand behindern? Es liegt also die Konstellation vor, daß für das Feststellen eines unerwünschten Zustandes und für seine Beseitigung keinerlei Erklärungswissen benötigt wird. Dennoch wäre es kontraintuitiv, hier nicht von Diagnose und Therapie zu sprechen. Im Rössnerschen System wird der Bereich diagnostischer Inferenzen nicht nur deswegen begrifflich gesondert behandelt, weil sonst Fälle wie der dargestellte aus dem Zyklus Diagnose-Therapie herausfallen würden, sondern auch, weil der Inferenzbildung in anderen Fällen eine wichtige Rolle bei der Konstruktion technologischer Interventionstheorien zukommt (vgl. hierzu ausführlich Alisch/Rössner 1983). Damit rückt die diagnostische Inferenz speziell als Erklärung oder als Prognose in die Nähe der Intervention, was fatale begriffliche Folgen hätte, wollte man nach wie vor den Diagnosebegriff als Inferenzbegriff definieren. Die Diagnose wäre nicht mehr interventionsunabhängig zu stellen, schlimmer noch: diagnostizierbar wäre nur, was therapierbar wäre. Diese Schwierigkeit umgeht die separate Handhabung des Begriffes der diagnostischen Inferenz. In Affinität zur Diagnose sensu Rössner verbleiben lediglich Inferenzen, die prognostizieren, welchen Verlauf die Zustandsfolge nimmt, der der Ist-Zustand angehört, wenn nicht interveniert wird (vgl. Alisch 1979).

IV. Diagnostische Funktionen der Anwendung

39

3. Diagnose und Diagnostizieren im screening-ofT-ModeU kausaler Relationen: Eine Kritik

Und schließlich umgeht man durch die Rössnersche Festlegung des Begriffes Diagnose noch eine weitere Schwierigkeit. Westmeyer (1975) versucht, in Anlehnung an das oben erwähnte screening-off-Modell kausaler Relationen (in der Fassung von Salmon 1971 und Stegmüller 1973), den diagnostischen Prozeß (als Erklärungsprozeß) zu algorithmieren. Neben der Tatsache, daß die vorgeschlagene Algorithmierung ergänzungsbedürftig ist (Sadegh-Zadeh 1978), haben sich zwei Einwände ergeben, die an die Substanz des Ansatzes "Diagnose=Erklärung" gehen. Der erste Einwand bezieht sich darauf, daß es notwendig ist, zur Erstellung einer Diagnose sensu Westmeyer die kausal relevanten Faktoren bzw. die kausal relevanten Subattribute zu testen. Die Tests klären darüber auf, ob ein Subattribut vorliegt oder nicht. Der Einwand lautet: Es ist unzweckmäßig, Diagnose mit statistisch-kausaler Analyse gleichzusetzen, weil es nicht möglich ist, in allen Fällen eine nichtprobabilistische Aussage über das Vorliegen kausal relevanter Subattribute zu machen, in denen eine probabilistische Hypothese mit ausreichender Information gegeben ist. Auch wenn die Hypothese also etwas darüber behauptet, daß Person a mit Wahrscheinlichkeit r die Subattribute der Menge CiJ besitzt ( p ( a E C.. ) =r) ,

kann ggf. nicht getestet werden, ob

lj

a E C.. bzw. a e: C .. lj

lj

gilt (für Einzelheiten und Beispiele vgl. Sadegh-Zadeh 1978, 103 ff.). Der zweite Einwand richtet sich gegen die Angemessenheil des screening-off-Modells kausaler Relationen überhaupt: Es scheint begründbar, daß keine Bedingungsrelation per se zwischen Erklärungs- und Ursachefaktoren besteht (Kim 1981). Scriven (1975) verdeutlicht dies dadurch, daß er Ursachen instrumentell expliziert und dann als Erklärungsfaktoren einer speziellen Art rekonstruiert. Etwas über eine Ursache wissen zu wollen, ist wie etwas darüber wissen zu wollen, was getan werden kann. Das unterstellt das Vorliegen von Situationsverständnis. Etwas erklären zu können, geht dagegen über das Situationsverständnis hinaus. Erklärungen sind nach Scriven (1975, 11) symbolische Vehikel zur Übermittlung von Verstehen, und Verstehen wird immer dann erworben, wenn die Fähigkeit zur Lösung einer Klasse von Problemen ausgebildet ist, eine Fähigkeit also, die es nicht mehr voraussetzt, daß die Lösung für jedes Problem der Klasse einzeln gelernt werden muß.

40

B. Anwendbarkeit pädagogischer Forschungsergebnisse

Im Gegensatz zum Hempelschen Ansatz versucht Scriven, den Erklärungsbegriff epistemologisch aufzuklären. Hempel (1965) setzte bei seiner Explikation eine ideale Sprache voraus und machte weiterhin von der Reduktion explanatorischer und kausaler Beziehungen auf nomologische Verknüpfungen Gebrauch. Ergänzt wurde das durch die Annahme Humescher Regularitäten und konstanter Verbindungen (conjunctions). Scriven schließt ein O-N-Argument als theoretischen Kern der Erklärung sicher nicht aus. Er geht jedoch über die Einbeziehung des Kerns hinaus, indem er Erklärungen als Bestandteile des Wissens konzipiert, über das ein Wissenschaftler oder ein Alltagstheoretiker verfügt. Insofern ist Kim (1981) recht zu geben, der neben epistemologischen auch psychologische Rekonstruktionsaspekte bei Scrivens Ansatz beachtet sieht. In Anknüpfung an Scriven legt Kim (1981) weitere Argumente gegen die Parallelitätsannahme zwischen Ursache-Wirkungs-Relationen und Erklärungen vor. Erstens zeigt Drays (1959) Erklärung durch Redeskription, daß Erklärungen, die dem Scrivenschen Erklärungsbegriff nicht widersprechen, reflexive Faktoren enthalten können, was für Kausalrelationen auszuschließen ist. Zweitens läßt Scrivens Erklärungsbegriff Intransitivität zu, was für Kausalität ebenfalls undenkbar wäre. Aus der Tatsache, daß X zur Lösung eines Problems Y nutzbar ist und daß das Lösen von Y zur Lösung des Problems Z beiträgt, folgt nicht für jeden im Scrivenschen Sinne Verstehenden, daß X Erklärungsrelevanz für Z hat. Der Verstehende kann z.B. die Verbindung von X und Z, ohne über Y zu gehen, übersehen. Auf eine kurze Formulierung gebracht: Folgerungen sind transitiv, aber das Wissen, das den Folgerungen zugrunde liegt, kann intransitiv strukturiert sein (Kim 1981, 299). Offensichtlich weicht die epistemologische Betrachtungsweise also die relationale Analyse von O-N-Argumenten auf und führt zu unscharf festgelegten Strukturmerkmalen. Man kann schließlich gegen die Parallelitätsannahme noch einwenden, daß z.B. teleologische Erklärungen effektorientiert aufgebaut sind (Achinstein 1977), also nicht ursachenorientiert. In der Chaosforschung ist außerdem deutlich herausgestellt worden, daß Mikrophänomene für die Erklärung von Makroereignissen relevant sind. Ob aber ein Mikrophänomen die Ursache für Makroereignisse darstellt, zweifelt Kim (1981, 301) an. In Zusammenfassung aller Ergebnisse zur Beziehung zwischen Erklärung und Kausalität kommt Kim (1981) zu einem interessanten, wenn auch vor dem Hintergrund unserer Diskussion der Diagnosebegriffe nicht mehr überraschenden Schluß: Die Präferenz für das Kausaldenken bei Erklärungen reflektiert lediglich das Interesse an (steuernder) Kontrolle und (instrumenteller) Vorhersage von Ereignissen. Man kann hier im übrigen nicht einwenden, daß mit der Stegmüllersehen Unterscheidung von epistemischer und ontolo-

IV. Diagnostische Funktionen der Anwendung

41

giseher Erklärung (Stegmüller 1969) diese Konsequenz der Kimschen Analyse längst geklärt und weitergeführt worden sei. Erstens faßt Kim Erklärung eher subjektivistisch oder idealistisch auf, während Kausalität von ihm realistisch gesehen wird. Stegmüller hingegen bevorzugt den realistischen Erklärungsbegriff. Zweitens läßt Stegmüller keinen Aspekt des relativistischen (oder instrumentellen) Realismus für ontologische Erklärungen gelten, während Kim der relativistischen vor der absolut realen Kausalität den Vorzug gibt, ein Standpunkt, der schon früher von Lenk (1971; 1972) zur Pragmatisierung und damit technologischen Nutzung von Erklärungsargumenten entwickelt worden ist. Zurück zum zweiten Einwand gegen die Gleichsetzung von Diagnose und Erklärung. Wenn es keine Parallelität zwischen Kausalität und Erklärungsgründen gibt, muß man explanatorisch relevanten Faktoren, damit sie im screening-off-Modell als kausal relevante gelten können, extern eine spezielle Ordnungsstruktur zuschreiben. Diese Struktur ist festgelegt durch Irreflexivität, Transitivität und Asymmetrie. Die Externalität ergibt sich ggf. bereits aus dem Rückgriff auf Zeitverhältnisse, die nicht durch die jeweils thematische Theorie gegeben sind (Sayre 1977). Doch damit ist auch eine Schwäche des screening-off-Modells deutlich. Aus sich heraus gibt es nämlich keine Kriterien für eine (zeitunabhängige) Identifizierung der Kausalrelation und Kausalitätsrichtung an. Es kann aufgrund des statistischen Zusammenhangs nicht entschieden werden, was als Ursache und was als Wirkung zu gelten hat, denn statistische Relevanz ist im Gegensatz zu kausaler Relevanz symmetrisch. Dieses Problem ist in den Sozialwissenschaften und in der Pädagogik wohlbekannt, wie ein Vergleich des Salmon-Modells mit Scheinkorrelationen verdeutlicht. Eine der Grundannahmen, weshalb Salmon der Auffassung ist, ein völlig neues Erklärungsmodell vorgelegt zu haben, bezieht sich auf die Größe der Wahrscheinlichkeitswerte. Während Hempel (1977) statistische Erklärungen als Argumente der Form p(G,F)

=r

F(a) ====(r)

G(a) mit r nahe bei 1 auffaßt, wobei das Explanans dem Kriterium maximaler Spezifität relativ zu der gegebenen Wissenssituation zu genügen hat, läßt es Salmon zu, daß Erklärungen keine hohen Wahrscheinlichkeitswerte über Ereignisklassen erfordern. Dies ist für Sozial- und Erziehungswissenschaftler insofern interessant (Turner 1982), als sie überwiegend Beziehungen hand-

42

B. Anwendbarkeit pädagogischer Forschungsergebnisse

haben, die niedrige Wahrscheinlichkeiten involvieren. Salmon definiert statistische Relevanz als genau den Fall, in dem sich die Wahrscheinlichkeit des gemeinsamen Eintretens zweier Ereignisse von dem Produkt der Wahrscheinlichkeiten des individuellen Vorkommens beider Ereignisse unterscheidet: p(A A B) =p(A) · p(B). Als Merkmal der Kausalität greift Salmon u.a. auf die screening-off-Relation zurück. Ein Faktor muß, wenn er ein Kausalfaktor ist, andere Ereignisse abschirmen, so daß die bedingte Wahrscheinlichkeit für den Kausalfaktor und das gemeinsame Auftreten zweier Ereignisse gleich dem Produkt der bedingten Wahrscheinlichkeiten für den Kausalfaktor und die einzelnen Ereignisse ist: p(CIA A B) =p(CIA) . p(CIB)

Allerdings muß man hier im Hinblick auf die Identifizierung der Kausalrelation folgendes feststellen: Die Bestimmung des abschirmenden Faktors als Kausalfaktor bleibt problematisch. Abschirmung ist zwar notwendige, aber nicht hinreichende Bedingung für Kausalität. Insofern kann der abschirmende Faktor auch eine intervenierende Variable oder eine allgemeine Konsequenz sein (Turner 1982, 196). Es bedarf, um die Kausalität zu begründen, der Festsetzung einer kausalen Priorität, und diese kann man nur aufgrund erklärungsunabhängiger Argumente stützen. Es bedarf weiterhin einer Limitierung der Liste alternativer Kausalfaktoren für die Aufstellung eines Salmonschen Erklärungsargumentes, etwa in der Art, wie sie die Sirnonsehe Annahme erzielt, daß die Fehlerterme nicht mit einander korreliert sind (Simon 1954, 472). In all diesen Umständen ist die sozial- und erziehungswissenschaftliche Betrachtung kausaler Abhängigkeiten dem Salmon-Ansatz zum Teil voraus. Das "zum Teil" soll besonders hervorgehoben werden, weil Salmon die Schwierigkeiten umgeht, indem er eine Kontinuitätsbedingung für den Verursachungsprozeß einführt. Durch diese Bedingung ist es möglich, kausale Priorität, intervenierende Variablen und Konsequenzen zeitabhängig zu identifizieren. Dabei darf jedoch nicht übersehen werden, daß die Kontinuitätsbedingung sehr stark ist. Wie Turner (1982) hervorhebt, gibt es z.B. bei der Erklärung abweichenden Verhaltens bisher keine Möglichkeit zur Berücksichtigung einer Kontinuitätsbedingung. Dies gilt auch für pfadanalytische Ansätze (vgl. z.B. Opp 1974) oder für LISREL-fundierte (Jöreskog/van Thillo 1973) in diesem Bereich. Und ähnlich dürfte es mit Bezug auf die meisten anderen sozial- und erziehungswissenschaftliehen Theorien aussehen. Den Überschuß an Lösungspotential für das Kausalitätsproblem, den die Behandlung von Scheinkorrelationen gegenüber dem screening-off-Modell erbracht hat, kann man bereits durch die Betrachtung einer frühen SimonStudie (Simon 1954) deutlich machen. Eine Korrelation heißt Scheinkorrelation, wenn eine Variable existiert, so daß die Korrelationsbeziehung

IV. Diagnostische Funktionen der Anwendung

43

zwischen zwei Variablen durch die Beziehungen zu dieser vorhergehenden kausalen Variablen erklärt werden kann. Hat man etwa für Variablen X und Y den KorrelationskoeMzienten p xr berechnet, und ist p xr signifikant größer Null, dann liegt es nahe, etwas über evtl. bestehende Kausalverhältnisse in Erfahrung zu bringen. Wenn zu vermuten ist, daß eine zusätzliche Variable Z von Bedeutung sein könnte, kann man die Partialkorrelation p xr.z zwischen X und Y bei konstantem Z berechnen. Sollte p xr.z einen Wert gleich Null annehmen und sollte dies für die Korrelation nullter-Ordnung p xr nicht der Fall sein, liegt eine der folgenden Situationen vor (Ziegler 1972, 124):

Situation n.

Situation L Abb. 2: Der Drittfaktor

Z

als intervenierende Variable (Situation 1.)

und als gemeinsame Ursache (Situation li.)

Wie man sieht, ist gerade in der Unterscheidung von Situation I. und II. der Grund dafür zu suchen, weshalb der Beweis für screening-off nicht unmittelbar Beweis für eine kausale Beziehung sein kann. Ohne Zusatzannahmen ist eine Entscheidung zwischen I. und II. nicht legitimierbar. Die Scheinkorrelation, wie sie in Situation II. zwischen X und Y gegeben ist, setzt identifizierbare Kausalität voraus. Scheinkorrelationen sind damit strenger am Kausalitätskonzept orientiert als screening-off-Relationen, da letztere auch Situationen vom Typ I. zulassen. Screening-off-Beweise allein können also in Sozial- und Erziehungswissenschaften, wenn sie auf korrelative Zusammenhänge gestützt werden, nicht zur vollständigen Aufdeckung von Scheinkorrelationen angewandt werden. Zwei kurze Anmerkungen sind notwendig: (1) Die screening-off-Relation ist als Wahrscheinlichkeitsbeziehung formuliert. Wie kann man diese mit dem Parameter "Korrelationskoeffizient" in Verbindung bringen, damit die bisherige Argumentation stichhaltig ist? Korrelation und Partialkorrelation geben keine Wahrscheinlichkeiten an, sondern lediglich Maße für die Kovariabilität zweierVariablen und für die Güte der Approximation der zwei- oder mehrdimensionalen Verteilung der Werte zweier (oder mehrerer) Zufallsva-

44

B. Anwendbarkeit pädagogischer Forschungsergebnisse

riablen durch eine Gerade. Man kann aber folgendes zeigen (Fisz 1980, 112 ff.), wobei auf den zweidimensionalen Fall eingeschränkt wird: Das Quadrat der Korrelation p xr ist genau dann gleich 1, wenn die Wahrscheinlichkeit dafür, daß zwischen X und Y eine lineare Beziehung besteht, ebenfalls gleich 1 ist: P(Y = aX +b) = 1, wenn P~r = 1. Liegt zwischen X und Y keine lineare Beziehung vor, so ist die Wahrscheinlichkeit für diese Beziehung kleiner 1 und der Absolutbetrag der Korrelation ebenfalls: < 1 (Renyi 1977, 99).

!Pxrl

Bei Unabhängigkeit von X und Y ebenso wie bei nichtlinearer Abhängigkeit wird p xr = 0. (2) Lühmann (1984, 72) hat den Begriff der Scheinkorrelation oder unechten Korrelation kritisiert. Eine Korrelation wird als echt bezeichnet, wenn der erklärende Drittfaktor asymmetrisch mit den Variablen X und Y verbunden ist (Zeisel 1970, 136). Dies entspricht der Situation I. mit dem Drittfaktor als intervenierende Variable. Eine Korrelation heißt hingegen unecht, wenn die Relation zwischen dem Drittfaktor und X und Y symmetrisch ist (ebd.), was der Situation II. entspricht. Lühmann meint, daß die Zutreffendheit, Echtheit oder der Sinn einer Korrelation nichts mit der Parameterkennzeichnung zu tun haben, sondern nur mit dem Zusammenhang zwischen Parameter und theoretischer Modellvorstellung. Dies ist völlig korrekt. Man kann eine Korrelation nullter Ordnung zwischen X und Y nur dann als Scheinkorrelation nachweisen, wenn man entweder die Faktoren (einschließlich des Drittfaktors) einzeln experimentell kontrolliert und wenn die Koeffizientenmatrix dann Dr~iecksgestalt annimmt oder wenn man a priori-Annahmen einführt und die Koeffizientenmatrix die Identifikation der Situation II. erlaubt. A priori-Annahmen und die Anlage des Experiments sind aber theorieabhängig und keinesfalls aus dem Datenmaterial über X und Y zu gewinnen. Insofern ist die Gefahr beliebiger Exhaustion gegeben oder, wie Lühmann es ausdrückt, die Gefahr, theoriekonforme Korrelationen als echte und theorienonkonforme als unechte Korrelationen einzustufen (Lühmann 1984, 72). Dann aber muß man mit Lühmann fragen, ob der Korrelationskoeffizient überhaupt eine adäquate Teststatistik für den Zusammenhang von X und Y darstellt. Der Vorteil der Sirnonsehen Analyse gegenüber der von Salmon für die Sozial- und Erziehungswissenschaften besteht darin, daß sie explizit angegeben hat, an welchen Punkten a priori-Annahmen ins Spiel kommen und wie man ggf. durch experimentelles Vorgehen zu mehr und zutreffenderen Informationen über die Abhängigkeit der korrelierten Variablen kommt. Dies ist zwar nicht viel, weist jedoch darauf hin, daß Salmon erstens die Probleme, die mit der screening-off-Relation gestellt sind, nicht in dem Umfang in An-

IV. Diagnostische Funktionen der Anwendung

45

griff nahm, wie dies Sirnon bereits vor ihm getan hatte und daß zweitens die fehlende Lösung der von Sirnon aufgedeckten Probleme bei der statistischen Kausalanalyse ein Indiz dafür sein könnte, daß ohne theoretisch begründete Kontinuitätsannahme das Modell der statistischen Erklärung für sozialwissenschaftliche Zwecke überhaupt ungeeignet ist (Auch Papineau 1979 scheitert an derselben Stelle wie Sirnon und Salmon, trotz seines Versuches, die Nachteile beider Ansätze zu vermeiden und ihre Vorteile zu nutzen.) Etwas deutlicher werden die Schwächen des Salmonschen Ansatzes, wenn man die Fälle multipler Verursachung, kausaler Interdependenz und komplexer kausaler Strukturen betrachtet. Salmon knüpft an Reichenbachs Prinzip der gemeinsamen Ursache (Reichenbach 1956, § 19) an, das - in Salmons (1977, 21) Worten - besagt: "Wenn gleichzeitige Ereignisse mit einer Wahrscheinlichkeit stattfinden, die das Produkt ihrer Einzelwahrscheinlichkeiten übertrifft, dann sagt das Prinzip, daß solche Koinzidenzen mit Hilfe einer vorhergehenden gemeinsamen Ursache zu erklären sind." Die darin enthaltene Wahrscheinlichkeitsbeziehung war oben als statistische Relevanz festgelegt worden. Das Prinzip geht aber insofern über diese Relevanz hinaus, als es epistemologische Aspekte mit einbezieht. Kausalerkenntnis sollte dem Reichenbachsehen Prinzip folgend davon ausgehen, daß es immer vernünftiger ist, bei Vorliegen von statistischer Relevanz zwischen zwei Ereignissen einen gemeinsamen kausalen Drittfaktor anzunehmen, als nach anderen Erklärungen für die Koinzidenz der Ereignisse zu suchen. Simons (1954, 567) Bedingung, nur dann etwas über Verursachungen erfahren zu wollen, wenn die Korrelation zwischen zwei Ereignissen signifikant von Null verschieden ist, wird durch Reichenbachs Prinzip verschärft, allerdings, wie ich oben bereits ausgeführt habe, zu unrecht, solange es nur auf dem Fundament der statistischen Relevanz ruht.

Situation m

Situation IV.

Y und X (Situation 111.) Y und X (Situation IV.)

Abb. 3: Direkte Beziehung und teilweise Scheinbeziehung zwischen sowie direkte und indirekte Beziehung zwischen

Die Durchsichtigkeit und Suggestivität des Reichenbach-Prinzips verliert sich sofort, wenn (zeitunabhängig betrachtet) Ereignisstrukturen kausale Interdependenz aufweisen (vgl. Abb. 3; auch Hummell/Ziegler 1976, E 15). In

46

B. Anwendbarkeit pädagogischer Forschungsergebnisse

Situation III. wird X multipel verursacht, und zwar durch die direkte Beziehung zwischen Y und X sowie durch die Scheinbeziehung, die Z als Verursacher von X und Y ausweist. In Situation IV. besteht die multiple Verursachung aus der direkten Beziehung zwischen Y und X über die intervenierende Variable Z . Während Situation III. nur in dem Punkt vom Reichenbach-Prinzip abweicht, daß die Korrelation zwischen X und Y nicht nur auf eine Verursachung durch einen Drittfaktor hindeutet, zeigt Situation IV. deutlich die Grenzen des Prinzips. Die Korrelation zwischen X und Y weist auf keine gemeinsame Ursache hin. Zieht man die screening-off-Relation und das Reichenbach-Prinzip zusammen, um eine Grundlage für die Identifizierung kausaler Abhängigkeiten zu formulieren, dann liegt Salmans (1975) zusätzliche Annahme nahe, daß Einflüsse der zum Erklärungsereignis näher liegenden Kausalfaktoren die Einflüsse entfernterer Kausalfaktoren absorbieren. Betrachtet man daraufhin jedoch komplexe Kausalstrukturen, wie sie etwa in Theorien abweichenden Verhaltens verwendet oder zur Erklärung schulischer Lernerfolge aufgestellt werden, muß man zu dem Schluß kommen, daß sozialwissenschaftliche Theorien Prinzipien proximativer Kausalität nicht berücksichtigen. Lediglich die durch komplexe Kausalstrukturen sich erhöhende Wahrscheinlichkeit für das Auftreten abweichenden Verhaltens oder von Lernerfolg entspricht Salmansehen Grundannahmen. Ob jedoch vollständig im Sinne einer Zerlegung der Kausalfaktorenmenge in objektiv homogene Referenzklassen (Salmon 1977 a), muß aufgrundder Turnersehen Analyse (1982) infrage gestellt werden. Wenn aber Homogenität nicht gewährleistet ist, fehlt eine wichtige Bedingung für screening-off mit minimalem Informationsaufwand (Meixner 1979) und damit die Voraussetzung für das Schließen der Liste von relevanten Kausalfaktoren. Hinzu tritt, daß völlig unklar ist, wie nichtkontinuierliche Prozesse die Wirkung der Kausalfaktoren vermitteln und aggregieren. Wie kombinieren sich Kausalfaktoren im Hinblick auf ihren Effekt (Turner 1982, 199)? Die fehlende Kombinationsregel und die Unabgesichertheit der Referenzklasse gegen Scheinbeziehungen begrenzt offenbar deutlich die Anwendbarkeit des Salmansehen Modells in Erziehungs- und Sozialwissenschaften. Schließlich gelangt man zu einem ähnlichen Ergebnis, wenn man Fälle multipler Verursachung betrachtet. Schulischer Lernerfolg kann durch sehr viele Dinge beeinflußt sein: Genetische Ausstattung, rechtzeitiges und gründliches Training für die Entwicklung und Verfeinerung mentaler Organe (ein Aspekt, der von Chomsky 1981 zentral hervorgehoben wird), Erwerb mentaler Operatoren und Operatorprogramme, Erwerb von Daten (Wissen), Einflüsse durch das Elternhaus, Geschwisterreihenfolge, Wohnort und Wohnlage, Sozialisationsbedingungen außerhalb des Elternhauses, Einflüsse durch Leh-

IV. Diagnostische Funktionen der Anwendung

47

rer usw. Es gibt, verfolgt man das Salmansehe Ziel einer statistischen Einzelfallanalyse, allerdings keinen Mechanismus per se, der hier eine automatische Auswahl von jeweils relevanten Kausalfaktoren gewährleistet. Turner (1982), der einen relativ strikten Individualismus vertritt, führt das Fehlen des Auswahlmechanismus auf Probleme der wissenschaftlichen Erklärung menschlichen Handeins generell zurück. Seiner Meinung nach werden Kausalprozesse beim Menschen in allen sozialwissenschaftlich interessanten Bereichen dadurch modifiziert, gefiltert und ggf. auch neutralisiert, daß sie vor ihrem Wirksamwerden durch die Kognition und den mentalen Verarbeitungsapparat geschleust werden. Das involviert den Zusammenbruch klassisch-physikalischer Kausalitätskonzepte mit raumzeitlichem Bezugsrahmen (und einen bedenkenswerten Einwand gegen Kontinuitätsbedingungen). Hinzu tritt im Fall multipler Verursachung besonders das Listenproblem für die Relevanzklasse. Turners (1982, 201) Argument gegen die prinzipielle Möglichkeit der Bildung homogener Referenzklassen für jeden Fall von Kausalität in den Sozialwissenschaften greift auf den theoretischen Ansatz von Clark (1973) zurück. Clark analysiert Strukturen staatlicher Macht und ihren politischen Ertrag, und er führt dazu mehrere hundert Variablen ein, die für den Ertrag statistisch relevant sind. Wie sollte in einem solchen Fall die Partitionierung der Referenzklasse wohl erfolgen? Und selbst wenn dieses Problem gelöst wäre, liegt nicht gerade in Salmans Betonung minimaler statistischer Relevanzunterschiede die eigentliche Crux? Je länger die Liste von Kausalfaktoren, umso weniger tragen diese zur aufgeklärten Varianz bei und umso mehr vergrößert sich die Möglichkeit dafür, daß Redundanz zwischen den Faktoren auftritt. Obwohl die Einwände gegen das Salmansehe Erklärungsmodell hier nicht vollständig wiedergegeben worden sind (vgl. für weitere solche Einwände Sayre 1977; 1978; Shrader 1978; Meixner 1979; Levy 1982), kann man doch davon ausgehen, daß das Modell verbesserungsbedürftig ist und wegen seiner Schwächen als Grundlage für eine rationale Diagnostik ungeeignet erscheint. Die zwei Einwände gegen die Gleichsetzung "Diagnose = Erklärung" stützen in jedem Fall die Rössnersche Diagnostikkonzeption. 4. Diagnose, Verstehen und Inrerenzbildung

Aufgrund der bisherigen Analyse ist es zweckmäßig, diagnostische Funktionen der Anwendung sozialwissenschaftlicher Forschungsergebnisse von inferentiellen Funktionen abzutrennen. Zu welchen Problemen im Gegensatz dazu die Beibehaltung eines Diagnosebegriffs mit den Merkmalen Vergleichen, Bewerten und Inferieren führt, kann man van de Valls und Bolas' (1982, 65) entsprechender Hypothese entnehmen: Der Einfluß auf Organisa-

48

B. Anwendbarkeit pädagogischer Forschungsergebnisse

tionsentscheidungen ist in jedem Fall dann höher, wenn das Verständnis für die Bedingungen eines Problems und für seine aufrechterhaltenden Kräfte vergrößert wird. Mehrere Dinge fallen hier auf: Erstens fehlt der Technologieaspekt Sollte nicht der Einfluß dort am größten sein, wo das Verständnis für Handhabung, Einsatz und Erfolg von Interventionen am größten ist? Daß van de Vall und Bolas diesen Aspekt nicht ansprechen und untersuchen, liegt zum einen am untauglichen Diagnosebegriff und zum anderen an der Gleichsetzung von Kausalitätsverständnis und Technologieverständnis. Zweitens rekurrieren van de Vall und Bolas unvermittelt auf den Verstehensbegriff. Selbst wenn man die Analysen von Scriven (1975) und Kim (1981) wohlwollend als beachtet unterstellt, verwundert der atechnologische Rückzug vom kausalen Steuerungsdenken auf erklärendes Situationsverständnis. Drittens irritiert die Dominanz des Kausaldenkens unter der Themenstellung "diagnostische Funktionen". Völlig abgelöst von Vergleichs- und Bewertungsvorgängen werden von van de Vall und Bolas nur noch Verstehensleistungen und Ioterenzen berücksichtigt, ein Umstand, der zu der Beurteilung Anlaß gibt, daß van de Vall und Bolas diagnostische Funktionen unterschlagen haben und statt dessen Aspekte behandeln, die besser unter der Thematik "technologische Funktionen" zu betrachten gewesen wären. Die dürftigen Ergebnisse zu den diagnostischen Funktionen der Anwendung sozialwissenschaftlicher Resultate zeigen eine Schwierigkeit, der sich Soziotechnik und social policy research gegenübersehen. So bedenkenswert und unbedingt zu berücksichtigen der erfolgreiche Versuch ist, das Vermittlungsproblem zu lösen: "Wie können wissenschaftliche Ergebnisse dem Praktiker so präsentiert werden, daß sie sein berufliches Handeln beeinflussen können?", so unbefriedigend ist die Tatsache, daß Forschungsergebnisse fehlen, die gestützt auf eine Technologielehre gewonnen werden und die geeignet sind, Diagnostik und Intervention zu fundieren. Der Blick in die social policy research hat mit Bezug auf die krisenhafte Situation, in der sich die Pädagogik befindet, auf jeden Fall gezeigt, welche Wege zu beschreiten sind, um anwendbares Wissen, wenn es vorhanden ist, an Praktiker weiterzugeben, und zweifellos weist die Pädagogik auf diesem Gebiet Lücken auf. Was aber nicht von der Anleihe an die policy research erwartet werden darf, ist die Lösung des Technologieproblems: Welche Gebilde sind geeignet, erfolgreiches Handeln wissenschaftlich gesichert zu ermöglichen? Wie können diese Gebilde charakterisiert werden, und wie gelangt man zur Entdeckung solcher Gebilde? Die Diskussion um die geeignete Diagnostikkonzeption hat hier schon Einblicke vermittelt, wie kompliziert die Beantwortung dieser Fragen sein kann und wie sehr man gezwungen ist, präzise metatheoretische Grundlagen zu entwickeln, um brauchbare guidelines für die Beantwortung nutzen zu können.

N. Diagnostische Funktionen der Anwendung

49

Für eine ganze Reihe von Erziehungswissenschaftlern ist aber damit noch keineswegs angedeutet, ob die Logik der Forschung (Popper 1969) und die Logik der Praxis (Mill 1863) dabei unterschiedliche Rollen zu spielen haben oder ob gilt: Logik der Forschung als Logik der Praxis. Und wenn dies eine Rückbesinnung auf Grundlagenfragen darstellt, wie steht es denn mit dem Erkenntnis- und praktischen Wert pädagogischer Forschungsergebnisse?

4 Alisch

C. Der Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse und das Problem der metatheoretischen Fundierung erkenntnisorientierter Erziehungswissenschaft Das Shakespeare-Motto, nichts sei besser für die Praxis als eine gute Theorie, das von Lewin aktualisiert wurde, hat bis heute Auswirkungen. Immer wieder wird nach der Anwendbarkeit von Theorien gefragt, nach dem Theorie-Praxis-Verhältnis, nach der Entwicklung von Theorien zur Lösung praktischer Probleme etc. Als stillschweigende Voraussetzung scheint dabei merkwürdigerweise zu gelten, daß Theorien Gebilde sind, die wohlabgetrennt von Anwendungsaspekten entworfen werden. Theorien erfüllen danach primär Erkenntnisinteressen. Offenbar kann man es sich in der Wissenschaft jedoch gegenüber umfangreichen staatlichen und privatwirtschaftliehen Förderungen und Investitionen nicht leisten, Forschung nur zur Befriedigung von Erkenntnisinteressen zu betreiben. So thematisierte man u.a. das Relevanzproblem und das sogleich mit dem Unterton, relevant sei nur, was praktischem Handeln nützt.

I. Kognitiver und kultureller Nutzen erkenntnisorientierter Wissenschaft Sowohl kulturhistorisch betrachtet als auch mit Bezug auf die kognitive Ausstattung und Leistungsfähigkeit des Menschen ist das effektivitätsorientierte Relevanzdenken kurzatmig. Der Mensch sieht in der Erfüllung epistemologischer Aufgaben bereits im Alltag Wege zur Zufriedenheit und sinnvollen Auslastung des Lebens. Man hindere einen Menschen am Entwerfen und Testen von Hypothesen, am Finden von Erklärungen für Ereignisse, am Prognostizieren oder Retrodizieren, am Schlußfolgern und Klassifizieren, am Systematisieren und Extrapolieren. Der Mensch ist nicht lebensfähig und dies nicht etwa deshalb, weil er keine Handlungsrezepte, kein handlungstechnisches Wissen mehr besitzt, im Gegenteil: er verfügt ja nach wie vor darüber. Nicht lebensfähig ist er, weil das Mentale epistemologisch ausgelegt ist, weil die meisten mentalen Organe im Sinne von Chornsky (1981) Erkenntnisorgane sind. Die Psychologie hat auf solche Einsichten übrigens mit der Revi-

I. Kognitiver und kultureller Nutzen

51

sion ihrer Menschenbildannahmen reagiert (Groeben/Scheele 1977). Wenn man also die Relevanzproblematik unbedingt am Zweckdenken orientieren will, muß man berücksichtigen, daß Zwecke nicht nur instrumentell festgelegt werden können, sondern auch epistemologisch. Kulturhistorisch ist der Nachweis kurzatmigen Verwertungsdenkens im Hinblick auf wissenschaftliche Ergebnisse ebenfalls leicht zu erbringen. Lederman (1985) hat dazu beachtenswerte Überlegungen angestellt. Er betrachtet die Verwertungsproblemati_k aus dem Blickwinkel eines Wissenschaftlers, der fernab von Forschungsgebieten tätig ist, die technische Lösungen zeitigen, nämlich in der Hochenergiephysik. Seine Begriffswahl für die Kennzeichnung dieses Bereiches, den er als Teil der Grundlagenforschung betrachtet, ist allerdings nicht sehr gelungen. Als Grundlagenforschung wird nämlich nicht nur erkenntnisorientierte oder sog. reine Wissenschaft bezeichnet, sondern auch der Bereich technologisch orientierter Forschung, der zwar erkenntnisorientiert arbeitet, aber doch mit der Zielsetzung, technologisch verwertbares Wissen bereitzustellen (Agassi 1980). Ich werde im folgenden das, was Lederman Grundlagenforschung nennt, im Sinne von Alisch und Rössner (1978) als erkenntnisorientierte Wissenschaft bezeichnen. Lederman (1985, 30) geht zunächst davon aus, daß dieser Bereich der Wissenschaft primär kulturelle Leistungen hervorbringt. Ganz im Sinne der oben getroffenen Unterscheidung von instrumentellem und ideellem Nutzen läßt sich feststellen, daß erkenntnisorientierte Wissenschaft nützlich ist. Dies wird- historisch betrachtet- umso mehr offenbar, je größer die Zeitintervalle sind, die man einer Analyse zugrundelegt, um den Nutzen nachweisen zu können. Lederman hält den ideellen oder, wie er es ausdrückt: den kulturellen Nutzen für den bedeutendsten der erkenntnisorientierten Wissenschaft, aber auch für denjenigen, der "dem längsten und verwiekeisten Reifungsprozeß" (ebd.) unterliegt. Vielleicht muß man darin die Ursache dafür sehen, daß man so außerordentlich zurückhaltend auf diesen Nutzenaspekt verweist, wenn es gilt, forschungs- und wissenschaftspolitische Entscheidungen zu begründen oder zu beeinflussen. Vielleicht liegt ein Grund aber auch darin, daß der kulturelle Nutzen oft nur in philosophischen Konsequenzen offenbar wird oder in Änderungen der "Welt- und Selbstsicht" (Groeben/Scheele 1982) des Menschen. Wie dem auch sei, der gesellschaftspolitisch gering eingeschätzte kulturelle Nutzen dürfte eher geeignet sein, Tendenzen überwinden zu helfen, die uns die Primitivethik des instrumentellen Nutzens beschert hat, als die vehement geforderte unmittelbare Praxisrelevanz von Wissenschaft. Überdies ist auch nicht auszuschließen, daß kultureller Nutzen systemisch mehr zum erfolgreichen Funktionieren einer Gesellschaft beiträgt als instrumenteller Nutzen. Allerdings fällt es noch schwerer, hierfür Nachweise zu liefern. Die systemi4•

52

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

sehen Relationen und Effekte sind der linearen Vernunft des Menschen transzendent. Nicht umsonst scheitert man an der Aufgabe festzustellen, wie hoch der Anteil kulturellen Nutzensam Bruttosozialprodukt ist. Und nicht umsonst stoßen Soziologie und Psychologie zunehmend auf paradoxe Effekte problemlösenden und prosozialen Handelns, das linearem Systemdenken verpflichtet ist (vgl. z.B. Dörner et al.1983; Boudon 1979). Der politisch, wirtschaftlich, therapeutisch oder pädagogisch Handelnde überschaut in der Regel nur wenige Kausalzusammenhänge. Er glaubt, diese Zusammenhänge hätten linearen Charakter, seien also z. B. nicht für exponentiell beschreibbare Entwicklungsverläufe verantwortlich. Entsprechend ist sein Handeln ausgerichtet. Wenige Diskrepanzen werden erfaßt, die es aufzulösen gilt. Meist liegen kaum Kenntnisse über ihre Bedingtheit untereinander vor und schon gar keine über externe Störeinflüsse, über Nebenwirkungen des Handeins und über die neutralisierende Wirkung des Zusammenspiels der Handlungen bezüglich der positiv bewerteten Effekte einzelner Handlungen. Im pädagogischen Bereich ist die Bildungsreform dafür ein anschauliches Beispiel. Gutgemeinte Maßnahmen zur Gewährleistung z.B. von Chancengleichheit, die für sich genommen und isoliert betrachtet alle als vernünftig und rational vertretbar oder sogar notwendig erschienen, bewirkten doch systemisch Effekte, die der Realisierung von Chancengleichheit völlig entgegengerichtet waren (Boudon 1974). Unabhängig von diesen Schwierigkeiten meint Lederman (1985, 31), in Wissenschaftlerkreisen das Vorherrschen der Auffassung identifizieren zu können, daß der kulturelle Nutzen als der bedeutendste Nutzen der Wissenschaft anzusehen ist. Die erkenntnisorientierte Wissenschaft kommt den bereits erwähnten Bedürfnissen nach Aufklärung über den Standort entgegen, den wir in der Welt einnehmen. Sie befriedigt daneben Wünsche nach einheitlicher Naturbeschreibung und -erklärung. Blickt man zurück auf das, was in Wissenschafts- und Kulturgeschichte an großen, überdauernden Leistungen tradiert wird, ist man versucht, Lederman recht zu geben. Kaum eine technologische Leistung hat den Rang von Erkenntnissen wie die von Galilei, Newton und Einstein oder z.B. von Aristoteles' "Über die Seele" (1983) in der Psychologie. Erkenntnisse solcher Art vereinheitlichen die Welt- und Selbstsicht, und zwar über das Bewußtsein der Mitglieder einzelner Völker und Nationen hinaus. Lederman (1985, 32) schreibt der Idee von der Einheit der Wissenschaft deshalb sogar "eine große Triebkraft bei den Einheitsbestrebungen der Menschheit" zu. Unter den kulturellen Auswirkungen, die die erkenntnisorientierte Wissenschaft hat, müssen wohl besonders drei hervorgehoben werden. Erstens setzt sie Standards, die die Seriosität der Forschung bewahren helfen und vor allem Maßstäbe für die gesamte Wissenschaft prägen. Zweitens sorgt sie in zunehmendem Maße für das außerkünstlerische Wissensfundament, das an neue

II. Systematik der Wissenschaft

53

Generationen weitergegeben wird. Drittens bedingt ihre Anziehungskraft, daß das geistige Potential einer Gesellschaft zum Teil der Wissenschaft und dem wissenschaftlichen Fortschritt zugute kommt. All dies ist nicht durch Forschung zu erreichen, die an kurzfristigem Erfolg bei der Lösung drängender, gegenwärtiger Probleme orientiert ist. Doch abgesehen vom kulturellen Nutzen zeitigt die erkenntnisorientierte Wissenschaft mit einem zeitlichen lag von zehn bis dreißig Jahren gewöhnlich auch erhebliche technologische Erfolge und führt zu technischem Wandel (von Meyenn 1985). Ob man aber hierbei von Abfallprodukten, zufälligen Entdeckungen oder methodisch geleiteter Anwendung von Theorien sprechen kann, hängt zunächst erst einmal von einer geeigneten Systematik ab.

II. Systematik der Wissenschaft Traditionell dominiert die Dichotomisierung der Wissenschaft: Erkenntnisorientierte vs. effektivitätsorientierte, reine vs. angewandte Wissenschaft oder objektbezogen: Natur- vs. Geisteswissenschaft und methodologisch: qualitative vs. quantitative Forschung. Dichotomisierungen bieten allerdings nur Auswege in Situationen, in denen die Angabe von Merkmalen, ihre meßvorgangsabhängige Erfassung und theoretische Durchdringung über Elementares nicht hinauskommen. Man ist jedoch inzwischen, nach ca. 20-30jähriger technikphilosophischer Forschung in der Lage, etwas mehr zu differenzieren und mit der Differenzierung verträgliche theoretische Annahmen zu begründen (für einen hier sehr weitgehenden, wenn auch unter anderer wissenschaftsphilosophischer Perspektive ansetzenden Versuch vgl. Kedrow 1975). Unter Systematisierungsgesichtspunkten halte ich den Klassifikationsvorschlag von Agassi (1980) für brauchbar, wenn ich ihm auch im Hinblick auf metatheoretische Technologieprobleme wenig Lösungspotential zugestehe (vgl. Alisch 1985). Agassi unterscheidet drei Wissenschaftsbereiche: -Die reine Wissenschaft ist auf Erkenntnisgewinnung gerichtet, nicht auf die Produktion von Wissen, das technisch angewandt werden kann. Anwendungswissen wird nur beiläufig und zufällig gewonnen. -Die Grundlagenforschung ist im Gegensatz dazu effektivitätsorientiert. Allerdings verfährt sie methodologisch so wie die reine Wissenschaft, und ihre Erkenntnisse sind nicht praktischer, sondern theoretischer Natur. Die Effektivitätsorientiertheit schlägt sich in den Zielsetzungen nieder: Grundlagenforschung ist reine Wissenschaft, die zur Lösung von Anwendungsproblemen betrieben wird bzw. von der man sich anwendungsbezogen brauchbare Resultate erwartet.

54

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

-Die angewandte Forschung versucht, Anwendungsprobleme systematisch zu lösen. Doch ihr systematisches Vorgehen kann nicht verdecken, daß sie kaum theoriegeleitet vorgeht. Agassi spricht deshalb mit Bezug auf ihre Methodologie von "shots in the darkness". Wie immer bei solchen Klassifizierungen steht zunächst das Abgrenzungsproblem im Vordergrund. Obwohl Agassi dazu Ausführungen macht, z.B. daß reine Wissenschaft orientiert an Widerlegungsversuchen entwickelt wird und angewandte Forschung orientiert an Bestätigungen, nähert er sich doch dem Abgrenzungsproblem auf ungewöhnliche Art und Weise. Er meint nämlich, daß die Lösung dieses Problems, wenn man nur nach unterscheidenden Merkmalen der Wissenschaften sucht (z.B. über strukturelle Charakterisierungen ihrer Produkte), darauf hinausläuft, Medaillen zu verteilen: "Einstein ist ein guter Junge, Freud jedoch nicht" (Agassi 1980, 84). Die Abgrenzung ist für Agassi deshalb eher ein Nebenprodukt der Anwendung handlungsphilosophischer Konzepte zur Beantwortung der Fragen: Welches wissenschaftliche Ergebnis (z.B. welche Theorie) ist reliabel und warum ist es (sie) das? Welches Ergebnis (welche Theorie) ist anwendbar und warum? Da hier Agassis Handlungsphilosophie nicht im einzelnen nachgegangen werden soll, genügt folgender Hinweis: Man kann auf die Fragen eine Antwort geben, wenn man die wissenschaftlichen Ergebnisse auf ihren Gebrauch hin untersucht und die dazugehörigen Forschungsaktivitäten unter dem Aspekt ihrer Ziel- oder Zwecksetzungen. Den Zusammenhang zwischen Zielen und Gebrauch stellen gewöhnlich rationale Handlungen her, womit deutlich wird, daß wissenschaftliches Arbeiten Teil aller rationalen Handlungen ist. Untersucht man z.B. experimentelles Vorgehen auf verschiedene wissenschaftliche Zwecksetzungen hin, gelangt man gemäß der Wissenschaftssystematik von Agassi zu folgenden Abgrenzungen: -In der reinen Wissenschaft werden Experimente zum Zwecke der Prüfung von Theorien durchgeführt: -In der Grundlagenforschung setzt man Experimente zur Bestätigung einer technologisch nutzbaren Zusammenhangsannahme ein. -In der angewandten Forschung versucht man, technologische Probleme durch experimentelles trial-and-error-Vorgehen zu lösen. Eine entsprechende Betrachtung im Hinblick wissenschaftlicher Ergebnisse sieht wie folgt aus:

auf

den

Gebrauch

-Reine Wissenschaft produziert Ergebnisse, die zufriedenstellende Erklärungen für Ereignisse ermöglichen.

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

55

-Grundlagenforschungsergebnisse führen kurzfristig zu Erklärungen und kausalem Verständnis von Ereignissen und auf lange Sicht zu technologischen Anwendungen. -Angewandte Forschung produziert technologische Anwendungen. Legt man diese Ergebnisse der Agassischen Analyse zugrunde, dann muß man davon ausgehen, daß erkenntnisorientierte Wissenschaft technologische Erfolge nur zufällig erzielt. Praktische Anwendungen entsprechender Theorien sind lediglich Abfallprodukte erkenntnisorientierter Forschung.

111. Gibt es erkenntnisorientierte erziehungswissenschaftliche Forschung? Es liegt die Frage nahe, ob die Erziehungswissenschaft überhaupt erkenntnisorientierte Forschung betreibt, eine Frage, die noch zu Zeiten des ersten Erscheinens von Brezinkas "Von der Pädagogik zur Erziehungswissenschaft" (1971) undenkbar gewesen wäre. Brezinka adaptierte eine spezielle Variante des Kritischen Rationalismus für die Erziehungswissenschaft und baute diese Position durch Übernahme von Resultaten aus der allgemeinen Wissenschaftstheorie und analytischen Philosophie aus. Im Gegensatz (1) zu idealistischen Traditionen in der Erziehungswissenschaft, daß Erziehungswirklichkeit nur durch Bewußtseinsakte konstituiert und ausgelegt werden kann, oder aber (2) zu phänomenalistischen Abschwächungen, die den Wirklichkeitsstatus der Erziehung trotz der Prädominanz für Bewußtseinsakte nicht infrage stellen wollen, führt Brezinka die Erziehungswissenschaft zum Realismus zurück. Ob dies eine haltbare oder gar vorteilhafte Entwicklung gewesen ist, soll hier nicht diskutiert werden. Vielmehr sei das Augenmerk auf eine Besonderheit der Brezinkaschen Konzeption gerichtet. Brezinka beschreibt die Aufgabe der theoretischen Erziehungswissenschaft als Tatsachenerkenntnis. Darunter fallen vor allem kognitive Aktivitäten des Beschreibens, Erklärens und Vorhersagens. Völlig damit verträglich erscheint es Brezinka (1971, 40) aber auch, daß der harte Kern der Erziehungswissenschaft "in den Beiträgen zur Lösung von technologischen Problemen gesehen werden" kann. Zur Begründung führt Brezinka (1971, 85) an, daß "die logische Struktur der Lösung eines technologischen Problems ... ebenso wie die der Voraussage dem Modell der Erklärung sehr ähnlich" ist. Trotz dieser Auffassung kommt Brezinka allerdings zu einer völlig anderen Charakterisierung technologischer Argumente. Während Popper vorsichtig von technologischen Implikationen spricht, die aus bewährten Allaussagen durch tautologische Transformation gewonnen werden können und die Informationen darüber bieten, was bei Geltung der Allaussagen nicht realisiert werden kann, meint Brezinka, daß

56

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

"Situationsbedingungen und Instrumente, die zu ... gewünschten Konsequenzen, d.h. zum Eintreten des in der Zielsetzung beschriebenen Zustandes führen" (ebd.), aus Theorien direkt gefolgert werden können. "Rein logisch ist das Problem gelöst, wenn aus den Gesetzmäßigkeilen der Theorie und den Zielangaben die gesuchten Bedingungen" (ebd.) ableitbar sind. Gesetzmäßigkeilen sind für Brezinka (1971, 52) entweder deterministische oder statistische Konditionalsätze. Statistischen Gesetzen unterliegt dabei die Häufigkeitsinterpretation der Wahrscheinlichkeit, was es ermöglicht, daß Brezinka sie als "wenn-dann-immer-in-einem-bestimmten-Prozentsatz-Beziehung" (ebd.) wiedergibt. Übrigens unterscheidet er nicht zwischen statistischer und induktiver Wahrscheinlichkeit. Er schließt aus dem überwiegend statistischen Charakter sozialwissenschaftlicher Gesetze: "Das bedeutet, daß der Grad ihrer Bestätigung mehr oder weniger hoch ist" (Brezinka 1971, 53). Was Brezinka unter Zielangaben versteht, ist schwer zu rekonstruieren. Er stellt einen Zusammenhang zwischen Normen, Vorschriften, Zielen und Werturteilen her (Brezinka 1971, 67 f.), der wie folgt wiedergegeben werden kann: Normen sind Vorschriften. Normen formulieren Ziele und Bedingungen für ihre Erreichung. Die Bedingungen werden zu Vorschriften, wenn die Ziele gewollt werden. Die Geltung der Vorschriften hängt von der Geltung von Werturteilen ab. Durch die Werturteile wird Zielen Wert zugesprochen. - Es soll hier nicht geprüft werden, inwieweit diese Sätze logisch verträglich sind. Worauf es im Hinblick auf technologische Argumente ankommt ist, ob Zielangaben deskriptive Sätze oder Obligationen sind. Es scheint so zu sein, daß Ziele bei Brezinka als Deskription von Zuständen aufgefaßt werden können, die gewissermaßen den real möglichen Sachgehalt von Normen wiedergeben. Gestützt wird diese Deutung durch das Beispiel, das Brezinka (1971, 85) zur lllustration anführt. Dort faßt er intellektuelle Leistungstüchtigkeit als gegebenes Erziehungsziel auf. Man kann nun, unter Einbeziehung der Auffassungen zu Gesetzen, Zielangaben und der technologischen Argumentstruktur, bequem angeben, wie Brezinka sich technologische Verwendungen von Theorien denkt: Gegeben sei eine Theorie, die mindestens ein Gesetz enthält. Das Gesetz sei ein deterministischer Konditionalsatz. Ausgeschlossen sei eine mögliche Bikonditionalität des Gesetzes. Gegeben sei ferner ein Ziel. a sei eine Belegung für die Variable x. Px und Qx seien Prädikate. Das Gesetz behaupte für alle x, daß wenn Px, dann Qx. Der atomare Satz Qa gebe das Ziel an. Nach Brezinka sollten aus dem Gesetz und Qa die Herstellungsbedingungen für Qa folgen, mithin: Für alle x: Wenn Px, dann Qx und nun Qa, also Pa. Abgesehen davon, daß dieses Argument strukturell erheblich von Erklärungen (Qa und für alle x: Wenn Px, dann Qx und nun Pa, also Qa) und Voraussagen (Pa und für alle x: Wenn Px, dann Qx, also Qa) abweicht, ist es

ID. Erkenntnisorientierte erziehungswissenschaftliche Forschung

57

vor allen Dingen logisch falsch. Man muß deshalb einfach feststellen, daß Brezinkas Auffassung, alle tatsachenbezogene erziehungswissenschaftliche Forschung sei erkenntnisorientierte Forschung, unhaltbar ist wegen des logischen Auseinanderfallens von kognitiven und technologischen Funktionen der Wissenschaft. (Daß dies auch gilt, wenn statistische hypothetische Syllogismen betrachtet werden, haben Alisch und Rössner 1978, 94 ff. gezeigt.) Das von Brezinka nicht bemerkte Auseinanderfallen der Funktionen und die damit einhergehende Lücke im metatheoretischen Gebäude der Erziehungswissenschaft hat auch von Cube (1977, 76 ff .) registriert. Er wirft Brezinka vor, daß er den teleologischen Charakter technologischer Erziehungswissenschaft nicht genügend berücksichtigt hat. Die technologische Erkenntnis ist - hier kommt ein isotroper Kausalitätsgesichtspunkt ins Spiel -orientiert arn Verursacherprinzip eines noch nicht realisierten, gleichwohl die Auffindung seiner Bedingungen induzierenden Zielzustandes. Achinstein (1977, 342) beschreibt das als Zieldoktrin: Technologische Erziehungswissenschaft hat die Funktion (innerhalb des Erziehungssysterns), Mittel für die Erreichung von Zuständen bereitzustellen, die noch nicht in der Erziehungswirklichkeit realisiert sind. Die technologische Erziehungswissenschaft erfüllt diese Funktion nur dann, wenn sie innerhalb des Erziehungssystems tatsächlich die Mittel produziert und wenn die Produktion dazu beiträgt, die nichtrealisierten Zustände, falls sie als Ziel festgelegt werden, zu erreichen. 1. Ein Unmöglichkeitsbeweis für erkenntnisorientierte Erziehungswissenschaft

Neben der Zieldoktrin führt von Cube gegen Brezinka ein weiteres Argument an, das ich das Möglichkeitsargument des metaphysischen Realismus nennen möchte: Es besagt, daß "die in der Wirklichkeit vorfindbaren Strategien sicher nur eine Untermenge der möglichen Strategien darstellen" (von Cube 1977, 78). Bei diesem Argument wird unterstellt, daß eine intensionale Charakterisierung der Menge aller möglichen erziehungswissenschaftliehen Strategien gegeben werden kann, die als intendierte Modellmenge technologischer Erziehungswissenschaften zu betrachten ist. Faktische Elemente dieser Menge sind alle vorliegenden, deskriptiv erlaßbaren Strategien. Fiktive Elemente sind dagegen alle die Strategien, für die ein ausreichend hoher Wert der Zugehörigkeitsfunktion zur Menge (= allgerneine Elernentschaftsbeziehung) angegeben werden kann, ohne daß die Elemente faktisch realisiert sind. Wenn das Möglichkeitsargument zutrifft, dann kommt den fiktiven Elementen ein ontologischer Status zu, der verträglich ist mit einer realistischen Ontologie. Das bedeutet, daß Brezinkas Einschränkung des erziehungswissenschaftliehen Gegenstandes auf faktisch Feststellbares entweder zu konservativ ist und um die Teilmenge der fiktiven Elemente zu erweitern wäre oder daß

58

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

er angemessen ist, aber die Erziehungswirklichkeit transzendiert, was zur Folge hätte, daß die Brezinkasche Konzeption von Erziehungswissenschaft zu revidieren wäre. Hinzu tritt eine genuin technologische Überlegung: Erzieherische Strategien unterscheiden sich nach ihrer Güte. Diese ist nicht nur auf kausale Effektivität oder Mitteleffizienz eingeschränkt, sondern umfaßt weitere Dimensionen (vgl. Alisch/Rössner 1978; Alisch 1981), weshalb von Cube (1977, 78) vorbringt, "daß die Optimalität einer Strategie durch die Untersuchung der Erziehungswirklichkeit allein nicht festgestellt werden kann." Mithin fallen der Anspruch auf Tatsachenerkenntnis der Erziehungswirklichkeit und der Anspruch auf Erkenntnis zum Zwecke der Lösung technologischer Probleme auseinander. Beschreiben, Erklären und Vorhersagen steuern nicht zur Gütefeststellung von Technologien bei, was in irgendeinem Sinne vollständiges und ausreichendes Wissen darstellen könnte. Das letzte Argument, das von Cube gegen Brezinka vorbringt, ist nicht ohne kritische Überlegungen wiederzugeben. Zunächst geht von Cube davon aus, daß über die Erziehungswirklichkeit in einem ersten forschenden Zugriff nur singuläre Aussagen getätigt werden können. Der Übergang zu allgemeinen Aussagen scheint ihm dann wie folgt vollziehbar: Entweder stellt man die Behauptung auf, zwischen einer Strategie und einem Ziel gebe es relativ zu einer Teilpopulation einen generellen Zusammenhang, "oder man trifft die Feststellung, daß diese Strategie in der oder jener Bevölkerungsgruppe angewandt wird" (von Cube 1977, 79). Im ersten Fall ist die allgemeine Aussage technologischer Natur, im zweiten Fall soziologischer. Von Cube schließt daraus, daß es keine erkenntnisorientierte Erziehungswissenschaft geben kann. Die verblüffende Stichhaltigkeit dieses Unmöglichkeitsbeweises für erkenntnisorientierte Erziehungswissenschaft wird eingeschränkt, wenn man einige Aspekte genauer betrachtet. Die Annahme, singuläre Aussagen stünden am Anfang jeder erziehungswissenschaftliehen Forschung, kommt einer Setzung, keiner Tatsache gleich. Brezinka würde auf relativ einfache Weise replizieren können: Erstens gibt es keinen logischen Grund dafür anzunehmen, eine allgerneine Annahme könne nicht Ausgangspunkt für Forschung sein. Zweitens muß man den Forschungsvorgang "Gewinnen einer singulären Aussage - Aufstellen einer allgemeinen Behauptung" deutlich abgrenzen vom Vorgang "Prüfen der Behauptung". Die Abgrenzung unterscheidet einen Bereich der Rechtfertigung solcher Sätze. Die Gewinnung ist nicht immer methodisch, weshalb es unzweckmäßig erscheint, ihr (es sei denn, als rationale Heuristik) einen wissenschaftlichen Status einzuräumen, wohingegen die Rechtfertigung immer wissenschaftliches Vorgehen beinhaltet. Eine weitere Erwiderung, die Brezinka formulieren könnte, sei nur am Rande erwähnt. Als Beispiel für eine singuläre Aussage bietet von Cube (1977,

ID. Erkenntnisorientierte erziehungswissenschaftliche Forschung

59

78) eine Aussage mit folgender Struktur an: In einem unbeschränkten RaumZeit-Gebiet (= der Erziehungswirklichkeit) gibt es mindestens ein x (einen Erziehungswissenschaftler), für das gilt: Es ist möglich, daß x feststellt: Für alle z, die Element von Z sind (für alle Ziele einer bestimmten Art) gibt es mindestens ein s (eine Strategie), durch das z "angesteuert und (weitgehend) erreicht wird" (von Cube 1977, 78), und s ist Element von S (der Strategienmenge mit den Merkmalen Lohn und Strafe). Die Singularität bezieht sich in dieser Aussage auf den Erziehungswissenschaftler und nicht auf einen Sachverhalt in der Erziehungswirklichkeit, der mit Erziehern etwas zu tun hat. Die Teilaussage, die Erziehen thematisiert, ist eine Möglichkeitsaussage, was zwar nach dem Möglichkeitsargument des metaphysischen Realismus zulässig ist, doch im Beispielsatz nicht auf eine Singuläraussage, sondern auf einen Allsatz führt. Brezinka könnte also darauf verweisen, daß von Cube selbst den Einstieg in den Forschungsprozeß über singuläre Aussagen nicht allzu ernst nimmt. Ist mit der Unterscheidung von Entdeckungs- und Rechtfertigungszusammenhang, die oben mit den Begriffen "Gewinnung" und "Rechtfertigung" bereits angedeutet wurde, eine Reichenbachsehe Position für Brezinka herangezogen worden (vgl. Reichenbach 1977, 340), so dürfte eine andere gegen ihn sprechen. Brezinka wird sicher von Cubes Induktionsvorgehen als außerwissenschaftlich zurückweisen. Die Frage jedoch, welche Methode wissenschaftlich korrektem Vorgehen entspricht, ist nicht nur eine Sache gesetzter Zweckmäßigkeit. Man kann versuchen, Argumente und ggf. auch Beweise dafür zu erbringen, daß ein Vorgehen logisch möglich bzw. unmöglich oder effizienter, ein Ziel besser anstrebender ist als ein anderes. Reichenbach (1983) vertritt die Auffassung, daß es nicht möglich ist, zugleich den Phänomenalismus zurückweisen und Deduktivist bzw. Falsifikationist bleiben zu können. Wer die Trennung von Entdeckungs- und Begründungszusammenhang vollzieht, für den wird der psychische Ursprung wissenschaftlicher Begriffsbildung irrelevant. Interessant ist eigentlich nur, ob es eine Möglichkeit gibt, mit Hilfe solcher Begriffe aufgebaute Theorien zu verifizieren oder zu falsifizieren. Dabei ist besonders zu beachten, daß Theorienprüfungen nur endliche Folgen von Prüfdaten und -instanzen hervorbringen. Angesichts einer Vielzahl von evtl. wirksamen Fehlerquellen im Meß- und Untersuchungsdesignbereich erscheint es deshalb sinnvoll, Theorienprüfungen als Wahrscheinlichkeitsfolgen von Testereignissen aufzufassen. Dies allerdings führt zwangsläufig zu einem Verifikationistischen und induktivistischen Standpunkt. Bevor ich hierzu weiteres erläutere, kann bereits festgestellt werden, daß es zur Vermeidung erkenntnistheoretischer Widersprüche für Brezinka wichtig gewesen wäre, entweder auf den dekuktivistischen Falsifikationismus zu verzichten oder auf die Unterscheidung von Entdeckungs- und Begründungszusammenhang. Beides zugleich zu reklamieren, ist erkenntnisthe-

60

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

oretisch nicht aufrechtzuerhalten. Der Verzicht allerdings auf einen der beiden Standpunkte schwächt Brezinkas Position gegenüber von Cubes Unmöglichkeitsbeweis entscheidend. 2. Die Grenzen des deduktivistischen Rationale

Argumente gegen Poppers (und damit auch Brezinkas) deduktivistisches Rationale sind vielfältig vorgebracht worden. Als interessant im vorliegenden Zusammenhang berücksichtige ich jedoch nur diejenigen, die mit den Auffassungen Reichenbachs kompatibel bleiben, weil mir die Reichenbachsehe Konzeption einen brauchbaren Hintergrund für von Cubes Argumente zu liefern scheint. Mithin stützen Popper-Kritiken, die auf Reichenbach aufbauen, Einwände gegen Brezinkas Wissenschaftslehre. Ob damit generell von Cubes Unmöglichkeitsbeweis abgesichert werden kann, ist allerdings fraglich. Unter den Popper-Kritikern nimmt Grünbaum m.E. eine herausragende Stellung ein. Um mit einer Konsequenz aus seinen Arbeiten zu beginnen: Wie kann Poppers Auffassung Gültigkeit beanspruchen, daß "falsifiability is the touchstone of scientific rationality, to the exclusion of inductive Supportability?" (Grünbaum 1976, 250). Diese Frage ist keine Ausgangsfrage, sondern eine angesichts der Last der Gegenargumente gegen Popper nur noch rhetorisch gemeinte Abschlußfrage. In der Tat hat Grünbaum (vgl. auch 1976 a; 1976b) eine ganze Reihe von Aspekten herausgearbeitet, die dem deduktivistischen Rationale einen Induktivismus Bayesianischer Provenienz zumindest gleichberechtigt an die Seite stellen lassen. Ich bin der Meinung, daß dieser Induktivismus sogar einige Vorteile bietet, doch ergeben sie sich mehr aufgrund praktischer Erfordernisse. Das ist in unserem Zusammenhang eine besonders interessante Konsequenz: Das deduktivistische Rationale, in die Pädagogik eingeführt, um erkenntnisorientierte Wissenschaft zu ermöglichen, scheitert an induktivistischen Einwänden, die überwiegend handlungspraktisch motiviert sind. Sollte von Cube mit seinem Unmöglichkeitsbeweis doch recht haben? Um den Unterschied zwischen theoretisch und praktisch motivierten Argumenten etwas zu verdeutlichen, kann auf eine nützliche Formulierung zurückgegriffen werden, die Stegmüller (1971) verwendet hat. Das Humesche Induktionsproblem gibt es nicht mehr. Vielmehr existieren zwei Nachfolgerprobleme, eines im Bereich der theoretischen und eines im Bereich der praktischen Vernunft (ebd., 5. 14). Das theoretische Problem besteht darin, die Angemessenheil des deduktivistischen Rationale nachzuweisen, insbesondere über die Einführung eines geeigneten Bewährungsbegriffes (corroboration), der Idee der Wahrheitsannäherung (versimilitude) und eines Konzeptes des Wahrheitsgehaltes. Demgegenüber hat das praktische Problem mit der krite-

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

61

rienbezogenen Beurteilung von wissenschaftlichen Hypothesen (aus dem Bereich erkenntnisorientierter Wissenschaft) nichts zu tun. Die Idee einer entsprechenden induktiven Logik gilt Stegmüller als gescheitert. Weder kommt Wahrscheinlichkeitshypothesen, ebenso wie deterministischen Hypothesen, eine Hypothesenwahrscheinlichkeit zu, noch ist es möglich - jedenfalls mit den Mitteln Camaps - eine Theorie der partiellen Implikation aufzubauen, gewissermaßen einefuzzy-Logikder Bestätigung. Vielmehr beziehen sich Carnaps Entwürfe auf die Entwicklung einer rationalen Entscheidungstheorie (Risikoentscheidungen), genauer: auf die logische Fundierung dieser normativen Theorie. Da die Theorie vom Wettgedanken ausgeht, es aber im Hinblick auf erkenntnisorientiert gewonnene Hypothesen keine Wetten geben kann, denn es gibt keine Verluste bei Falschheit der Hypothesen, wendet sich die Carnapsche Lösung des Rumeschen Nachfolgerproblems von der theoretischen Hypothesenbeurteilung ab und hin zum Problem praktischen Handeins und technologischer Wissenschaft. a) Zur Wahrscheinlichkeit von Hypothesen und zur Möglichkeit des Induktivismus Zwei Dinge müssen hier einer genaueren Betrachtung unterzogen werden: (l) die fundamentale Annahme, die Wahrscheinlichkeit von Hypothesen sei immer gleich Null und (2) die Frage, ob die Idee einer partiellen Implikation mit den Mitteln der fuzzy-Theorie nicht doch lösbar sein könnte, womit Carnaps Programm auf die erkenntnisorientierte Wissenschaft zurückführbar wäre, allerdings ggf. in einem nicht-wahrscheinlichkeitstheoretischen Sinn. Daß beide Problembereiche zum Zentrum der methodologischen Diskussion in der Erziehungswissenschaft zu rechnen sind, sei hier nur mit dem Verweis auf Auseinandersetzungen über den Nutzen von Metaanalysen erwähnt (vgl. Slavin 1984; 1984 a; Carlberg et al. 1984). Zu (1): Popper unterscheidet Hypothesen- und Ereigniswahrscheinlichkeit (Popper 1969, 201 f.). Die Ereigniswahrscheinlichkeit wird gewöhnlich auf die Häufigkeitsinterpretation zurückgeführt und stellt das Verhältnis von Ereignissen der Art Bi zu einer Ereignisfolge A dar:

pn (A, B;) = Y,:

L Bi0A, d. h. pn

ist die Häufigkeit, mit der Bi unter den Der Ausdruck

n

Elementen der Folge A auftaucht.

Bi0A kürzt dabei hier die Bi in der Folge A ab. Die Hypothesenwahrscheinlichkeit wurde lange Zeit als separat zur Ereigniswahrscheinlichkeit festlegbar betrachtet. Ebenso gab es aber auch Versuche, beide Wahrscheinlichkeiten

62

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

aufeinander zu beziehen und sie sogar als Fälle zu betrachten, die die Kotmogoroff-Axiome erfüllen. Popper (1969, 202) gibt die traditionelle Reichenbachsehe Deutung (vgl. Reichenbach 1930) zunächst wie folgt wieder: "Die Wahrscheinlichkeit innerhalb eines Alternativs kann also statt als relative Häufigkeit eines Merkmals als die (relative) Wahrheitshäufigkeit von Sätzen innerhalb einer Satzfolge interpretiert werden". Wichtig ist hier der Ausdruck "Wahrheitshäufigkeit von Sätzen", auch "Aussagenwahrscheinlichkeit'' genannt. Für eine Folge von nur einem Satz ist diese Wahrscheinlichkeit entweder 0 oder 1 und damit gleich dem Wahrheitswert des Satzes. Wahrheit erweist sich als Sonderfall der Wahrscheinlichkeit. Definiert man Operationen mit Wahrheitshäufigkeiten entsprechend den Operationen einer zweiwertigen Logik, so gelangt man zu einer Verallgemeinerung derselben in Form einer Wahrscheinlichkeitslogik. Popper stellt dieser Wahrscheinlichkeitslogik eine für ihn entscheidende Frage: Ist die Hypothesenwahrscheinlichkeit mit der Aussagenwahrscheinlichkeit identifizierbar, und kann es dementsprechende induktive Bestätigungen für Hypothesen und Theorien geben? Er verneint diese Frage (Popper 1969, 203, Anm. * 2). Hypothesenwahrscheinlichkeit ist nicht durch Wahrheitshäufigkeit interpretierbar. Jede durch relative Häufigkeiten festgelegte Wahrscheinlichkeit sollte als Ereigniswahrscheinlichkeit aufgefaßt werden. Obwohl die Aussagenwahrscheinlichkeit eine logische Interpretation des Wahrscheinlichkeitskalküls bietet, ist die Hypothesenwahrscheinlichkeit keiner ihrer Spezialfälle. (Zur Beachtung: Interpretationen des formalen Wahrscheinlichkeitskalküls sind keine Wahrheitshäufigkeiten.) Zur Begründung seiner Auffassung führt Popper (1969, 203f.) an: Die Hypothesenwalirscheinlichkeit kann nichts mit der Ereigniswahrscheinlichkeit zu tun haben, weil eine Aussage darüber, wie wahrscheinlich eine Hypothese ist, "unter keinen Umständen in eine Aussage über eine Ereigniswahrscheinlichkeit umgeformt werden" (Popper 1969, 203) kann. Betrachtet man etwa eine Hypothese als Satzfolge, d.h. aus Sätzen bestehend, die einer Behauptung widersprechen oder entsprechen, so hätte eine Hypothese Popper zufolge gemäß ihrer Wahrheitshäufigkeit eine Wahrscheinlichkeit von 112, wenn ihr jeder zweite Satz widerspräche. Da bereits bei Falsifikation durch einen widersprechenden Satz die Hypothese einen Wahrscheinlichkeitswert von Null hat, ist die Auffassung der 0.50-Hypothesenwahrscheinlichkeit unsinnig. Auch der Ausweg über Schätzungen bei unklaren Häufigkeitsverhältnissen führt nicht weiter, da für Schätzungen empirische Ergebnisse einzubeziehen sind, die im Falle nur eines widersprechenden Satzes wieder auf eine NullWahrscheinlichkeit der Hypothese führen. Es bleibt daneben noch die Deutung, daß eine Schätzung auf hypothesenentsprechende und indifferente Sätze

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

63

gegründet wird. In erziehungswissenschaftliehen Metaanalysen ist ein ähnlicher Fall z.B. dann gegeben, wenn die Festlegung von Signifikanzniveaus nicht als Akzeptanzkriterium für Hypothesen relativ zu gegebenen Daten theoretisch fundiert ist, also eher einer willkürlichen Setzung gleichkommt. Welchen Status haben dann Untersuchungsergebnisse, die nicht signifikant sind? Man wird mindestens davon ausgehen müssen, daß der Überprüfungsvorgang für die entsprechenden Hypothesen indifferent ausgegangen ist. Aber dann entfernt man sich vom Konzept der Wahrheitshäufigkeit (weil ja keine widersprechenden Instanzen in den Quotienten eingehen), und - dies ist zumindest für Popper sehr bedeutsam - man begibt sich in die Gefahr der Subjektivierung der W ahrheitshäufigkeit. Ein ganz anderer und fundamentaler Einwand entsteht aus der Kritik an der Hypothesendarstellung als Satzfolge. Diese Darstellung konstruiert die Folge aus singulären Basissätzen. Hypothesen haben in ihrem Behauptungsbereich nach Popper allerdings den Charakter von Allsätzen, aus denen keine Basissätze gefolgert werden können, sondern nur Instantialsätze, so daß die Hypothesenwahrscheinlichkeit einer entsprechenden Satzfolge immer gleich 1 ist, egal wieviel falsifizierende Instanzen für die Hypothese aufgetreten sind. Das ergibt sich aus dem Umstand, daß Instantialsätze mit unendlich vielen Situationen verträglich sind und so zur Verifikation der Hypothese beitragen, und zwar in einem Verhältnis zu den Falsifikationen, das gemäß den Überlegungen zur Wahrheitshäufigkeit immer zum Wert Eins führt. All diese Gründe bewegen Popper - wie bereits erwähnt - dazu, die Identität von Ereignis- und Hypothesenwahrscheinlichkeit abzulehnen. Eine Konsequenz der Ablehnung besteht darin, daß sowohl deterministische als auch probabilistische Gesetze immer nur bewährt, niemals aber wahrscheinlich sein können. Dazu muß für probabilistische Gesetze Falsifizierbarkeit vorausgesetzt werden. Popper ist der Überzeugung, daß kein Induktionsansatz über eine solche Voraussetzung verfügt, was bedeutet, daß Verifikationismus und Induktivismus mit der Rolle probabilistischer Gesetze in der Wissenschaft überhaupt nichts anzufangen wissen, weil sie die Gesetze nur als metaphysische Behauptungen (vgl. Popper 1969, 208) behandeln. Es leuchtet unmittelbar ein, daß Poppers Auffassungen starke Stützen für das deduktivistische Rationale bieten und nur dadurch zu erschüttern sind, daß die logische Möglichkeit des Induktivismus bewiesen wird. Dazu ist es notwendig, Poppers Bewährungsbegriff zu betrachten: "Die Bewährung ist keine Hypothese, sondern aus (der Theorie und) den anerkannten Basissätzen ableitbar: sie stellt fest, daß diese der Theorie nicht widersprechen - und zwar unter Berücksichtigung des Prüfbarkeitsgrades der Theorie sowie der Strenge der Prüfungen, denen diese (bis zu einem bestimmten Zeitpunkt) unterworfen wurde" (Popper 1969, 211). Und: "Über den Grad der Bewährung entscheidet

64

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

also nicht so sehr die Anzahl der bewährenden Fälle, als vielmehr die Strenge der Prüfung, der der betreffende Satz unterworfen werden kann und unterworfen wurde" (ebd., 213; Hervorh. im Orig.). Eine Prüfung ist genau dann streng, wenn eine Bestätigung der Theorie aus einer risikovollen Vorhersage resultiert, d.h. wenn ohne die infrage stehende Hypothese zu erwarten wäre, daß ein mit ihr inkompatibles Ereignis eintritt (Popper 1972, 36). Dies kann man auch so formulieren: Risikoreiche Vorhersagen falscher Theorien scheitern eher als nicht risikoreiche. Je kühner eine Theorie ist, desto größer ist ihre Wahrheitsnähe, denn die kühnere Theorie ist jeweils auch die stärkere Theorie, die mit dem größeren Gehalt. Grünbaum (1976 b) stellt hier zurecht die Frage nach dem Zusammenhang von deduktivistischem Rationale und risikoreichen Vorhersagen bzw. ernsthaften Prüfungen der Theorie. Einige Ergebnisse seiner Analysen mögen genügen, um zu zeigen, daß deduktiv kein ernsthafter Test ein aussichtsreicherer Kandidat für die Elimination von falschen Theorien ist als eine weniger ernsthafte Prüfung. Dazu zunächst ein paar begriffliche Präliminarien: Wann kann man eine Bestätigungsmetatheorie dem deduktivistischen Rationale zuordnen? Diese Frage ist unter Rückgriff auf eine geeignete Bestätigungsrelation beantwortbar, die man so einführt, daß in der Definition nur Begriffe der deduktiven Logik verwendet werden (Stegmüller 1971, 33). Das könnte etwa wie folgt aussehen: Es sei T eine Theorie und B eine Menge akzeptierter Basissätze. Im Poppersehen Sinne wäre in B zu unterscheiden nach zwei elementenfremden Äquivalenzklassen, von denen die eine, ich nenne sie H, das relevante Hintergrundwissen enthält und die andere, mit S benannt, Basissätze zur Fundierung ernsthafter Prüfungen enthält. Ich lasse das Problem außer acht, inwieweit es gerechtfertigt ist, S ohne nähere Kennzeichnung des Begriffes "ernsthaft" als gegeben anzunehmen. Ebenso übergehe ich, ob es zweckmäßiger ist, nicht-ernsthafte Prüfungen, die unternommen wurden und zur vorläufigen Beibehaltung von T, also nicht zu ihrer Widerlegung, geführt haben, als separate dritte Äquivalenzklasse zu betrachten. Ich behandle sie als Elemente von H. Die Unterscheidung von B und H ist deshalb notwendig, weil kein Element von B aus T allein gefolgert werden kann. Aus T sind nur Instantialsätze zu gewinnen. T und H bilden allerdings eine Grundlage für die Ableitung von S. Man kann nun definieren (vgl. den Vorschlag von Käsbauer, zit. nach Stegmüller 1971, 32): B ist deduktive Bestätigung von T gdw (1) TuB mindestens ein Modell hat und (2) für HundS gilt: H u S =B; Tu H ~ S; S :t:. 0 . Ist es nun richtig, mit Popper (1972, 112) anzunehmen, daß ernsthafte Prüfungen falsche Theorien eher zu eliminieren gestatten als nicht-ernsthafte Prüfungen (man kann hier auch sagen: daß Falsifikationsversuche dies eher leisten als Verifikationen)? Wendet man die deduktivistische Haltung konsequent an, ergibt sich folgende Situation:

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

65

-Aus zu T konkurrierenden, schon bekannten Theorien kann mit Hilfe von Anfangsbedingungen vorhergesagt werden, daß ein s e S nicht eintritt, wenn man ein entsprechend angelegtes Experiment durchführt. Genauer: ältere Theorien sagen im Gegensatz zu T entweder das Eintreten eines zu s konträren Ergebnisses des Experimentes voraus, oder es gibt keine Ausgangsbedingungen, unter denen aus älteren Theorien eine Vorhersage aufs deduktiv ableitbar wäre. In diesem Sinne kann s, relativ zu dem Vorwissen, als risikoreiche Vorhersage von T aufgefaßt werden. -Fällt das Experiment so aus, daß s zutrifft, dann ist damit natürlich deduktiv nichts über die Wahrheit von T zu erschließen (Grünbaum 1976 b, 107). Was folgt, ist, daß die Elemente der Menge D der paarweise disjunkten Hypothesen, die s individuell einschließen, als wahr ausgewiesen sind. Dies ist eine wesentlich schwächere Bewahrheitung. Da s zugleich Element von D ist, ergibt sich, daß für jedes wahre Element von D unendlich viele falsche Elemente existieren, die paarweise mit s inkompatibel sind und ebenso inkompatibel mit dem Hintergrundwissen. Dennoch sagen die Theorien, die die falschen Elemente abzuleiten gestatten, s nicht weniger gut voraus als T. Deduktivistisch betrachtet kann man also nur feststellen, daß T zu einer unendlichen Menge von Theorien gehört, die Vorhersagen über Elemente von D gestatten und die inkompatibel mit den bekannten älteren Theorien sind. Wenn der Deduktivist nun T nicht als wahre Theorie aus unendlich vielen falschen durch ernsthafte Prüfungen selegieren kann, gelingt es ihm dann wenigstens, die Erwartung zu begründen, daß etwas zu s Konträres aus einem entsprechenden Experiment resultieren muß, sofern T falsch ist? Wie wichtig diese Begründung für das deduktivistische Rationale zu sein scheint, macht Popper (1973, 32) deutlich: "Der grundlegende Unterschied zwischen meinem Ansatz und demjenigen, den ich schon vor langer Zeit 'induktivistisch' genannt habe, ist meine Betonung der negativen Argumente wie Gegenbeispiele, Widerlegungen, Widerlegungsversuche - kurz: Kritik -, während der Induktivist den Nachdruck auf die positiven Fälle legt, aus denen er 'nicht-deduktive Schlüsse' zieht und von denen er sich eine Garantie der 'Verläßlichkeit' dieser Schlüsse verspricht". Wieallerdings Grünbaum (1976, 217) nachwies, hat schon Bacon in seinem Novum Organum zwischen bloß positiven und stützenden Instanzen einer Theorie unterschieden, wobei stützende Instanzen positive sind, die sich von anderen positiven Instanzen dadurch abgrenzen lassen, daß ihr Evidenzwert ihnen ein Vorrecht einzuräumen gestattet. Damit verläßt Bacon den Boden der Lehre von der Induktion qua Enumeration, was zusätzlich dadurch verstärkt wird, daß er negativen Instanzen ein höheres Maß an Widerlegungskraft zuweist. J.S.Mill geht über Bacon noch einen Schritt hinaus, wenn es ihm um die Abschätzung der Güte einer Kausalhypothese geht. Er fordert kontrollierte 5 Alisch

66

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

Experimente, um festzustellen, ob positive Instanzen die Signifikanz stützender Instanzen haben. Damit überwindet er die sog. instantiation condition des lnduktivismus, d. h. die Doktrin, jeder positive Fall für eine Hypothese sei automatisch auch graduell die Hypothese stützend. Nach dieser Doktrin ist das Entscheidende die Anzahl positiver Instanzen für die Bestätigung einer Hypothese und nicht ihr relatives Gewicht. Grünbaum (1976, 219) bemerkt zurecht, daß die Doktrin dann allerdings Glaubwürdigkeitsgrade für Hypothesen so auffaßt, daß sie keine Wahrscheinlichkeiten sein könnten, denn entweder würde die Glaubwürdigkeit sich bei hinreichend großer Zahl von positiven Instanzen über 1 aufsummieren oder der Glaubwürdigkeitsgrad jeder Hypothese müßte so gering sein, daß er praktisch wertlos wäre, weil er nur infinitesimal zur Gesamtglaubwürdigkeit der Hypothese beitragen könnte. Wenn man Mill im angegebenen Sinne folgt, dann gibt es keinen Grund, bloßen Wiederholungen von positiv ausgefallenen Experimenten vergleichbare Glaubwürdigkeitswerte zuzuschreiben wie jenen positiven Instanzen für eine Kausalhypothese, die zugleich rivalisierende Hypothesen zurückzuweisen gestatten. Mill hält es geradezu für ein Kennzeichen des unwissenschaftlich Erkennenden, daß er zuviel Wert auf die Anzahl positiver Instanzen legt, ohne sie im einzelnen zu analysieren. Nur die positiven Instanzen, die zur Elimination von Antezedenzien führen, die in allen anderen Fällen der Prüfung infragestehender Hypothesen berücksichtigt werden mußten, sind stützende Instanzen. Offenbar gibt es also seit Bacon und Mill eine induktivistische Tradition, die sich durchaus nicht der Poppersehen Begründung für die Überlegenheit des Deduktivismus zu beugen braucht. Grünbaum (1976, 219) faßt diese Tradition übersichtlich zusammen: -Sie weist auf den bedeutsamen Unterschied zwischen dem genus proximum positiver Instanzen für eine Hypothese und der differentia spezifica stützender Instanzen hin, die dazu verwendet werden können, rivalisierende Hypothesen auszusondern. -Sie überwindet die instantiation condition dadurch, daß sie nicht jede positive Instanz automatisch als stützende wertet. -Sie betrachtet positive Instanzen dann als stützende Instanzen, wenn durch sie der Grad der Glaubwürdigkeit einer Hypothese erhöht werden kann, selbst wenn der gesamte Umfang verfügbarer stützender Evidenz nicht ausreichen sollte, um die Hypothese für eher wahr als falsch auszuweisen. Nur dem letzten Aspekt kommt das Merkmal "induktivistisch" zu. Die ersten beiden Merkmale sind durchaus mit Poppers Auffassungen verträglich. Und so ist es auch nicht gerechtfertigt, allen induktivistischen Bacon-Nachfolgern vorzuwerfen, sie betrachteten jede positive Instanz, gleich welcher

ID. Erkenntnisorientierte erziehungswissenschaftliche Forschung

67

Art, als signifikant stützend. Der moderne Induktivismus geht sogar noch einen Schritt weiter (vgl. Grünbaum 1976, 221), indem er folgenden Grundsatz aufstellt: Die Fähigkeit einer Theorie, bestimmte Ereignisse deduktiv vorherzusagen oder zu erklären (natürlich unter Berücksichtigung gegebener Anfangsbedingungen), ist generell nur eine notwendige und keine hinreichende Kondition dafür, daß diese Ereignisse als stützende Instanzen betrachtet werden könnten und nicht lediglich als positive Instanzen. Betrachtet man diesen Grundsatz und die zuvor geschilderten Ergebnisse zusammen mit dem Umstand, daß die Theorie T im Prüfungsfall nicht mehr sein kann, als eine Theorie unter unendlich vielen, die s vorhersagen, dann kann nicht einmal die oben erwähnte Erwartung begründet werden, daß bei Falschheit von T etwas zu s Konträres eintreten muß. Denn daß T zur Menge der Theorien gehört, die s vorhersagen, kann immer nur darüber festgestellt werden, daß die Vorhersage auf s mit älteren Theorien und Teilen des Hintergrundwissens inkompatibel ist (sonst handelt es sich nicht um einen ernsthaften Test) und diese Abgrenzung von T zu falschen Theorien rechtfertigt deduktiv nicht, daß T bei Auftreten von s zutreffend sein muß. Es läßt sich deduktiv nicht zeigen, daß -,s nur dann zu erwarten ist, wenn T falsch ist bzw. daß s nicht erwartet werden kann, es sei denn, T sei wahr. Wegen der unendlich vielen anderen Theorien zu D, die s vorhersagen, ist über die Wahrheit von T und über entsprechenddarangeknüpfte Erwartungen deduktiv überhaupt nichts auszusagen. j

Wie sieht es nun damit aus, daß ernsthafte Prüfungen eher zur Elimination falscher Theorien führen sollen? Popper (1972) stellt die Behauptung auf, daß ernsthafte Prüfungen mit höherer Wahrscheinlichkeit falsche Theorien scheitern lassen als andere Tests. Das soll vor allem daran liegen, daß Theorien nicht durch bloße Anwendungen geprüft werden, sondern durch Anwendungen auf sehr spezielle Fälle, eben auf solche, deren Resultate deutlich von unseren Erwartungen abweichen, die wir ohne dieinfragestehende Theorie hätten. Diese Fälle entsprechen dem, was man ein experimentum crucis nennt, "in which we should expect the theory to fail if it is not true" (Popper 1972, 112). Mit der Formulierung "if it is not true" begibt sich Popper allerdings wieder in den Bereich, der deduktivistisch nicht abzudecken ist. Keine falsche Theorie scheitert an jedem relativ zu der Theorie möglichen Experiment. Ein Nichtscheitern aber bedeutet auf keinen Fall, daß die Theorie wahr ist. Überdies stellt ein Test, wenn er abhängig vom Hintergrundwissen zum Zeitpunkt t als ernsthafter Test gilt, nicht per se auch einen ernsthaften Test für die Theorie dar. Der Test kann Teile der Theorie prüfen, aus denen Unerwartetes vorhergesagt werden kann und die dennoch wegen der Kompatibilität mit oder gar wegen der Stützung durch den Test für eine Kritik völlig harmlos sind. Genau genommen gibt es für Theorien überhaupt keine ernsthaften Tests, sondern nur für die Tester. Wenn ein Experiment zu Effekten führt, die der

68

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

Theorie nicht widersprechen, dann ist es harmlos. Widerspricht das Ergebnis des Experimentes jedoch der Theorie, dann kann man das Experiment nicht mehr als ernsthaften Test bezeichnen, sondern nur noch als tödlichen. Lediglich die subjektive Unsicherheit, mit der ein Tester relativ zu seinem Hintergrundwissen den Ausgang eines Experimentes betrachtet, weist es als harmlos oder ernsthaft aus. So wird aus einem gescheiterten ernsthaften Test ein harmloser, wenn er wiederholt wird, ein Ergebnis übrigens, das angesichts der Bedeutung von experimentellen Replikationen eher kurios anmutet. Anscheinend verläßt Popper mit dem Begriff der "ernsthaften Prüfung" den Boden des Objektivismus; zumindest aber wirft der Rekurs auf das Hintergrundwissen die Frage auf, ob bei der Abschätzung der Ernsthaftigkeit nicht induktive Überlegungen an Bedeutung gewinnen. Diese Frage steht in engem Zusammenhang mit der Eigenschaft des Deduktivismus, Prognosen gerechtfertigt aufstellen zu können und Erklärungen zu liefern. Bevor ich auf die Frage eine diesbezügliche Antwort geben werde, bleibt noch zu zeigen, daß ein induktives Vorgehen wie das der Bayesianer dazu in der Lage ist, ernsthafte Tests in dergleichen Weise zu handhaben, wie das Popper dem deduktivistischen Rationale folgend tut. Ausgangspunkt war oben die Überlegung, daß dem deduktivistischen Rationale der Ausschließlichkeits- und damit Überlegenheitsanspruch nur dadurch streitig zu machen ist, daß die prinzipielle Möglichkeit des Induktivismus gezeigt wird. Dazu wurden Poppers Bewährungsbegriff herausgearbeitet und die Beziehung zu ernsthaften Prüfungen herausgestellt. Außerdem wurde belegt, daß lnduktivisten zwischen positiven und stützenden Instanzen unterscheiden. Es kann nun folgender Fall betrachtet werden (vgl. Grünbaum 1976 b, 109): H sei wieder das Hintergrundwissen. ~ sei ein generelles Gesetz, das in der Theorie T enthalten ist. Aus der Konjunktion von H und ~ sei deduktiv das Testereignis E vorhersagbar. Schließlich sei angenommen, E trete tatsächlich auf und würde in dem Sinne als risikoreiche Vorhersage gelten, als es bezüglich H einen neuen Tatbestand darstellt. Logisch soll E zu H nicht konträr, sondern nur von H deduktiv unabhängig sein. Popper (1972, 390) drückt dies so aus, daß die bedingte Wahrscheinlichkeit für E aufgrund von H und ~ eins ist (p(EIH,~) = 1), während die Ernsthaftigkeit des Tests relativ zu E umso größer ausfällt, je unwahrscheinlicher relativ zu H das Ereignis E ist (p(EIH) < l). p(EIH) wird also in jedem Fall definiert sein, obwohl mit zunehmender Ernsthaftigkeit der Prüfung nur gering von Null abweichend. Es ergibt sich für das Bayes-Theorem: (l)p(GTIH A E) == p(GTIH). p(EIH A GT)/ p(EIH) =(p(0IH) · p(EIH A0)): :(p(0IH)· p(EIH A0)+ p(-,0IH)· p(EIH A-,0)

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

69

Nach Poppers Voraussetzung gilt: p(EIH 1\ G ) = 1, also: (2)p(Gr1H 1\ E)

=p(GrJH)j p(EIH)

= p(GriH)/ p(GriH) + p(-.Gr

IH) ·p(EIH

1\

-.Gr)

Der Bayesianer hätte nun zu zeigen, daß er mit ernsthaften Prüfungen Gr genau dann stützt, wenn Gr wahr ist. Dies reduziert sich darauf nachzuweisen, daß E sehr unwahrscheinlich sein müßte, sofern Gr nicht wahr wäre. Da eine brauchbare neue Gesetzesannahme nach Popper den Charakter einer kühnen Hypothese haben sollte, kann p(CJ.rfH) als sehr gering angenommen werden, allerdings von Null verschieden. Grünbaum (1976 b, 109) schlägt vor, daß p(CJ.riH) 11100 und p(-.CJ.riH) 99/100. Die Voraussetzung einer risikoreichen Prüfung geht in einen niedrigen Wert von p(EIH) ein. Nach Gleichung (2) ist p(CJ.riH) < p(EIH), es sei denn, daß p(CJ.riH 1\ E) = 1. Aber diesen Extremfall kann man hier im Beispiel außer acht lassen. Gesetzt sei, daß p(EIH) = 1/50 = 2p(CJ.riH). Aus Gleichung (3) p(EIH) = p(GTIH) + p(--, CJ.riH) · p(EICJ.r 1\ H) folgt, daß p(EI-.CJ.r 1\ H) = 1/99. Damit ist gezeigt, daß ein Bayesianer tatsächlich einen Zusammenhang zwischen der niedrigen Erwartungswahrscheinlichkeit für E und der Ernsthaftigkeit der Prüfung herstellen kann. Interessant ist nun außerdem, daß trotz dieser niedrigen Erwartungswahrscheinlichkeit nach (2) P(CJ.riH 1\ E) = Y2 ist. Auch wenn also die potentielle Falschheit von Gr das Ereignis E sehr unwahrscheinlich sein läßt, führt das tatsächliche Eintreten von E nicht dazu, daß die Wahrheit von Gr wahrscheinlicher wird als ihre Falschheit. Wie Grünbaum (1976 b, 110) herausstellt, zeigt dies folgendes: Popper konnte mit seinem deduktivistischen Rationale nicht plausibel machen, daß p(EIH 1\ -.CJ.r) ; - MP ist eine Klasse potentieller Modelle; - M ist eine Klasse von Modellen für M P; - MPP ist die Klasse der partiellen Modelle bzgl. M P und M; - Q ist eine Querverbindung für M P; -I~ MPP;

- die Strukturen in I erfassen die intendierten Anwendungen für K. Mehrere Aspekte sind hier im Unterschied zum Standardverfahren (1) hervorhebbar: Zur Theorie gehören sowohl formale Modelle als auch spezielle Strukturen, die empirische Modelle erfassen (die allerdings aus technischen Gründen nicht Modelle, sondern intendierte Anwendungen genannt werden). Wichtig ist, daß intendierte Anwendungen über die sie erfassenden Strukturen aus I nicht der Theorie separat zugeordnet werden (so, wie die Interpretation dem Axiomensystem nach dem Standardverfahren (1)). Sie sind vielmehr Bestandteil der Theorie, wodurch sich der strukturalistische Theoriebegriff deutlich vom rein strukturtheoretischen unterscheidet. Ein solcher Unterschied entsteht auch durch die Zugehörigkeit formaler Modelle zur Theorie, wohingegen in der Strukturtheorie Modelle semantische Interpretationen liefern. Schließlich ist die Einführung potentieller Modelle als Abweichung vom strukturtheoretischen Vorgehen zu nennen. Was sind potentielle Modelle? Wenn man einen Begriffsapparat entwickelt und anschließend darauf aufbauend einen begrifflichen Rahmen für eine Theorie schafft, indem man die grundsätzlich zulässige Art der Relationsbildung

118

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

zwischen den Begriffen spezifiziert, etwa in Form der Festlegung des Typs einer Relation, dann erzeugt man eine Struktur, die alle möglichen Objekte erfaßt, deren Relativ die Struktur erfüllt. Solch eine Struktur nennt man ein potentielles Modell. Die Menge der Modelle wird gewöhnlich durch die Beziehung M ~ MP festgelegt. Inhaltlich unterscheidet sich ein Modell von einem potentiellen Modell durch zusätzliche qualitative Annahmen bezüglich einiger Relationen. Diese Annahmen werden durch die empirischen (nicht-mathematischen) Axiome der Theorie eingeführt. Alle Objekte, die die Struktur potentieller Modelle aufweisen und die empirischen Axiome erfüllen, gelten als Modelle der Theorie. Allerdings können Modelle nicht mit empirischen Systemen identisch sein, denn die Erfüllung bezieht sich auch auf nicht theorieunabhängig meßbare Terme. Solche theoretischen Terme sind jedoch, wie im Zusammenhang mit Simons Diskussion des Theorienmerkmals ELIM bereits angesprochen, unter bestimmten Umständen logisch durch eine Reduktionsfunktion eliminierbar. Alle Objekte, die die Struktur von Redukten von Modellen erfüllen, sind partielle Modelle, und die, die die Struktur von Redukten von potentiellen Modellen erfüllen, sind partielle potentielle Modelle. Mit der Festlegung I ~ MPP werden nun die tatsächlichen empirischen Modelle ausgesondert, d.h. jene Relative, die durch Strukturen (ohne theoretische Terme) aus I erfaßbar sind. Wie dieses "Erfassen" im einzelnen aussieht, darauf gibt der Strukturalismus nur wenige Hinweise. "Das Problem besteht darin, einen Zusammenhang zwischen konkreten Systemen und 'theoretischen' Strukturen herzustellen. Wir nehmen im folgenden an, daß ein solcher Zusammenhang hergestellt werden kann. Ohne diese Annoahme hat es keinen Sinn, von empirischer Wissenschaft zu reden" (Balzer 1982, 288). Weiter wird unterstellt, "daß diese Verbindung schließlich den intendierten Anwendungen die Struktur partieller Modelle gibt" (ebd., 289), und es wird ausgeführt: "Wir können ... kein genaues Bild davon geben, wie man von realen Systemen zu partiellen Modellen gelangt" (ebd.). Alles in allem scheint man im Strukturalismus bei der Feststellung intendierter Anwendungen auf pragmatische Vorgehensweisen angewiesen zu sein, die methodisch als noch nicht präzise geregelt betrachtet werden müssen. Baizer verschiebt die damit involvierte Problematik auf die Ebene der Erkenntnistheorie, wodurch allerdings eine Lösung ebenso aussteht, als würde man auf die Verschiebung verzichten. Die Analyse einer Abbildungsbeziehung zwischen empirischem und theoretischem System lehnt Baizer mit dem Hinweis auf Konnotationen des Beschreibungsbegriffes ab. Ob das jedoch argumentativ ausreicht und ob der Begriff des Erfassens mehr Klarheit erbringt als der des Beschreibens, sei dahingestellt. Möglicherweise versperrt sich der Strukturalismus verschiedene Lösungswege bereits durch die verwendeten grundlegenden Begriffe.

Exkurs: Theorien und Modelle

119

Wenn eine Theorie definiert wird als geordnetes Paar und K durch das oben angeführte 5-Tupel, wie ist es dann möglich, MP als Klasse potentieller Modelle für eine Theorie (Balzer 1982, 275; Hervorhebung von mir) einzuführen? Man kann angesichts der idem-per-idem-Gefahr schwerlich MP festlegen unter Verwendung des Theoriebegriffs, wenn sich MP schließlich als nicht unabhängig vom Theoriebegriff erweist, MP also selbst Definitionsbestandteil des Theoriebegriffs ist. Mir scheint, daß der Strukturalismus bereits bei der eigentlich notwendigen begrifflichen Trennung von Theorien und Klassen von Modellen Chancen durch den Rekurs auf infonnelle mengensprachliche Rekonstruktionen verspielt hat. Durch die Rekonstruktionen werden semantische Aspekte mit syntaktischen verknüpft eingeführt, aber nicht zentral thematisiert. Die Balzersehen Definitionen geben oft als Definiendum einen semantisch charakterisierten Begriff an, der dann im Definiens mit syntaktischen Setzungen verbunden wird. Als Beispiel mag der Begriff der Klasse potentieller Modelle für eine Theorie dienen: ist eine solche Klasse gdw MP eine Klasse von Strukturen ist und wenn alle Strukturen in MP vom gleichen Typ sind.

!\\

Das Vorgehen von Baizer ist so lange unbedenklich, solange nur von den syntaktischen Merkmalen des neu eingeführten Begriffes Gebrauch gemacht wird bzw. solange die Bedeutung des neuen Begriffes nicht zu zirkulären Verwendungen führt. Im Falle von Modellen, partiellen Modellen und potentiellen Modellen scheint das jedoch nicht mehr gegeben zu sein. Modelle sind immer Modelle von oder Modelle für etwas. In der Modelltheorie wird z. B. erst ein Bereich festgelegt, etwa eine Menge von Ausdrücken, und dann erklärt, was ein Modell für diese Menge ist. Übertragen auf den strukturalistischen Theoriebegriff müßte zunächst gesagt werden, was eine Theorie ist, um dann MP für die Theorie definieren zu können. Dabei dürfte der Theoriebegriff nicht von vornherein an MP gebunden sein. So wie in der Modelltheorie eine Menge von Ausdrücken völlig unabhängig von ihren Modellen charakterisiert werden kann, so hätte man eine Festlegung des Theoriebegriffes unabhängig von MP etc. zu geben. Andernfalls steht man (neben der idem-peridem-Problematik) vor dem Problem, zeigen zu müssen, was es denn ist, das jene Strukturen gleichen Typs zu MP gehören läßt oder nicht. Im Prinzip gibt es im Stmkturalismus kein Anzeichen dafür, warum ~ nicht die Klasse aller nur möglichen Strukturen gleichen Typs sein sollte. Aber das wäre insofern kontraintuitiv, als die wissenschaftstheoretische Rekonstruktion einer Theorie immer MP-Strukturen gleichen Typs aus anderen Theorien vollständig mit zu berücksichten hätte. Als Ausweg bliebe ggf. die Einführung eines Bereiches, über dem die Strukturen aus MP gelten. Aber dieser Ausweg ist durch die infonnelle Axiomatisierung versperrt, denn er wäre nur beschreitbar, wenn der Bereich durch eine fonnale Sprache charakterisiert werden würde. Auch wenn der Bereich

120

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

als derjenige gekennzeichnet wäre, über den die Theorie etwas aussagt, hätte man nichts gewonnen, weil man das Problem lediglich aus den ~-Elementen auf den Bereich verschieben würde. Um zusammenzufassen, kann folgendes gesagt werden: Obwohl der Gedanke nicht uninteressant ist, Modelle mit in den Theoriebegriff einzubeziehen und dennoch an der Anwendung der informellen Mengentheorie festzuhalten, stößt man bald auf das Problem der Unabhängigkeit von Modell- und Theoriebegriff. Semantisch scheint es hier im Strukturalismus Schwierigkeiten zu geben. Auch ein Versuch zur Auszeichnung von ~-Elementen, die auf einen Bereich zu beziehen wären, über den die Theorie etwas aussagt, ist bisher nicht unternommen worden. Mir scheint sich diese Problematik auch auf die Menge intendierter Anwendungen auszuwirken, allein wegen der Festlegung I ~ Mw Ich werde dem allerdings nicht intensiver nachgehen, weil zur Illustration des strukturalistischen Theoriebegriffs und der Zuordnung intendierter Anwendungen genug dazu ausgeführt wurde, um das folgende Beispiel einordnen zu können. Beispielskizze: Zwei Aspekte kennzeichnen das Verhältnis von Erziehungswissenschaft und Psychoanalyse: Erstens steht der Beitrag der Psychoanalyse zur Pädagogik in keinem Verhältnis zu ihrer Bedeutung für die Psychologie und Therapie. Zweitens wird der Psychoanalyse zum Vorwurf gemacht, sie konstruiere keine intersubjektiv prüfbare Theorie. Diesem Vorwurf wird von Zeit zu Zeit mit Versuchen begegnet, die meist der Psychoanalyse fernerslebende Wissenschaftler unternehmen, um den empirisch brauchbaren Kern des psychoanalytischen Lehrgebäudes herauszuarbeiten. Dazu gehört auch Baizer (1982). Der erste Aspekt läßt sich recht gut an der Erforschung des Lehrerverhaltens verdeutlichen. Döring (1980, 125) kommt nach Sichtung einschlägiger (wenn auch nicht vollständig gesichteter) Literatur zu dem Schluß, "daß mit der psychoanalytischen Theoriebildung zwar ein wertvoller, insgesamt aber noch wenig entwickelter Ansatz zur Frage des Lehrerverhaltens vorliegt." Ich schließe mich der Wertung Dörings nicht an, weil unklar bleibt, was er mit "wertvoll" meint. Ich benutze aber das Beispiel einer psychoanalytischen Lehrerverhaltenstheorie zur Illustration des strukturalistischen Ansatzes, weil über die damit gewonnene Präzisierung sicher Forschungsimpulse in Richtung auf den Ausgleich des von Döring angesprochenen Defizits ausgehen können. Als Komponenten eines potentiellen Modells einer psychoanalytischen Lehrerverhaltenstheorie sind zu nennen (vgl. Baizer 1982, 15ff.): (1) Eine Zeitspanne, z.B. ein Lebensabschnitt des Lehrers. Man kann zur präziseren Erfassung der Zeitspanne eine Menge T von Zeitpunkten und eine

Exkurs: Theorien und Modelle

Zeitordnungsrelation ~einführen mit t vorhergeht oder mit ihm identisch ist.

~

t'; t,t'

E

121

T, sofern t dem Zeitpunkt t'

(2) Eine nicht-leere Menge psychischer Akte des Lehrers, die durch Triebe hervorgerufen werden oder Wünschen nach Libido entsprechen. Bezüglich der schulischen Situation des Lehrers thematisieren sowohl Bernfeld (1967, 64) als auch Fürstenau (1964, 66f.) Aggressionen durch verhinderte Triebabfuhr und Libidoaspekte. (3) Eine Menge von (ggf. vorgestellten) Erlebnissen, darunter insbesondere die Kindheitserlebnisse des Lehrers. Fürstenau (1964, 75) beschreibt z.B. Erlebnisse aus dem Bereich Klassenführung und Machtausübung, die im Falle eines bedrohlichen Verlaufs für den Lehrer mit Kindheitserinnerungen hinsichtlich der Unterlegenheit Erwachsenen gegenüber verbunden werden und Neurotizismusgefahren bergen. (4) Das Unbewußte des Lehrers, das die psychischen Akte bereithält und ggf. zu aktivieren gestattet. Baizer (1982, 16) faßt das Unbewußte deshalb als Funktion auf, die Zeitpunkten Teilmengen aus der Menge der psychischen Akte zuordnet. Als Beispiel für die Wirksamkeit des Unbewußten mag Fürstenaus ( 1964, 68) Deutung ödipaler Tendenzen im Lehrer dienen: In der Begegnung mit dem Schüler konunt es bei Lehrern "zu einer unbewußten Wiederbelebung ihres 'Ödipuskomplexes', d.h. all der Trieb-, Gefühls- und Einstellungsvorgänge, die ihre Auseinandersetzung mit den Eltern in ihrer eigenen Kindheit bestinunt haben und unbewußt (latent) wirksam geblieben sind. Unbewußt erwarten Lehrer wie Vater, daß die Kinder sich zu ihm genauso (oder entgegengesetzt) verhalten, wie er sich als Kind zu seinen Eltern verhalten hat, und unbewußt ist er selbst in seinem Verhalten als Erwachsener gegenüber Kindern von seinem Vater- und Mutterbild beeinflußt, wie er es in seiner Kindheit aus der Kinderperspektive entwickelt und seitdem latent beibehalten hat." (5) Das Bewußtsein des Lehrers, das die jeweils realisierten Erlebnisse umfaßt. Das Bewußtsein wird von Baizer (1982, 17) ebenfalls als Funktion rekonstruiert, die Zeitpunkten Elemente aus der Menge der Erlebnisse zuordnet. (6) Eine Realisierungsbeziehung zwischen psychischen Akten und Erlebnissen. Die Relation ordnet psychischen Akten passende Erlebnisse zu, wobei es durchaus zulässig erscheint, daß ein Akt zu unterschiedlichen Erlebnissen führt bzw. daß ein Erlebnis auf mehrere Akte zurückgeht. Beim autoritären Lehrer liegt z.B. eine Realisierungsrelation zwischen der "Befriedigung einer bestinunten Art aggressiver Regungen" (Fürstenau, 1964, 74) und "stark ritualisiertem Unterricht" (ebd.) vor. "Erteilung von Schulunterricht kann leicht die seelische Bedeutung einer Machtausübung gewinnen. In diesem Falle

122

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

zwingt der Lehrer als stark überlegener Partner einer größeren Gruppe von ihm Abhängiger seinen Willen auf und beherrscht sie mit Hilfe des Unterrichtsrituals. Unbeirrtes Durchführen des Pensums ohne Rücksicht auf sich meldende abweichende Schülerwünsche und -interessen gehört hierher" (ebd.). Eine andere Realisierungsrelation erwähnt Bernfeld (1967, 137): "Die Liebe des Erziehers zu Kindern ist echte Liebe, freilich sublimierte ... Er liebt das Kind und die Kinder ... , indem er sich ihm, seiner Zukunft, seiner Entwicklung widmet." (7) Eine Menge von (ggf. vorgestellten) negativen Erlebnissen des Lehrers. Baizer (1982, 18) legt diese als Funktion mit den Wertebereichen Zeit und Erlebnisse fest. Man könnte hier auch anders verfahren und die negativen Erlebnisse als Teilmenge der Potenzmenge der Erlebnisse einführen sowie den Zeitaspekt über eine dem Bewußtsein substituierbare Funktion. Da hier jedoch im wesentlichen die strukturalistische Rekonstruktion einer psychoanalytischen Lehrerverhaltenstheorie referiert werden soll, schließe ich mich dem Balzersehen Vorschlag an. Fürstenau (1964, 75) erwähnt als negative Erlebnisse z.B. das Gefühl des Bedrohtseins des Lehrers "in seiner Triebkontrolle und Selbstbehauptung" durch Kinder oder Vorgesetzte. (8) Eine Assoziationsbeziehung zwischen Erlebnissen. Hier taucht mit Bezug auf die Balzersehe Analyse ein Folgeproblem zu dem unter (7) genannten auf. Baizer (1982, 18) legt fest, daß die Assoziationsrelation über dem zweifachen kartesischen Produkt der Menge der Erlebnisse definiert ist. Damit entfällt die Möglichkeit der Assoziation negativer Erlebnisse. Über einen formal sicher gangbaren, aber artifiziellen Umweg ist es denkbar, daß bereits miteinander assoziierte Erlebnisse Teilmengen der Menge der Erlebnisse bilden. Insofern würden "assoziierte" negative Erlebnisse und "einfache" negative Erlebnisse gleichbehandelt und also nicht mehr unterschieden. Allerdings ist es formal sehr unbefriedigend, wenn die Assoziationsrelation als untermengenbildendes Merkmal undefiniert bleibt. Auch hier verzichte ich wegen des nur illustrierenden Referates auf eine Modifikation der Rekonstruktion Balzers. Assoziationen sind beispielhaft Flanders' (1977) Analyse von Kommunikationen im Unterricht zu entnehmen. Bernfeld (1967, 140) beschreibt die in pädagogischen Interaktionen involvierten Assoziationen des Lehrers wie folgt: "Das Kind wird den Erzieher lieben ... Es bringt ihm stürmisch, hartnäckig und, wenn es sein muß, verschlagen die Wünsche entgegen ... Und der Erzieher, was bleibt ihm anderes übrig, als diese Rolle anzunehmen ... mit Begeisterung und Hingabe, unter dem Wiederholungszwang, wenigstens unter den Einwirkungen seines eigenen Ödipuskomplexes. Dies Kind vor ihm ist er selbst als Kind. Mit denselben Wünschen, denselben Konflikten, denselben Schicksalen." Überflüssig zu sagen, daß hier das vom Lehrer erlebte Verhalten des Kindes mit eigenen Kindheitserlebnissen verknüpft gesehen wird.

Exkurs: Theorien und Modelle

123

Der strukturalistischen Auffassung zufolge kann nach Angabe der Komponenten das potentielle Modell wie folgt definiert werden: X ist ein potentielles Modell einer psychoanalytischen Lehrerverhaltenstheorie gdw (1) X= ;

(2) T,A und E sind nicht-leere Mengen von Zeitpunkten, psychischen Akten und Erlebnissen des Lehrers;

(3) T n An E = 0; (4)

~ist

eine Halbordnung aufT;

(5) ASS !:;;;; E x E, d.h. ASS ist eine Assoziationsrelation zwischen Erlebnissen des Lehrers;

(6) REAL!:;;;; T x A x E, d. h. REAL ist eine Realisierungsrelation zwischen psychischen Akten und Erlebnissen des Lehrers relativ zu einem Zeitpunkt; (7) B,U und N sind Funktionen (B bezeichnet das Bewußtsein, U das Unterbewußte und N negative Erlebnisse des Lehrers): B:T~

Pot(E)

U:T~

Pot(A)

N: T~

Pot(E)

(Pot bezeichnet die Potenzmenge jeweils von A und E); (8) V(U(t):t:0/\B(t):t:0). teT

Um vom Bezugsrahmen des potentiellen Modells auf Modelle der psychoanalytischen Lehrerverhaltenstheorie übergehen zu können, müssen Axiome berücksichtigt werden, die die (mutmaßlich oder tatsächlich) empirisch realisierten Beziehungen zwischen den begrifflich charakterisierten Komponenten von MP angeben. Zunächst gelten auf jeden Fall die Axiome der Freudschen Theorie (vgl. Baizer 1982, 22ff.): Ax 1: Jeder unbewußte psychische Akt zu t' wird zu t" (mit t' U(t')an ~

a,a"eA t',t ..eT eeE

~

REAL(t"ae)), wobei n=1 ,2, ... und a ":#an

(3) "i/ "i/ "i/ (REAL(tae) teT ee E aeA

(4)

V

eEE

~

a

U(t) 1\ e E B(t))

ASS(e,e)

(5) "i/ "i/ "i/ (REAL(t,a,e) e,e'eE aeA t ,t'eT

(6)

E

1\

REAL(t',a,e'))

~

ASS(e,e')

~

B(t')

V N(t) ~ B(t)

lET

(7) "i/

"i/ (e E N(t) 1\ ASS(e,e')

e,e'eE t,t'eT

1\

tEU AR(E1 , ••• ,E.,s')) i

I

Das "verschmierte" Axiom R (E1, ... ,En,s) hat offenbar die Form des Ramsey-Satzes, wobei s' die Rolle der Ramsey-Variablen übernimmt. Während R( ... ) die mathematisch idealisierte Fof!.!I des zentralen Axioms mit allen theoretischen Termen wiedergibt, weist R( ... ) nur den empirisch wirklich zugänglichen Teil des Axioms auf, einschließlich aller sog. Meßungenauigkeiten. Interessant ist der Übergang von der logischen Ramsey-Elimination zur topalogischen (sieht man von der Existenzquantifizierung ab), d.h. zur Identifizierung einer Unschärfemenge relativ zum theoretischen Term und seiner Umgebung. Ludwig versucht dadurch, die objektwissenschaftliche Interpretation des theoretischen Terms zu wahren, ohne völlig reduktionistisch zu sein. Wie hängen an diesem Punkt S- und L-Programm zusammen? Dies läßt sich nicht einfach beantworten, weil das L-Programm der Form syntaktischer Gegebenheit näher steht als das S-Programm (vgl. den Exkurs über Theorien und Modelle). Im L-Programm wird eine formale Sprache explizit eingeführt, während das S-Programm von seinen Protagonisten vor allem seiner nicht-linguistischen Orientierung wegen als bedeutende Überwindung klassischen Rekonstruktionsdenkens bevorzugt wird. Um also den angesprochenen Zusammenhang verdeutlichen zu können, muß man eine gemeinsame (syntaktische oder semantische) Basis der Programme formulieren. Dieser Aufgabe hat sich Scheibe (1981 ) gestellt. Sowohl er als auch Pearce (1981 ) sehen die Möglichkeit für eine syntaktische Grundlegung des S-Programms und für eine modifizierte Semantik. Vorausgesetzt wird eine erweiterte Zermelo-Fraenkelsche Mengenlehre (ZF). Die Erweiterung schließt die notwendigen mathemati-

180

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

sehen Hilfsmittel ein und dazu eine infinite Folge von Konstanten. Aus dieser Folge seien Konstante X und s derart entnommen, daß eine Doppelfolge X 1·····Xn,s1·····smentsteht. Sie legt die Primärsprache einer Theorie fest, bestehend aus allen ZF-Strukturen, die nur die Konstanten X und s enthalten. Wie in E.III des Exkurses über Theorien und Modelle ausführlicher dargestellt, entsteht durch die Anwendung von Operatoren zur Bildung von Potenzmengen oder kartesischen Produkten eine Folge von sog. Leitertermen cr1 (X), ... ,crm(X), mit deren Hilfe das Basisaxiom der Theorie formuliert werden kann: s1 e cr1 (X), ... ,sm e crm(X), d.h. s1 ist von der Art }). ZF

Damit ist C eine syntaktische Einschränkung für MP. Die vollständige Axiomatisierung lautet Q(IP) MP*(IP) "C(IP) und erfüllt (1) und (2).

=

Die sekundäre Sprache für den empirisch effektiven Teil im S-Programm erfordert IPP als neue Konstante (entsprechend den Y undtim L-Programm). Sei R(Y) = {x13 X=< y,(1;,T)),y2(1;,T)) > 1\ < ~.T]

s.TI >E Y} mit

y 1 (1;,T)) und y 2 (1;,T)) als inneren Termen der Leiterterme Pl(S) und P2 (1;), dann kann IPP festgelegt werden als IPP = R(IP). Für die neue Typisierung benötigt man M pp (~I '~ 2 ) '

die zu MP in folgender Beziehung steht: M p (~,Tl) "S 1 = 1

1

(~.Tl) "S 2 = 1 2 (~.Tl)==> M pp ZF

(s 1 • S2 ) .

Gegeben MPP' dann läßt sich auch im S-Programm die Frage nach der stärksten empirischen Konsequenz der Axiome der Theorie stellen, so daß: M*(lp)AC(Ip)AIPP =R(Ip)~A(Ip)

sowie für alle MPP mit invariantem y.

ZF

182

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse M*(l

P

)AC(I

P

)Al

PP

=R(l p )~y(l PP)) -t (A(I pp )~y(l PP)). ZF ZF

Als Antwort auf die Frage ergibt sich wieder ein Ramsey-Satz:

3(M*(y)AC(y)/\ 3 (JSOM (JPP'R(y);ifdA)), y

{Jd~

der eindeutig ist bis auf die Äquivalenz: M*(l

p

)A((I

p

)!d

PP

= R(l

PP

p )~A(I PP) ZF

HA 1 (I PP)).

IPP entspricht syntaktisch der Menge intendierter Anwendungen der Theorie und ist eine Teilmenge der Menge partieller potentieller Modelle ~p· Der Ramsey-Satz unterliegt, abweichend von der ursprünglichen Handhabung im S-Programm, der Invarianzbedingung (2). Wie man den syntaktischen Fassungen des L- und S-Prograrnms leicht entnimmt, gibt es eine enge Entsprechung. Warum ist es nun notwendig, sich mit den vorliegenden Details, insbesondere denen bezüglich des Vergleichs zwischen L- und S-Prograrnm, zu befassen? Erstens resultierte aus diesem Vergleich erstmalig ein methodischer Ansatz zur Lokalisierung von theoretischen Termen, während es bis dahin von Sneed (1971), Stegmüller (1973 a) sowie Baizer und Moulines (1980) nur für möglich gehalten worden war, theoretische Terme unter der Bedingung der Meßmodellvoraussetzung pragmatisch zu entdecken. Man kann die Vorteile der methodischen Lokalisationsmethode gut an der Diskussion um die angemessene Axiomatisierung und Rekonstruktion der Theorie der reinen Tauschwirtschaft ablesen (vgl. Baizer 1982; 1982 a; 1982 b; 1985; Hands 1985; Haslinger 1983). Während Baizer 1982; 1982 a) die Nutzenfunktion U:JxiR~IR

(J als Personenmenge; U ist hierbei unendlich oft differenzierbar) ursprünglich als T-theoretisch ansah, ebenso wie auch jetzt noch die Preisfunktion p:INn~IR+

(INn als Menge natürlicher Zahlen, die Warenarten bezeichnen) und die Endausstattungsfunktion qe:J x INn ~ IR*0• hat die Berücksichtigung von Invarianzüberlegungen (Balzer 1983; 1985) dazu geführtdaß die T-Nicht-Theoretizität von U beweisbar ist, wie Haslinger (1983) bereits vermutete. Da Hands (1985) die Menge ~ anders als Baizer (1982 a) festlegt, scheint es schwierig, seine Argumentation zu beurteilen, daß IPP und MPP der Theorie der Tauschwirtschaft nicht identifizierbar sind. Soweit ich sehe, muß jedenfalls die Annahme von Hands (1985, 271) zurückgewiesen werden, daß seine Rekonstruktion von MP die Nachfragefunktion

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

183

als T-theoretisch erwiesen hat. Damit bleibt aber völlig offen, ob die Negierung strukturalistischer Rekonstruktionen für die Ökonomie, wie Hands sie behauptet, aufrechterhalten werden kann. Zweitens resultierte aus der Scheibeschen Parallelisierung von L- und SProgramm und aus der damit verbundenen Einbeziehung Bourbakischer Strukturarten, daß als Elemente der Menge I intendierter Anwendungen nunmehr nur noch die relativ zu den faktisch bekannten und feststellbaren Merkmalen realer Systeme bildbaren Substrukturen infragekommen (Balzer 1983, 10). Dies ist insofern wichtig, als der ursprünglich von Sneed verwendete empirische Satz der Theorie (I e r(Pot (M) n C)) die Bestimmung infinit vieler Mengen und Funktionen durch Meßvorgänge erfordert, was faktisch unerfüllbar bleibt. Mit der bourbakischen Substrukturenkonzeption reagiert der Strukturalismus jetzt auf die Finitheilsgegebenheiten empirischer Meßvorgänge. Drittens bringt die Bourbakische Konzeption der Invarianzbedingungen etwas Klarheit in die metatheoretische Handhabung theoretischer Begriffe. Einerseits wird nämlich allgemein die These akzeptiert, daß theoretische Begriffe nicht immer vollständig auf beobachtungssprachliche Aussagen reduzierbar sind. Andererseits weisen fast alle bisherigen Ansätze zur Unterscheidung von Modellen, die die Beobachtungssprache erfüllen und Modellen, die die gesamte Sprache einer Theorie erfüllen, eine Relation auf, die durch das Definierbarkeitstheorem von Beth tangiert wird. Das L-Programm, Scheibes Rekonstruktionen und schließlich Baizers (1983; 1985) Handhabung der Theoretizität geben erstmals Hinweise darauf, wie partielle potentielle Modelle von Modellen einer Theorie unterschieden werden können, ohne theoretische Funktionen "herausstreichen" zu müssen, wie Sneed und Stegmüller es vorgeschlagen haben. Eliminierbarkeit und Definierbarkeit verlieren dadurch ihre zentrale Bedeutung für die Wiedergabe des empirischen Gehaltes einer Theorie. Die Notwendigkeit dafür steht seit geraumer Zeit im Raum (und was das für Konsequenzen hinsichtlich des sozialwissenschaftliehen Operationalismus hat, sei hier nur wiederum angemerkt). Putnam und van Fraassen haben darauf verwiesen, daß eine Beobachtungssprache dazu benutzt werden kann, nicht observationale, theoretische Behauptungen aufzustellen. Ferner: Solange Theorien nicht observierbare Individuen zulassen, können quantifizierte Beobachtungsaussagen nicht zu denen gerechnet werden, die strikt empirische Behauptungen ausdrücken (Rynasiewicz 1983, 237). Der empirische Gehalt einer Theorie ist also nicht immer identisch mit der Klasse der Beobachtungsstrukturen, die zu Modellen der Theorie expandierbar sind, sondern höchstens mit denen, die in diese Klasse eingebettet werden können. Ob diese Klasse allerdings syntaktisch..charakterisierbar ist, was als Voraussetzung für Ramsey-Eiiminierbarkeit gilt, steht als Ergebnis noch aus.

184

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

Was kann man nun nach der vorliegenden Diskussion des Sirnonsehen Ansatzes über das Problem der Entwicklung eines finiten deduktivistischen Rationale aussagen? Mir scheint, zweierlei: Erstens hat die Argumentation sowohl zur Elimination als auch zur endgültigen Prüfbarkeit gezeigt, daß mit der starken Falsifizierbarkeit eine Testform vorliegt, die unter die Symmetriebehauptung für das induktivistische und das deduktivistische Rationale fällt. Damit kann bereits in Zweifel gezogen werden, ob der Zweck der Bemühungen zur Rettung des deduktivistischen Rationale als prädominanter Metatheorie erreicht wurde. Zweitens zeigt die Relativierung der Eliminierbarkeitsforderung tatsächlich einen Defekt in der empiristischen Orientierung des Deduktivismus. Aber zugleich wirft sie auch die Frage auf, wie relevant die Eliminierbarkeit metatheoretisch überhaupt ist (vgl. van Benthem 1978). Bezieht man indes mit ein, daß sich auch Zweifel an der Allgemeinheit der starken Falsifizierbarkeit ergeben haben, dann liest sich das Resüme bezüglich des finitistischen deduktivistischen Rationale so: Hält man an Eliminierbarkeit und FITness fest, dann muß man die starke Falsifizierbarkeit und damit die Geltung der Symmetriebehauptung akzeptieren. Das produziert jedoch keine Überlegenheit des deduktivistischen über das induktivistische Rationale. Akzeptiert man hingegen die Einwände gegen F, gegen die generelle Gültigkeit der starken Falsifikation und gegen die vollständige Eliminierbarkeit, dann wird man automatisch vom finitistisch orientierten Deduktivisten wieder zum Popperianer. Damit ist man allerdings wieder allen übrigen Einwänden gegen das deduktivistische Rationale ausgesetzt, die es durch die finitistische Variante eigentlich zu überwinden galt. Mithin wird durch diese Variante nichts gewonnen. 3. Induktivistisches Rationale, subjektive Wahrscheinlichkeitsinterpretation und Wahncheinlichkeitskinematik

Die Frage nach der Möglichkeit oder Unmöglichkeit von erkenntnisorientierter Erziehungswissenschaft reduzierte sich angesichts des Unmöglichkeitsbeweises von Cubes auf die Prüfung der Universalitätsansprüche des deduktivistischen bzw. induktivistischen Rationale. Wir haben gesehen, daß das deduktivistische Rationale einer Reihe von Einwendungen ausgesetzt ist, die es in seinen Grundfesten zumindest so weit erschüttern, daß seine Universalität nicht mehr als gesichert gelten darf. Damit läßt sich erkenntnisorientierte Erziehungswissenschaft methodologisch nicht einfach dadurch festlegen oder identifizieren, daß sie dem deduktivistischen Rationale folgt, was zugleich bedeutet, daß das Brezinkasche Programm "Von der Pädagogik zur Erziehungswissenschaft" mit seinem Versuch, die erkenntnisorientierte Erziehungswissenschaft metatheoretisch und methodologisch zu etablieren, in der gewählten Form als gescheitert angesehen werden muß.

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

185

Zugleich ist gezeigt worden, daß die Logik der Forschung keine Logik der Praxis abwirft. Dieses Ergebnis resultiert nicht nur aus Schwächen des deduktivistischen Rationale, sondern auch aus den Humeschen Nachfolgerproblemen. Allerdings scheint der Gedankengang von Cubes, daß durch diese Nachfolgerproblerne eine einfache Zuordnung möglich ist (deduktivistisches Rationale und erkenntnisorientierte Erziehungswissenschaft; induktiv-statistisches Rationale und effektivitätsorientierte Erziehungswissenschaft) und daß man durch Aufweis der Unmöglichkeit der ersten Zuordnung die Notwendigkeit der Geltung der zweiten bewiesen hat, einer weiteren Überprüfung wert. Auch dabei soll es uns um den Universalitätsanspruch gehen, jetzt aber um den des induktiv-statistischen Rationale. Nach der Stegmüllersehen Auffassung ist mit dem Ende des Programms der Carnapschen induktiven Logik das Induktivitätsproblem endgültig aus dem Bereich der theoretischen in den der praktischen Vernunft verlagert worden. Dieser Auffassung treten Bayesianer (Grünbaum; Rosenkrantz 1977) ebenso entgegen wie die Vertreter der Reichenbach-Schule. Beide sind der Meinung, die Aufspaltung der Humeschen Nachfolgerprobleme sei insofern verkehrt, als sie nicht an der methodologischen oder metatheoretischen Grenzlinie zwischen induktivistischem und deduktivistischem Rationale erfolgen sollte, sondern an der Abgrenzung zwischen der Logik der Forschung und der Logik der Praxis. Damit reservieren sie das induktiv-statistische Rationale durchaus als das für beide Bereiche geeignete und begründen mit seiner vorgeblichen Überlegenheit über das deduktivistische Rationale seinen Universalitätsanspruch. Gilt dieser Anspruch zurecht, dann gibt es einen methodologisch stichhaltigen Weg zur Absicherung des von Cubeschen Unmöglichk:eitsbeweises. Gilt der Anspruch dagegen nicht, dann ist nicht nur die Unterscheidung von erkenntnisorientierter und effektivitätsorientierter Erziehungswissenschaft auf der Ebene der Induktivitäts-Deduktivitäts-Distinktion (s.o.) hinfällig, sondern generell die Bedeutung von "Inferenzlogiken" für dieses Problem. Das begründet zudem den oben schon vollzogenen Übergang zum Strukturalismus. Die Logik der Forschung erweist sich ebenso wie die Logik der Praxis nicht durch die Art ihrer Inferenzen charakterisiert, sondern durch die Struktur (und Form der Genese) ihrer Resultate. Im Hinblick auf das induktivistische Rationale sind bislang drei Umstände angesprochen worden, die Hypothesenwahrscheinlichkeit, das Bayes-Modell für strenge Prüfungen und die Evidenzkonzeption von Harsanyi. Alle drei hängen miteinander zusammen. Zur Kritik des Universalismus des deduktivistischen Rationale benötigt man den Bayes-Ansatz, der apriori-Evidenzen des Untersuchers einbezieht, die ggf. auf Hypothesenwahrscheinlichkeiten zurückgehen. Da Hypothesenwahrscheinlichkeiten oft enumerativ festgestellt

186

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

werden, kommen induktive {Voraussage-)Schlüsse mit ins Spiel, deren Grundmodi wie folgt unterschieden werden können (v. Kutschera 1972, 190): (1) F(al), ...,F(an) ~ F (an+1) (2) F(a1), ... ,F(an) ~ VF(x) 3) hn(F) =r

X

~

p(F) =r

±e

Hierbei bezeichnen die ai alle bislang untersuchten Objekte (i = l, ... ,n), die die Eigenschaft F aufweisen. hn(F) kennzeichnet die relative Häufigkeit von F in n Untersuchungen, p(F) die objektive Wahrscheinlichkeit und e eine kleine, positive reelle Zahl. n soll jeweils geeignet groß sein. Der Pfeil kürzt hier einen Voraussageschluß ab. Man könnte übrigens auch der Meinung sein, die Hypothesenwahrscheinlichkeit ergebe sich nicht enumerativ, sondern im Zuge einer eliminativen Induktion (Hintikka 1968). Hierbei werden aus mehreren konkurrierenden Hypothesen via Falsifikation sukzessive die unzutreffenden ausgesondert und damit zugleich die jeweils übrigbleibenden "wahrscheinlicher" gemacht. Dieses Vorgehen erweist sich jedoch bei genauerer Betrachung als unzweckmäßig. Wird aus dem Bereich der logisch möglichen konkurrierenden Hypothesen falsifikativ jede bis auf eine Hypothese ausgesondert, dann kann diese als deduktiv verifiziert gelten. Bleiben dagegen mehrere Hypothesen übrig, so müssen sie, da sie mit den vorliegenden Daten verträglich sind, alle gleichermaßen als bestätigt gelten, so daß die eliminative Induktion also keine von ihnen als eine wahrscheinlichere auszuweisen vermag. Auf welche Weise können nun die genannten Grundmodi der enumerativen Induktion interpretiert werden? Es liegt auf der Hand, daß ihre Behandlung als gewöhnliche Schlüsse keinerlei Rechtfertigung der Induktion ermöglicht, da diese dann mit der Deduktion zusammenfällt (vgl. dazu und für eine Vertiefung der Argumente v. Kutschera 1972, 197 ff.) oder zu inkonsistenten Resulaten führt. Um zu einer angemesseneren Interpretation zu gelangen, ist deshalb vorgeschlagen worden, die Modi als Wahrscheinlichkeitsschlüsse aufzufassen. Auf der Basis wahrer Prämissen wird die Konklusion durch sie wahrscheinlich gemacht. Dabei ist der Begriff der Wahrscheinlichkeit ebenfalls nur in einer bestimmten Interpretation verwendbar. Um dies näher erläutern zu können, muß zunächst erwähnt werden, daß sich der Formalismus der Wahrscheinlichkeitsrechnung unter allen Interpretationen im Prinzip als gleich erweist. Dagegen weichen die Ansätze zum Aufbau der Wahrscheinlichkeitstheorie je nach Interpretation erheblich voneinander ab. Man unterscheidet die subjektivistische von der objektiven und der logischen Interpretation und entsprechend einen subjektiven, objektiven und logischen Wahrscheinlichkeitsbegriff.

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

187

Der subjektive Wahrscheinlichkeitsbegriff, der uns im Zusammenhang mit der Kritik am Deduktivismus hier besonders interessiert, geht in der Hauptsache auf eine Arbeit von Ramsey (l980a) zurück und ist anschließend besonders von de Finetti (1981) ausgearbeitet worden. Ramsey (l980a, 58) grenzt die Wahrscheinlichkeitsinterpretation seiner Wahl gegen die Häufigkeitsinterpretation ab und bezeichnet sie als "Logik des partiellen Glaubens" (ebd.). Dazu muß vorausgesetzt werden, daß der Glaube gemessen werden kann. Ramsey (ebd., 64) vergleicht das zu messende Konzept mit dem Einsteinsehen Zeitbegriff und meint, daß der Glaube gleichfalls nicht absolut, sondern nur relativ gemessen werden kann, wobei gewisse Approximationseigenschaften für gleichartige Messungen und Meßergebnisse konzediert werden. Der Grad des Glaubens hängt kausal vom Umfang ab, "in dem wir auf seiner Grundlage zu handeln bereit sind" (ebd., 66). Damit wird Glauben nicht aktualisiert, sondern dispositioneil verwendet (ebd., 68). Um zu einer Meßvorschrift zu gelangen, betrachtet Ramsey (ebd.) Wetten, bei denen besonders darauf zu achten ist, unter welchen Bedingungen eine Person sie gerade noch akzeptiert (Methode der "gerade noch wahrnehmbaren Unterschiede", ebd., 67). Da jedoch für jede Wette eintreten kann, daß ihr Gewinn einem abnehmenden Grenznutzen unterliegt, rekurriert Ramsey (ebd. 68ff .) auf eine entscheidungstheoretische Variante mit Gütern, die positiv oder negativ bewertet werden und mit mathematischen Erwartungen (zur Berücksichtigung variierender Grade der Gewißheit des Glaubens). Hierzu ein Beispiel (vgl. ebd., 70f.): f(x) sei der Nachteil eines Aufwandes x, der Vorteil einer Zielerreichungrund der Nachteil einer Zielverfehlung w. Falls man (unter Wettgesichtspunkten) zu einem Aufwandseinsatz von d bereit wäre, beträgt der Grad des Glaubens an die Richtigkeit der Aufwandshandlung: p =I - f(d)/r- w. Würde man nämlich n-mal handeln, in np Fällen richtig handeln und in n - np Fällen verkehrt, so ergibt sich: npr + (n- np)w =nr- nf(x). Daraus folgt: npr + n(l - p)w =nr- nf(x) und pr + w(l- p) =r- f(x) sowie pr + w- pw =r- f(x) bzw.

pr - pw =r - w - f(x) und schließlich

p(r- w)- (r-w) =-f(x). Durch Vorzeichenänderung -p(r- w) + (r- w)

=f(x) und Ausklammern

(r- w)(l - p) =f(x). Da sich dieser Ausdruck höchstens bei einem kritischen Aufwand von d als lohnend erweist, folgt: (r- w)(l- p) =f(d) und duch Termumformung:

188

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

I- p =f(d)/(r- w) sowie

p = 1 - f(d)/(r- w), w.z.b.w. Das Messen des Glaubens auf dieser Grundlage wirft sofort die üblicherweise geforderten Bedingungen der Sicherheit 1, der Ungewißheit 0 und der Indifferenz Y2 ab und erlaubt Wetten als gültige Meßmethoden. Anreize können dabei die Wahrheitswerte jener Sätze sein, die "als Bedingungen in den angebotenen Wahlmöglichkeiten fungieren" (ebd., 72). Ramsey sieht sich jedoch gezwungen, für die Aufstellung von Axiomen und Definitionen auch wertindifferente Sätze zuzulassen. Die Indifferenz als "Glauben vom Grad Y2 an einen wertindifferenten Satz" (ebd.) läßt sich dann so definieren, daß weder die Wahlmöglichkeit a für "p wahr" und ß für "p falsch" noch die Wahlmöglichkeit a für "p falsch" und ß für "p wahr" präferiert wird, sondern nur eine solche für a bzw. ß unter der Bedingung ihrer Undefiniertheit. p =Y2 behauptet dann einen Glauben, "der bei gleichem Einsatz zur Indifferenz gegenüber einer Wette dafür oder dagegen führt" (ebd., 72f.). Ergänzt man die Ambivalenz durch ein komparatives Prinzip (größer als), dann lassen sich Axiome aufstellen, und zwar solche, die ein Verfahren zur Messung von Werten begründen, um sodann die quantitative subjektive Wahrscheinlichkeit zu gewinnen (vgl. auch v. Kutschera 1972, 50; Stegmüller 1973b): 1. Es gibt einen Satz p, so daß p wertindifferent ist und im Grad Y2 geglaubt wird. 2. Für solche Sätze p, q bestehen folgende Wahlmöglichkeiten: a: wenn p o: wenn --,p ß: wenn q y. wenn --,q,

die bei Gleichwertigkeit von a und 0 mit ß und y auch deren Gleichwertigkeit bezüglich q bedeuten (aß yo) Unter dieser Voraussetzung ist a > ß gleichwertig mit y > o.

=

3. Die Gleichwertigkeitsbeziehung ist transitiv. Ist also A gleichwertig mit B und B mit C, so auch A mit C. 4. Es gilt das Kontinuitätsaxiom: Jede Folge hat eine ordinale Grenze.

5. Es gilt das achimechische Axiom: Wenn a > ß, dann gibt es ein n, so daß für beliebige yund 0 gilt: na 1\ o ~ nß 1\ y. 6. Es gelten die Eindeutigkeitsaxiome: Für alle a,ß,y gibt es genau ein x, so daß ax = ßy. Für alle a,ß gibt es genau ein x , so daß ax = ßx.

ID. Erkenntnisorientierte erziehungswissenschaftliche Forschung

189

Ramsey (1980, 73) ist der Meinung, daß die solcherart festgelegten Werte eindeutig in IR repräsentiert werden können. Damit vermag er den partiellen Glauben zu definieren. Ferner legt er den konditionalen Glaubensgrad fest, der im Zusammenhang mit dem Bayes-Theorem, einem (de Finetti 1981, 627 zufolge) inhärenten Bestandteil der Theorie subjektiver Wahrscheinlichkeiten, eine große Rolle spielt. Für Ramsey (1980, 75) ergeben sich folgende Grundgesetze "wahrscheinlichen Glaubens": 1. C (p) + C ( -,p)

=1; C als Grad des Glaubens

2. c (p/q) + c (p/-,q) = 1

3. C (p 1\ q) =C (p) XC (q/p)

4. c (p 1\ q) + c (p

1\

-,q) =c (p)

Alle diese Grundgesetze basieren auf dem "Axiom der Konsistenz" (Ramsey 1980, 74), das benötigt wird, um dem 'Dutch Book Argument' (vgl. Lebmann 1955; Baillie 1973; Ellis 1973; Heilig 1978; Kyburg 1978) zu entsprechen, das nach Ramseys kurzer Erwähnung von de Finetti unter Verwendung der Bezeichnung 'Kohärenzbedingungen' ausführlich analysiert worden ist. Der Begriff 'Dutch Book' stammt von Lebmann (1955), der eine Redensart der Buchmacher aufgegriffen hat. Wie aus Ramseys Betrachtung von Wettquotienten hervorgeht, erfüllen diese das erste Kolmogoroffsche Axiom der Wahrscheinlichkeitstheorie. Um nun das zweite Axiom (die Summenbedingung) als erfüllt auszuweisen, bedarf es des Dutch Book Argumentes. Eine Dutch Book ist eine Wettsituation, in der von vornherein klar ist, daß man verlieren wird. Das Dutch Book Argument behauptet, daß eine Dutch Book gegen den Wetter genau dann unmöglich ist, wenn und nur wenn die Summenbedingung erfüllt ist. Daher sind durch Wettquotienten gemessene subjektive Glaubensgrade als Wahrscheinlichkeilen repräsentierbar. Entsprechend legt de Finetti (1981, 762ff.) ein Axiomensystem für subjektive Wahrscheinlichkeiten auf der Basis der Kohärenzbedingung vor: Axiom (1): Wenn X (Nichtnegativität).

~

0 sicher ist, so muß auch P(X)

~

0 sein

Axiom (2): P(X+Y) =P(X) + P(Y) (einfache Additivität). Als elementare Folgerungen stellen sich P(aX) sup X ein sowie die Bedingung der Konvexität.

= aP(X) und inf X ::> P(X) ::>

Bed. C: Man hat jede lineare Gleichung oder Ungleichung zwischen Zufallszahlen Xi im Hinblick auf entsprechende Erwartungen P(Xi) zu berücksichtigen. Sei PH die Erwartungsfunktion, falls H wahr wäre, dann erzwingt die Kohärenz mit P(H) :t; 0:

190

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

Axiom (3): Die durch ein mögliches H bedingten PH genügen Bed. C, sofern PH(E) P(EIH) und PH(E/A) P(E/AH) angenommen wird.

=

=

De Finetti (1981, 768) bemerkt dazu: "Vom subjektivistischen Gesichtspunkt aus sind die Axiome insofern gültig, als sie die für die Kohärenz notwendigen und hinreichenden Bedingungen ausdrücken". Jedes weitere Axiom wäre daher restriktiv. Zwei Dinge gilt es nun, genauer zu untersuchen: Besteht zwischen Ramseys und de Finettis Ansatz ein Zusammenhang? Welche Art von Kritik wird vorgebracht? Daß wir uns diesen beiden Fragen und ohnehin bereits dem gesamten Ansatz der subjektivistischen Wahrscheinlichkeitsinterpretation hier so ausführlich widmen, hat natürlich seinen Grund in der Art der vorgebrachten Kritik am deduktivistischen Rationale (die nur einen kleinen Ausschnitt aus der Gesamtkritik, die geübt wurde, darstellt, aber unter Bezug auf die spezifische Verwendung des Bayes-Theorems, die Grünbaum vorschlug, einen sehr wirkungsvollen Ausschnitt). Diese Kritik besagt, daß die besondere Leistungsfähigkeit des deduktivistischen Rationale hinsichtlich der Selektion zutreffenderer Theorien auch und besser von einem induktiven Ansatz geleistet werden kann, der auf dem Bayes-Inferenzmechanismus basiert und damit der subjektivistischen Wahrscheinlichkeitsinterpretation eine fundamentale Rolle in der Logik von Forschung und Technologie zubilligt. Zur ersten Frage: Der Zusammenhang zwischen Ramseys und de Finettis Axiomen ist der zwischen den Axiomen des quantitativen intuitiven Glaubens mit denen einer passenden quantitativen subjektiven Wahrscheinlichkeitsstruktur {für einen vereinheitlichten Vergleich siehe v. Kutschera 1972, 50ff.). Dabei hat es Ramsey bereits unternommen, eine Metrisierung zu formulieren, die allerdings erst bei de Finetti konkrete Ausformung erfuhr. Welche Kritik ist nun gegen den subjektiven Wahrscheinlichkeitbegriff vorgebracht worden? Um die einzelnen Kritiken einordnen zu können, erweist es sich als sinnvoll, sich mit einem Klassifikationsvorschlag für subjektive Wahrscheinlichkeitsinterpretationen vertraut zu machen (vgl. Kyburg 1978, 158f.). Als Theorie subjektiver Wahrscheinlichkeilen kann man die Klasse der Interpretationen des Wahrscheinlichkeitskalküls verstehen, die zur Zuordnung von numerischen Wahrscheinlichkeiten zu jeder Proposition einer Sprache führen, wobei diese Wahrscheinlichkeitswerte weder bekannte noch hypothetische Häufigkeilen reflektieren (die gehören zur objektiven Interpretation). Vor allem in Kontexten, die auf Evidenz bezogen sind (z.B. in statistischen Anwendungen), werden die Propositionen parametrisiert, so daß dann eher von der Zuordnung von Wahrscheinlichkeitsdichten zu den Parametern gesprochen werden sollte.

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

191

Was repräsentieren die Werte bzw. die Zahlen? Das hängt ganz von der Art ab, wie die Theorie konstruiert wird, als normative oder deskriptive Theorie bzw. als Entscheidungstheorie unter Unsicherheit oder als Theorie der Glaubensgrade. glaubensgradtheor.

entscheidungstheor. deskriptiv

(a)

(b)

normativ

(c)

(d)

Übersicht über eine Klasse von subjektivistischen W ahrscheinlichkeitsinterpretationen.

Im Fall (a) repräsentieren die Zahlen theoretische psychologische Charakteristika (Glaubensgrade), die in eine allgemeine Theorie des Verhaltens unter Unsicherheit eingehen. Im Fall (b) bedeuten die Zahlen aktualisierte Glaubensgrade, die durch Beobachtung des Verhaltens unter Unsicherheit gemessen werden können. Im Fall (c) repräsentieren die Zahlen Parameter, die bestimmte Bedingungen zu erfüllen haben. Im Fall (d) stellen die Zahlen Meßwerte dar, die Propositionen einer Sprache zugeordnet sind und die wenigstens den Beschränkungen des Wahrscheinlichkeitskalküls unterliegen. Kyburg (ebd., 159) ordnet (d) den logischen Ansatz von Carnap I (1950) zu, (obwohl der auch häufig als exemplarisches Beispiel für die logische Interpretation der Wahrscheinlichkeit betrachtet wird. Hier zeigt sich, wie wenig nuanciert die Zuordnungen von Autoren zu Interpretationen vorgenommen werden können. Im Prinzip erweist sich fast jede einigermaßen elaborierte Interpretation als Mischinterpretation (vgl. auch Spohn 1978); Carnap selbst (vgl. Carnap/Stegmüller 1959, 39 f.) weist auf diesen Umstand bei der Diskussion der Reichenbachsehen Interpretation hin, der er eine Mischung aus logischer und statistischer Wahrscheinlichkeit zuordnet. Carnaps erstes System der induktiven Logik mischt wenige subjektivistische mit überwiegend logischen lnterpretationsanteile. Carnap II ist dagegen mehr an subjektivistische angelehnt.), ferner Carnap II (1971; 1971a), Hintikka (1965; 1966) sowie Niiniluoto (1973) und Tuomela (vgl. auch Essler 1975; Hintikka 1975). Beim Ansatz der Finnen sind die Wahrscheinlichkeitswerte durch wenige Parameter festgelegt, die empirische Urteile bezüglich der tatsächlichen Natur realer Verhältnisse reflektieren. Den Interpretationsansätzen unterliegt im allgemeinen eine Wahrscheinlichkeitsstruktur folgender Art: (a) die reelle Zahl p(h) liegt zwischen 0 und 1 (b) p(e" h)

=p(e) · p(hle)

(c) Sindhund g logisch unabhängig, dann p(h v g) =p(h) + p(g).

192

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

Wenden wir uns nun den Kritiken an der subjektiven Wahrscheinlichkeitsinterpretation im einzelnen zu. Howson (1976, 294) deutet zunächst die Entwicklung der logischen Wahrscheinlichkeitsinterpretation als Forschungsprogramm (im Sinne von Lakatos), initiiert von Leibniz und Bernoulli und fortgeführt von Keynes und Carnap. Das Ziel dieses Forschungsprogramms bestand darin, die Theorie einer schwachen Konsequenzenrelation zu entwickeln, die zugleich eine Theorie der rationalen Glaubwürdigkeit der Wahrheit von Behauptungen sein sollte und intuitiv wünschenswerten Kriterien entsprach. Über Keynes, den Ramsey ausführlich kritisierte, gingen einige Auffassungen aus dem Forschungsprogramm in den Ansatz der Personalisten (Ramsey, de Finetti) ein, der seinerseits wiederum ein neues und anders geartetes Forschungsprogramm darstellte. Dieses versuchte, besonders die Charakteristika beschränkter Systeme partiellen Glaubens deutlich zu machen, und zwar im Hinblick auf die Adaptation an die Akkumulation neuer Informationen. Allerdings ist die Methode zur Repräsentation des Glaubensgradwandels fragwürdig. Sie besteht in der Festlegung des Individuums auf eine Menge bedingter Wetten, wobei diese den gesamten Bereich der möglichen Erfahrungen ausschöpfen. Während die Wahl einer Menge kanonisch absoluter Wettquotienten die Glaubensstruktur des Individuums zu einem bestimmten Zeitpunkt abbildet, repräsentieren bedingte Wetten angeblich die Art und Weise, wie die Struktur modifiziert wird, und zwar unter aktuellem Gegebensein der Bedingungen. Akzeptiert man derartige Repräsentationsannahmen, dann fällt es nicht schwer zu zeigen, daß nicht nur die kanonisch absoluten Wettquotienten zur gewünschten Festlegung einer Wahrscheinlichkeitsstruktur führen, sondern auch die bedingten Wetten zu einer entsprechenden bedingten Wahrscheinlichkeit. Gegen die Repräsentation des Glaubenswandels ist eingewandt worden, daß sie die Spezifikation der gesamten möglichen und zukünftigen Erfahrungen des Individuums in einer feststehenden Sprache erfordert und daß sie das Individuum nur auf jene Alternativen festlegt, die es initial als seine möglichen ansieht, und zwar so, daß es auf ihr Eintreten wetten würde (vgl. Howson 1976, 296; vor allem Hacking 1967 hat das als unrealistisch zurückgewiesen). Da aber die Theorie partiellen Glaubens (Howson 1976, 296 nennt sie Theorie der Glaubensstatik) und ihre Repräsentation in Wettquotientensystemen nichts Außergewöhnliches darstellt, erhebt sich die Forderung nach einer angemesseneren Theorie der Wahrscheinlichkeitskinematik. Ansätze dazu gehen auf Jeffrey (1967) zurück, wobei zu bemerken ist, daß Howson bereits für die einfache, die Bayes- und die Jeffrey-Konditionalisierung deren Insuffizienz beklagte. Die einfache bedingte Wahrscheinlichkeit ist gegeben durch P'(A) =P (AlE) =PE(A) =P(A " E)/P(E). Hier wird E als

ill. Erkenntnisorientierte erziehungswissenschaftliche Forschung

193

neues Evidenzdatum betrachtet und damit als Erfahrungsinput Die Unzureichendheil dieser Konditionalisierung für die adäquate Erfassung der Wahrscheinlichkeitskinematik besteht darin, daß E immer als realisiert und wahr angesehen wird. Jeffrey (1967) betrachtete deshalb den Fall, daß E durch das zusätzliche Erfahrungsdatum nur im Grad p(E) wahrscheinlich ist, wobei E gegenüber seiner apriori-Wahrscheinlichkeit nunmehr wahrscheinlicher oder weniger wahrscheinlich sein kann. (Es ist klar, daß Jeffrey damit Ramseys Ansatz weitergeführt hat; vgl. explizit dazu Jeffrey 1968). Sei p(E) =a, so besagt Jeffreys verallgemeinerte Konditionalisierung, daß P'(A)

=aPe(A) + (1- a)Ptwmpt(E>(A)

mit "kompl" zur Kennzeichnung des Komplementes bzw. für mehrere inputs P'(A)

=L,{aPe(A):E e x},

wobei X eine Partition des Ereignisraumes (oder Stichprobenraumes) darstellt, deren Mitglieder apriori-Wahrscheinlichkeiten größer Null aufweisen. Die Wahrscheinlichkeitskinematik kann dann folgendes Aussehen haben (vgl. van Fraassen 1980, 170 f.): P' und P seien zwei auf demselben Feld (einem crEreigniskörper über einer Zustandsmenge mit einem normierten Maß) definierte Wahrscheinlichkeitsfunktionen, die dann untereinander absolut kontinuierlich genannt werden, wenn sie genau denselben Propositionen Nullwerte zuordnen. Ist das Feld endlich, dann gilt: Es gibt eine endliche, meßbare Partition X und nichtnegative Zahlen a für E in X, die sich auf 1 summieren, so daß das verallgemeinerte Konditional Jeffreys gilt. Die hierdurch beschriebene Transformation von P in P' wird Jeffrey-Verschiebung mit Basis X genannt. Falls kein Koeffizient a gleich Null ist, heißt die Verschiebung echt, und falls alle außer einem Null sind, dann heißt sie primäre Verschiebung. Die erwähnte einfache Konditionalisierung kann als primär gelten. Die Verschiebungen stellen partielle Operationen auf der Familie jener Wahrscheinlichkeitsfunktionen dar, die auf dem Feld definiert sind. Jede Verschiebung ist zu einer gewichteten Summe primärer Verschiebungen äquivalent. Jede Jeffrey-Verschiebung ist einer echten Verschiebung gleich, gefolgt von einer primären. Es liegt nahe, nach der jeweils zutreffenden Jeffrey-Verschiebung zu fragen, da für den Fall der Existenz mindestens einer Verschiebung von P nach P' gewöhnlich viele Verschiebungen alternativ in Frage kommen (jeder Wechsel kann durch Verfeinerung der Partition neu beschrieben werden). Van Fraassen (1980, 171) bezeichnet das als das Identifikationsproblem der Wahrscheinlichkeitskinematik und schlägt zu seiner Lösung zwei Vorgehensweisen vor, nämlich die Verfeinerung und die Vergröberung der Partition. Für jeden Wechsel von P nach P' kann dann gezeigt werden, daß es immer eine minimale Jeffrey•Verschiebung gibt, die ihn bewirkt hat. Verfeinerung und Vergröberung von Partitionen sind leicht zu definieren. Seien X 13 Alisch

194

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

und X' zwei Partitionen desselben Raumes. X' ist Verfeinerung von X und damit X Vergröberung von X', wenn jedes Mitglied von X' Teilmenge eines Mitglieds von X ist.

Es seien P' = f(P), f eine echte Jeffrey-Verschiebung, X die Basis von f, dann heiße X auch P-Basis von P'. Sind P, P' und die P-Basis X gegeben, dann ist f eindeutig ausgezeichnet. Falls P' also überhaupt eine P-Basis besitzt, besitzt sie auch eine gröbste (für einen Beweis dieses Theorems vgl. van Fraassen 1980, 193; zwischen Basen und der Suffizienz (von Statistiken) besteht eine Beziehung, die aus der Definition der partiellen paarweisen Suffizienz der Partition X für P und P' folgt (ebd. Anmerkung 3), so daß das Theorem auch aus der Existenz minimaler suffizienter Statistiken bewiesen werden kann). Der Beweis für das Theorem macht von einer genaueren Beschreibung der Konditionalisierung Gebrauch, die hier gesondert erwähnt werden soll, da sie zur Salmon-Bedingung in Beziehung gesetzt werden kann (die bereits in Abschnitt 3. oben eine Rolle spielte und später für Technologische Theorien noch einmal aufgegriffen wird; vgl. die Abschnitte F.l.5., F.l.8. und F.ll.4.a) unten. Man beachte, daß ganz im oben erwähnten Carnapschen Sinne hier eine Verbindung zwischen der subjektivistischen, epistemischen Interpretation und der objektivistischen in der Reichenbach-Tradition besteht, deren hervorragendster Vertreter Salmon ist.). Jede Konditionalisierung stellt im Prinzip eine orthogonale Dekomposition dar (vgl. dagegen Salmans objektive statistisch homogene Teilklassenzerlegungen a.a.O.). P und P' sind orthogonal, wenn sie denselben Bereich haben und für einige A gilt: P(A) = 1 bzw. P'(A) 0. Falls I abzählbar ist, durch ~ nichtnegative Zahlen gegeben sind, die zu 1 aufsummiert werden können und die Wahrscheinlichkeitsfunktionen Pi wechselseitig in Orthogonalitätsrelation stehen, gibt die folgende Gleichung eine orthogonale Dekomposition von P an: P = I:{ aiPf i in I} (van Fraassen 1980, 172). Die Jeffrey-Verschiebung stellt entsprechend eine spezielle orthogonale Dekomposition der aposteriori-Wahrscheinlichkeit P' dar, wobei die Pi die apriori-W ahrscheinlichkeiten angeben. Dies korrespondiert mit der Dekomposition des apriori auf der Partition X.

=

Wie läßt sich die Anwendung einer Jeffrey-Verschiebung rational rechtfertigen? Gegeben seien Informationsinputs, dann werden in einer Situation relativ zur Erfahrungsbasis gewisse Beschränkungen des aposteriori-Zustands akzeptiert. Erzeugt nun eine Verschiebung ein aposteriori, das die Beschränkungen nicht erfüllt, so gilt es, ihnen wenigstens in einiger Hinsicht optimal zu entsprechen. Die Verschiebung sollte demgemäß die minimalste unter weitgehender Erfüllung der Beschränkungen sein. In diesem Sinne hat Jamison (1974) bewiesen, daß Jeffreys verallgemeinerte Konditionalisierung die relative Information in P' mit Bezug auf P im Hinblick auf den folgenden Be-

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

195

schränkungstyp minimiert: die aposteriori-Wahrscheinlichkeit von E sollte p(E) a für jeden Teil E der Partition X sein (vgl. auch Domotor I Zanotti I Graves 1980). Die Information in P' relativ zu P und gemessen in der Partition X ist (vgl. Hobsan 1971): I(P',P,X) =:E{P'(E) log(P'(E)/P(E)): Ein X}. Sie fällt immer nichtnegativ aus und ist nur dann Null, wenn P und P' identisch sind (sie!). Wenn :E{P'(E) I(P'E,PE,x'): E in X} mit dem Konditional I(P',P,X/X') gleichgesetzt wird, dann erfüllt die relative Information die Dekomposition: Wenn X' eine Verfeinerung von X ist, dann ist I(P',P,X') = I(P',P,X) + I(P',P,X/X'). Natürlich kann die Information, die in der Verfeinerung gemessen wird, höchstens so groß sein, wie die, die in X gemessen wird. (Van Fraassen 1980, l75f. hat übrigens gezeigt, daß der erwähnte Beschränkungstyp wesentlich verallgemeinert werden kann. Auch im Bereich dieser Beschränkungen ist es möglich, echte Jeffrey-Verschiebungen zu wählen, die zu aposteriori-Wahrscheinlichkeiten führen, welche die Beschränkungen erfüllen und zugleich die Information relativ zur apriori-Wahrscheinlichkeit minimieren.

=

Nachdem Howson noch angenommen hatte, daß ein grundsätzlicher Nachteil der subjektivistischen Wahrscheinlichkeitsinterpretation darin besteht, daß keine Wahrscheinlichkeitskinematik existiert, hat die an van Fraassen orientierte Darstellung gezeigt, daß bereits auf der Basis der Jeffrey-Konditionalisierung eine solche Kinematik formuliert werden kann. Allerdings gibt es auch gegen diese zwei Einwände. Erstens besteht keine Möglichkeit, ein einfaches Konditional zu revidieren. Wird E als wahr akzeptiert, d.h. P(E) = 1, dann läßt keine Jeffrey-Verschiebung für E eine niedrigere Wahrscheinlichkeit zu, falls sich E als fallible Proposition erweist. Zweitens kann es durchaus sein, daß eine Proposition abermals als wahr akzeptiert wird, etwa wenn eine Hypothese auf der Basis induktiver Prozeduren als beste Erklärung für eine akzeptierte Evidenz gewählt wird. Dieses Vorgehen scheint mit der Konditionalisierung zu konfligieren, da mit der Hypothese etwas akzeptiert wird, was über die Evidenz hinausgeht. Um diesen zwei Einwänden zu begegnen, hat van Fraassen (1980, 179 ff.) die Jeffrey-Konzeption verallgemeinert. Dazu gehört, daß der Glaubenswandel auf zwei Arten als mit dem epistemischen input verbunden angesehen wird, zum einen über die Veränderung des Wissenscorpus und zum anderen über die der zugehörigen Entscheidungsoperativität (wir haben solche Änderungen schon in unserer Verhaltenstheorie diskutiert; vgl. Alisch/Rössner 1977; Alisch 1979). Die Wissenscorpusveränderung zielt darauf ab, eine Proposition E dem Corpus im Falle der Kompatibilität additiv hinzuzufügen bzw. im Falle der Inkonsistenz von E und Corpus letzteres im Hinblick auf gewisse angenommene Einschränkungen so abzuändern, daß E zum aposteriori-Corpus gehören kann (vgl. Levi 1974; Harper 1977).

13•

196

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

Van Fraassen ( 1980, 179) erwähnt in diesem Zusammenhang ein interessantes feedback-Problem, das im Hinblick auf den zweiten oben genannten Einwand auftaucht: Angenommen, Hypothese H werde in Übereinstimmung mit einer akzeptierten induktiven Inferenzpraxis als beste Erklärung angesehen. Heißt das lediglich, daß damit dem Glauben an H qua epistemischen Urteils Ausdruck verliehen wird, oder findet H zugleich auch Aufnahme in das Wissenscorpus? Sollte letztgenanntes der Fall sein, dann bestünde durchaus keine Verträglichkeit zwischen einfacher Konditionalisierung und der induktiven Praxis. Um dieses Problem der Kompatibilität von Konditional und Inferenz zu lösen, scheint ebenfalls eine Verallgemeinerung des Jeffrey-Konditionals notwendig, deren Adäquatheit sich leicht zeigen läßt. Sie muß mit den Vorgehensweisen der Bildung zulässiger Intervalle (Akzeptanzgrenzen) und der Bildung statistisch homogener Teilklassen konkurrieren können. Die beiden Vorgehensweisen resultieren, abweichend vom Jeffrey-Konditional, aus anderen Auffassungen zu den faktischen Propositionen des Corpus. Während Jeffrey, van Fraassen, Harper, Levi oder Giere (1975) Aspekte objektiver Chancen in Corpuselementen zulassen (wobei allerdings zu beachten ist, daß die Autoren in ihren theoretischen Positionen erheblich voneinander abweichen; vgl. etwa für das Verhältnis zwischen Jeffrey und Giere die Arbeiten: Jeffrey 1975; 1975a; Giere 1975a), bevorzugen etwa Kyburg (1974) und Salmon (1977a) Aussagen über statistische Verteilungen und relative Häufigkeiten. Kyburg verwendet epistemische Urteile der Form: Die Wahrscheinlichkeit für A ist nicht kleiner als r und nicht größer als s, was voraussetzt, daß keine verborgenen Variablen angenommen werden können. Das ist insofern interessant, als von Plato (1981) die Beziehung zwischen subjektiven und objektiven Wahrscheinlichkeilen als Verborgene-Variablen-Relation expliziert, selbstverständlich nachdem er die quantentheoretische Interpretation der verborgenen Variablen verallgemeinert hat (Verborgene Variablen werden von Einstein vermutet, von Bohr dagegen zur Interpretation des Nondeterminismus der Quantenmechanik zurückgewiesen; vgl. ausführlich Alisch 1990f.; dort auch Verweise auf die Originalliteratur; allgemeinverständlich und dennoch ausreichend exakt referiert Casti 1990.). Es zeichnet sich hier eine erhebliche Schwierigkeit für die subjektivistische Interpretation ab. Nicht nur, daß Kyburgs Voraussetzung der Nichtexistenz verborgener Variablen durch von Platos Behandlung objektiver Wahrscheinlichkeilen als statistische verborgene Variablen für subjektive Wahrscheinlichkeilen infragegestellt wird, es scheint sogar, daß die noch grundlegendere Auffassung de Finettis, daß es keine objektiven Wahrscheinlichkeiten geben kann (und nicht nur, wie Good 1965 meint, daß es möglich ist, daß bestimmte objektive Wahrscheinlichkeilen im

ill. Erkenntnisorientierte erziehungswissenschaftliche Forschung

197

Prinzip nicht gewußt werden bzw. nicht exakt bestimmt sein können), überdacht werden muß. De Finetti hat sich zu seiner Auffassung aufgrund des nach ihm benannten Repräsentationstheorems (vgl. auch Stegmüller 1973, Anhang II; von Plato 1981, 64 ff.) berechtigt gefühlt, das etwa folgendes besagt: Gegeben seien vertauschbare Ereignisse und Ereignissequenzen. Eine Sequenz heißt vertauschbar, wenn alle Sequenzen derselben Länge und mit derselben Anzahl positiver Ereignisausgänge dieselben Wahrscheinlichkeilen haben (ihre Wahrscheinlichkeilen hängen z.B. nicht von der Anordnung der Positiva ab). Sind für Sequenzen subjektive Wahrscheinlichkeilen bekannt, dann kann die Wahrscheinlichkeit einer Sequenz mit r Positiva und n - r Negativa als Durchschnitt über den entsprechenden unbekannten Wahrscheinlichkeiten repräsentiert werden vermittels: J•.pr(l - p)n-r dF(p). P(E) = p bezeichnet hier die unbekannte Erfolgswahrscheinlichkeit (Auftreten der Positiva). Für den Objektivisten stellt dagegen p einen unbekannten Parameter dar. Da der Subjektivist den möglichen Werten von p Gewichte geben kann, findet er auch eine Wahrscheinlichkeitsverteilung F zu p. Nach de Finettis Repräsentationstheorem sind also die vertauschbaren subjektiven Wahrscheinlichkeilen Durchschnitte oder kontinuierlicher Grenzwert von Durchschnitten (z.B. ein Integral) der unbekannten objektiven Wahrscheinlichkeiten p (die de Finetti für theoretische Terme hält). Wird F subjektivistisch interpretiert, dann zeigt das Theorem, daß objektive Wahrscheinlichkeilen unnötig sind. Es sei angemerkt, daß ggf. die Forderung nach stochastischer Unabhängigkeit der Ereignisse in einer Sequenz nicht identisch mit der nach Vertauschbarkeil ist. De Finetti hat jedoch gezeigt, daß die Konditionalisierung zu asymptotischer stochastischer Unabhängigkeit führt (Gesetz der großen Zahl). De Finettis Repräsentationstheorem kann nun als Spezialfall des ergodiseben Dekompositionstheorems für stationäre Maße nachgewiesen werden (den Nachweis, dessen technische Details ich hier nicht aufführe, hat von Plato 1982 erbracht; für die Behandlung ergodiseher Dynamischer Systeme vgl. Alisch 1990 und unten Abschnitt E.II.l.c)kk)). Dieses Theorem verwendet den Umstand, daß stationäre Wahrscheinlichkeitsmaße P eindeutige Mischungen ergodiseher Maße sind (für Einzelheiten zu Mischungen vgl. ebd.). Relativ zu einem eindeutigen Maß H lautet das Theorem: P(A) =JPE(A) dJ.l, wobei PE die ggf. infiniten ergodiseben Wahrscheinlichkeiten bezeichnet. Da Stationarität die Konvergenz der relativen Häufigkeilen in den (ergodischen) Teilen garantiert (allgemeiner: die durchschnittlichen Schätzungen von Funktionen entlang von Trajektorien), der Grenzwert der relativen Häufigkeilen aber unbekannt ist, weiß man auch nicht, in welchem ergodiseben Teil sich die jeweils aktuelle Trajektorie eines stochastischen Prozesses befindet. Diese Unwissenheit wird in der Mischung der verschiedenen Wahrscheinlichkeiten

198

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

repräsentiert. Hier jedoch sieht von Plato (1982, 428) ein Problem. Wenn die Gewichte der verschiedenen Hypothesen über den wahren Wert der Wahrscheinlichkeit subjektiv interpretiert werden, handelt es sich um eine aprioriVerteilung ohne physikalische Interpretation. Physikalisch wäre daher nach der Existenz der Bewegungsinvarianten der positiven Maße zu fragen, nicht jedoch nach unserem möglichen Wissen. Existiert nur eine Bewegungskonstante, dann ist das System ergodisch und die objektiven Wahrscheinlichkeiten sind durch die eindeutig festgelegten Maße über dem Zustandsraum gegeben. Ist das System hingegen nicht ergodisch (aber stationär), dann variieren die Gesetze des statistischen Verhaltens zwischen seinen Komponenten. Obwohl die Zeitmittel in den ergodiseben Teilen konstant sind, hängt es doch von den Anfangsbedingungen ab, in welchem Teil der Dekomposition die Prozeßtrajektorie jeweils verläuft. Zwar weiß man, daß die relativen Häufigkeilen konvergieren, aber kein Theorem besagt die Eindeutigkeit der Grenzwerte (dies übrigens ein Beispiel für einen Umstand, der von den Häufigkeitstheoretikern unter den Objektivisten nicht behandelt werden kann; vgl. von Plato 1982, 431). De Finettis Behauptung der Überflüssigkeit objektiver Wahrscheinlichkeiten betrifft demnach die Wahrscheinlichkeiten statistisch stabiler Ereignisse (im Sinne eindeutigen Grenzwertverhaltens). Doch gerade dafür existiert wie gezeigt - ein physikalisches Kriterium, was die Konsequenzen von de Finettis Repräsentationstheorem nicht unberührt lassen dürfte. Statt also apriori-Gewichte einzuführen, sind die Wahrscheinlichkeiten der ergodiseben Komponenten als Erscheinungen von Bewegungsinvarianten aufzufassen. Diese Auffassung ist im übrigen mit zwei uns hier interessierenden Wahrscheinlichkeitsinterpretationen verträglich. Einerseits verallgemeinert die ergodische Dekomposition de Finettis Theorem, andererseits korrespondiert es exakt mit der maßtheoretischen Konzeption der relativen Häufigkeilen (da Ergodizität mit der Bedingung äquivalent ist, daß Sequenzen identische asymptotische Eigenschaften (vor allem Grenzwerte ihrer relativen Häufigkeiten) aufweisen. Die zuletzt erwähnte Verträglichkeit der ergodiseben Dekomposition führt uns zu der oben formulierten Bedingung für die Verallgemeinerung des Jeffrey-Konditionals zurück, verträglich mit zulässigen Intervallbildungen bzw. statistisch homogenen Teilklassenbildungen zu sein. Offenbar sucht das verallgemeinerte Konditional eine Verbindung zwischen subjektivistischer und frequentistischer Interpretation, was zudem einen Weg zur Zulassung von Hypothesenwahrscheinlichkeiten eröffnet (die vom Subjektivisten gewöhnlich nicht benötigt werden, da er zwischen seinem Glauben und der Zutreffendheil desselben nicht trennt. Die Beurteilung der Zutreffendheil wäre objektivistisch. Anders gewendet: Subjektive Wahrscheinlichkeilen können in der Sicht des Subjektivisten nur korrekte Wahrscheinlichkeiten sein.).

m. Erkenntnisorientierte erziehungswissenschaftliche Forschung

199

Wir bezeichnen die Strategie, die der Intervallbildung folgt, mit Q. Q' führt als Strategie zur unteren Intervallgrenze, Q" zur oberen. A und B seien die Prämissen eines statistischen Syllogismus (vgl. unten Abschnitt D.l.l.d)bb)) und C oder D die Konsequenzen des Schlusses, die entweder die untere oder die obere Grenze als zutrefffend ergeben. Die Verallgemeinerung der JeffreyKonditionalisierung lautet (vgl. auch van Fraassen 1980, 185f.): Es gibt Jeffrey-Verschiebungen fund g, so daß: (1) wenn P in Q ist und P(C) positiv, dann ist fP in Q', und wenn P(D) positiv ist, dann ist gP in Q"; (2) wenn P' in Q' ist, dann gilt für einige P in Q: P' fP; ist dagegen P" in Q", dann gilt: P" = gP für einige P in Q. Es läßt sich leicht prüfen, daß diese Konditionalisierung der Bedingung hinsichtlich der Intervallbildungsstrategie oder der zur Bildung statistisch homogener Teilklassen insofern entspricht, als sie jeweils korrekt die Wahrscheinlichkeitskinematik beschreibt (für einen Detailnachweis siehe van Fraassen 1980, 186).

=

Ein Nachteil der (nichtverallgemeinerten) Jeffrey-Konditionalisierung bestand darin, daß der input der Kinematik nicht dem Kompositionsgesetz (PE)E' = PE 1\ E' unterzogen werden konnte, d.h. daß die Komposition z.B. nicht auf Evidenzen anwendbar war (Domotor 1980; Domotor zählt neben der Komposition noch die Trivialitätsbeziehung P1 = P zu den elementaren kinematischen Gesetzen) und daß bei Erweiterung des basalen Bereiches der Evidenzen die Komposition ihre Kommutativitätseigenschaften verlor. Daher schlug Field (1978) einen anderen input-Raum vor, der üblicherweise in der statistischen Physik verwendet wird und kommutative Kompositionen zuläßt. Um das entsprechend modifizierte Jeffrey-Konditional (im folgenden FieldKonditional) zu rechtfertigen, muß man auf das Prinzip der maximalen relativen Entropie zurückgreifen und Argumente berücksichtigen, die normalerweise für Gibbs-Verteilungen gelten (die gebraucht werden, um die Verteilungsfunktionen für makroskopische Systeme in Gleichgewichtszuständen zu definieren). Das korrespondiert mit der Auffassung von Jaynes (1979), daß keine deterministische Lerndynamik ohne Entropievoraussetzungen definiert werden kann. Wie üblich, heißt hier deterministisch die eindeutige Bedingtheit eines Folgezustands durch seinen Vorgänger und einen input. Entsprechend diktieren die elementaren kinetischen Gesetze der Trivialität und Komposition die Verschiebung von Glaubenszuständen Pt = P und Pt+dt = PE, wobei PE = P*E unter den Gesetzen. Die P sind hier Glaubenszustände und die E Evidenzzustände aus dem input-Raum. Es versteht sich von selbst, daß nun die Frage gestellt werden muß, ob die von van Fraassen u.a. durch inputGeneralisierung vorgenommene Verallgemeinerung der Jeffrey-Konditionalisierung tatsächlich ohne das Entropieprinzip auskommt. Es soll in Beantwortung dieser Frage nicht nur einfach darauf verwiesen werden, daß van Fraassen eine Verallgemeinerung des Konditionals ohne Rückgriff auf das Entropieprinzip vorgelegt hat, sondern prinzipieller die Dis-

200

C. Erkenntniswert erziehungswissenschaftlicher Forschungsergebnisse

pensierbarkeit des Prinzips bei verallgemeinerten Konditionalen angesprochen sein. Es ist klar, daß eine Bestätigung der Dispensierbarkeit voraussetzt, daß verallgemeinerte Jeffrey-Konditionale (also auch das Field-Konditional) nicht auf das Bayes-Konditional reduzierbar sind (das nicht ohne das Entropieprinzip auskommt). Zur Vorbereitung des nun Folgenden zunächst ein Blick auf Fields Ergebnisse. Mit dem Jeffrey-Konditional wurde versucht, einer entscheidenden Schwierigkeit des Bayes-Ansatzes Herr zu werden und damit ein fundamentales Problem zu lösen, das im Zusammenhang mit Grünbaums Argumentation gegen das deduktivistische Rationale (siehe oben Abschnitt C.ill.2.) eine Rolle spielte. Wie Field (1978, 361) verdeutlicht, stellt das (auch von Grünbaum genutzte) Bayes-Konditional kein input-Gesetz dar, sondern lediglich den Kern einer rationalen psychologischen Entscheidungstheorie. Ohne inputund output-Gesetze ist es untauglich und das aus folgendem Grund: P sei die Glaubensfunktion zu t, P' die zu t', und zwar gegeben durch P'(A) =P(A 1\ E1 1\ ••• 1\ En)IP(E1/\ ... 1\ En) für einige Propositionen E1, ... ,En· Damit ist nicht festgelegt, welche Propositionen den Glaubenswandel evozieren. Normalerweise sagen Bayesianer, daß die relevanten Propositionen genau jene sind, die zwischen t und t' durch die Beobachtungen einer rationalen Person angeregt werden. Um das allerdings präzise zu fassen, benötigt man ein Gesetz, das verdeutlicht, welche Propositionen, über die eine Person semantisch in ihrer Sprache verfügt, als Beobachtungspropositionen zu gelten haben und durch welche Art von Abbildung (z.B. durch eine Korrelation) sie mit welchen sensorischen Stimulationen so verbunden werden können, daß sie direkt anregbar sind. Im Bayes-Formalismus haben die Propositionen E1, ... ,En, die angeregt sind, eine Wahrscheinlichkeit von 1 (vgl. oben schon das einfache Konditional). Will man sowohl diese Wahrscheinlichkeitsrestriktion durch Verallgemeinerung umgehen, als auch ein entsprechendes input-Gesetz berücksichtigen, dann resultiert als erste Variante das Jeffrey-Konditional, das einen input-Parameter berücksichtigt, (der die Wahrscheinlichkeiten auch kleiner 1 sein läßt). Geht man indes nur von den Forderungen aus, daß P' durch P bestimmt sein sollte sowie durch die Liste der Propositionen, die in einem ggf. unterschiedlichen Grad angeregt sind (der Grad gemessen durch den input-Parameter), dann gelangt man zu P' =(ist gelb)

~~(springt aus dem Wasser)

c:> Konzepte, () Eigenschaften,

~

Relationen

Abb. 14: Konzepthierarchie mit drei Ebenen nach Collins/Quillian ( 1969)

Allerdings gibt es weitere Fakten, von denen intuitiv vorausgesetzt wird, daß auch sie Modelle der Theorie sein sollten. Z.B. sollte sich die Reaktionszeit für die Verneinung von Sätzen wie: "Ist die Pinie eine Blume? Ist der Stuhl eine Blume?" nicht voneinander unterscheiden, oder es sollte so sein, daß Kategorienzugehörigkeilen mit gleicher Reaktionszeit festgestellt werden, unabhängig davon, ob eine umfangreiche oder weniger umfangreiche Kategorie vorliegt. Daß ein "mafer" kein Tier ist, sollte weniger Entscheidungszeit beanspruchen als die Falsiflzierung, daß der "mafer" kein Hund ist. Schließlich sollte auch die Annahme nicht zu bestätigen sein, daß unterschiedliche Verifikationszeiten für Sätze wie "Der Spatz ist ein Vogel" und "Das Huhn ist ein Vogel" auftreten. Alle diese weiteren Fälle stellen jedoch Fakten dar, die nicht als Modelle der Theorie von Collins und Quillian gelten können. Sie weisen nicht die der Theorie entsprechende Struktur auf. Ist das nun ein bedenklicher Tatbestand? Vom logischen Standpunkt aus nicht. Eine empirische Theorie gilt dann als brauchbar, wenn sie widerspruchsfrei ist, und dies ist sie gerade dann, wenn es mindestens ein Modell gibt, das sie erfüllt. Gibt es aber ein empirisches Modell, dann gilt die Theorie für eben dieses Modell, für einen Bereich des Faktischen. Sollte es mehrere Modelle der Theorie geben, dann gehören sie

I. Kognitionspsychologisch orientierte Theorienbildung

373

alle zur Referenzmenge der Theorie. Die Theorie gilt, wenn auch nur relativiert auf ihre faktische Referenzmenge. Hier liegt ein Einwand nahe. Man kann sich zwar sicher darauf verständigen, daß die Referenzmenge einer kognitionspsychologischen Theorie die Menge ihrer Modelle oder, wie man auch sagt, die Menge ihrer intendierten Anwendungen (Sneed 1971; Putnam 1982) ist. Doch zeigt nicht gerade das Beispiel der Theorie von Collins und Quillian, daß man zu den intendierten Anwendungen mehr rechnen möchte als die faktischen Modelle? Der Kenner dieser Theorie wird darauf verweisen, daß man sich sehr viel von ihr versprochen hatte und enttäuscht worden ist. Sich jetzt darauf einzurichten, daß sie nur relativ zu der Menge ihrer faktischen Modelle wahr sein soll, erscheint kontraintuitiv. Man war seinerzeit schließlich von der intuitiven Vorstellung ausgegangen, daß die Theorie auch Erklärungen für die erwähnten, nunmehr abweichenden Fälle bieten könnte. Kurz: Die intuitive Vorgabe bezüglich dessen, was Sprachverstehen heißt, ist von Collins' und Quillians Theorie offensichtlich nicht getroffen worden. Nun fällt es aber ebenso schwer, wegen der kontraintuitiven Situation die gesamte Theorie von Collins und Quillian zurückzuweisen. Man wird ihre Geltung bezüglich der faktischen Referenzmenge anerkennen können. Das Motiv allerdings, nach Theorien zu suchen, deren intendierte Anwendungen alle im Zusammenhang mit der Collins-Quillian-Theorie faktisch gefundenen Modelle umfassen, bleibt. Hat das Löwenheim-Skolem-Theorem auch hier Auswirkungen? In der Tat: "Worauf Skolem wirklich hingewiesen hat, ist folgendes: keine interessante Theörie ... kann (in und aus sich selbst heraus) ihre eigenen Gegenstände bis auf Isomorphie bestimmen" (Putnam 1982, 28). Dies bedeutet, daß immer eine Kluft besteht zwischen intuitiv intendierten Anwendungen einer Theorie und der Theorie selbst. Die kognitionspsychologische Theorie ist es jedenfalls nicht, die uns die Mittel an die Hand gibt, um Klarheit darüber zu schaffen, was beim Aufstellen einer Theorie eigentlich intendiert wird. Wir können durch die bloße Benutzung der Sprache der Theorie nicht ihre Referenzmenge erfassen. Das wirft das Problem auf, ob statt dessen mentale Eigenschaften des kompetenten Wissenschaftlers bzw. Kognitionspsychologen die Rolle übernehmen, die Referenzmenge zu bestimmen. Man könnte hier im Bereich der Metatheorie eine Analogie zu der Situation entdecken, die bei allen vorMontagueschen Versuchen zur Konstruktion einer universellen Grammatik zu konstatieren war. Die Versuche wurden so angelegt, daß zur Feststellung der Wahrheit eines alltagssprachlichen Satzes der Satz in eine logische Kunstsprache übersetzt werden mußte. Um zu rechtfertigen, daß diese Übersetzung angemessen vollzogen wurde, rekurrierte man auf den sog. kompetenten Sprecher, "dessen intuitive Fähigkeiten den einzigen Garanten für die Über-

374

E. Probleme der Grundlagenforschung

führungder normalen Sätze in die formalen Ausdrücke bildeten" (Stegmüller 1975, 64). Nun ist es unter methodologischen Gesichtspunkten völlig unbefriedigend, zur Klärung der Frage nach der Referenzmenge von kognitionspsychologischen Theorien auf besondere Fähigkeiten ihres Konstrukteurs zurückzugreifen. Allzu leicht könnte man dabei in platonistische Sichtweisen geraten. Wenn aber auch der Realismusaufgrund der Schwierigkeiten, die durch Skolemisierung erzeugt werden, unbefriedigend ist, bleibt als Ausweg nur eine instrumentalistische Variante. Hier muß ich noch etwas hinzufügen. Putnams Kritik am metaphysischen Realismus (vgl. Putnam 1977), einer erkenntnistheoretischen Position, die interessanterweise innerhalb der Pädagogik auch von Herbart (1964, § 149) vertreten und seitdem oft in Anspruch genommen wurde, ist umfangreich diskutiert worden (z.B. von Merrill 1980; Currie 1982; Glymour 1982; Van Fraassen 1982; Peirce/Rantala 1982; 1982 a; Koethe 1979; Tuomela 1979). Kritik richtete sich vor allem gegen Putnams modelltheoretischen Beweis für die Unmöglichkeit des metaphysischen Realismus, genauer: gegen Putnams Rekonstruktion der realistischen Position, die als Prämisse in den Beweis eingeht. Der Realist ist der Auffassung, daß eine Theorie, die alle Attribute der Idealität unter den Gesichtspunkten der operationalen Brauchbarkeit, inneren Konzisheit und Eleganz, Plausibilität, Einfachheit usw. auf sich vereinigt, doch falsch sein kann (Putnam 1977, 485). Wenn diese Falschheitsmöglichkeit sich auch noch darauf bezieht, daß der Bereich des Faktischen transzendiert und das Kontrafaktische als real unterstellt wird, dann nimmt der Realist eine metaphysische Haltung ein, die von Putnam wie folgt attackiert wird (vgl. Putnam 1977; Merrill 1980): Angenommen, eine Theorie T sei ideal in dem Sinne, daß sie alle wünschenswerten Eigenschaften auf sich vereinigt außer objektiver Wahrheit. T sei also konsistent, vollständig, einfach, in der Lage, vermutlich jede Observationale Tatsache vorherzusagen usw. T sei außerdem kompatibel mit der Annahme, daß genau n verschiedene Einzeldinge existieren (n finit oder infinit). Da T konsistent ist, hat sie (nach dem Löwenheim-Skolem-Theorem) ein Modell der Kardinalität n, das mit M bezeichnet sein soll. In M ist jeder Satz aus T wahr. m sei eine eindeutige Abbildung des (n Elemente enthaltenden) Grundbereiches von M auf die existierenden Einzeldinge. m induziert damit eine Erfüllungsrelation SAT zwischen der Sprache L und T sowie Mengen von existierenden Einzeldingen, d.h., m-1 sei die Konversion von m; x" ... , x* seien K existierende Einzeldinge und cl> sei eine Formel aus L, dann gilt: )

Für Nachw~ise der Nichtprütbarkeit oder Prüfbarkeil muß in jedem Fall auf die psychologische Gesetzmäßigkeit rekurriert werden, die der A-A-U unterliegt. Jaenecke (1982) geht sogar noch einen Schritt weiter und behauptet neben der Notwendigkeit auch die Hinreichendheil der Kenntnis dieses Gesetzes. Fragen nach der Repräsentation und Eindeutigkeit der A-D-U sind seiner Meinung nach überflüssig. Obwohl ich nicht so weit gehe, betone ich doch auch die Prävalenz der Gesetzmäßigkeit, auf die A-A-U gestützt sind. Ohne solche Gesetzmäßigkeit ist nicht zu erwarten, daß sinnvoll Meßeinrichtungen konstruiert werden können. Um ein Meßgerät adäquat einzusetzen, ist es notwendig, daß man über folgende Annahmen verfügt: 1. Zwischen dem mentalen Vorgang A und der Meßgeräteeigenschaft B besteht ein systematischer Zusammenhang. 2. Intensitätsänderungen von A erzeugen solche von B. Große kognitionspsychologische Theorien sind gewöhnlich durch folgende Meßdaten (dreier verschiedener Meßgeräteklassen) prütbar: verbale, chronometrische und physiologische Daten (Posner 1978). An der Aufdeckung von A-A-U-Gesetzen im verbalen und chronometrischen Bereich wird seit längerem intensiv gearbeitet (vgl. z.B. Ericsson und Sirnon 1980 für verbale Daten; Wickelgren 1979 für einen Vergleich von Reaktionszeit (RT)- und speedaccuracy trade-off-Messungen). Durch diese Arbeiten ist folgendes deutlich geworden: (1) Es gibt gesetzesartige Formulierungen von A-A-U, z.B., daß Wahl-RTAufgaben einheitlich das Durchlaufen von sechs seriell angeordneten Bearbeitungsstadien erfordern, deren einzelne Zeitaufwendungen sich zur GesamtRT addieren (Sanders 1980).

(2) Es gibt eine Reihe von Meßbereichen, in denen zu erwarten steht, daß gesetzesartige Zusammenhänge gefunden werden. Z.B. sind Fortschritte zu verzeichnen auf dem Gebiet, Zeitverläufe für mentale Operationen durch Manipulation von Variablen zu beeinflussen. Dabei sollen Variablenänderungen zu voneinander unabhängigen Zeitverlaufsänderungen führen (vgl. Posner 1978; Posner/Mcl..eod 1982).

I. Kognitionspsychologisch orientierte Theorienbildung

385

(3) In einem allerdings weitaus größeren Umfang stößt die Entwicklung von Meßmethoden auf Schwierigkeiten. Es gelingt nur mühsam, gesetzesartige A-A-U zu identifizieren, obwohl Untersuchungen in die richtige Richtung weisen (vgl. für verbal reports z.B. Smith/Miller 1978; Meichenbaum/ Butler 1980; Adair/Spinner 1981; Morris 1981; WegnerNallacher 1981). Man urteilt sicher nicht zu skeptisch, wenn man davon ausgeht, daß zur Zeit Fragen nach der Prüfbarkeit großer kognitionspsychologischer Theorien kaum durch Rückgriff auf A-A-U-Gesetze beantwortet werden können. Neben den erheblichen Erschwernissen, die durch Entwicklungsstadien wie (2) und (3) z.B. für den Aufbau von Fehlertheorien oder für eine fundamentale Metrisierung bestehen, ist auch im Zusammenhang mit theoretischen Begriffen auf Schwierigkeiten hinzuweisen. Dazu zunächst zwei Vorbemerkungen: 1. Theoretische Terme müssen kognitionspsychologisch interpretiert werden können. 2. Die Messung für theoretische Terme (genauer: jene Messung in mindestens zwei Meßbereichen, deren Ergebnisse die Grundlagen für die Berechnung theoretischer Terme ergeben) beruht auf der Voraussetzung einer Geltung der kognitionspsychologischen Theorie. Die erstgenannte Annahme sichert, daß es sich um theoretische Terme der großen kognitionspsychologischen Theorie handelt und nicht um Terme, die zur technischen Erleichterung, zur Anwendung von Rechenverfahren o.ä. eingeführt werden. Die zweite Annahme zeigt, daß es sich bei einem theoretischen Term um einen theorieabhängigen Term handelt, dessen Werte nur berechnet werden können, wenn man von der Gültigkeit der Theorie ausgeht. Dies schafft den Tatbestand einer indirekten Messung. Wenn man nun über Probleme der Prüfbarkeit von Theorien spricht und dazu auf theoretische Terme verweist, dann muß man folgende Schwierigkeiten beachten: 1. In den Entwicklungsstadien (2) und (3) ist nicht entscheidbar, ob ein theoretischer Term kognitionspsychologische Bedeutung hat oder ob er nur "theoretischer Hilfsbegriff' (Ludwig 1981) ist, der als Konstrukt eingeführt wird, aber dennoch substituierbar und damit entbehrlich ist. 2. Die Feststellung der Theorieabhängigkeit eines theoretischen Termes ist in den Stadien (2) und (3) äußerst schwierig, da sie voraussetzt, daß es kein theorieunabhängiges Meßverfahren gibt, und wie sollte dies ohne gesicherte Kenntnis einer A-A-U-Gesetzmäßigkeit festgestellt werden können? Zusammenfassend muß man konstatieren, daß es angesichts der ungelösten Probleme auf dem Gebiet der theoretischen Terme in großen kognitionspsychologischen Theorien verfrüht ist, Abschließendes zur Prüfbarkeit bzw. Nichtprüfbarkeit dieser Theorien zu äußern. Unter Einbeziehung des unter E.l.2.c)aa) Gesagten würde Nichtprüfbarkeit vorliegen bei fehlender kognitionspsychologischer Interpretation eines Terms oder beim Nachweis der Nichtkonstruierbarkeit von Verifikationsverfahren. 2S Alisch

386

E. Probleme der Grundlagenforschung

3. Ausblick

Welche Konsequenzen ergeben sich insgesamt aus den dargestellten Problemen für die kognitionspsychologische Metatheorie? Mir scheint, daß es zweckmäßig ist, erkenntnistheoretisch einen instrumentalistischen Standpunkt einzunehmen (ich präferiere den pragmatischen Modellismus von Herbeet Stachowiak; vergleiche dazu z.B. Stachowiak 1983). Innerhalb dieser erkenntnistheoretischen Position ist die Wahl eines erkenntnistheoretischen Rahmens (z.B. eines spezifisch aristotelischen, wie er typisch ist für Netzwerktheorien) legitim. Sie erscheint lediglich dann revisionsbedürftig, wenn die Zweckmäßigkeit des Denkens innerhalb dieses Rahmens zur Lösung wissenschaftlicher Probleme in Frage steht (wie dies Gibson 1982 für die aristotelische Nachfolge in der Kognitionspsychologie festgestellt zu haben glaubt). Metatheoretisch werden mit der Relativität der Wahrheit, mit Problemen bezüglich der theoretischen Terme, mit Problemen der Ausdrucksstärke etc. diejenigen Ansätze besser fertig als die Aussagenkonzeption, die als strukturalistische oder modelltheoretische Theoriekonzeptionen gekennzeichnet werden. Allerdings ist es zur Abschätzung der Nützlichkeit dieser Konzeptionen für kognitionspsychologische Zwecke notwendig, auf einige Forschungslücken aufmerksam zu machen. 1. Im Bereich der Physik steht die Fruchtbarkeit strukturalistischer Theoriebegriffe außer Frage. Allerdings gehen in die technische Durchführung dieser Art der Rekonstruktion physikalischer Theorien Voraussetzungen ein, die zwar in Theorien der Physik, jedoch nicht in allen Theorien der Kognitionspsychologie erfüllt sind (z.B. die Annahme, jede Theorie enthalte einen explizit ausformulierten mathematischen Kern). Die Übertragung und Anwendung strukturalistischer Theorienauffassungen auf die Kognitionspsychologie ist nur dann legitim, wenn man gewisse mengentheoretische Repräsentationen für möglich hält. 2. Baizer (1982; vgl. auch den Exkurs über Theorien und Modelle) versuchte, die Feeudsehe Theorie strukturalistisch zu rekonstruieren. Dabei stellt sich ein ähnliches Problem wie bei der Skolemisierung. Die Übersetzung Feeudseher Annahmen in eine logische Sprache ist auf die Fähigkeiten des Übersetzers angewiesen. Ob Baizer die intendierten Anwendungen der Feeudsehen Theorie mit seiner Rekonstruktion getroffen hat, müßte gezeigt werden; denn: Was für die formale grammatikalische Behandlung natürlicher Sprachen gilt, daß nämlich eine Übersetzung durch ein Verfahren ausgezeichnet wird, gilt analog für die metatheoretische Betrachtung kognitionspsychologischer Theorien. Nachdem ich angesprochen habe, (a) welche erkenntnistheoretischen und metatheoretischen Schwierigkeiten in der traditionellen kognitionspsychologischen Metatheorie und Epistemologie auftauchen können, und (b) auf Instrumentalismus und strukturalistische Theorienauffassung als Alternative verwiesen habe, bleibt prospektiv folgendes zu sagen: Wenn die Kognitionspsychologie einen Wert darin sieht, den Schwierigkeiten aus dem Wegzuge-

I. Kognitionspsychologisch orientierte Theorienbildung

387

hen, liegt es weiterhin an den Metatheoretikern zu zeigen, wie der Strukturalismus für psychologische Theorien auch hinsichtlich der Entdeckung neuer Tatbestände und nicht nur im Hinblick auf Rekonstruktionen nutzbringend entwickelt werden kann. Zum Abschluß dieser Betrachtungen noch eine vorbeugende Antwort auf die vielleicht naheliegende Frage, ob der Instrumentalismus Kognitionspsychologie betreibt, ohne die faktische Realität psychischer Phänomene anzuerkennen. Diese Frage hat Goodman (1973) erschöpfend wie folgt beantwortet: "Von Seinsweisen der Welt zu sprechen oder von Weisen der Beschreibung oder Abbildung der Welt, heißt von Welt-Beschreibungen oder Welt-Abbildungen zu sprechen und impliziert nicht, daß es eine einzelne Sache - oder überhaupt irgendetwas- gibt, die beschrieben bzw. abgebildet wird. Natürlich impliziert all dies auch nicht, daß nichts beschrieben oder abgebildet wird" (Goodman 1973, 18). Ich halte es für notwendig, trotz der zur Zurückweisung des Fiktions-Einwandes abgeschlossenen Argumentation, auf noch einen Aspekt zu verweisen (vgl. Mclntosh 1979 für das Folgende). Putnams Rekurs auf Skolem macht nur Gebrauch von der Betrachtung der Mengenlehre als einer Theorie 1. Stufe, die unter epistemologischen Zwecken axiomatisiert wird. Dadurch kann man gewährleisten, daß die Intelligibilität und Kohärenz eines Netzes von (ohne Axiome sonst) unklaren Begriffen gegeben ist. Verwendet man hingegen, wie Skolem das auch tut, die Axiomatisierung ontologisch, d.h., um die Existenz von etwas durch anderweitig unklare Begriffe Referiertern zu sichern, dann verliert Putnams Rückgriff auf das Löwenheim-Skolem-Theorem an Kraft. Das kann man sich wie folgt verdeutlichen: Man unterscheide abzählbare und überabzählbare Mengen sowie absolut und relativ abzählbare bzw. überabzählbare Mengen. Durch die erste Interpretation der Axiomatisierung sind Mengen höchstens relativ überabzählbar, eine Auffassung, die Putnam (1982) teilt (vgl. dazu seine Diskussion des Skolem-"Paradoxons"), und die die Grundlage für das Greifen des Löwenheim-Skolem-Theorems bildet. In der ontologischen Interpretation der Axiomatisierung wird ebenfalls die Existenz der absolut überabzählbaren Menge ausgeschlossen (weil sonst die bekannten Antinomien der Mengenlehre nicht vermieden werden können), aber auch die der relativ überabzählbaren Menge. Damit ist jede Menge eine abzählbare Menge. Treibt man den onotologischen Interpretationsgedanken noch weiter, so kann es keine infinite Menge geben (denn die Axiomatisierung sichert ja gerade die Existenz der Menge durch Anwendung einer finiten Menge von Operationen auf eine Kollektion bereits existierender Objekte; vgl. Mcintosh 1979, 325), und das Löwenheim-Skolem-Theorem gilt nur in absteigender Form, in der es allerdings nicht mehr gegen den metaphysischen Realismus 25•

388

E. Probleme der Grundlagenforschung

eingesetzt werden kann. Statt dessen ist dafür nur noch die ontologische Axiomatisierung geeignet, wobei die Frage offen bleibt, inwiefern der Entscheid für die eine oder andere Interpretation der Axiomatisierung durch Gründe (und welche?) zurückzuweisen ist. Ebenso verunsichernd und das Nachdenken über den realistischen Standpunkt auch weiterhin fordernd, scheint mir der von Pearce und Rantala (1982; 1982 a) in das Zentrum ihrer Kritik gestellte Aspekt. Sie zeigen, welche Konsequenzen die Wahl eines Fonnalismus für die Rekonstruktion empirischer Theorien hat. Seine Geeignetheit, zusammen mit seiner mathematisch-logischen Spezifik (z.B., daß für Theorien 1. Stufe das Kompaktheitstheorem und das Löwenheim-Skolem-Theorem gelten) sind allerdings Eigenschaften, die von der Frage unabhängig gesehen werden müssen, ob der metaphysische Realismus möglich oder unmöglich ist. In der Tat stützen sich Putnams Argumentationen nur auf Theorien I. Stufe, einschließlich der zugehörigen TarskiSemantik, und Pearce/Rantala (1982, 39) fragen, ob hier nicht eine problematische Allianz zwischen der Semantik, die eine fonnalisierte Sprache voraussetzt, und dem Realismus unterstellt wird (die übrigens naheliegt, wenn man Poppers Übernahme der Tarskischen Theorie für legitim hält). Wichtiger erscheint mir jedoch folgender Gedanke: Ist Wissenschaftstheorie und Metatheorie nur logische Rekonstruktion der Wissenschaft? Neben der verneinenden Antwort, die wohl trotz Bolzano und Mill, trotzdes Hypothetico-Deduktivismus Hempels und des Falsifikationismus Poppers von keinem Wissenschaftsphilosophen angezweifelt wird, interessiert vor allem, worauf van Benthem (1982, 432) hingewiesen hat: Die Kontakte zwischen Logik und Metatheorie sind "rather superficial", weil sie kaum über die Verwendung elementarer Logik hinausgehen. Man kann zwar Ausnahmen (Carnap, Suppes, Sneed) erwähnen, aber wirklich fortgeschrittene logische Rekonstruktionen existieren nicht. Es gilt bereits als elaboriert, wenn auf Padoas Methode und auf die Theoreme von Beth oder Craig zurückgegriffen wird. Doch neuere Entwicklungen, die man "highlights" der modernen Logik nennen könnte, z.B. die Non-Standard Modelltheorie (Robinson 1970) oder die Erzwingungsmethode von Cohen (vgl. z.B. Shoenfield 1967; Potthoff 1981), die zur Konstruktion von Modellen bestimmter Aussagenmengen verwendet wird, finden in der Metatheorie keine Anwendung. Nehmen wir diese Bestandsaufnahme von van Benthem ernst und verbinden wir sie mit den Einwänden von Pearce und Rantala gegen Putnam, dann ist folgendes bezüglich der Realismuskritiken zu bedenken: Es könnte sich sehr schnell erweisen, daß Theorien 1.Stufe für die logische Rekonstruktion von empirischen Theorien unzureichend sind. Wenn aber Theorien 2.Stufe angewendet werden, können dann unter diesen Limitierungen Putnams modelltheoretische Einwände aufrecht erhalten werden?

ß. Theorien über mentale Zustandsfolgen

389

Diese Frage enthält hinsichtlich unseres Ausgangsproblems so etwas wie einen zweiten Hoffnungsschimmer. Ich hatte die Vermutung geäußert, daß Herrmanns Einwand gegen die kognitionspsychologische Theorienbildung zu erheblichen technologischen Konsequenzen führen könnte, wenn sich die psychologischen Theorien, die Technologische Theorien fundieren, als unrealistisch erweisen würden. Ein erster Hoffnungsschimmer, daß uns diese Konsequenzen erspart bleiben, ergab sich aus dem Umstand, daß Herrmanns Problem weniger ein kognitionspsychologisches als ein metatheoretisches ist. Ich habe deshalb zu zeigen versucht, wie eine erkenntnistheoretisch-metatheoretische Argumentation den Einwand Herrmanns entkräftet und die Frage nach der realistischen Zutreffendheit kognitionspsychologischer Theorien so weit offen läßt, daß ihre Nichtbeantwortung den wissenschaftlichen Forschungsprozeß nicht behindert. Die instrumentalistische Haltung reicht tatsächlich zur Entwicklung von Theorien aus, auf die man sich technologisch stützen kann. Der zweite Hoffnungsschimmer bezieht sich weniger darauf, daß man sich von Putnams Argumentation entlasten könnte (denn das würde eher den Realisten erfreuen), sondern vielmehr darauf, daß heute noch sehr bedeutende logische Probleme, die auch Theorienprüfungsprobleme sind, morgen schon nicht mehr von so großer Bedeutung sein werden (vgl. auch Abschnitt C.Ill.2.c)). Das galt in der Vergangenheit bereits für Konsistenz- und Vollständigkeitsprobleme und wird in Zukunft vielleicht auch zur Relativierung der im vorliegenden Abschnitt erwähnten Theoreme führen. Was dann allerdings im Hinblick auf die erkenntnistheoretische Debatte zu erwarten ist, läßt sich noch nicht abschätzen (man vgl. dazu etwa die Diskussion der Quineschen Unbestimmtheitsthese für Übersetzungen, wenn auf die Erzwingungsmethode von Cohen zurückgegriffen wird; Levin 1979). Immerhin kann behauptet werden, daß die von Herrmann unterlegte Aussagenkonzeption in Verbindung mit Sprachen l .Stufe auf jeden Fall nicht das Fundament bietet, um die kognitionspsychologische Theorienbildung erkenntnistheoretisch oder metatheoretisch ernsthaft hinsichtlich ihrer Zutreffendheit und ihres Erfolges zu kritisieren.

II. Theorien über mentale Zustandsfolgen, der Endlichkeitsstandpunkt, Theorie Dynamischer Systeme und Konsequenzen der Gödel-Theoreme Neben dem Herrmann-Einwand gegen komplexe kognitionspsychologische Zustands-Änderungs-Theorien ist im Anschluß an die Gödelsehen Resultate zur Unentscheidbarkeit formaler Theorien ein anderer Einwand vorgebracht

390

E. Probleme der Grundlagenforschung

worden. Er richtet sich zunächst gegen mechanistische psychologische Theorien und schließlich gegen die Möglichkeit der empirischen Psychologie überhaupt. Sollte er in dieser Form aufrechtzuerhalten sein, dann scheint sich zumindest folgende Konsequenz anzudeuten: Zustands-Änderungs-Theorien wären für die Konstruktion Technologischer Theorien als Basis oder Kerntheorien ungeeignet. Man müßte eine andere Form psychologischer oder verhaltensbezogener Theorien konstruieren, um sozialtechnologische, pädagogische oder psychotherapeutische Entwicklungen zu fundieren. 1. Globale Analyse

Man kann der so formulierten Konsequenz entgegenhalten, daß sie praktisch nichts besagt, solange man sich mit endlichen Problemen beschäftigt, für deren Lösung mechanistische Theorien ausreichen. Doch besteht hier bereits die Möglichkeit, daß man sich fundamental irrt. Ich möchte das an einer gedanklichen Konstruktion verdeutlichen. Nehmen wir an, man verfüge über eine psychologische Zustands-Änderungs-Theorie, die deterministisch ist und Abhängigkeiten auf einen Zeitparameter bezieht, d.h. Zustandsänderungen relativ zu kontinuierlichen Zeitänderungen durch ein Differentialgleichungssystem beschreibt. Nehmen wir ferner der Einfachheit halber an, daß der durch die Theorie beschriebene Verhaltensprozeß in einem ausreichend großen Intervall periodisch ist. Sollten nun Verhaltensprozesse relativ zur Zeit nur durch divergente Reihen angehbar sein, kann man zwar sagen, daß im finiten Bereich zufriedenstellende Näherungen zur Lösung des Gleichungssystems auf der Basis elementarer Funktionen erreichbar sind, daß aber keine beliebig genauen Näherungen erzielt werden können und mithin also immer Zustände auftreten können, die sich der Voraussicht entziehen. Einen solchen Fall hat Poincare schon beim Versuch zur Lösung des Dreikörperproblems entdeckt. Daß sich das Auftreten von Zuständen der Voraussicht entzieht, entspricht in gewisser Weise auch einer Konsequenz des Gödelsehen Unvollständigkeitssatzes. Nehmen wir an, wir transkribierten die vorliegende Zustands-Änderungs-Theorie in ein Relationssystem, wobei Relationen die Regeln angeben, nach denen sich die Zustände ändern. Die Transkription der Theorie stellt dann ein formales System dar, das mindestens so stark wie PM ist. Jeder beliebige Zustand sollte nun durch die Aneinanderreihung einer entsprechend erforderlichen Anzahl von Regeln in seinem Auftreten vorhersagbar sein, was nichts anderes besagt, als daß es möglich ist, durch Anwendung der Relationen und ggf. ergänzender logischer Operationen die Eintretensbehauptung für den Zustand zu entscheiden. Nach Gödeis Unvollständigkeilssatz gibt es aber in einem solchen System mindestens eine Behauptung, die nichtbeweisbar ist, mithin also das Eintreten eines Zustandes, das nicht mehr exakt vorhergesagt werden kann.

ll. Theorien über mentale Zustandsfolgen

391

a) Der Endlichkeilsstandpunkt

Der finitistisch Argumentierende wird hierduch jedoch noch nicht übermäßig irritiert. Gleichgültig, ob seine Theorie prinzipielle Grenzen der Voraussagbarkeil durch Nichtberechenbarkeit oder Nichtbeweisbarkeit aufweist, er wird die Praktikabilität seiner approximierenden Verfahren durch die Möglichkeit des Eintretens irgendeines Zustandes irgendwann in ferner Zukunft auf keinen Fall in Frage stellen. Insbesondere wird er nicht akzeptieren können, daß die sehr grundsätzlichen Einwände der Nichtberechenbarkeit bzw. Nichtbeweisbarkeit im endlichen Bereich von technologischer Bedeutung sein sollen. b) Erste Entgegnung auf den Endlichkeilsstandpunkt

Eine erste Entgegnung hierauf besteht darin, nach den Gründen für die Überzeugung zu fragen, daß nichtvorhersehbare Zustände erst in ferner Zukunft, also jenseits finit eingegrenzter Prognosehorizonte, zu erwarten seien. Der Finitist antwortet auf diese Entgegnung, daß seine Berechnungen dies zeigten, doch begibt er sich damit einer haltbaren Argumentationsbasis. Wenn Nichtberechenbarkeit und Nichtbeweisbarkeit einen Sinn haben, dann doch wohl den, die Möglichkeit gerade für jenes Eintreten eines Zustandes begründen zu helfen, das man nicht mehr durch approximierende Berechnungen voraussagen kann. Gardiner (1985, 1) drückt das so aus: "Tobe sure, one can predict the future of such a system given its initial conditions, but any error in the initial conditions is so rapidly magnified that no practical predictability is left." Im technologischen Zusammenhang droht hierdurch nicht nur Unvorhersagbarkeit mit den praktischen Einschränkungen mangelnder Steuerbarkeil und unpräziser Zielerreichung. Es droht längerfristig auch das Beschreiten eines technologischen Weges, der geradezu kontraintentional genannt werden kann. Die Kumulation positiv gemeinter, aber nicht ganz zielangemessener Interventionseffekte kann zum Gegenteil dessen führen, was man technologisch will. Dazu ein Beispiel: Momentan wird Technikfolgenabschätzung (TFA) forciert betrieben. Dahinter steht die Einsicht, daß soziale Entwicklungstrajektorien wegen der Selbstkonsistenz und Selbstreferentialität sozialer Systeme bei gleichzeitiger Verkürzung von Entwicklungsintervallen geradezu zwangsläufig auf Bifurkationen hinsteuern. Bifurkationen dürfen aber nicht in zu kurzem Abstand aufeinanderfolgen, weil sonst die Gefahr einer Bifurkationskaskade besteht, mit Abdriftmöglichkeiten in chaotische Trajektorienfarnilien. Und man weiß weiter: Jede Bifurkationsstelle enthält selbst schon eine Unwägbarkeit. Der Orbit kann (z.B. im zweidimensionalen Fall) in die eine oder andere Richtung verlaufen, ggf. mit der Konsequenz, daß entweder eine positiv zu bewertende oder eine negative Entwicklung auf das Durchlaufen der Bifurkationsstelle folgt. Da aber nicht vorherzusagen ist,

392

E. Probleme der Grundlagenforschung

welche Richtung eingeschlagen wird, glaubt man, gut beraten zu sein, Bifurkationsstellen vorherzusehen und - wenn möglich - zu vermeiden. Das Vorhersehen gelingt meist nur qualitativ, etwa unter Angabe eines Zeitintervalls, für das die Bifurkation zu erwarten ist. Daraufhin kann die technologisch induzierte Vermeidung auf dreierlei Weise erreicht werden: a. Parameteränderung; b. Verlangsamung der globalen sozialen Dynamik; c. Aufschub der Bifurkation. a. und b. sollen allein oder im Verbund miteinander zur prophylaktischen Umgehung von Bifurkationen dienen; c. soll das Auftreten von Bifurkationen so lange verhindern, bis man in der Lage dazu ist, sie technologisch zu vermeiden. TFA setzt nun in der sozialen Entwicklung zunächst auf c., weil a. und b. zur Zeit noch nicht zur Verfügung stehen. Ohne globale Verlangsamung der sozialen Dynamik und ohne grundlegende Parameteränderung wird versucht, lokale Ansatzpunkte für ein Abbremsen bifurkationsrelevanter Entwicklungen zu finden. Verdeutlichen wir uns dies an zwei Abbildungen. Abb. 16 zeigt eine in gleichen Intervallen ablaufende Bifurkationskaskade, in die nicht eingegriffen wird.

Abb. 16: Bifurkationskaskade unter Normalbedingungen

Abbildung 17 zeigt dagegen die Kaskade unter Interventionsbedingungen.

Abb. 17: Bifurkationskaskade unter Interventionsbedingungen

Wie man leicht erkennt, bremst rfA im Verbund mit Interventionen c. die lokale Dynamik, hier mit der Folge, daß das Initialintervall für den Einstieg in die Bifurkationskaskade gedehnt wird. Das Abbremsen schiebt den Bifurkationspunkt hinaus, was als Effekt gewollt und zielkonform ist. Aber das hat

II. Theorien über mentale Zustandsfolgen

393

leider noch eine andere Konsequenz. Es kontrahiert nämlich die nachfolgenden Intervalle, läßt sie ihre kritische Größe unterschreiten und eine chaotische Kaskade entstehen. Dieses Ergebnis ist kontraindiziert. Man will durch TFA und Interventionen eine Situation sozialer Unwägbarkeit aufschieben und das soziale System möglichst lange in einem quasistabilen Gleichgewicht halten, erzeugt jedoch nachfolgend chaotische, systembedrohende Entwicklungen. Auf eine knappe Formulierung gebracht: TFA wäre bei derart obwaltenden Gesetzmäßigkeiten ein Vorgehen, das einen Beitrag nicht zur weitsichtigen Steuerung, sondern zum möglichen Untergang einer Sozialität leistete. c) Zweite Entgegnung

Es war oben bereits erwähnt worden, daß man nach den Gründen für die Aufrechterhaltung einer finitistischen Vorhersageposition fragen kann, und wir hatten dem Finitismus ein erstes Argument entgegengehalten, indem wir nach den Gründen für das Auftreten von Nichtvorhersehbarem nur im transfiniten Bereich fragten. Es gibt aber noch eine zweite Entgegnung, die das oben Gesagte weiter verschärft und die im folgenden ausführlich hergeleitet werden soll. Wir hatten Periodizität für den Zustands-Änderungs-Prozeß vorausgesetzt und wollen darunter verstehen, daß der Prozeß in einen n-dimensionalen Raum abbildbar ist (n > 2), wobei die dadurch festgelegten Trajektorien nach Ablauf eines Zeitintervalls mindestens einen Zustand A0 im Raum noch einmal durchlaufen (also: A0 = ~). Man kann sich das an der Verhaltenstheorie von Alisch und Rössner (1977) plausibel machen. Dort bietet die deterministische Variante (vgl. ebd., 114-152) mit zahlreichen Übergangsmatrizen Beispiele für Verhaltensprozesse, die jeweils einer Periode entsprechen. Geht man davon aus, daß die Zustands-Änderungen kontinuierlich erfolgen und daß nichtrekursive Beziehungen zwischen einigen Zuständen realisiert sind, so ist Verhalten in jedem Fall durch ein nichtlineares Differentialgleichungssystem zu beschreiben (wobei allerdings nicht unbedingt Komplexität vorausgesetzt werden muß). Trotz der Periodizität der Prozesse liegt aber in der Regel keine Stationarität vor. Es ergeben sich deshalb Fragen nach der Stabilität, nach generischen Eigenschaften und nach Singularitäten. aa) Globale Merkmale Stabilitätsfragen tauchen hier auf, weil Nichtstationarität natürlich nicht prinzipiell Attraktoreigenschaften ausschließt und weil Attraktoren und Äquilibriumszustände immer auf ihre Stabilitätseigenschaften hin zu untersuchen

394

E. Probleme der Grundlagenforschung

sind. Während das als selbstverständlich zu gelten hat, sind Fragen nach Singularitäten in den Erziehungs- und Sozialwissenschaften und der Psychologie eher ungewöhnlich (mir sind neben Alisch 1981d nur noch Arbeiten zu circadianeo Rhythmen bekannt, die Singularitäten thematisieren; vgl. zusammenfassend Winfree 1980; 1988). Das liegt zum einen daran, daß die Zugänglichkeil des Theorems von Whitney, gewissermaßen des Zentrums der klassischen Theorie der Singularitäten, für Sozialwissenschaftler als erschwert gelten muß, zum anderen aber auch daran, daß Singularitäten im Zusammenhang mit solchen Projektionen eine Rolle spielen, die in den Sozialwissenschaften wegen ihrer andersartigen meßtheoretischen Orientierung bislang zurückgedrängt worden sind. Trotz grundsätzlicher Projektionseigenschaften (wenn auch nicht immer geometrischer Natur) von erziehungs- und sozialwissenschaftliehen Meßkonzeptionen ist die explizite Beachtung von Projektionscharakteristiken immer zugunsten der Eigenschaften der Strukturerhaltung, wie sie durch das Repräsentationstheorem behauptet wird, in den Hintergrund gedrängt worden. Das Merkmal schließlich, generisch zu sein, dürfte bislang für erziehungs- und sozialwissenschaftliche Annahmen zu Funktionsverläufen (Prozeßbeschreibungen) nur im Kontext von katastrophentheoretischen Bemühungen und von Anwendungen des Autopoiesiskonzeptes eine Rolle gespielt haben. bb) Qualitative Analysis Nicht erst seit Bereitstellung von chaos- und katastrophentheoretischen Methoden durch die Mathematik sind die oben erwähnten Fragen nach Stabilitäten, Singularitäten und generischen Eigenschaften mit den traditionellen Mitteln der qualitativen Analysis beantwortet worden, die bereits auf Poincare zurückgehen. Da ihm seinerzeit keine exakte quantitative Lösung für das Dreikörperproblem gelungen war, griff er auf qualitative Verfahren zurück, die er größtenteils selbst fortentwickelte. Dazu verließ er den traditionellen Pfad des Studiums dynamischer Systeme mit analytischen Mitteln insofern, als er sie mit geometrischen Methoden verknüpfte. Er zeigte, daß Perturbationsmethoden nicht in allen Fällen korrekte Resultate lieferten, eben weil die verwendeten Folgen divergierten. So war er gezwungen, Differentialgleichungen geometrisch zu untersuchen, ein Ansatz, der von Birkhoff, Ljapunow und der Andronov-Schule aufgegriffen wurde und heute unter vielen anderen von Smale, Amold und Guckenheimer fortgesetzt wird. Mit qualitativen Verfahren erzielt man keine unter allen Umständen zutreffende und mit Sicherheit exakte Vorhersage zukünftiger Prozeßzustände mehr, sondern nur noch verschiedene Vorstellungen darüber, welche Art von Zuständen möglicherweise eintreten könnten. Qualitative Analysis von Differentialgleichungssy-

II. Theorien über mentale Zustandsfolgen

395

sterneo führt also zu so etwas wie Szenarios oder restringierten Möglichkeitsvorstellungen von zukünftigen Entwicklungen. Zur qualitativen Analysis gehören Untersuchungen von Gleichgewichtszuständen, die ggf. durch das Gleichungssystem erfaßt werden, sowie Untersuchungen der Umgebung der Äquilibria, um ihre Stabilität, ihre Attraktoreigenschaften etc. feststellen zu können. Umgebungsanalysen der Prozeßbahnen sind also auch geeignet, instabile Punkte ausfindig zu machen. Ein instabiler Punkt liegt in der erwähnten Verhaltenstheorie etwa bei der Zustandsänderung von D 7.1 nach D 8 im Ablauf-Diagramm A.2, Teilablauf Diagnostizieren vor (vgl. Alisch/Rössner 1977, 157). Jenachdem, wie sich das Individuum in seinem Wahrnehmungsraum diesem Punkt nähert, bleibt es im Prozeß des Exaktifizierens oder springt in den Zustand des Bewertens. Obwohl die Verhaltensprozesse allgemein kontinuierlich verlaufen, sind Zustandsänderungen nicht unbedingt immer stetig, ebenso übrigens wie die Aneinanderreihung von Verhaltensprozessen. Die Stetigkeit der Prozesse bezieht sich nämlich nur auf die Zeit, die mit der Variablen t beliebige Werte eines Intervalls annehmen kann, nicht aber auf Prozeßparameter wie Phasenoder Zustandskoordinaten und Zustandssteuerungen, die Sprungstellen aufweisen können (Bieß/Erfurth/Zeidler 1980, 9). Die Reihung von Prozessen kann ebenfalls kontinuierlich auf der Zeitdimension und sprunghaft auf der Zustandsänderungsdimension vorgestellt werden. Ich habe dafür vor allem zwei Möglichkeiten genauer untersucht (vgl. Alisch 1979; 1981a; 1981d), eine automatentheoretisch fundierte und eine temporallogische. Die temporallogische Möglichkeit basiert auf einer dreiwertigen Logik und schreibt der Realisierung der Zustände Z 1 in einem Zeitintervall t1 und Z2 in ~ mit t 1 < ~ eindeutige Wahrheitswerte zu, während im Änderungszeitraum zwischen t 1 und ~. also gewissermaßen an der "Stetigkeitsstelle", für Z 1 und Z 2 der Indifferenzwert angenommen wird (für Details vgl. Alisch 1981d). Die automatentheoretische Möglichkeit kann auf zweierlei Weise entwickelt werden, je nach Festlegung der Zustandsmenge. Entweder faßt man jeweils eine Verhaltensperiode als einen Zustand auf und läßt dann durch das Operieren des Automaten Periode an Periode (also Zustand an Zustand) reihen, oder man definiert zwei unterschiedliche Operationsebenen des Automaten und beläßt es bei der Menge der durch die Verhaltenstheorie eingeführten Zustände, die dann gereiht werden. Diese Möglichkeit hat den Vorteil, daß man unterschiedliche Perioden ineinanderschachteln kann. Der Automat konstruiert einen Teil einer Verhaltensperiode, springt dann in eine andere Periode, die er abarbeitet und nimmt anschließend die ursprüngliche Periode wieder auf (Einzelheiten und Anwendungen findet man in Alisch 1979; 1981a). Beide automatentheoretischen Möglichkeiten basieren auf temporalen Stetigkeitsannahmen bei diskreten Zustandsänderungen.

396

E. Probleme der Grundlagenforschung

Die als zweite, automatentheoretische Möglichkeit entwickelte Verhaltenserklärung basiert auf mindestens zwei gekoppelten Prozeßgleichungen, auf einer für die vorliegende Zustandsfolge und auf einer für die Evozierung von Zielorientierungen zur Emittierung neuer und zur Verkünpfung mehrerer Zustandsfolgen. Man kann nun die Umstände der einzelnen Zustandsfolgen qualitativ untersuchen, indem man die Trajektorien der Verhaltensentwicklungen unter Einfluß der Koppelung analysiert. Das geschieht in der Regel zunächst durch Perturbationen, durch störende Anstöße des Systems zur Veränderung der Parameter der initialen Zustände. Aber das allein reicht nicht aus. Weitere Untersuchungen (z.B. mit Mitteln der Bifurkationstheorie) führen tatsächlich zu enorm hoher Komplexität menschlicher Verhaltensbeschreibungen, denn gekoppelte Prozeßgleichungen können unter bestimmten Parameterkonstellationen sehr unregelmäßige Zustandsfolgen erzeugen, und diese scheinen sogar eher der Regelfall zu sein (weshalb Alisch!Rössner 1977 zur Beschreibung solcher Regionen eine stochastische Variante ihrer Theorie vorgeschlagen haben). Die scheinbar hohe globale Regularität menschlichen Verhaltens, wie sie etwa Wert-Erwartungs-theoretische Approximationen als Basis einer ganzen Reihe von motivationspsychologischen Handlungstheorien nahelegen, weist also nach dieser Auffassung in ihren lokalen Dimensionen eher eine Fülle von Fluktuationen und Zufälligkeilen auf. Wie aber kann man sich deren Auftreten verdeutlichen? cc) Poincare-Abbildungen und Skaleninvarianz Dazu muß man zunächst noch einmal drei Merkmale der Verhaltenstheorie hervorheben. Die Koppelung von Prozeßgleichungen war gerade erwähnt worden, ferner die Möglichkeit von Stabilitäten oder Instabilitäten, die im Zentrum der qualitativen Analyse der Verhaltenstheorie stehen, und die im Hinblick darauf besonders wichtigen Resultate von Perturbationen und Bifurkationen. Man braucht nun nur noch auf die oben getroffenen Festlegungen zurückzugreifen, nämlich auf ein divergentes Differentialgleichungssystem und Periodizität, um alle Bestandteile zur Erklärung der Oszillationen in der Hand zu haben. Die Wirkung der Koppelung der Gleichungen, wie im Verhaltensautomalen beschrieben (vgl. Alisch 1981a), erzeugt innerhalb der Perioden kleine Abweichungen, die genauso betrachtet werden können wie Perturbationen der Trajektorien. Um genau zu sein, führen die Abweichungen gerade dazu, daß die Perioden erst nach mehreren Durchläufen geschlossen werden und den Orbit durch den Fixpunkt A0 meiden (Theorem 4.2 in Verhulst 1990, 42). Der Verhaltensorbit verfehlt dann mit Zustand~· bei seiner Wiederkehr den Punkt A0 um ein Geringes. Mit ~" verfehlt er ~· und A0 wiederum, mit An"' dann An"• ~· und A0 usw. Man kann sich das mit sog. Poincare-Abbildungen verdeutlichen. Angenommen, man hielte an der Stelle

II. Theorien über mentale Zustandsfolgen

397

A0 eine Fläche transversal in die Periodik des Verhaltensgradienten, dann würde der Orbit bei jedem Umlauf, der nicht in A0 oder in einen anderen Zustand zurückkehrt, beim Durchstoßen der Fläche einen Punkt hinterlassen. Dieser würde vermutlich jeweils nahe an den vorherigen Punkten liegen, ganz so, wie es Perturbationen schwach instabiler Orbits auch erwarten lassen. Abb. 18 verdeutlicht das Gesagte:

periodischer regulärer Orbit

Abb.l8: Poincare-Abbildung einer nur leicht gestörten Periodik einer Verhaltenstrajektorie (nach Guckenheirner/Holmes 1983; Ekeland 1985)

Ersetzt man nun die Orbitanalyse durch die Untersuchung der Punktfolge auf der Ebene 1t , die die Trajektorien transversal schneidet, dann gewinnt man den Vorteil einer dimensionalen Reduktion, die die technische Handhabung der Verhaltensanalyse wesentlich erleichtert. Man braucht nämlich nur noch die Transformationen A··-----+ A···· zu betrachten und kommt dann meist ohne die Berechnung von Bahnabschnitten aus. Die Transformationen ermöglichen ferner die Erfassung von perturbierter Periodizität und Repetition über Iterationsabbildungen. Dies ist im Hinblick auf die Untersuchung systemischer Selbstorganisationsvorgänge von großer Bedeutung (vgl. Alisch 1990). Schließlich ergibt sich die Möglichkeit, mit Hilfe der Transformationen scale Order-Gesichtspunkte in die Analyse mit einfließen zu lassen. Geht man von der natürlichen Repräsentation mentaler Mikrovorgänge in mentale Zustände aus (Alisch 1988; 1990a), deren Reihung (vgl. z.B. den MarkoffProzeß in Alisch 1990a) eine Verhaltensweise bzw. eine Handlung erzeugt (Alisch 1988) und sequenziert man dann die Verhaltensweisen oder Handlungen zu asynchronen Ketten (z.B. via einer asynchronen Automatenkonstruktion; vgl. ebd.), so verfügt man über mindestens vier Größenordnungen. Es kann nun sein, was aber noch nicht durchgängig als erwiesen gelten darf, daß sich die Geometrie auf der transversalen Ebene in jeder Größenordnung ähnelt oder gleicht. Zumindest gibt es in den Arbeiten der Gruppe um v. Cranach eine ganze Reihe von Hinweisen auf die Existenz von Strukturwieder-

398

E. Probleme der Grundlagenforschung

holungen bzw. Selbstähnlichkeit auf unterschiedlich skalierten Ebenen (vgl. z.B. v. Cranach 1990; 1986 und Tschan 1990 für die Abhandlung von Mehrstufigkeit, Gruppen- und Organisationshandlungen sowie Thommen/Amman/ v. Cranach 1988 für individuelles Handeln). Die vier erwähnten Größenordnungen sind (1) mentale Mikrovorgänge, (2) mentale Makrozustände (3) Verhaltensweisen und Handlungen sowie (4) Verhaltens- bzw. Handlungsketten (oder -sequenzen). Unter Analysegesichtspunkten der Selbstähnlichkeit wären Unterschiede zwischen diesen vier Ebenen also nur Skaleneffekte. Anders gewendet: Wenn Selbstähnlichkeit vorliegt, dann dürften keine Strukturverschiedenheiten feststellbar sein. Sind sie es dennoch, dann ist keine Skaleninvarianz gegeben, d.h. tatsächlicher Effekt und Skaleneffekt sind nicht getrennt {ggf. nicht trennbar). Interessanterweise gelten nun aber Skaleneffekte generell als technologisch unerwünscht (vgl. z.B. Sato/Nöno 1983), was man sich leicht an folgendem Beispiel verdeutlicht: Unter bildungsökonomischen Gesichtspunkten kann die Einführung einer neuen Kerntechnologie (z.B. die breite Einführung Intelligenter Tutorieller Systeme; vgl. Heiland 1990) neoklassisch über eine Produktionsfunktion im Hinblick auf ihren Nutzen abgeschätzt werden: Y = F(K,A,t), wobei Y den wirtschaftlich relevanten Lernoutput beschreibt, K das für die Apparateanschaffung und -betreuung bzw. -instandhaltung zur Verfügung stehende Kapital, A die von Prograrnmentwicklern, Wissenschaftlern, Lehrern, Schülern und Administrationsvertretern eingesetzte Arbeit und t die Zeit (oder alternativ dazu einen Index des bildungstechnologischen Wandels) bezeichnen. Wer an einer differenzierten Betrachtung der Produktivitätsgleichung interessiert ist, etwa im Hinblick auf die technologische Produktivität sozialer Einheiten, sei auf Müller (1989, 53 ff.) verwiesen. Müller wählt seinen Zugang limitierungstheoretisch, während die von uns gewählte Gleichung opportunitätstheoretisch angelegt ist. Müller geht in seiner Hauptgleichung von einer Gesamtproduktivitätskapazität aus (K), einem Restriktionsfaktor für Arbeitskapazität (aQ), zur Verfügung stehenden Arbeitsstunden (f), mechanischer Ausrüstung (M), der Maschinenproduktivität (~) und einem globalen Restriktionsfaktor (r), so daß: Y =kaQfM~r. Wie kann nun festgestellt werden, ob die neue Lerntechnologie einen produktivitätsrelevanten technologischen Fortschritt darstellt? In üblicher Vorgehensweise werden Beziehungen bezüglich der Einflüsse der Technologie auf gewisse bedeutsame Variablen angenommen, z.B. das Kapital-OutputVerhältnis, der Output pro Schüler; die Faktorenproportionen, die marginale Produktivität oder die marginale Substitutionsrate. Da diese Variablen aber nicht allein von der Technologie abhängen, sondern auch vom Input, muß der technologierelevante Effekt gegenüber jeder Änderung des Inputs neu-

II. Theorien über mentale Zustandsfolgen

399

tralisiert werden. Bekannt sind z.B. die Hicks-Neutralität des technischen Fortschritts (die gegeben ist, wenn die marginale Substitutionsrate unter technischem Wandel invariant ist, solange die Faktorenproportionen sich nicht ändern) oder die Harrod-Neutralität von Inventionen (falls das Kapital-Output-Verhältnis unter bestimmten weiteren Bedingungen invariant ist). Um nun technologischen Fortschritt unter Beachtung von Neutralität und Invarianz abschätzen zu können, muß er von einem Skalierungseffekt abgetrennt werden. Das ist bis auf wenige wohlbekannte Fälle durchführbar (Sato/Nano 1983, Kap. 2.1.). Greifen wir nun noch einmal die Skaleninvarianzfrage auf, so läßt sich sagen, daß globale Technologiekriterien nur unter Ausschluß von Skaleneffekten überhaupt realisiert sind. Während Technologische Theorien (vgl. Alisch/ Rössner 1983) durchaus lokale Effektivität aufweisen können (in unserem Beispiel: verbesserte Rechnerarchitekturen können zur Funktionsanalogisierung von Rechnerprozessen und Gehirnprozessen beitragen mit dem Effekt einer Lernbegünstigung; dies entspricht einem der, allerdings ggf. zu optimistischen, Paradigmen von POP-Ansätzen und neuronalen Netzwerkkonstruktionen; vgl. McClelland/Rumelhart 1986; Durbin 1989), kann die Eingliederung der lokalen Effekte in einen größeren technologischen Zusammenhang zur Erzielung von globalen Resultaten ineffektiv verlaufen (in unserem Beispiel: die Berücksichtigung rechnender neuronaler Hardware muß - unabhängig von individuellen Lernbegünstigungen - keinen bildungsökonomischen Nutzen zeitigen. Probleme im Umgang mit rechnenden Neuronen, sog. mentale Spiegelungen z.B., können durchaus zu dem Resultat beitragen, daß lokale Effekte bildungsökonomisch irrelevant sind.). Sehr interessant ist dabei natürlich der Zusammenhang von Skaleneffekten mit dem Mikro-Makro-Problem. Um den dabei möglichen Gefahren inadäquater linearer Aggregation zu entgehen, genügt die Beachtung der Faustregel: Skaleninvarianz und Selbstähnlichkeit sind nur unter hyperbolischen Wahrscheinlichkeitsverteilungen gegeben. dd) Dissipative Systeme und Poincare-Abbildungen Trotz seiner Attraktionen wollen wir diesen Problemkreis hier nicht vertiefen. Es geht uns um die Grundlagen für die zweite Entgegnung und noch nicht um Technologie im speziellen. Was also zeigt das Beispiel der Poincare-Abbildung? Die scale order- und Ebenengesichtspunkte treten möglicherweise bei genauerer Betrachtung der geometrischen Muster in 1t auf. Unter der Voraussetzung, daß ein positiver Orbit für das betrachtete Dynamische (Verhaltens-)System existiert, der eine Grenze darstellt (Beispiel: Grenzzyklus), kann man leicht zwischen völlig regulären und anderen Repetitionen unterscheiden. Enthält nämlich die Grenzmenge einen kritischen Punkt, dann

400

E. Probleme der Grundlagenforschung

besteht sie nicht aus einem geschlossenen Orbit (eine Konsequenz des Poincare-Bendixson-Theorems). Ein geschlossener Grenzzyklus (durch A0 ) weist also nur gewöhnliche Punkte auf. (Übrigens hat 1t als Transversale ebenfalls nur gewöhnliche Punkte und ist nirgends zu dem Systemorbit tangential). Es ist klar, daß der geschlossene periodische Orbit die Transversale nur in einem einzigen Punkt A0 durchquert, während um ihn oszillierende Orbits mit bestimmten Eigenschaften, auf die wir sogleich eingehen werden, Durchquerungspunktmuster auf 1t bilden. Neuerdings wird angenommen, es handele sich bei Humansystemen um dissipative Systeme (vgl. v. Cranach 1990) und nicht um Hamilton-Systeme. Für dissipative Systeme sind Phasenraumkontraktionen auf einem niedrigerdimensionalen Attraktor typisch. Ferner kann der Verhaltensorbit unter Parameterveränderung von regulärem auf chaotischen Verlauf überwechseln. Poincare-Abbildungen dissipativer Systeme unterscheiden sich entsprechend von solchen für Hamilton-Systeme. Es kann gezeigt werden, daß sie unter bestimmten Bedingungen glatt und invertibel sind (Lichtenberg/Lieberman 1983, 381f.). Allerdings wurde die Umkehrbarkeil für Verhaltensprozesse bislang eher bezweifelt. Durch die Anisotropie des Markoff-Prozesses zur Erzeugung von Handlungen, wie sie die Theorie voraussetzt, deren Basiselement ich strukturalistisch rekonstruiert habe (vgl. Alisch 1988), wird dieser Zweifel gestützt. Insofern sei noch einmal ausdrücklich darauf hingewiesen, daß für die Zwecke des hier interessierenden zweiten Einwands gegen den Finitismus ggf. empirisch nicht zutreffende Modellannahmen gemacht werden (vgl. aber unten), die jedoch nicht von grundlegender Bedeutung sind, denn Periodizität mentaler Makrovorgänge kann entweder durch äquifinale Abschwächung ohne Invertibilität erhalten oder durch äquifinale Repetitionen ohne Invertibilität ersetzt werden. Äquifinale Repetitionen zeigen dann nur noch Muster globaler Periodizität, erlauben damit aber nach wie vor ihre Analyse mit Hilfe von Poincare-Abbildungen. Hinsichtlich der Kontraktionseigenschaften dissipativer Systeme zeigt sich ein deutlicher Unterschied zu Hamilton-Systemen. Dieser Unterschied ist insofern von Bedeutung, als die klassische verhaltenstheoretische Auffassung in der Psychologie, etwa wie sie sich aus der Lewin-Tradition heraus entwickelt hat, eigentlich (wegen ihrer Feldtheorie) auf hamittonartige Systeme abzuheben versucht (vgl. Alisch 1990, 9. Beispiel), obwohl sie mit der Behandlung von Vorgängen, die durch Potentiale beschrieben werden können, dissipative Systeme zum Gegenstand hat. Es könnte eine der fundamentalen empirischen Fragen des ausgehenden Jahrtausends sein festzustellen, ob humane Verhaltenssysteme hamiltonartig, dissipativ oder dynamisch noch etwas ganz anderes sind. Ein dazu nutzbarer Hinweis ergibt sich aus der Geltung von Liouvilles Theorem für Hamilton-Systeme, das die Volumenkonservierung des Phasenraums gewährleistet, während dissipative Systeme im Durchschnitt

II. Theorien über mentale Zustandsfolgen

401

Volumenkontraktionen des Phasenraumes zeitigen. Kontraktionen sind lokale Eigenschaften, die pro Iteration (Periodenumlauf) durch einen ggf. gleichförmigen Faktor beschreibbar sind. Die Durchschnittsbetrachtung ergibt sich dann aus der Ermittlung von Kontraktionsraten relativ zu lterationsanzahlen. Existiert (wie für die meisten bekannten dissipativen Systeme) eine positive Konstante -b, so kann davon ausgegangen werden, daß einheitliche Volumenkontraktionen überall im Phasenraum anzutreffen sind. Die durchschnittliche Kontraktionsrate läßt sich in solchen Fällen mit Hilfe des Ljapunov-Exponenten ausdrücken, der für Hamilton- und dissipative Systeme gleichartig definiert ist. In einem N-dimensionalen Phasenraum gibt es N reelle Exponenten, die geordnet werden können: cr1 ~ cr 2 ~ ••• ~ cr N. Wie man sieht, ist cr1 =crmax. Der Exponent, der die Richtung des Flusses des dynamischen Systems angibt, ist Null. Die durchschnittliche Kontraktionsrate beträgt dann A 0 = I,cr;. i=l

hat entsprechend nur N-1 Exponenten. Man erkennt leicht die Proportionalität zwischen der Poincare-Abbildung und den Flußexponenten ohne den Richtungsexponenten. Da nach dem Poincare-Bendixson-Theorem weder dissipative noch nicht-dissipative zweidimensionale Systeme chaotisch sein können, beruht das einfachste dissipative System mit Chaos auf einem dreidimensionalen Fluß und zweidimensionalen Poincare-Abbildungen.

1t

ee) Attraktoren Weil das Phasenraumvolumen dissipativer Systeme kontrahiert, muß ihre stabile Zustandsveränderung auf einer Oberfläche mit geringerer Dimension als N liegen, die man - vereinfacht gesagt - Attraktor nennt. Es sei X eine Teilmenge des Phasenraumes, dann heißt X Attraktor, wenn (1) X unter dem Fluß invariant ist, (2) eine ggf. offene Umgebung von X unter dem Fluß auf X kontrahiert, (3) kein Teil von X transient ist und (4) X nicht in zwei nichtüberlappende invariante Stücke dekomponiert werden kann. Bezeichnet man die Zustandsmenge des Phasenraumes, die X mit zunehmender Zeit approximiert, als Attraktorbecken, dann kann man zeigen, daß außer für eine Menge mit Nullmaß alle Anfangszustände in den Becken eines der M Attraktoren des Phasenraumes liegen. Für zweidimensionale Flüsse existieren nach dem Poincare-Bendixson-Theorem nur zwei Sorten von Attraktoren, nämlich Fixpunkte und Grenzzyklen (periodische Lösungen). Der parameteränderungsbedingte Übergang von einem Fixpunkt auf einen Grenzzyklus heißt Hopf-Bifurkation. (Beispiel: Angenommen, das dynamische System sei in Polarkoordinaten gegeben dr/dt = fJf - r2; d9/dt = 0\J > 0. Ist J1 < 0, dann ergibt sich für die erste Gleichung immer Negativität der rechten Seite und der Orbit fällt spiralförrnig in einen 26 Alisch

402

E. Probleme der Grundlagenforschung

Fixpunkt bei r = 0. Durchquert Jl den Wert Null, dann verschwindet der Punktattraktor und wird durch den Grenzzyklus r(t) Jl; 8(t) = f%t + 80 ersetzt.) Hopf-Bifurkationen sind invertierbar. Damit liegen zugleich alle generischen Bifurkationen für zweidimensionale Systeme fest: (a) tangentiale; (b) stabilitätsaustauschende; (c) Heugabel-; (d) Anti-Heugabel-; (e) Hopf-; (t) invertierte Hopfbifurkationen.

=

Seltsame (manchmal auch als chaotische bezeichnete) Attraktoren treten erst mit dreidimensionalen Flüssen auf. Durchschneidet man einen solchen Attraktor und betrachtet die (n + 1) -Überquerung des Schnittes durch den Orbit als Funktion der n-ten Überquerung, so erhält man (z.B. im Fall des Rössler-Attraktors) angenähert eine eindimensionale, nichtumkehrbare Abbildung, deren Dynamik den Attraktor approximativ beschreibt. Der Übergang von einfachen zu seltsamen Attraktoren erfolgt nach einem ähnlichen Bifurkationsprinzip wie der Attraktorwechsel im zweidimensionalen System. Man spricht bei jenem Übergang von periodenverdoppelnden Bifurkationen, die gegen einen Parametergrenzwert konvergieren. Jenseits des Wertes tritt chaotisches Verhalten auf, das eine von Bifurkation zu Bifurkation sich halbierende Verzweigungszeit zeigt (also eine Bifurkationskaskade). Unterhalb des Wertes treten Periodenverdoppelungen bis zur nächsten Bifurkation auf. (Beispiel: Betrachten wir den Rössler-Attraktor und als Ausgangsattraktor den Grenzzyldus. Der Rössler-Attraktor basiert auf der Dreidimensionalität des Flusses und wird entsprechend durch ein 3-Gleichungs-System beschrieben. Die dritte Gleichung (für die Z-Dimension) weist den entscheidenden Parameter auf: Z = 115 + Z(X - Jl). Für Jl = 2.6 wird ein Grenzzyklus beschrieben, für Jl = 3.5 hat sich die Periode verdoppelt und der Grenzzyklus zu einem biperiodischen Orbit verändert. Bei Jl = 4.1 beträgt die Periode 4, bei Jl 4.23 ist sie schon nicht mehr per Hand auszählbar. Die Skalierung der Bifurkationssequenz unter variierendem Parameter und die Umrisse der Stärke-Spektren sind in der Nähe des Übergangs zum chaotischen Verhalten universell.)

=

ft) Der Henon-Attraktor

Der für unsere beispielhafte Modeliierung interessanteste seltsame Attraktor ist der sog. Henon-Attraktor, der auf dem einfachen Fall einer quadratischen Abbildung beruht: (a) xn+1 =yn+I-ax;; (b) Yn+ 1 =bxn. Die Abbildung ist umkehrbar und kann als Poincare-Abbildung eines dreidimensionalen Flusses aufgefaßt werden. Der Kontraktionsfaktor /det MI ist gleich -b für eine Iteration. Da der quadratische Term in (a) nur für sehr große x 0 bewirkt, daß

lx nl--7

00 '

II. Theorien über mentale Zustandsfolgen

403

tritt für (x0 , y0 ) innerhalb endlicher Bereiche nahe dem Ursprung immer eine Konvergenz der Lösungen gegen einen Attraktor auf. Die Abbildung besitzt zwei Fixpunkte, von denen der eine immer linear instabil ist und der andere instabil für a < a1 = 3( 1- b )2 I 4. Wird a vergrößert (über a 1), dann unterzieht das den zweiten Fixpunkt einer Kaskade von periodenverdoppelnden Bifurkationen. Der entstehende, einfache Attraktor besteht (auf 1t) aus einer periodischen Menge von p = 2° Punkten mit p ~ oo , sofern a ~ a2 • Für ~ < a < a3 scheint (was noch nicht endgültig bewiesen werden konnte) ein seltsamer Attraktor zu existieren. Wählt man für -b einen Wert, der klein genug für (Selbstein-) Faltungen (des Raumes) und groß genug für die Untersuchung der geometrischen Feinstruktur der Poincare-Abbildung ist, z.B. 0.3, dann kann man (unter geeigneter Festlegung von a, a0 , al' ~ und ~) den seltsamen Attraktor bei 10" Iterationen gut erkennen, bei 105 Iterationen schon wesentlich detaillierter, bei 106 mit noch mehr Feinheiten etc. Mit zunehmender Iterationsanzahl ist es möglich, Teile des Attraktors jeweils zu vergrößern. Dabei kann man feststellen, daß die Attraktorstruktur auf jedem Vergrößerungsniveau Selbstähnlichkeit aufweist, also skaleninvariant ist. Die Selbstähnlichkeit über die Ebenen hinweg korrespondiert dabei mit der Struktur einer Cantor-Menge. Es konnte nachgewiesen werden (für Weitergehendes vgl. Lichtenberg!Lieberman 1983, 391), daß initial benachbarte Trajektorien divergent sind. Dies legt nahe, daß die Bewegung auf dem Attraktor chaotisch verläuft. Es ist nun an der Zeit, einige Einschränkungen zu formulieren. Daß der seltsame Attraktor immer existiert, muß als Vereinfachung angesehen werden. Es gibt viele Teilintervalle mit periodischen Bewegungen (beliebiger Periodenanzahl größer 1), die periodenverdoppelnde Bifurkationen durchlaufen und nur für diese Teilintervalle existiert der Attraktor. Ferner muß beachtet werden, daß es außerordentlich schwierig ist, Poincare-Abbildungen aufzufinden. Der Henon-Attraktor wurde daher auch aus dem Grunde beispielhaft herangezogen, weil die Fläche bei ihm leicht bestimmt werden kann. Das Henon-System hat ansonsten mit unserem verhaltenstheoretischen System nur so etwas wie Periodizität und Höherdimensionalität gemein. Aber schon daraus kann geschlossen werden, daß es auch für das verhaltenstheoretische System in bestimmten Parameterwertkonfigurationen Bifurkationen und Bereiche seltsamer Attraktion geben könnte. Es scheint zudem nicht unplausibel, Skaleninvarianz zu unterstellen. Das führt allerdings auf die interessanten Fragen, (1) ob hier nicht das gestalttheoretische Isomorphieproblem (psycho-physische Isomorphie) im Sinne Köhlers (1920) Urständ feiert und (2) wie die Iterationsanzahlen 10° psychologisch interpretierbar sein sollen.

26•

404

E. Probleme der Grundlagenforschung

gg) Iterationen psychologisch gesehen Um bei (2) zu beginnen, muß überlegt werden, welche Vorgänge für solche Anzahlen überhaupt infrage kommen. Geht man im Sinne der Verhaltenstheorie (vgl. die Fassung von Alisch 1988) davon aus, daß Handlungen auf dem Durchlaufen von mentalen Makrozuständen beruhen, dann kann man ein Periodenmaß entwickeln. Eine Zustandssequenz entspricht einer Iteration. (Interessant ist dabei, daß kontextspezifische Iterationen so etwas wie Anwendungen des mentalen Apparates auf sich selbst darstellen, ein durchaus zum Thema "Geist und Gödel" gehörender Aspekt.) 104 Iterationen sind schnell erreicht. Aber woher nimmt man psychologisch die Feinstruktur von Handlungen? Hier hilft die Konzeption der natürlichen Repräsentation (ebd.) weiter, die es gestattet, auch Fragen der Skaleninvarianz ins Spiel zu bringen.lteriert werden Sequenzen von unterschiedlicher Länge, beschreibbar z.B. über den Formalismus eines asynchronen Automaten. Die Sequenzen stellen Zufallsdurchläufe im Sinne von Markoff-Prozessen dar. Da die Prozeßzustände wohldefiniert sind, ist zu fragen, wie die Kontinuitätsannahme gerechtfertigt werden kann. Dies führt auf die natürliche Repräsentation. Die Zustände stehen in Verbindung mit Repräsentanten von Prozessen auf einem niedrigeren Skalenniveau. Jeder Zustand ist Punkt in einem Phasenraum höher Größenordnung und repräsentiert einen Orbit niederer Größenordnung. Als einzige Bedingung muß Maßkonservierung gewährleistet sein. Das heißt im Falle der Verhaltenstheorie, daß das gewählte Wahrscheinlichkeitsmaß für mentale Mikroprozesse und Makrozustände erhalten bleibt. Die mentalen Mikroprozesse wiederum erfüllen Kontinuitätsforderungen, weshalb die natürliche Repräsentation dafür sorgt, daß die Sprungfolge von Zustand zu Zustand auf der höheren Ebene als kontinuierlicher Markoff-Prozeß aufgefaßt werden kann. Mit Hilfe der natürlichen Repräsentation läßt sich die Anzahl der Iterationen schnell erhöhen (vgl. meine Ausführungen zu Perkolationsmodellen vom Moede~Typ in Alisch 1990 und Alisch/lrnker 1990 sowie ähnliche Überlegungen zu Booteschen Zufallsnetzwerken in Serra/Zanarini 1990, Kap. 3.6). Auch Vergrößerungen zur Sichtbarmachung von Feinstruktur sind möglich (in Alisch 1990 konzipiere ich den Vorgang der natürlichen Repräsentation als renarmierte Blockrepräsentation des Mikro-Perkolationsgitters), dies vor allem mit Hilfe der sozialwissenschaftlich bewährten konnektionistischen Methoden (Netzwerke; Blockstrukturen etc. vgl. Alisch 1990; Serra/Zanarini 1990; Durbin/Miall/Mitchison 1989; Chen 1990). Allerdings bleibt dabei noch eine Frage offen. Wo kommt die Stochastizität her? Auf welche Weise entsteht der Übergang von der Stimulation von Neuronen zu komplexen mentalen Vorgängen im Sinne eines Übergangs vom Determinierten zum Stochastischen?

U. Theorien über mentale Zustandsfolgen

405

hh) Die gestalttheoretische Isomorphieannahme Die Beantwortung dieser Frage wirft neues Licht auf die Isomorphiedebatte, die mit der Zurückweisung der Köhlersehen Auffassungen ein Ende gefunden zu haben schien. Köhler (1920) suchte als Physiker nach dem Verhältnis, das zwischen relativistischen und vor allem thermodynamischen, aber auch hamiltonmechanischen Effekten in der externen Natur und dem psychophysischen Apparat besteht. Sollte nicht, so die These bis hin zu den jüngsten Auffassungen von Gibsan (1982), dieser Apparat aufgrund seiner jahrtausendealten Anpassung an die terrestrischen Verhältnisse die Möglichkeit gefunden haben, sich auf die dort waltenden Gesetzmäßigkeilen so einzustellen, daß er sie funktional nutzt und sollte diese Nutzung nicht denselben Gesetzen unterliegen? Interessanterweise stützt Köhler seine Überlegungen auf Betrachtungen zu Ordnungsphänomenen, dynamischen Systemen, Größenordnungen sowie zu lokalen und globalen Zusammenhängen, und zwar sowohl im physischen Gebiet als auch im phänomenalen, neuronalen und psychisch-erlebenden. Köhler (1920, 4. Abschn., I. Kap.) verweist auf die Unzulänglichkeit von Aggregationsprinzipien (wie sie etwa in der Integrierbarkeit von Hamilton-Systemen vorzuliegen scheinen) und auf die Beschränktheit der legitimen Anwendung lokaler Analysen. Er setzt unter strikter Wahrung eines Relativitätsprinzips auf situativ-globale zeitunabhängige Systembildungen und -effekte, ein Gedanke, der außerordentlich modern erscheint undangesichtsder überragenden Bedeutung der Gleichgewichtsthermodynamik in der Physik jener Zeit schon so etwas wie einen kühnen Vorgriff auf dissipative Systeme ankündigt. Köhlers weitergehende lsomorphieannahme, daß globalen physischen Systemen räumliche Anordnungen im Gehirn zu entsprechen vermögen (nämlich die von Gestaltzusammenhängen), ist zugunsten der Auffassung unabhängiger Ordnungsvorgänge zurückgewiesen worden. Doch muß man dabei zweierlei konzedieren: Erstens mag die Isomorphiebedingung im Blick auf das von Köhler Gemeinte zu stark sein. Man könnte sich ggf. auch mit Korrelationen zwischen Gestalten begnügen. Zweitens verfügt man erst neuerdings über Möglichkeiten, die vielen von Köhler herangezogenen geometrisch-topalogischen Mannigfaltigkeilen so zu interpretieren, daß ihnen evtl. doch als zutreffende Analyseinstrumente Tragfähigkeit zukommt. Man hat in jüngster Vergangenheit schon staunend zur Kenntnis nehmen müssen, daß Goethes Farbenlehre (1988) Anlaß zu den tiefsten mathematischphysikalischen Untersuchungen gegeben hat (vgl. Gleick 1988). So nimmt es nicht wunder, daß auch das von Wertheimer aufgegriffene und von Köhler wesentlich präzisierte Goethesche "Denn was innen, das ist außen" einen Schlüssel zur modernen Isomorphiedeutung liefert: Köhler (1920) postuliert unter Geltung des Gestaltprinzips isomorphe Korrespondenzen zwischen den

406

E. Probleme der Grundlagenforschung

physischen, physiologischen und psychischen Systemen. Berücksichtigt man Köhlers explizit globale Sicht, dann stellt sich seine Isomorphiethese als Skaleninvarianz globaler Systeme dar. Damit ist der Kritik Lashleys (1942) an Köhler in einem gewissen Sinne recht gegeben. Lashley bezweifelte die Angemessenheit der Ebenenkonstruktion über feldtheoretische Potentiale. Die Anerkennung dieser Kritik bedeutet aber keine generelle Absage an die Feldkonzeption. Gebunden an andere als euklidische Mannigfaltigkeiten gewinnt diese nämlich erneut theoretische Kraft. Dazu mag Hubeis (1989) Auffassung als Beleg dienen. Physiologisch können z.B. für das Sehen "mehr als ein Dutzend verschiedener visueller Felder in der Großhirnrinde" (ebd. 227) unterschieden werden, die auf spezielle Weise topalogisch geordnet sind. Der Raum weist Brüche auf und erfüllt ein besonderes Hierarchieprinzip. Jedes Feld versorgt mindestens zwei hierarchisch höhere Felder. Die topographische Organisation der Verbindungen ermöglicht feldspezifisch geordnete Abbildungen des Gesichtsfeldes bei unterschiedlichen Aufgaben der Informationsverarbeitung. Die Region Area 18 scheint z.B. mit Stereopsis, Farb- und Gestaltwahrnehmung befaßt. Allerdings treten auch in anderen Feldern solche Leistungen auf (z.B. die Stereopsis in der mittleren temporalen Windung). So erhebt sich die Frage, welche Unterschiede hierarchische Felder evozieren. Hubel (ebd.) nimmt an, daß Abstraktionsgrad und Komplexität der Abbildungen zunehmen. Neben solchen Resultaten der hierarchischen Dynamik fällt aber auch auf, daß das Köhlersehe Prinzip der systemischen Unabhängigkeit in der Divergenz der Bahnen zum Tragen kommt: "Anscheinend verlangen die Probleme so unterschiedliche Strategien und eine so verschiedenartige Hardware, daß es ökonomischer ist, sie in völlig getrennten Kanälen zu bearbeiten" (Hubel 1989, 228; vgl. auch Livingstone 1988). Zur Hierarchisierung und Divergenz kommt schließlich die Konnektivität hinzu, die letztgültig den Köhlersehen Systemannahmen recht gibt. Sie gewährleistet topalogisch die Verteilung der Leistungen und deren Integration. Auch der Köhlersehen Annahme der Gleichartigkeit von Prinzipien auf den drei Ebenen (z.B. dem Gestaltprinzip) läßt sich unter topalogischen Gesichtspunkten Sinn beimessen. Topalogische Prinzipien der Phasenoszillation sind aus der Physik bekannt, tauchen unter Hinzunahme von Phaseneinstellungen in circadianen Uhren wieder auf und bilden für alle bekannten Formen von Zeitzusammenbrüchen (z.B. bei Periodendestruktionen wie dem abrupten Atemstillstand von Säuglingen oder der Störung des Schrittmacherknotens des Herzens) die Grundlage. Interessanterweise scheinen wiederum innere Uhren als Steuerungsmechanismus des Gehirns auf die Empfindlichkeit der Augen Einfluß zu nehmen (Barlow jr. 1990), ein Indiz für eine komplizierte Wechselwirkung zwischen Phaseneinstellung und Auswirkung derselben. Man hatte zwar in den fünfziger Jahren erkannt, daß externe Temporalwahrnehmungsbedingungen wie Tag- und Nachtzyklen circadiane Uhren synchro-

n. Theorien über mentale Zustandsfolgen

407

nisieren können, aber das Wissen um den Effekt der inneren Uhr auf die Wahrnehmungist neu. Ähnliche, der Köhlersehen Prinzipienannahme entsprechende Zusammenhänge tauchen auch auf der Ebene von Kaskaden und Zyklen in mehrdimensionalen Zustandsräumen auf. Kaskaden von molekularen Reaktionen sind aus der Chemie bekannt. Sie finden sich wieder in den photonensensiblen Vorgängen der Retinastäbchen (Stryer 1987) und auf immer höheren (globaleren) Ebenen im Wahrnehmungsvorgang (Livingstone 1988), in mentalen Mikroverläufen zur Erzeugung von Handlungszuständen (z.B. in Netzwerkzyklen; vgl. Chen 1990) und in Handlungen (Aiisch 1988). Jede Kaskade hat einen zyklischen oder repetitiven Aspekt, d.h. kehrt (regenerativ) in ihren Ausgangszustand bzw. auf ein vergleichbares Ausgangsniveau zurück, wobei die Vergleichbarkeit andeutet, daß die Oszillationen nur schwach perturbieren. Der Köhlersehen Prinzipienannahme kommt aber, wie erwähnt, die Skaleninvarianz am nächsten. Die verschiedenen Ebenen fraktal geordneter kreativer Strukturen von materiellen bis zu intellektuellen hat der Nobelpreisträger für Physik G. Binnig (1989) beschrieben. Doch sogar ohne strukturelle Selbstähnlichkeit können sich interessante Deutungsaspekte für Köhlers Auffassungen ergeben, wenn man physische, physiologische und psychische Geschehen als Resultanten dynamischer Systeme deutet; denn lokalem Mikroverhalten korrespondiert ggf. ein globales Makroverhalten, das durchaus zu tiefen qualitativen Unterschieden auf den Ebenen führen kann, ohne daß damit gegen die Einheitlichkeit eines gegebenen Dynamikprinzips verstoßen wäre. ii) Stochastizität in konservativen Systemen

Wie man sieht, gibt es Möglichkeiten, um an Köhlers Isomorphieannahme festzuhalten, ohne sich den bereits vorgebrachten Kritiken stellen zu müssen. Die Basis für diese Möglichkeit enthält zudem alles, was man zur Beantwortung der Frage nach der Quelle des Stochastischen braucht. Man kann hier sowohl prinzipiell als auch empiriegestützt formulieren. Letzterern entspräche es, die sich verdichtenden Indizien für die Realität der quantentheoretisch beschriebenen Entitäten als Quelle für Stochastizität anzusehen (was z.B. nicht unplausibel erscheint, wenn man die oben erwähnte Photonen-Stäbchen-Interaktion und die nachfolgende Lichtsignalintegration in der Kaskade betrachtet). Unter prinzipiellen Gesichtspunkten ergibt sich eine etwas andere Antwort: Man betrachte dazu zunächst ein konservatives autonomes, periodisches, fast integrierbares System (im Beispiel oft eingeschränkt auf zwei Freiheitsgrade; es sei vermerkt, daß jedes N-dimensionale nichtautonome System in ein N+ 1-

408

E. Probleme der Grundlagenforschung

dimensionales autonomes System transformierbar ist. Dabei verändert sich die Bewegungsgleichung

i =

F(x,t,~) zu

i = F(x,xN+l .~);iN+I = 1). Die Systemtrajektorien lassen sich auf eine dreidimensionale (sektionale) Fläche eines vierdimensionalen Phasenraumes abbilden. Ein endlicher Teil der Phasenraumtrajektorien ist regulär, d.h. mit ersten Bewegungsintegralen verbunden (vgl. dazu das sog. KAM-Theorem, z.B. Lichtenberg/Lieberman 1983, 159f; Verhulst 1990, 232f.; Arnold/Kozlov/Neishtadt 1988, Kap. 5. § 3.. Es besagt, daß unter genügend geringer Perturbation des Systems Tori im Phasenraum bzw. geschlossene Kurven auf der Poincare-Abbildung existieren, die ohne Wechsel der Topologie nichtlinear verbogen sind und dennoch genügend nahe am nichtperturbierten Torus liegen. Sie bieten Indizien für Invarianten in nichtlinear gekoppelten Systemen), während die verbleibenden Teile stochastische und chaotische Bewegungen hervorbringen. Stochastische und reguläre Bewegungen sind eng miteinander vermischt. Die stochastischen Regionen füllen ebenfalls endliche Teile der Oberfläche im Phasenraum, d.h. die sukzessiven Flächen-Durchquerungen jeder stochastischen Trajektorie füllen ein endliches Gebiet. Stochastische Bewegungen treten immer in der Nähe solcher Separatrizen auf, die invariante Kurven von ihren Inseln scheiden (Separatrizen sind Grenzlinien zwischen zwei Attraktorbecken, Resonanzen etc.; als Inseln bezeichnet man geschlossene Kurven auf der Durchquerungsfläche). An einer solchen Separatrix agieren benachbarte Resonanzen nicht mehr {daher scheidet die Separatrix die Resonanzen; Resonanzen sind Spezialfälle invarianter Kurven, deren geschlossene periodische Trajektorien die Poincare-Abbildung in Fixpunkten durchqueren.). Das stochastische Gebiet um die Separatrix wird deshalb Resonanzschicht genannt. Bei geringer Perturbation sind solche Schichten dünn und durch invariante Kurven geschieden, d.h. die Schichten liegen isoliert und Systembewegungen von einer Schicht in die andere können nicht vollzogen werden. Vergrößert man nun die Perturbationen, dann werden die invarianten Kurven, die die Inselketten von ihren Resonanzschichten trennen, stark verschoben und schließlich zerstört. Ist dies für die letzte invariante Kurve eingetreten, dann vermengen sich die Schichten (unter welchen Bedingungen das eintritt, kann Lichtenberg/Lieberman 1983, Kap. 4 entnommen werden). Es sei noch erwähnt, daß sich bei genauerer Analyse der Separatrix-Trajektorien kein glatter, sondern ein jeweils höchst komplizierter, wenn auch zunächst durch die KAM-Flächen eng begrenzter Verlauf zeigt. Mit zunehmender Perturbationsstärke verschieben die überlappenden Resonanzen (höherer

D. Theorien über mentale Zustandsfolgen

409

Ordnung) die KAM-Flächen, und zwar fort von den Separatrizen, so daß die Region vergrößert wird, in der die Separatrix-Bewegung Nachbarschaftstrajektorien bis hin zum Chaos beeinflussen kann. Man beachte dabei, daß aus der KAM-Theorie folgt, daß hinsichtlich aller Anfangsbedingungen die Werte der Aktionsvariablen immer in der Nähe ihrer Anfangswerte bleiben. Die Phasenkurven werden gewissermaßen in invarianten Tori eingeschlossen und können die Region nicht verlassen. Evolution findet nicht statt (vgl. Theorem 15 in Amold/Kozlov/Neishtadt 1988, 186). Dieser Aspekt schränkt - wie schon im Zusammenhang mit dissipativen Systemen erwähnt - die pädagogische und psychologische Verwendbarkeit von Rarnilton-Systemen stark ein. Doch steht nicht das hier zur Debatte, sondern lediglich die beispielhafte Analyse des Übergangs zur Stochastizität in Dynamischen Systemen. Ein Blick auf autonome Systeme mit mehr als zwei Freiheitsgraden verdeutlicht indes, daß einige Komplikationen hinzutreten, die wiederum von Interesse sind, weil die Höherdimensionalität von Humansystemen außer Frage steht und nur theoretisch-approximativ mit geringer Dimensionalität angegangen wird. Im höherdimensionalen Fall werden Resonanzschichten nicht mehr durch KAM-Flächen voneinander isoliert, so daß die Phasenraumteilvolumina nicht mehr geschlossen sind. (So, wie Geraden nur zweidimensionale Räume in begrenzte Gebiete teilen, aber dreidimensionale nicht mehr, so teilen dreidimensionale KAM- Flächen keinen fünfdimensionalen Raum etc.) Also stellen sich die stochastischen Schichten als untereinander verbunden dar, und zwar in Form eines einzigen komplexen Netzwerkes, dem ArnoldNetz. Der Phasenraum ist dann relativ zu dem Netz permeabel, d.h. jeder Punkt des Raumes wird von dem Netz durchdrungen oder liegt ihm infinitesimal nahe. Hinsichtlich jeder Anfangsbedingung im Netz wird die nachfolgende stochastische Bewegung also evtl. jede endliche Oberfläche im Phasenraum durchqueren. Diese Bewegung heißt Amold-Diffusion, was übrigens auf die wesentlichen Problernlagen hinweist, die es im Zusammenhang mit höherdimensionaler Stochastizität zu lösen gilt: Was kann als relatives Maß für die stochastischen Trajektorien in der jeweiligen Phasenraumregion gelten? Wie schnell wird unter gegebenen Anfangsbedingungen das System im Netz diffundieren? Die zwei Problemlagen habe ich deshalb hier erwähnt, weil sie identisch mit jenen sind, die auch für die Verhaltenstheorie bestehen (vgl. Alisch 1988). Auch dort taucht, spätestens im Zusammenhang mit der Maßerhaltung bei der natürlichen Repräsentation, die Frage nach dem Maß auf, und es ergeben sich ebenfalls Diffusionsprobleme, und zwar bei der Bestimmung des Diffusionsanteils an der Gesamtbewegung des Verhaltens-Markoff-Prozesses (via der Chapman-Kolmogoroff-Differentialgleichung, die, wie erwähnt, einen Sprung-, einen Drift- und einen Diffusionsteil aufweist).

410

E. Probleme der Grundlagenforschung

Bemerkenswert ist in diesem Zusammenhang auch jene Konsequenz der Äquifinalitätsthese für individuelles menschliches Leben, die von der Vorstellung eines Potentials mit Fixpunktattraktor (Tod) ausgeht und besagt: Das Lebenspotential oszilliert zwar interindividuell, strebt aber äquifinal nur einen Fixpunkt an. Nach dieser Vorstellung diffundieren individuelle Lebensläufe unterschiedlich durch das Arnold-Netz jenes Hamilton-Systems, das hier Leben heißen kann. Es besteht keine Notwendigkeit, evolutive Annahmen für das System zu machen, da Evolution ein grossparameter ist, der nicht mit einem Einzelleben, sondern nur etwas mit einer Gesamtpopulation zu tun hat. Indes, so interessant diese Konsequenz für unsere Fragstellung ist, sie hat noch nicht einmal den Stand einer ernsthaft durchgeführten theoretischen Variante erreicht und darf deshalb nur als philosophischer Hintergrund zur Stützung der Auffassung angesehen werden, daß die Betrachtung von Harnilton-Systemen im Rahmen des zweiten Einwandes gegen das Finitismusargument nicht irrelevant ist. Daher habe ich oben gesagt, daß trotz der hohen Evidenz für die Gleichsetzung von Human- und dissipativen Systemen (in dieser Richtung, nicht umgekehrt) spezifische Dynarniken harniltonartig sein können bzw. genauer: daß ein Entscheid zwischen beiden empirisch zu erfolgen hat. Bevor ich abermals auf den Heuon-Attraktor eingehe, um den zweiten Einwand gegen das Endlichkeitsargument zu vervollständigen, muß noch etwas zur Größenordnung und zum Verhalten der regulären und stochastischen Phasenraumteile gesagt werden. Zur Illustration sei zunächst wieder auf ein Hamilton-System mit zwei Freiheitsgraden eingegangen. Je nach Perturbationsgröße entwickeln sich in der Durchquerungsfläche Muster von Inselketten, KAM-Kurven und stochastischen Regionen. Bei gegebener Größenordnung kann es sein, daß der Maßstab zu groß ist, um alle primären Inselketten sichtbar zu machen, so daß es zweckmäßig ist, die Größenordnung zu ändern. Dazu wähle man sich eine einzelne Insel und transformiere ihre Skala auf die einer Inselkette. Natürlich wird nun eine neue Aktion eingeführt, die mit den geschlossenen Linien um einen gegebenen elliptischen singulären Punkt korrespondiert. Resonanzen zwischen der lokalen Transformierten um den Fixpunkt und den ursprünglichen Resonanzen bringen dann eine Inselkette zweiter Ordnung hervor. Allgemein gesprochen wird das Bild von Inselketten in Inseln von Inselketten verstärkt, wenn exponentiell kleine Resonanzen höherer Ordnung zunehmend kleinere Prozentsätze des Phasenraumes einnehmen. Wie stellt sich diese Ordnung dar (vgl. Lichtenberg/Lieberman f983, 175)? Wenn man für jeden beliebig plazierten Punkt im Phasenraum das Gebiet um ihn herum vergrößert, bis die Struktur sichtbar wird, ist die Wahrscheinlichkeit relativ groß, daß der Punkt auf einer KAM-Kurve liegt, obwohl sie in stochastische Regionen nahe den Separatrizen der Inselkette eingebettet ist. lteriert man das

ll. Theorien über mentale Zustandsfolgen

411

Vorgehen (Punktplazierung und Vergrößerung), so werden die stochastischen Regionen bei zunehmender Detailliertheit der Gesamtstruktur immer kleiner werden und entsprechend die Wahrscheinlichkeiten dafür ansteigen, daß der Punkt auf einer invarianten Kurve liegt. Dagegen besteht natürlich auch eine endliche Wahrscheinlichkeit dafür, daß der Punkt in eine stochastische Region fällt. Nur dann, wenn sich diese Region nach einer Vergrößerung als durchgehend stochastisch erweist, zeigen zukünftige Expansionen ebenfalls nur noch stochastische Trajektorien. jj) Stochastizität in konservativen und dissipativen Systemen

Als Beispiel diene folgende quadratische Drehungs-Abbildung, die Henon untersucht hat:

= mitcp = 21t(X 0 und a. 0 als Rotationsnummer einer linearen Drehungs-Abbildung (vgl. Lichtenberg/Lieberman 1983, 154). Der Ursprung der Abbildung ist .ein elliptischer Fixpunkt mit geringer Perturbation xg gegenüber der linearen Abbildung. Für cp"' 75° und a.=l/5 ergibt sich eine den Ursprung umgebende Inselkette, gefolgt von überwiegend stochastischen Regionen. Vergrößert man - wie beschrieben - die Region in der Nähe einer Separatfix der ersten lnselkette, dann zeigen sich Inselketten zweiter und dritter Ordnung sowie gebietserkundende Trajektorien. Man kann dies so kennzeichnen: Schon ein relativ einfaches konservatives und nichtlineares System kann ein Verhalten zeigen, das als Mischung aus regulären, stochastischen und ggf. chaotischen Trajektorien erscheint. Zum Ursprung hin überwiegen reguläre Bahnen, deren Zwischenräume ggf. mit stochastischen Regionen durchsetzt sind. Jede Vergrößerung und Änderung der Skalierung zeigt Inselketten in Inselketten etc. und alles fein durchwoben von stochastischen Regionen. Selbst die regulär erscheinenden Separatrizen oszillieren in der Anwesenheit von homoklinischen Punkten. Weiter vom Ursprung entfernt lösen sich die regulären Bahnen zugunsten von stochastischen und chaotischen Regionen in der Umgebung von Separatrizen auf, die an Resonanzen assoziiert sind. Allerdings existiert kein abrupter Übergang in die Stochastizität (Lichtenberg/Lieberman 1983, 213), so daß das Problem eines qualitativen Übergangskriteriums aufgeworfen wird. Während sich z.B. lokale Divergenzraten von benachbarten Trajektorien, der Zerfall von Korrelationen und Energieaustausch zwischen Freiheitsgraden als Methoden erwiesen haben, die nicht präzise genug zwischen regulären und stochastischen Bewegungen unter-

412

E. Probleme der Grundlagenforschung

scheiden, zielen die Fourier-Spektralanalyse, die Ljapunov-Exponenten-Methode und die sog. KS-Entropie (benannt nach Kolmogoroff-Systemen mit positiver Entropie, die von Kolmogoroff und Sinai untersucht wurden) überwiegend nur auf die Bewegungen des Systems in den stochastischen und chaotischen Regionen. Der Übergang bleibt unaufgeklärt. Betrachtet man aber die Poincare-Fläche geometrisch, dann fällt auf, daß ein scharfer Übergang in die Stochastizität in Abhängigkeit von der Perturbationsstärke zwischen solchen Gebieten des Phasenraumes auftritt, in denen KAM-Flächen die stochastische Bewegung begrenzen und solchen, in denen die Stochastizität der Trajektorien in großen Phasenraumstücken untereinander verbunden ist (vgl. Abb. 19): Separatrix stochastische Region in Nähe zu Separatrizen Separatrix Inselkette Übergangsgrenze

T

lokale Stochastizität

!

globale Stochastizität

- - Region absolut instabiler Fix~ punkte der Periode 1

Abb. 19: Beispiel für einen Übergang von lokaler zu globaler Stochastizität unter zunehmender Perturbation (nach Lichtenbergll..ieberman 1983, 214).

Gelingt es, jene Parameterwerte zu bestimmen, für die die lokale in globale Stochastizität übergeht, dann verfügt man natürlich (auch technologisch) über eminente Kenntnisse hinsichtlich des Systems. Leider ist es nicht möglich, auf analytischem Wege entsprechende Kriterien für Stochastizität zu identifizieren. So scheitert etwa der Versuch, die Region absolut instabiler Fixpunkte der Periode 1 als Region globaler Stochastizität anzunehmen (siehe Abb. 19; offensichtlich ist das Kriterium zu stark). Außerdem muß man zwischen Systemen mit zwei und mehr Freiheitsgraden unterscheiden. Während bei letztgenannten der Übergang von der Regularität in die Stochastizität "sanft" erfolgt, kann man für Systeme mit zwei Freiheitsgraden eine Barriere konstatieren (siehe Abb. 19) und entsprechend einen abrupten Übergang. Immer aber kommt es auf die Berechnung der Veränderung der KAM-Flächen-begrenzten Orbits in solche an, die zwischen den primären Resonanzen gleicher Amplitude und Frequenz wandern können. Lichtenberg und Lieberman

II. Theorien über mentale Zustandsfolgen

413

(1983, Kap. 4.1 - 4.6) Iisten entsprechend eine Reihe qualitativer Verfahren auf, die mehr oder minder gut angepaßt die Barriere zur Stochastizität zu identifizieren vermögen. Wir verzichten hier auf die Darstellung der Verfahren, heben aber ihren qualitativen Charakter besonders hervor. kk) Maßinvarianz, Transformationen, Ergodizität, K-Eigenschaften und Zellabbildungen, Bernoulli-Verschiebungen und abnehmende Korrelationsraten Die erwähnten qualitativen Verfahren sind natürlich nur dann anwendbar, wenn tatsächlich Stochastizität vorliegt. Sinai (1989, 102f.) stellt dazu eine Merkmalshierarchie auf, deren (auch teilweises) Gegebensein sichert, daß deterministische Dynamiken stochastische Eigenschaften aufweisen. Man beachte aber, daß diese Merkmale fastintegrierbare Hamilton-Systeme, wie sie soeben mit ihren Inseln und Schichten besprochen worden sind, nicht vollständig abdecken, sondern nur ihre Region globaler Stochastizität, um deren Auftreten es im 2. Einwand gegen den Finitismus geht. 1. Die Existenz eines invarianten Maßes (vgl. dazu auch die Eigenschaften der natürlichen Repräsenation in der Handlungstheorie von Alisch 1988). Interessanterweise befinden sich unter Dynamischen Systemen mit dieser Eigenschaft u.a. solche mit hyperbolischen und seltsamen Attraktoren. Die Existenz derartiger Attraktoren wirft das Problem auf, wie die Verbindung zwischen konservativen und dissipativen Systemen aussieht. Bisher bestand (siehe oben in diesem Abschnitt) die Auffassung eines Entweder-Oder für Humansysteme. Das läuft - wie bereits dargestellt - auf einen empirischen Entscheid zwischen konservativen und dissipativen Systemen hinaus und schließt eine Vermischung beider Phänomenklassen für Humansysteme aus. Demgegenüber wurde von mir (vgl. Alisch 1988) gezeigt, daß sich Transformationen wie die natürliche Repräsentation für die Verhaltenstheorie oder die Bäckertransformation für die sozialpsychologische Theorie von Massenphänomenen (vgl. dazu Alisch 1990), die zwischen Größenordnungen oder zwischen unterschiedlichen dynamischen Systemen vermitteln, insofern als wesentlich erweisen, als durch sie Übergänge zwischen und Gemeinsamkeiten von Systemen unterschiedlichen Skalierungsgrades oder unterschiedlicher Dynamik deutlich werden können. In der Verhaltenstheorie wurde dafür ergänzend die Vorstellung von Markoff-Prozessen gewählt, für soziale Systeme (etwa von der Größe einer Schulklasse) die dazu korrespondierende Perkolationstheorie, die sozialpsychologisch auf die Moedesche Theorie sozialer Kollektive ( 1920) gegründet werden kann (vgl. Alisch 1990; 1990b; Alisch!Imker 1990). Wesentlich weiter als diese Entwicklungen sind die vereinheitlichenden Bemühungen der Brüsseler Schule vorangeschritten (vgl. Nicolis/Prigogine 1987, Kap. 5.3 u. 5.4). Während die Suche nach einem für beide Systemarten

414

E. Probleme der Grundlagenforschung

(konservative und dissipative) fundamentalen Niveau weder von der Quantentheorie (wegen der Reversibilität der Schrödinger-Gleichung) noch von der Feldtheorie (die ebenfalls reversibel ist) geliefert werden können, treten für kohärentes Verhalten unter Nichtgleichgewichtsbedingungen Korrelationen auf, die zumindest für dissipative Systeme andeuten, daß das fundamentale Niveau in der Stochastik etwa von Markoff-Prozessen gesehen werden kann. Die Frage ist, ob solche Prozesse auf den vollen und traditionell nur reversibel beschreibbaren Phasenraum übertragbar sind. Dazu muß man zunächst eine Verteilungsfunktion einführen, die sich zeitabhängig gemäß einem Markoff-Prozeß ändert. Setzt man diese für einen Zeitpunkt mit der Lösung der (einen Markoff-Prozeß beschreibenden) Mastergleichung gleich, wobei der Operator zur Steuerung der Übergangswahrscheinlichkeiten nur Halbgruppeneigenschaften hat (im Gegensatz zu den Gruppeneigenschaften des LiouvilleOperators für reversible Systeme), dann strebt das System in jedem Fall gegen einen Attraktor oder durch die Ränder von Attraktorbecken. Die bisherige Betrachtung reicht jedoch noch nicht aus, um den Zusarnrnenhang von Determinismus und Stochastizität aufzuklären. In konservativen Systemen findet man keine nichtlokale Orbitbeschreibung. Die ist aber notwendig, um einen Zusammenhang zu den nichteindeutig orbitkennzeichnenden Übergangswahrscheinlichkeiten von Markoff-Prozessen herzustellen: Reversible Prozesse (konservativer Systeme) weisen degenerierte bzw. entartete Wahrscheinlichkeiten für Orbits auf (nämlich 1 oder 0). Um sie in nichtentartete zu überführen, formulieren Nicolis und Prigogine (1983, 270) eine Transformationsbeziehung zwischen der Verteilungsfunktion und der konservativen Orbitfunktion. Dabei wird die Globalität in den dynamikabhängigen Transformationsoperator verlegt. Ist dieser Operator identifiziert, dann läßt sich die konservative Dynamik in dem Mastergleichungsoperator abbilden und umgekehrt aus dem Markoff-Prozeß die Dynamik erschließen. Diesen Weg habe ich bei der Konstruktion der Verhaltenstheorie (Alisch 1988) eingeschlagen, wobei die natürliche Repräsentation durch einen maßkonservierenden Operator ermöglicht wurde. Das entspricht dem Sonderfall einer Wahrung der Konservativität der transformierten Systeme. Es sei aber darauf verwiesen, daß die Verhältnisse der Verhaltenstheorie noch wesentlich komplizierter sind, als sie durch die Markoff-Prozeß- und Mastergleichungsvorstellung vorgegeben sind. Zurück zu den Stochastizitätskriterien für konservative Systeme. Sinai (1989, 103) erwähnt als zweites Kriterium, das hierarchisch höhersteht als das erste: 2. Ergodizität (eine ausführliche Diskussion erübrigt sich hier; vgl. stattdessen für kollektive soziale Systeme Alisch 1990, Anhang 1). Ist ein invariantes Maß festgelegt, dann prüft man das Dynamische System auf ergodisehe Eigenschaften hin, vor allem seine mögliche Ergodizität, die bei positiver Re-

ll. Theorien über mentale Zustandsfolgen

415

kurrenz und Aperiodizität gegeben ist (vgl. Fahnneir/Kaufmann/Ost 1981, 35; Nicolis/Prigogine 1987, 219; Comfeld/Sinai 1989, 17ff.). 3. Durchmischung (vgl. auch hierzu für kollektive soziale Systeme Alisch 1990, Anhang 1). Man kann leicht feststellen, daß Durchmischung die schwache Durchmischung impliziert und diese wiederum Ergodizität (Comfeldl Sinai 1989, 20f.). Unter Gesichtspunkten stochastischer kollektiver Systeme betrachtet, kann die Mischung als Irreversibilität aufgefaßt werden, was bedeutet, daß jedes Anfangsmaß unter dem Einfluß der Aktion der Dynantiken schwach gegen das invariante Maß (vgl. 2.) konvergiert, vorausgesetzt, es ist im Hinblick auf dieses Maß absolut kontinuierlich (Sinai 1989, 103). 4. K-Eigenschaft (Kolmogoroff-Eigenschaft; vgl. Comfeld/Sinai 1989, Kap. 1.3). Die K-Eigenschaft korrespondiert mit den von Nicolis und Prigogine (1987) diskutierten Transformationen und besagt, daß ein deterministisches Dynamisches System als regulärer stationärer Zufallsprozeß wahrscheinlichkeitstheoretischer Natur kodiert werden kann (Sinai 1989, 103). Hat ein Dynamisches System die K-Eigenschaft, dann ist es vermischend und weist positive Entropie auf. Insofern schließt die K-Eigenschaft logisch Mischung, Ergodizität und ein invariantes Maß ein. Die positive Entropie (nach Kolmogoroff und Sinai auch KS-Entropie genannt) wird über eine Phasenraumpartition eingeführt. Man teile dazu den Phasenraum zu einem bestimmten Zeitpunkt t 0 in eine Menge {A;(O)} kleiner Zellen. Jede Zelle weist ein endliches Maß auf. Man kann nun jede Zelle retrognostisch entwickeln (z.B.: Wenn sie, wie im Falle der Verhaltenstheorie, einem Markoff-Prozeß entspricht, der die Ordnung k hat, so können die Zustände

=

B iltl ,t

=-1,-2, ... ,-k + 1

rückwärts verfolgt werden), natürlich unter Wirkung des Flusses des Systems und man erhält für jede Zeiteinheit neue Mengen von Zellen {Pi(-1)}, {Pi(-2)} ... {Pj(-k+1)}. Typischerweise hat die Schnittmenge B(-1)={A; (O)r1Ai (-1)} ein kleineres Maß als A ; (0). Es erheben sich zwei Fragen ( 1) Unter welchen Umständen zerfällt das Maß eines Elementes B i(-t)? (2) Kann man die Zellinformation für Vorhersagen nutzen? Zu (1): Es sei h(ß,J.I., f) die KS-Entropie. ß bezeichne die Phasenraumpartition, Jl das Zellmaß und f die Abbildung der Teilmengen des Phasenraumes auf die Partition (vgl. Leven/Koch/Pompe 1989, 94). Man kann nun zeigen (vgl. Lichtenberg/Lieberman 1983, 269), daß

,_._

h( {Ai (0)}) = -liml/ ti_ :'1 J.1.(B( -t))lnJ.I.(B( -t)) > 0.

'

E. Probleme der Grundlagenforschung

416

R, gibt die Anzahl der Elemente von B( -t) an; J..L(B; ( -t)) ist das Maß jedes

Elementes. h erweist sich als gleichbedeutend mit einer durchschnittlichen exponentiellen Rate. Die KS-Entropie entspricht dann dem Maximum von h über allen meßbaren Anfangspartitionen. Sie steht außerdem zur durchschnittlichen Rate der exponentiellen Divergenz nachbarschaftlieh verlaufender Orbits in Beziehung, also z.B. zu Ljapunov-Exponenten. Allgemein kann man die KS-Entropie so verstehen, daß sie ein Maß darstellt, das auf eine einzelne stochastische Region ohne reguläre Gebiete oder Inseleinschlüsse angewandt werden kann. Zu (2): Man kann die KS-Entropie aber auch als Maß für die Unsicherheit bezüglich eines zukünftigen Zustandes B(+1) auffassen, die noch übrig ist, sofern alle vergangeneo Zustände B( -t),t = 1,2, ... ,k + 1 bekannt sind (Leven/Koch/Pompe 1989, 94). Faßt man dabei die KS-Entropie als durchschnittlich erzielbare Zusatzinformation pro Messung eines Zellwechsels auf, dann erhält man jene Information, die im Mittel bei der Expansion des Flusses im Phasenraum transportiert wird, und zwar wegen der Zunahme des Maßes von Zelle zu Zelle als Informationstransport von Mikro- zu Makroskalen. Aus diesem Grunde ist die KS-Entropie auch als Rate der Informationsproduktion des Dynamischen Systems zu verstehen. Was dabei das System antreibt, kann als systemimmanenter K-Automorphismus aufgefaßt werden. Bildet man über allen Mengen B(t) einer cr-Algebra, die von den durch die Anwendung des Automorphismus T k A; entstehenden Mengen hervorgebracht wird, das Supremum, dann heißt T ein K-Automorphismus, wenn limsup IJ..L(A 0 nB(t))-J..L(A 0 )J..L(B(t))l =0.

t-+-

Ein Fluß { T • } heißt entsprechend K-Fluß, wenn ein Zeitpunkt 1 0 so existiert, daß T • • ein K-Automorphismus ist (Cornfeld/Sinai 1989, 20). Aus den Kommentaren und Antworten zu den beiden Fragen (1) und (2) läßt sich ersehen, daß sich Zellen als Phasenraumpartitionen rückwärts und vorwärts verfolgen lassen, wobei nicht verschwiegen werden sollte, daß z.B. die Bildung des Supremums für K-Flüsse außerordentlich schwierig ist (für Ausnahmen vgl. die speziellen Fälle in Leven/Koch!Pompe 1989, 95). Unser Interesse gilt aber zwei anderen Sachverhalten. Erstens stellt sich wiederum die Korrespondenz zwischen Markoff-Darstellung und Dynamischen Systemen ein, wie sie schon für die Verhaltenstheorie (Alisch 1988) und den Zusammenhang von konservativen und dissipativen Systemen erwähnt wurde. Zweitens, und das ist uns mindestens ebenso wichtig, gibt es auch eine Korrespondenz zwischen Markoff-Darstellungen und empirischen Meßproblemen. Bislang werden die notorisch beklagten sozial- und erziehungswissenschaftliehen bzw. psychologischen Meßprobleme auf drei Gründe zurückgeführt: Erstens sind Theorien häufig nicht so detailliert entwickelt, daß aus ihnen Meßmodelle ableitbar sind (vgl. Baizer 1985a). Zweitens sind quantitati-

D. Theorien über mentale Zustandsfolgen

417

ve Messungen im Sinne von Bourbakischen algebraischen Strukturen wegen der Kontinuitätsannahme oft nicht realisierbar. Drittens liegt über nichtapparativen Messungen eine zu große Dynamik, die Quasi-Meßwiederholungen unmöglich macht. Es ist zu vermuten, daß die drei Gründe umso mehr ins Feld geführt werden können, je näher man Dynamischen Systemen kommt. Muß man aber daraus schließen, daß z.B. die Verhaltenstheorie (Alisch 1988) unbehandelbar bleibt, weil sie weder geeigneten Meßumständen unterzogen noch in ihren nichtlinearen Anteilen Lösungen zugeführt werden kann? Schon Lewin (1969; Erstdruck 1936) sah in der Kontinuitätsannahme eine Meßbeschränkung, der er mit dem Zurückgehen auf topalogische Strukturen ein realistischeres Konzept entgegensetzte. Allerdings stellten seine geistige Verhaftetheil mit Dynamischen (Potential-)Systemen und seine Vektorpsychologie zunächst gewisse Beschränkungen für dieses Programm dar (Erst neuerdings kann der Zusammenhang zwischen lokalen Lewinsehen Systemen, Vektorfeldern und globaler topalogischer Analyse gestiftet werden; vgl. Alisch 1990, 9. Beispiel). In modernerem Gewand wird dagegen das qualitativ topologische Moment zuerst theoretisch eingeführt und dabei nur formal einer Kontinuitätsannahme unterzogen (vgl. Alisch 1988). Bevor das etwas genauer gekennzeichnet werden soll, hier noch der Hinweis, daß die verbleibenden qualitativ topologisch kennzeichenbaren Verhaltenszustände, über die z.B. ein Markoff-Prozeß laufen kann, sehr wohl meßbar sind (beweisbar dadurch, daß das Basiselement der Theorie so formuliert werden kann, daß Meßmodelle abgeleitet werden können). Was bat es also mit der Kontinuitätsannahme auf sich? In der Verhaltenstheorie wird davon ausgegangen, daß mentale Makrozustände via natürlicher Repräsentationen von Mikroprozessen qualitativ charakterisierbar sind. Diese Charakterisierung kann ggf. bis auf einen Faktor h genau gestaltet werden, d.h. im Prinzip quasiquantitativ. h kennzeichnet die Begrenzung für Meßgenauigkeit, d.h. differieren zwei Zustände um weniger als h, so sind sie ununterscheidbar. Da aber mentale Mikrovorgänge, und sei es nur aufgrund ihrer parallelen Initiierung oder ihrer partiell parallelen Verläufe, in der natürlichen Repräsentation ein kontinuierliches Muster erzeugen, die Makrozustände jedoch maximal nur diskontinuierlich bis auf h genau meßbar sind, ergibt sich die Notwendigkeit, die Kontinuität des Substrates in die Repräsentation abzubilden. Das erfolgt durch Annahme eines Makro-Markoff-Prozesses. Natürlich muß die technische Handhabung von mentalen Makrovorgängen, wenn sie mit der nichtlinear verlaufenden Produktion von Handlungssequenzen zusammen betrachtet wird, auf die Meßbegrenzung Rücksicht nehmen. Das erfolgt duch die Einbeziehung einer verallgemeinerten Fassung der Phasenraumpartition in Zellen, wie sie oben bereits angedeutet wurde. Die theo27 Alisch

418

E. Probleme der Grundlagenforschung

retisch-technische Kontinuitätsannahme ist nicht nur vom Messen her uneinlösbar, sondern auch unter Berechnungsgesichtspunkten. Kontinuitätsabhängige Genauigkeit setzt unendliche Information voraus, d.h. man braucht Kenntnis über Zahlenwerte mit unendlich genauer Stellenzahl hinter dem Komma, die Rundungen überflüssig macht (vgl. Prigogine 1979; Nicolis/ Prigogine 1987). Wenn aber Meß- und Berechenbarkeitsgenauigkeit begrenzt sind, muß man in der Analyse der Prozesse andere Wege gehen. Nicolis und Prigogine (1987) setzen für Markoff-Prozesse die Bedingung eines konstanten Zeitintervalls t als "Prozeßsprung". Die verallgemeinerte Zellabbildungstheorie (Hsu 1987) geht davon aus, daß keine Zustandsvariable der empirischen Wissenschaften kontinuierlich sein kann, weshalb solche Variablen als Intervallkollektionen konzipiert werden und, bezogen auf den Phasenraum, als Kollektion N-dimensionaler Zellen, die via Partition konstruierbar sind. Jede Zelle wird als unteilbare Einheit eines Systemzustands betrachtet. Entsprechend kann der Phasenraum als Zellzustandsraum gelten. Als Beispiel möge die einfache Intervallpartition herangezogen sein. Jede Zustandsvariable xi, i 1,2,... ,N wird dabei in Intervalle zerlegt, die durch natürliche Zahlen, die den Zellkoordinaten zi korrespondieren, identifizierbar sind. Der kartesische Produktraum der zl'z2, ••. ,zN ist dann Zellzustandsraum mit Einheitselement z, dessen Komponenten zi, i = 1,2, ... ,N alle natürlichzahlig sind (Hsu 1987, 6). Nun kann man sich auf einfache Weise die Entwicklung eines Dynamischen Systems verdeutlichen: Wenn die entsprechende Abbildung so angelegt wird, daß jede Einheit nur ein Zellbild haben kann, dann handelt es sich bei der Beschreibung des Systemflusses um eine "cell-to-cell" Abbildung: z(n+l) = C(z(n), JL) mit JL als Parametervektor und C als die gesuchte Abbildung.

=

Es war zu Anfang dieses Beispiels auf seinen einfachen Charakter hingewiesen worden. Entsprechend stellt C nur eine einfache "cell-to-cell" Abbildung dar. Sowie man auf die verallgemeinerte Form solcher Abbildungen übergeht, ist man wieder auf die Verwendung von Markoff-Ketten angewiesen. Generell kann man sagen, daß K- und Zellsysteme, wie sie in die Verhaltenstheorie (Alisch 1988) eingegangen sind, dafür sorgen, daß ein geordnetes globales Verhaltenssystem durch die nichtlineare Komponente langfristigen Strukturwandel erzeugt und durch die kurzreichweitige Stochastizität Innovation qua Erkundung des Zustandsraumes (vgl. auch Nicolis/Prigogine 1987, 288ff.). Die Verbindung beider Effekte kann auf der Grundlage einer gemeinsamen Fundamentierung von konservativen und dissipativen Systemen gedacht werden. Das nächste Stochastizitätskriterium für konservative Systeme ist die

II. Theorien über mentale Zustandsfolgen

419

5. Bemoulli-Verschiebung (vgl. Sinai 1989, 103, Lichtenberg/Lieberman 1983, 272f.; Nicolis/Prigogine 1987, 272ff.; Anosov/Bronshtein/Aranson/Grines 1988, 157ff.; Pesin 1989, l26ff.). Häufig scheint es sinnvoll, Dynamische Systeme in symbolische Prozesse zu kodieren. Dazu genügt es, sich einen Markoff-Prozeß durch das Zeitmaß t m = m ·At diskretisiert vorzustellen. Ist { Q;}, i = l ,2, ... die Menge der Systemzustände, so ergeben sich Sequenzen Die Menge { i P} definiert dabei ein sequenzenäquivalentes Alphabet, d.h. fast jede Trajektorie ist durch ein endliches oder abzählbares Alphabet kodierbar. Im Prinzip können jeder empirische Systemzustand und jede derartige Zustandsfolge durch das Alphabet repräsentiert und ggf. zusätzlich iterativ transformiert werden (dies, um z.B. Ergodizität und Spektraleigenschaften des Dynamischen Systems besser feststellen zu können. Als iterative Transformationen kommen z.B. infrage: Substitutionen von der Art der Morse-Sequenzen; verallgemeinerte Morse-Sequenzen; q-multiplikative Sequenzen für q =(q 0 ), q 0 eine ganze Zahl größer/gleich 2; vgl. Queffelec 1987). Ein besonders einfacher Fall eines diskretisierten Dynamischen Systems liegt vor, wenn das System nur zwei Zustände annehmen kann. Trotz der gegebenen Wahrscheinlichkeitsverteilung über dem Phasenraum sorgen Fluktuationen einerseits für ein längeres Verweilen des Systems in einem Zustand, andererseits aber auch für einen plötzlichen und sprunghaften Wechsel. Kodiert man die Zustände mit "0" bzw. "1 ", dann kann sich folgende repräsentierte Beobachtungssequenz ergeben: 000110011101001... Offenbar wird hier die diskrete zeitliche Entwicklung des Systems durch die Entwicklung eines binären Alphabets beschrieben. (Es sei erwähnt, daß eine solche Sequenz nur dann einem Markoff-Prozeß entspricht, wenn der Phasenraum eine sog. Markoff-Zerlegung zuläßt; vgl. Nicolis/Prigogine 1987, 249f.). Wegen der Kodierung durch ein symbolisches Alphabet heißt das Dynamische System nunmehr System mit symbolischer Dynamik. Die oben erwähnten Zellabbildungen lassen sich ebenfalls in symbolische Dynamiken übersetzen, indem jeder Zelle ein Alphabetbuchstabe zugeordnet wird. Sofern ein Phasenraum dann in M Zellen zerlegt gedacht und jede Zelle mit einer Durchlaufwahrscheinlichkeit p ; gekennzeichnet wird, die gleichen Q; entspricht, kann das Systemverhalten wieder als Symbolsequenz geschrieben werden. Die Zellabbildung ist dabei als Verschiebung der Sequenz um einen Platz nach rechts zu verstehen (siehe oben die Binärsequenz). Die Entropie H r der Sequenz mit Länge n unter der Transformation T mit M Zellzuständen beträgt H r =-n }2Mi=Ipilnpi

Für die Bemoulli-Aufteilung p; 27•

= 1/ M

kann maximiert werden:

420

E. Probleme der Grundlagenforschung

H r =nlnM

Bereits durch eine einfache Abbildung läßt sich eine derartige Bemoulli-Verschiebung erzeugen: x •+• = Mx. , mod 1. Nach jeder Iteration tritt ein neues Glied der Bernoulli-Sequenz auf. Entspricht die Abbildung einer zweiseitigen Verschiebung, dann liegt ein Bernoulli-Automorphismus vor, bei einseitiger Verschiebung ein BernoulliEndomorphismus. Entsprechend heißt die gesamte Sequenz unter einem Automorphismus Bernoulli-Kaskade, die Sequenz unter einem Endomorphismus Bernoulli-Semi-Kaskade. Die häufigste Metrik, die für den Raum .Q., auf dem die Bernoulli-Verschiebung agiert, benutzt wird, ist die folgende mit feststehenden a,ß>O: p({xJ,{yJ)=exp(-ßmin{lil:x; *Y;}). Die Verschiebung cr agiert so, daß cr( { x;} = { y;} ), wobei x; '= x i+l. Die normalisierten invarianten Maße einer solchen Kaskade sind zahlreich. Wenn z.B. die Wahrscheinlichkeiten P; für die Zellen (siehe oben) als normalisierte Maße auf A ={a 1 , a 2 , •.. , a • } ={i P} gelten, so daß p ; ;;:: 0 _ und L p; = l für Be A, dann setze man p(B) =I. {p; ,a; e B}. Ist Jl das Maß auf .Qn, das man durch das direkte Produkt der Maße p erhält, dann weitet man dies in üblicher Weise von Zylindermengen auf Bore1-Mengen und dann zu einem vollständigen Maß aus. Den Zylindermengen {{x J:x;, eBI' ... ,x;, eB,}, wobei Bi cA,j=l, ... ,r, schreibt man

dabei die Maße p(B 1 ), ••• ,p(B,) zu.

Relativ zu Jl kann die Kaskade als stochastischer Prozeß angesehen werden (s.o. die Einleitungsbemerkungen zu Bernoulli-Verschiebungen) mit dem Teilphasenraum A. Hierdurch wird die Sequenz unabhängiger Versuche mit Ausgang a; e A unter gleicher Wahrscheinlichkeitsverteilung beschrieben (daher der Name Bernoulli-Verschiebung; vgl. Anosov/Bronshtein/Aranson/ Grines 1988, 158). Als Beispiel für eine Bernoulli-Verschiebung sei auf die Bäcker-Transformation als mögliche Organisationsdynamik für Massenphänomene verwiesen (vgl. Alisch 1990, Anhang l; die Bäcker-Transformation handeln z.B. Nicolis/Prigogine 1987 als Bernoulli-Verschiebung ab). Mit Hilfe von Bernoulli-Automorphismen läßt sich eine Reihe von Theoremen beweisen, die die metrische Isomorphie von Dynamischen Systemen betreffen. Dazu müssen Kodierungsstrategien gefunden werden, die die Sequenzen aus einem Alphabet in solche eines anderen Alphabets übersetzen, wobei Verschiebungen in Verschiebungen kodierbar bleiben. Wie Meshalkin zeigte (vgl. Cornfeld/Sinai 1989, 43f.), können Bernoulli-Automorphismen metrisch isomorph sein, obwohl ihre Zustandsräume nicht-isomorph sind. Sinai (1966) bewies, daß zwei beliebige Bernoulli-Automorphismen mit gleicher Entropie schwach isomorph sind, wobei zwei Dynamische Systeme als

II. Theorien über mentale Zustandsfolgen

421

schwach isomorph gelten, wenn jedes zu einem Faktor-System des anderen metrisch isomorph ist. Omstein (1974) löste schließlich das Isomorphieproblem endgültig: Beliebige zwei Bemoulli-Automorphismen mit gleicher Entropie sind metrisch isomorph. Da bezüglich der Zustandsräume keine Beschränkungen (Endlichkeit; Abzählbarkeit) gemacht werden, ist Entropie eine vollständige metrische Invariante in der Klasse der Bemoulli-Automorphismen Das metrische Isomorphieproblem stellt sich insbesondere, wenn unterschiedliche Verhaltens- und Handlungstheorien miteinander verglichen werden sollen (vgl. Alisch 1988). Es scheint dafür momentan zwei Wege zu geben: (a) Man konstruiert ein allen Theorien gemeinsames Basiselement (diesen Weg habe ich in Alisch 1988 eingeschlagen). (b) Man transformiert jede Theorie in einen stochastischen Prozeß (für die deterministische Variante einer Verhaltenstheorie wurde das durchgeführt in Alisch/Rössner 1977; vgl. auch Alisch/Rölke 1987; Anosov/Bronshtein/Aranson/Grines 1988, 156; Cobb 1978. Die Grundidee der Transformation ist folgende: Das Konzept eines stochastischen Prozesses formalisiert in der Wahrscheinlichkeitstheorie die Beschreibung klassischer Systeme, deren Entwicklung nichtdeterministisch ist, jedoch feststehende probabilistische Charakteristika aufweist.), kodiert ihn in eine symbolische Dynamik und sucht nach Isomorphien. Dabei kann es sein, daß die Dynamik komplexer als eine Bemoulli-Verschiebung ist (z.B. eine homogene Markoff-Kette mit endlicher Anzahl von Zuständen, was auf Verhaltenstheorien eher zutrifft; vgl. Alisch/Rössner 1977) oder daß der Isomorphienachweis aus technischen Gründen nicht erbracht werden kann. Im letzteren Fall empfiehlt sich die Suche nach abgeschwächteren Vergleichsvarianten, z.B. die nach der Kakutani-Äquivalenz Dynamischer Systeme (vgl. Def. 5.1 in Comfeld/Sinai 1989, 51). Sowohl die Kakutani-Äquivalenz als auch die Frage nach der Zutreffendheil von Bemoulli-Automorphismen hängen mit dem allgemeineren Problem der speziellen Repräsentation von Flüssen zusammen, genauer: mit der Beschreibung der Klasse aller speziellen Repräsentationen für einen gegebenen Fluß. Für Bemoulli-Automorphismen besagt ein von Kakutani bewiesenes Theorem (vgl. Omstein/Rudolph/Weiss 1982), daß zwei solche Automorphismen als Basis-Automorphismen in zwei speziellen Repräsentationen desselben Flusses betrachtet werden können, wenn sie Kakutani-äquivalent sind. Auf solchen Gedanken und denen zu symbolischen Dynamiken aufbauend kann man die bisherigen theoretischen Konzeptionen einheitlich bis hin zu kollektiven Modellen graphentheoretischer Natur bzw. bis zu Perkolationsmodellen ausweiten (ohne Verwendung des hier dargestellten Ideenhintergrundes habe ich das in Alisch 1990, Beispiele 1. bis 9., bereits durchgeführt). Dazu sei vorausgesetzt, daß bestimmte Symbolpaare aus A als zulässig ausgezeichnet werden. Die Menge { x k } aller jener Sequenzen, für die die Paare

422

E. Probleme der Grundlagenforschung

{ x ; , x i+.} hinsichtlich aller i zulässig sind, stellt eine geschlossene Teilmenge des Phasenraumes tn' c Q) dar, die maßinvariant (z.B. ail'= Q') ist. Das Dynamische System auf dieser Teilmenge, das durch die Verschiebung O" I Q' hervorgebracht wird, heißt topalogische Markoff-Kette. Man kann die Menge zulässiger Paare durch eine Matrix angeben: B = (b ii ) mit b ii = 1, sofern ein Paar zulässig ist und sonst b ii =0. Natürlich ermöglicht das auch eine graphentheoretische Darstellung mit n Knoten, wobei eine gerichtete Kante von einem Knoten zu einem anderen dann definiert ist, wenn die beiden Knoten ein zulässiges Paar bilden. Die Knoten des Graphen korrespondieren mit den Zuständen eines quasi-stochastischen Prozesses (das "quasi" fällt weg, wenn auf der Topologie ein Wahrscheinlichkeitsmaß eingeführt wird; vgl. Alisch 1988 für eine verallgemeinerte Konstruktion). Ein Zustand des Dynamischen Systems entspricht einem (ggf. unendlichen) Pfad durch den Graphen in positiver Richtung, also von xi zu xi+t etc. (auf solchen Makrozuständen basiert das, was in Alisch 1988 als Handlung definiert wird). In Verallgemeinerung des bisher über den Graphen Gesagten kann nun auch Äquifinalität von Wegen berücksichtigt werden. Dann müssen in der Matrix nicht nur die Knoten, sondern auch die Kanten der alternativ zulässigen Wege aufgeschrieben sein. Konzentriert man sich nur noch auf die Kanten, dann kann man Renarmierungen via Blockbildung vornehmen (vgl. Alisch 1990, Anhang 3), die erhebliche dimensionale Reduktionen (und damit Meß- und Berechnungsvereinfachungen) ermöglichen.

Es bleibt abschließend noch Sinais sechstes Stochastizitätskriterium zu nennen (Ich verzichte hier wegen ihrer bisherigen Irrelevanz für Theorien sozialer Systeme bzw. für Verhaltenstheorien auf die Darstellung sog. C-Systeme bzw. Anosov-Systeme; vgl. Lichtenberg!Lieberrnan 1983, 270ff.. Dort auch ein Beispiel, das in die Bäckertransformationsklasse gehört, nämlich Arnolds Katze): 6. Zentraler Grenzwertsatz (vgl. Sinai 1989, 103; jedes Lehrbuch zur Wahrscheinlichkeitstheorie enthält eine Darstellung dieses Satzes, z.B. Pfanzagl 1988; Renyi 1977; Stegmüller 1973b; Bauer 1978; für statistische Zwecke nutzt ihn z.B. Pruscha 1989, für fehlertheoretische West 1985, für Zwecke systemischer Modeliierung Gardiner 1985 oder Haken 1983, unter philosophischen Gesichtspunkten Reichenbach 1989, 264ff. und 323ff.). Der zentrale Grenzwert beruht auf vier Annahmen: (a) die betrachteten Zufallsvariablen sind statistisch unabhängig; (b) sie sind additiv; (c) sie sind identisch verteilt; (d) die Varianz der Verteilung ist endlich.

II. Theorien über mentale Zustandsfolgen

423

Es ist klar, daß damit Linearität unterstellt wird, speziell die lineare Superposition unabhängiger Faktoren. Angenommen, man standardisiere für jede Stichprobe das Mittel, so erhält man jeweils neue Zufallsvariable (eben die arithmetischen Stichprobenmittel), die den Mittelwert Null und die Varianz 1 haben. Der zentrale Grenzwertsatz macht dann eine Aussage über die Verteilung dieser standardisierten Mittel (Ich wähle hier die Form einer Aussage über ein empirisches Intervall dx , das hinreichend klein ist. Als Intervallgrenzen a und b definiere ich: a =x;b =x + dx ): lim P(x < Y" < x+dx)

n-+-

=l/f21tJ e -x

112

dx

=(l/[21t)e -x 212 dx.

Y" bezeichnet hier das standardisierte Mittel. Der Satz besagt, daß im Grenzfall x ~ oo die Wahrscheinlichkeit für y", im Intervall X und x + dx zu liegen, durch die Gaußsehe Normalverteilung (multipliziert mit dx) gegeben ist. Mehrere Aspekte sind wichtig: In den empirischen Wissenschaften wird der zentrale Grenzwertsatz häufig nicht konsequent für den Grenzfall benutzt, sondern schon für die Berechnung von Näherungswerten, sofern n hinreichend groß ausfällt. Diese Approximationen werden gewählt, weil exakte Verteilungen arithmetischer Mittel schwer zu berechnen sind. Zur Begründung für die Zulässigkeil der Approximationen wird darauf verwiesen, daß der zentrale Grenzwertsatz zwei Umstände zusammenfaßt, nämlich erstens, daß sich die Verteilung der standardisierten Mittel mit steigendem n immer auf den Erwartungswert zusammenzieht und zweitens, daß die Verteilung dabei sukzessive die Gestalt einer Normalverteilung annimmt. Weiterhin zeigt ein Verstoß gegen die lineare Superposition und damit die Nichtanwendbarkeit des zentralen Grenzwertsatzes, daß die Zufallsgrößen nicht unabhängig voneinander, sondern korreliert sind (meist ein Zeichen für kooperatives Verhalten). Die Annahmen (a) und (c) heben u.a. darauf ab, daß keine der Zufallsvariablen einen die Verteilung der standardisierten Summenvariablen bestimmenden Einfluß ausüben darf. Nur dann kann eine Folge solcher Variablen dem zentralen Grenzwertsatz genügen. Insbesondere ist die Familie der Zufallsvariablen nicht einfach asymptotisch vernachlässigbar. Deshalb hat man in der Lindeberg-Bedingung eine geeignete Form zur Sicherung gegen die Einflußgefahr gefunden (vgl. z.B. Bauer 1978, 268f.; Gardiner 1985, 37): Für jedes feste t > 0 gilt

lim[l/a~I,~=t Jlnxl>ta.dxx2p;(x)

x-+-

Mit Hilfe dieser Bedingung ist der zentrale Grenzwertsatz rasch herleitbar, gegeben unabhängige Zufallsvariablen etc. und standardisierte Summen. Unter der Lindeberg-Bedingung tendiert die Verteilung der standardisierten Summen gegen die Gauß-Verteilung (mit Null als Mittel und mit Einheitsvarianz). Vereinfacht gesprochen kann die Erfüllung eines zentralen Grenzwert-

424

E. Probleme der Grundlagenforschung

theorems erwartet werden, wenn die Korrelation zwischen zwei beliebigen Zufallsvariablen ( x; und x i ) schnell genug gegen 0 geht, sofern Ii - j I~ oo (vgl. auch den vorigen Absatz). Die Lindeberg-Bedingung spielt dabei die Rolle der schwächsten Bedingung, die ausdrückt, daß die Wahrscheinlichkeit dafür, daß IX; 1 groß ist, sehr klein ausfällt. Die Bedingung fordert, daß die Summe aller Beiträge (die Summe der Integrale ist die Summe der Beiträge zu den Varianzen für alle lx ;I> t a ) nicht so schnell divergieren wie a 2 • (Die Lindeberg-Bedingung wird au~h bei der Ersetzung eines diskreten Pr~­ zesses durch kontinuierliche Schritte benötigt; vgl. Gardiner 1985, Abschnitt 3.3.1 , ein Problemkreis, der in der Verhaltenstheorie Alisch 1988 ebenfalls eine Rolle spielt. Allgemein stellt sich hier die interessante Frage, für welche Zwecke Grenzverteilungstheoreme überhaupt eingesetzt werden sollten. Der Wahrscheinlichkeitstheoretiker braucht sie, um Wahrscheinlichkeiten zu berechnen, der Theoretiker, um z.B. die genannte Ersetzung vornehmen zu können und der Praktiker? Aldous 1989, vii, ist der Meinung, für den Praktiker reichten Approximationen aus, vor allem, wenn sie mit Grenzwertsätzen korrespondierten. Es ist hier leider nicht der Raum, um das zu vertiefen.) Im Zusammenhang mit der Stochastizität von Dynamischen Systemen nach dem 6. Kriterium spielt der zentrale Grenzwertsatz folgende Rolle: Man gehe von einem ergodiseben Automorphismus T aus, so daß ( M, M , J.l, T) ein Dynamisches System ist, J.l ein invariantes Maß und (M ,M,J.l} ein Maßraum. Bei jeder nichtnegativen Lesbegue-meßbaren Funktion f mit f e V (M,M,Jl) gelte für fast alle x e M die Existenz des Grenzwertes:

lim 1/ ni::~J(T t x) = lim 11 ni:~f(T - 1 x) =-! (x).

n~-

n~-

Dieser Satz heißt Birkhoff-Khinchin- Ergodentheorem. Die Funktion f ist invariant und f e VlM ,M,J.L).V bezeichnet einen speziellen LP-Raum, p ~ 1, der nach dem Satz von Riesz und Fischer ein Banachraum ist oder, wie Jänich (1987, 65) rekapituliert, spezieller Vektorraum der Lesbegue-meßbaren Funktionen f, für die 11 j1 Lesbegue-integrierbar ist. Unter dem Birkhoff-Khinchin-Theorem ist für jede 1 e L1 (M , M,Jl)• sofern

J =Jt4L• fast überall: !~"![1/ni:_ 1 /(T t (x))--!] = 0.

Die Differenz in der eckigen Klammer wird Zeitfluktuation im Hinblick auf den Mittelwert genannt. f erfüllt nun den zentralen Grenzwertsatz, falls eine Zahl cr =cr(f) existiert, so daß: limJ.L {x:fn[llni:=d(T(x))--j] < a}

".,.._

= l/[2m

r_e

-112

dx

Hierdurch wird für die Zeitfluk~ationen die Ordnung 0(1/fn) behauptet. Insgesamt kann man sagen, daß es überwiegend schwieriger ist, den zentralen Grenzwertsatz für Klassen von Phasenfunktionen als reguläre Gesetzmäßig-

D. Theorien über mentale Zustandsfolgen

425

keit zu beweisen, als die K-Eigenschaft nachzuweisen. Daher steht der zentrale Grenzwertsatz (CLT) in der Hierarchie der Stochastizitätskriterien höher. 7. Rate des Korrelationszerfalls (Sinai 1989, 104). L 2 ( M , M, Jl)

kennzeichnet

einen

Hilbert-Raum.

Eine

Funktion

t e L2 ( M, M, Jl) mit dem Mittelwert Null erfüllt die Eigenschaft des exponentiellen Zerfalls von Korrelationen (CD), wenn es positive Zahlen C,p < 1

gibt, so daß

IJ f ( T • (X)) f (X )dJll < C p 1•1 In unserem Zusammenhang interessiert weniger der allgemeine Fall (glatter Funktionen), für den Approximationen des Dynamischen Systems unter Berücksichtigung von Markoff-Automorphismen konstruiert werden müssen, sondern (siehe die Verhaltenstheorie Alisch 1988), der Fall einfacher Funktionen f mit T als Markoff-Automorphismus. Für diesen Fall kann die Eigenschaft des Korrelationszerfalls gut geprüft werden. In Abbildung 20 sei die Hierarchie jener Systemeigenschaften, die Stochastizität evozieren, noch einmal zusammengefaßt. ll) Selbstähnlichkeit, nochmals der Henon Attraktor und die Zurückweisung des Finitismus Fassen wir die bisher angeführten Ergebnisse zusammen: Sowie man (durchaus auch relativ einfache, fastintegrierbare, konservative) Systeme nicht nur lokal, sondern auch global untersucht, stößt man (z.B. im Fall quasiperiodischer Systeme) relativ rasch auf die Evozierung nichtregulären Verhaltens. Da der Übergang zur Stochastizität kriterial nicht an Unendlichkeilen gebunden ist, sondern an vorhandene Systemeigenschaften, kann der Endlichkeitsstandpunkt nicht aufrecht erhalten werden. Man sah dies recht präzise an der Henonschen quadratischen Drehungsabbildung, deren Dynamik genau beschreibbar ist, ohne jedoch vollständige Vorhersagbarkeil zu sichern. Auch der mögliche Rückzug des Finitismus auf die Skalierungsproblematik, der besagen könnte, daß im lokalen Mikrobereich keine pragmatischen Vorhersagbarkeitsschranken auftreten, steht nicht offen. Man konnte das dem Vergrößerungsvorgehen im Rahmen der KAM-Theorie entnehmen, das zeigte, daß sich die Systemdynamik von regulären, gemischten und stochastischen Regionen in jeder Größenordnung wiederholte. Die Selbstähnlichkeit verhindert hier also den finitistischen Rückzug.

426

E. Probleme der Grundlagenforschung

K-SysteJOe

L..---=.-1.,....-----1

---------~durchschnitt-

lieh exponentielle Divergenz benach-

barter Trajek-

torien;KS-Entropie

Verlli3chende

1 1

Syste11e

ergodisehe

Systerae

---------:>Annäherung an

ein Gleichge-

"icht

- - - - - - - - - - - ) Zeitdurchschnitt egalisiert Raurtdurchschnitt

Systeme mit Maßinvarianz ---------~natürliche Repräsentation

Abb. 20: Hierarchie der Systemeigenschaften, die Stochastizität evozieren. In ovaler Umrandung finden sich die erwähnten Beispiele, ohne Umrandung die Charakteristika der Systemdynamik.

Die Frage lautet nun noch, ob das für konservative Systeme Gezeigte auch auf dissipative Systeme zutrifft. Einen Hinweis enthielt schon die Diskussion der Verknüpfung von konservativen und dissipativen Systemen. Um das AIgument zu vervollständigen, greife ich noch einmal den Renon-Attraktor auf, an dem tatsächlich via Selbstähnlichkeit zu fastintegrierbaren Systemen Vergleichbares nachgewiesen werden kann. Die Renon-Abbildung war oben als zweidimensionales Analogon zur logistischen Abbildung eingeführt worden (für eine Dekomposition der Aktion der Renon-Abbildung vgl. Schuster 1984, 96f.; sie besteht aus einer Anfangsellipse, einer flächenerhaltenden Krümmung, einer Kontraktion in x-Richtung und einer Rotation um 90°). Seine Hausdorff-Dimension beträgt z.B. im Fall der oft zitierten Parameter a = 1,4; b = 0,3: D = 1.26. Diese Dimension gibt die wahre fraktale Dimension des

II. Theorien über mentale Zustandsfolgen

427

Attraktors an, reicht allerdings nicht aus, um seine Inhomogenität vollständig zu beschreiben. Wie schon erwähnt, kann auch beim Renon-Attraktor das Verfahren der Vergrößerung angewandt werden. Alle Vergrößerungen zeigen Skaleninvarianz der Anziehungsstruktur (Lichtenberg/Lieberman 1983, 390f.), d.h. alle Vergrößerungen sehen identisch aus. Diese Selbstähnlichkeit über die Vergrößerungsschichten hinweg entspricht - wie oben schon erwähnt - einer Cantor-Menge (hier lokal als Produkt mit einer gekrümmten Kurve). Zu erwähnen ist noch, daß der Renon-Attraktor nicht hyperbolisch ist. Wir können nun also im Hinblick auf den Endlichkeitsstandpunkt das zweite Argument vervollständigen: Dem Endlichkeitsstandpunkt, der behauptet, im Finiten approximativ Berechenbarkeit, Vorhersagbarkeil etc. zu gewährleisten, kommt weder im Hinblick auf konservative noch auf dissipative Systeme Universalität zu, d.h. es existiert für ihn eine prinzipielle Limitierung. Diese gilt sowohl für kontinuierliche als auch für diskrete Systeme, sowohl für Beschreibungen mit Hilfe von Differentialgleichungs- als auch für solche mit Differenzengleichungssystemen (die Renon-Abbildung basiert auf Differenzengleichungen). Die Limitierung besagt, daß bei Systemen der Komplexität von (Henon-) Verhaltenssystemen in jedem Fall Parameterkonstellationen auftreten können, die unvorhersagbares (stochastisches oder chaotisches) Verhalten evozieren und damit Formen von quantitativer, berechenbarer Approximation entgegenstehen. d) Dritte Entgegnung auf den Endlichkeitsstandpunkt

Wenn dem Finitismus keine approximative Universalität zukommt, könnte er sich noch auf folgende Annahme zurückziehen: In allgemeinen Verhaltensund Handlungstheorien geht es immer um die Erfassung von Struktur und Dynamik zielerreichender oder zielorientierter Systeme (Casti 1979, 152), ggf. mit Reflexibilität, was zielbewußte Systeme (Ackoff/Emery 1975) einschließt. Die Zielkomponente impliziert, daß Endzustände erreicht werden. Die Dynamik kann also durchaus als Gradientendynamik aufgefaßt werden, wie das z.B. Lewins Theorie zu behaupten scheint (vgl. Alisch 1990, 9. Beispiel. Mit dem Begriff Gradientendynamik bezeichnet man eine Klasse von Prozessen, die ausschließlich in Richtung auf Verringerung von (hier: psychischer) Energie ablaufen. Vgl. Ebeling 1989, 117). Um konzeptuell nicht zu eng vorzugehen, sollen indes nicht nur Potentialsysteme betrachtet werden, sondern maximal solche mit Grenzzyklen als Äquilibria, allgemein also solche mit Ljapunov-Funktion (Saunders 1986, 3; Ljapunov-Funktionen werden unten im Anschluß an die finitistische Annahme erklärt). Diese Systeme können gewöhnlich, darin ganz kompatibel mit Lewins (1931) Galileismus, aus-

428

E. Probleme der Grundlagenforschung

reichend mit lokalen Methoden untersucht werden, so daß der Finitismus behaupten kann, Systeme mit Ljapunov-Funktion sind (1) die humanwissenschaftlich einzig interessanten und unterliegen (2) praktisch keiner prinzipiellen Limitierung, wie z.B. der durch die Gödelsehen Resultate. aa) Die Ljapunov-Methode Um diese Einschränkung des Endlichkeitsstandpunktes prüfen zu können, müssen mehrere Resultate bezüglich der erwähnten Systeme bereitgestellt werden. Das erste betrifft die Ljapunov-Methode. Ljapunov war der erste, der Stabilitätseigenschaften lokaler Dynamiken der Form .i = f ( x, t), x 0 = c systematisch untersucht hat. Sein Problem lautete: Angenommen, 1 ( o. t) gilt für alle t, und eine beliebig kleine Verschiebung 0 :1:- c wird vorgenommen. Ist zu erwarten, daß der neue Prozeß nahe dem ursprünglichen verläuft, also innerhalb eines durch die Distanz E e IR vorgegebenen, kleinen Umgebungsintervalls? Das kann auf jeden Fall immer so aufgefaßt werden, daß relevante Stabilitätseigenschaften in der Umgebung lokaler Gleichgewichte zu untersuchen sind. Die Gleichgewichte müssen dazu natürlich rechnerisch bestimmt sein, was je nach den Eigenschaften von f entweder nur einen Routinevorgang oder aber ein kompliziertes Problem darstellt. Als Gleichgewichte kommen unter dem Finitismusargument jetzt nur noch Fixpunkte und Grenzzyklen infrage. Jedes stabile Gleichgewicht weist eine offene Umgebungsregion als Attraktorgebiet auf. Liegen Anfangszustände eines Systems in diesem Gebiet, so wird das System vom Attraktor angezogen. Ljapunov-Untersuchungen zielen nun darauf festzustellen, ob ein System nach Ablauf eines beliebigen Zeitintervalls in ein Gleichgewicht zurückkehrt, sofern es vorher initial gestört worden ist (sofern als c :1:- 0 ). Um das Prinzipielle zu verdeutlichen, betrachten wir den linearen Fall. Die Fx, x0 Xo (:;t: 0) sollen die internale SystemdesDifferentialgleichungen kription abgeben, wobei F eine konstante nxn - Matrix mit dem charakteristischen Polynom: q> F (Z) = a 0 Z" + a 1Z"- 1 + ... +a._ 1Z + a •.

x=

=

Es interessiert nun vor allem die asymptotische Stabilität des Gleichgewichtspunktes x = 0. Da die Lösung der Gleichung = Fx mit x(t) = eF' x0 bekannt ist, sieht man auch, daß jede initiale Störung x 0 :~:- 0 zum Ursprung zurückkehrt, sobald t ~ oo , falls nämlich alle charakteristischen Verläufe von F negative Realanteile haben. Mit Hilfe des Routh-Hurwicz-Theorems (vgl. Casti 1979, 136 f.) kann geprüft werden, ob das für die

F eine sehr starke Bedingung, weshalb Ljapunov einen direkten Test für die Elemente von F entwickelte. Dieser setzt im Prinzip voraus, daß die Fortsetzung des zu untersuchenden Prozesses in Äquilibriumsnähe asymptotisch stabil ist, wenn alle Prozeßtrajektorien, die dem Gleichgewicht genügend nahe liegen bzw. in genügender Nähe zu ihm initiiert werden, genauso verlaufen, als wenn eine geeignet definierte (Energie-, Potential- u.ä.) Funktion minimiert würde, wobei diese Funktion selbstverständlich am Gleichgewicht ein lokales Minimum hat. Gegeben

sei

nunmehr die allgemeine nichtlineare Gleichung die die Eigenschaft f(O) =0 aufweist. f verlaufe in der Nähe des Ursprungs kontinuierlich. V(x) heiße die passende Ljapunov-Funktion, wenn V(O) = O,V(x) > 0 für alle x :1:- 0 in der Umgebung des Ursprungs und dV(x)jdtO. P muß wegen der ersten beiden Merkmale von V(x) positiv definit sein. So ergibt sich: Der Ursprung von x = Fx , x(O) = x 0 ist asymptotisch stabil, wenn F' P + PF =-C für jedes C > 0 eine Lösung P>O hat. Für nichtlineare Zusammenhänge, wie sie etwa in der Verhaltenstheorie (Alisch 1988) auftreten, arbeitet die Ljapunov-Methode wie folgt: Angenommen, eine stochastische Differentialgleichung vom Typ Brownsche-Bewegung (vgl. z.B. Aldous 1989; Mandelbrot 1987; Cobb 1981) weise (wie üblich) einen dominanten linearen Term auf, der schwach perturbiert wird (Einfluß des Oszillationsterms). Die Systemdynamik hat dann die Form x = Fx + h(x),x(O) = x 0 .F sei eine Stabilitätsmatrix, d.h. alle ihre charakteristischen Wege liegen in der Fläche links der Ordinate. Das Gleichgewicht x=O ist dann asymptotisch stabil, wenn die initiale Störung von x 0 und die nichtlineare Perturbation h(x) nicht zu groß sind. Das kann man im PoincareLjapunov-Theorem präzisiert finden. Das Brownsche System erfülle dazu die Bedingungen: (1) F sei eine Stabilitätsmatrix; (2) h ()sei eine stetige Funktion von X, so daß h(O)=O und lh(x)l/lxi~O. falls lxl~ O; (3) lxol«l. Sind (1)- (3) gegeben, dann ist das Gleichgewicht x =0 asymptotisch stabil.

430

E. Probleme der Grundlagenforschung

Zweifellos enthält von den genannten drei Bedingungen die dritte die größten Schwierigkeiten, weil nicht klar ist, was noch als ausreichend kleine Störung im Hinblick auf die Stärke der Nichtlinearität h und der Größe des Realanteiles des charakteristischen Weges von F in der Nähe der Koordinatenachse anzusehen ist. Diese Schwierigkeiten lassen sich aber umgehen, wenn eine etwas stärkere Fassung der Systemdynamik möglich scheint (vgl. dazu das Krasovskii-Theorem, Casti 1979, 140). bb) Stabilität Sowohl im Abschnitt über globale Merkmale als auch jetzt im Zusammenhang mit der Ljapunov-Methode ist der Begriff der Stabilität gebraucht worden. Es genügt hier, ihn im Hinblick auf Systeme mit Ljapunov Funktion zu erklären. Gegeben sei eine Menge S mit einer Topologie, ferner eine Äquivalenzrelation E. (Vereinfacht gesagt sindinS also mehr oder weniger willkürlich Teilmengen als offene Mengen ausgezeichnet, d.h. als Mengen, die keine Randpunkte haben bzw. nur Elemente besitzen, deren Umgebung ebenfalls Elemente einer jeweiligen Teilmenge von S sind.) Ein Element von S heißt stabil (relativ zu E), wenn die E-Äquivalenzklasse von se S eine Umgebung von S enthält. In vielen Anwendungsfällen ist es jedoch unzweckmäßig, einen derart globalen Stabilitätsbegriff zu verwenden. Restriktionen ermöglichen es, von lokaler Stabilität zu sprechen. Um auch hierfür einen geeigneten Begriff einführen zu können, vertiefen wir die Betrachtungen zur Äquivalenzrelation E und zur globalen Stabilität. Gegeben seien Abbildungen in C k ( M, N), d.h. die Menge aller c k -Abbildungen von M nach N mit k gleich ro oder oo. M und N seien Mannigfaltigkeiten. Die Mannigfaltigkeit M ist eine c • -Mannigfaltigkeit, wenn die Kompositionsabbildungen

s . Diese formalen Festlegungen drücken aus, daß eine Eigenschaft in einer Menge generisch ist, wenn fast alle Elemente der Menge diese Eigenschaft aufweisen. Zusätzlich präzisiert die Definition die folgenden intuitiven Merkmale: (a) Jedes Element der Menge, gleichgültig, ob es die generische Eigenschaft aufweist oder nicht, kann durch Elemente, die die generische Eigenschaft haben, beliebig nahe approximiert werden. (b) Die Menge der Objekte mit generischen Eigenschaften ist vollständig dicht (Sussmann/Zahler 1978, 184). ddd) Das 3. morphogenetische Prinzip Um nun das dritte Morphogeneseprinzip herleiten zu können, sei noch einmal daran erinnert, daß für den globalen Prozeß V: IRD+4 -----+ IR

die Katastrophenmenge K v die Menge der parametrisierten, entarteten kritischen Punkte des Systems beschreibt. Wegen der Reduktion von V auf g1 hat K v lokal dieselbe geometrische Struktur wie K;,·

D. Theorien über mentale Zustandsfolgen

Sei 1t: K v ~ IR4 eine natürliche Projektion und K v

443

=1t( K v ) ,

so hat K v dieselbe geometrische Struktur, wie sie Kg,= (K 8,) c IRk

für eine generische Menge von V hat (mit k als Entfaltungskodimension von g, ; Kodimensionen sind die Differenzen zwischen den Dimensionen eines Zustandsraumes und den Dimensionen des Systems, das der Morphogenese unterliegt.). So führen empirische Beobachtungsdaten, wenn sie sequentiell Gradienten erzeugen und den oben genannten Bedingungen gehorchen, zu dem Schluß, daß für den Fall einer Reduktion von V auf g, eine Abbildung

existiert, so daß KvnWo=

t

-1

(K 9i) n Wo

Unter bestimmten Randbedingungen kann K v n W 0 in eine disjunkte Vereinigung von r Mannigfaltigkeilen (Strata) zerlegt werden, die alle dieselbe Größe in IR 4 haben wie ihre Bilder in IR 4 unter /\

'V· Entsprechend sind die instabilen kritischen Zustände ( u, t) des Systems durch die Vereinigung von r solchen Mannigfaltigkeilen gegeben, d.h. durch eine stratifizierte Untermannigfaltigkeit Thom behauptet nun, daß die lokale Prozeßmorphologie als Evolution der geometrischen oder topalogischen Formen bzw. Merkmale der Substrata, in denen der Prozeß stattfindet, durch die Topologie von K v in W 0 determiniert ist. Betrachtet man Zeitreihen von 1\

"''

dann sind zu jedem Zeitpunkt t induzierte Mengen Kv n W0 n (IR3 x {t}) 1\

'l't

-1

=

(Kg,)

gegeben. Dabei ist

"' /\

zu Kg, transversal. (Eine Abbildung f'A~B mit A, B als glatten Mannigfaltigkeilen und C einer glatten Untermannigfaltigkeit heißt

444

E. Probleme der Grundlagenforschung

transversal zu C im Punkt a aus A, wenn entweder f(a) nicht auf C liegt oder das Tangentialbündel an C im Punkt f(a) sowie das Bild des Tangentialbündels zu A in a transversal sind. Unterräume heißen transversal, wenn ihre Summe der ganze Raum ist; vgl. Arnold 1987.) Die Transversalität von A

'V bedeutet, daß die stratifizierte Struktur einer (morphogenetischen) Schockwelle in jeder Beobachtung über verschiedene Zeitintervalle hinweg dieselbe sein und die universelle stratifizierte Struktur von Kg, widerspiegeln wird. Daher ist es theoretisch möglich, die zeitparametrisierten Strukturen so zusammenzusetzen, daß man entscheiden kann, welche universelle Katastrophenmenge in den Beobachtungen vorliegt. Es muß allerdings betont werden, daß diese theoretische Möglichkeit in der praktischen Umsetzung nur dann ausgeschöpft werden kann, wenn sich empirisch-methodische Ingeniosität mit geometrischer Imaginationsfähigkeit paart, zumindest bei Vorliegen einer Menge Kg,, die komplizierter als die Kuspe ist (lokale Verbesserungen dieser Theorie entwickelt Wassermann 1986). Für die kanonische Kuspe existiert inzwischen ein Parameterschätzverfahren (Cobb 1981a), das auf einer Verallgemeinerung der Methode der Momente basiert und dem Vorwurf allzu spekulativer Verwendungen der Katastrophentheorie die Spitze nimmt. x 1 , x 2 , ••• , x • seien unabhängige Variablen, y die Verhaltensvariable des Systems, g(x 1 , ••• ,x. ,y)=O gebe als implizite Funktion das Kuspen-Modell an, a. und ß seien Normal- und Splitfaktoren, und zwar lineare Funktionen der unabhängigen Variablen: IX= IX o +IX I X I +IX 2 X 2 + ... +IX n X • ;ß = ß o + ß I X I + ß 2 X 2 + ... +ß • X n • Ferner bezeichne ').. einen Orts- und cr einen Skalenparameter (die eine ähnliche Rolle wie Mittelwert und Standardabweichungen der Normalverteilung spielen). y läßt sich also standardisieren: z = ( y- ')..)I cr. Entsprechend nimmt das Kuspen-Modell die Form: g(a.,ß,'A.,cr,y) = a.+ßz-z 3 = 0 an. Statistisch sind dann die Koeffizienten der Faktoren a. und ß und die Parameter ').. und cr aus m simultanen Beobachtungen der Variablen y, x 1 , x 2 , ••• , x. zu schätzen.

Thom skizziert die morphologische Signifikanz der Katastrophenmenge wie folgt: Die stabilen Minima treten an Punkten ( u, t ) in festen Komponenten des Komplementes von K v in W0 auf. u liege z.B. in einer sehr kleinen Umgebung von 0 in IR3 und t soll fortschreiten können. Die dazu korrespondierenden stabilen Minima, die nun mit den Zuständen des Systems an (u,t) zusammenhängen, können sich einem entarteten Minimum p 0 an (u 0 ,t) für V (u.to > annähern. Durchqueren die Zustände p 0 , dann produziert der plötzliche Wechsel von einem stabilen Zustand in einen instabilen und zurück in einen stabilen einen Schock, der im Substratteil nahe (u,t 0 ) beobachtet wer-

ß. Theorien über mentale Zustandsfolgen

445

den kann. Schock bedeutet dabei, daß eine beobachtbare Teilung der RaumZeit-Werte (z.B. der Substratgebiete) nahe (u,t 0 ) auftritt mit Teilungsgrenzen, die den entarteten Minima korrespondieren und mit Teilungszonen entsprechend den nichtentarteten stabilen Minima. Diese Stabilitätszonen nennt Thom im Ans~hluß an eine Begriffsbildung des Biologen C.H. Waddington (1970), der damit die stabilisierenden Prozeßketten in der ontogenetischen Entwicklung bezeichnete, "Chreoden". Das dritte Thomsche Prinzip lautet nun: In einem morphogenetischen Prozeß sind gerade die Schockwelle und die resultierenden Chreoden-Konfigurationen beobachtbar, die durch die Strata der Schockwelle separiert werden, und zwar sowohl zu jedem Zeitpunkt als auch über die gesamten Beobachtungsintervalle hinweg. Die Allgemeinheit von Sg, und Kg, bedingt, daß die in der Raumzeit beschriebene Morphologie topalogisch-universell im Raum jener Entfaltungsparameter widergespiegelt wird, die zur universellen Entfaltung gi gehören (wobei V auf g; reduziert ist). Topalogisch bedeutet das, daß man lokal dasselbe an dem global durch V beschriebenen Prozeß beobachtet, wie lokal an dem durch g; beschriebenen. Worauf bezieht sich dabei das "Beobachten"? Ist ein empirisches Objekt in ein Medium eingebettet, dann kann man Schockwellen als Raum-Zeit-Punkte registrieren, an denen der Orbit der Evolutionszustände auf die Katastrophenmenge K v trifft. Wenn dagegen spezifiziert ist, inwiefern Entfaltungsparameter Kontrollparameter sind (einschließlich Meßanweisungen), dann wird das theoretische Modell Sprünge bzw. Diskontinuitäten in der Systemevolution vorhersagen für den Fall, daß die Kontrollparameterwerte in K v zu finden sind. Um also ein beobachtetes Phänomen und die ihm unterliegende lokale Dynamik klassifizieren zu können, braucht man lediglich den Prozeß zu beobachten (z.B. via Zeitreihe), die beobachteten Diskontinuitäten-(Katastrophen-)mengen geometrisch zu analysieren und eine Relation zwischen dieser Menge und einer der endlich vielen universellen Katastrophenmengen herzustellen, die dann das Hauptuntersuchungsgebiet abgibt. Resümierend läßt sich feststellen, daß das Prinzip der Aufwandseinsparung mit der Vorstellung von einem strukturbildenden, differenzierenden Potential zwar nicht zu einer Erklärung führt, ebenso wie die aristotelische Teil-Ganzes-Leitdifferenz, aber immerhin zu einer Typisierung (vgl. oben E.III des Exkurses "Theorien und Modelle"). Erst wenn man weiß, daß die Strukturdifferenzierung des Systems dem Potentialitätsprinzip gehorcht, weiß man auch, in welcher Richtung man nach geeigneten Potentialen zu suchen hat. Wie weit dabei der Weg von der Typisierung zur Erklärung sein kann, ist am Beispiel der Thomschen Morphogenesetheorie verdeutlicht werden. Das Beispiel zeigt aber auch, wie ggf. die Umsetzung eines (energetischen) Potentials in

446

E. Probleme der Grundlagenforschung

eine (strukturelle) Morphologie gedacht werden kann, und es zeigt vor allem, daß der Raum, in dem sich die Genese vollzieht, mit seiner Charakteristik eine große Rolle spielt. Das sei zu der Aussage verschärft: Genau die Typisierungen sind unter dem Prinzip der Aufwandseinsparung zum Scheitern verurteilt, die eine unbrauchbare (z.B. generell euklidische) Raumvorstellung benutzen. Es läßt sich an zahlreichen Dynamischen Systemen zeigen, daß sich ihre Dynamik und deren Klassifikation nicht über noch so umfangreiche zeitreihenartige Beobachtungen erschließen, sondern zusätzlich der theoretisch entwickelten Unterlegung mit einer Mannigfaltigkeit bedürfen, auf der sie operieren (vgl. Anosov et al. 1988, 198). Auch für die Thomschen Überlegungen ist es wichtig, sich den Zusammenhang zwischen Dynamik und Geometrie einer Ereignisreihe zu vergegenwärtigen, um der Morphogenese auf die Spur zu kommen. Der Versuch hingegen, System-Umwelt-Konfigurationen via Katastrophentheorie studieren zu wollen, ohne den topologischen Raum zu kennen, in dem die Systemmorphogenese stattfindet, führt nur zu intuitiven Analogien, deren Wert heftig angezweifelt wird (Arnold 1986; Sussmann/Zahler 1978). ee) Lokale Diskontinuitäten, Singularitäten und Katastrophen Im vorigen Abschnitt ist gezeigt worden, daß eine überwiegend lokale Theorie Morphogenese hervorbringen kann. Man wäre nun geneigt, in ihr die Bestätigung für die Auffassung des abgeschwächten Finitismus zu sehen, zumal die universellen Entfaltungen einen interessanten Reduktionsfall darstellen, wenn nicht das dritte Thomsche Morphogeneseprinzip von Schockwellen und Separation spräche. In der Tat unterliegt der Morphogenesetheorie ein mathematischer Formalismus, der Singularitäten in den Vordergrund stellt. Singularitäten von Abbildungen von Flächen in die Ebene (IR2 ~ IR2) sind nach Whitneys Theorem (dessen Behandlung schon Ende des Abschnittes E.II.l.d)bb) angekündigt war) generisch nur von zweierlei Art, d.h. alle anderen Singularitäten solcher Abbildungen disintegrieren unter schwacher Veränderung (z.B. unter Verschiebung eines Körpers (der Fläche) oder Veränderung einer Projektionsrichtung (der Abbildung)), während die beiden Arten stabil sind und trotz schwacher Deformation der Abbildungen bestehen bleiben (Amold 1986, 3). Die beiden stabilen Singularitäten sind die Falte und die Kuspe (manchmal auch als Spitze bezeichnet), auf die alle anderen, instabilen Singularitäten zurückgeführt werden können. Die Thomsche Morphogenesetheorie basiert nun auf einem speziellen Teil der Singularitätstheorie, nämlich der Katastrophentheorie. Da aber die elementare Katastrophentheorie noch andere stabile Singularitäten als nur Falte und Kuspe klassifizieren will, nämlich den Schwalbenschwanz, den Schmetterling, den hyperbolischen Nabel, den elliptischen Nabel und den paraboli-

TI. Theorien über mentale Zustandsfolgen

447

sehen Nabel, wird manchmal auch die Singularitätstheorie als Teil der Katastrophentheorie aufgefaßt. Die in dieser Bemerkung mitschwingende Skepsis gegenüber der Katastrophentheorie basiert vor allem darauf, daß die Protagonisten der Theorie glauben, Thoms Klassifikationstheorem sei bewiesen, während die Kritiker der Meinung sind, das sei durchaus noch nicht der Fall. Stellvertretend für viele mag V.l. Arnold (1986, IX) zitiert sein: "Neither in 1965 nor later was I ever able to understand a word of Thom's own talks on catastrophes. He once described them to me ... as 'bla-bla-bla', when I asked him, in the early seventies, whether he bad proved bis announcements. Even today I don't know whether Thom's statements on the topological classification of bifurcations in gradient dynarnical systems depending on four parameters are true (in a corrected form, i.e. for generic metrics and potentials: a counterexample to the original 'Thom theorem' ... was given by J. Guckeobeimer in 1973, and even the 'magic 7', so praised by catastrophe theorists, have tobe augmented to make the theorem correct)." Selbst der Name "Katastrophentheorie" geht nicht auf Thom, sondern auf E.C. Zeernan zurück. Wie dem aber auch sei, die Katastrophentheorie stellt sich das Problem, dem Zusammenspiel von kontinuierlichen und diskreten Phänomen in der mathematischen Weltbeschreibung einen einheitlichen Rahmen zu geben (Arnold 1986, Vll). Dabei bezieht sie sich auf Grundsätze wie dem von Montel (zit. nach Arnold 1986, ebd.), der bezüglich des Diskreten sagt: Die ganz allgemein Lebewesen beschreibenden Funktionen sind durch ihre Singularitäten gekennzeichnet. Singularitäten erfassen die Emergenz diskreter Strukturen aus glatten, kontinuierlichen, wie das am Beispiel der Thomschen Morphogenesetheorie schon deutlich gemacht worden ist. aaa) Singularitäten Wir können also zunächst festhalten, daß Thoms Rede von Schockwellen und Separation auf Singularitäten abzielt. In der Darstellung zum zweiten morphogenetischen Prinzip (siehe oben) war bereits von solchen Diskontinuitäten die Rede und davon Gebrauch gemacht worden, daß Singularitäten einer Abbildung eine lokale Eigenschaft darstellen. Recht anschauliche Beispiele für Singularitäten bieten Projektionen. Bildet man etwa eine Kugel auf eine Fläche ab, dann treten an den Äquatorialpunkten Singularitäten auf. Um das besser verstehen zu können, muß der Begriff der Singularität genauer gekennzeichnet werden. Singularitäten sind Punkte, die Ambiguitäten aufweisen und deren asymptotische Nachbarn alle Werte annehmen können (Winfree 1980, 40). Sie sind Orte mit unendlicher Steigung, an denen die Änderungsrate einer Variablen mit einer anderen alle Grenzen übertrifft und an denen eine dramatische Änderung in einer Observablen durch beliebig kleine Änderungen in Kontrollparametern hervorgebracht wird (Winfree 1980, 71). Entspre-

E. Probleme der Grundlagenforschung

448

chend halten Morse und Feshbach (1953, 20) Singularitäten für die wichtigsten Aspekte von Vektorfeldern, denn die empirischen Umstände stehen gewöhnlich in enger Verbindung zu ihnen. Das verwundert nicht, wenn man bedenkt, daß die mathematischen Eigenschaften von Lösungen und von Differentialgleichungen durch die Art ihrer Singularitäten bestimmt werden. Mehrfach war bereits angedeutet worden, daß Singularitäten Formen von Diskontinuitäten darstellen. Ob sie empirisch-wissenschaftlich bedeutungsvoll sind, hängt allerdings davon ab, ob sie substantiellen oder bloß mathematisch-technischen Charakter haben. Der mathematische Artefakt einer bloßen koordinatenbedingten Singularität, Resultat der besonderen Wahl eines Koordinatensystems, weist jedenfalls keine empirische Signifikanz auf. Indiz für eine solche Signifikanz ist daher die Persistenz der Singularität unter Koordinatenwechsel. Für eine Unterscheidung von Singularitäten eignen sich drei Gesichtspunkte, die in den folgenden sieben Festlegungen deutlich werden (vgl. Jänich 1980, 53 ff.): 1. Zo heißt isolierte Singularität von f, wenn U c IC offen ist;

ZoE U;

f:

U\

z0

~ IC

holamorph ist.

2./heißt holomorph, wenn /überall in U komplex differenzierbar ist (und also f: U ~ IC stetig ist). 3. f heißt komplex differenzierbar an der Stelle Zo· wenn U c IC offen ist;

ZoE U; f:U~IC;

!im /(z)-/(z

z--t z o

0

)/z-z 0 =:f'(z 0

)

4. Zo kann als isolierte Singularität 4.1 hebbar heißen, wenn f sich durch geeignete Festsetzung von ft..Zo) zu einer holomorphen Funktion auf ganz U fortsetzen läßt. 4.2 Pol heißen, wenn Zo nicht hebbar ist, aber ein m ~ 1 existiert, so daß (z- z 0 ) m f (z) eine hebbare Singularität bei Zo hat. 4.3 wesentlich heißen, wenn sie weder Pol hat noch hebbar ist. 5. Eine Funktion heißt meromorph in U, wenn sie bis auf Pole holomorph in U ist. 6. Zo sei isolierte Singularität von f, E > 0 genügend klein, so daß der Kreisring {zl 0 < lz - Zo < E} im Definitionsbereich von f enthalten ist. f ist im Kreisring in seine Laurentreibe entwickelbar. Demgemäß heißt

ll. Theorien über mentale Zustandsfolgen

449

der Hauptteil der Laurententwicklung von f im Kreisring auch Hauptteil von f an der Stelle z 0 : L, ~=• c -n I (z- z 0 ) ". 7. Die Singularität Z0 ist genau dann hebbar, wenn der Hauptteil (der Laurententwicklung) von f bei Z0 Null ist; Z 0 ist genau dann ein Pol, wenn der Hauptteil von der Form I, 1 c -n I ( z- z 0 ) n ist; Z 0 ist genau dann wesentlich, wenn unendlich viele Koeffizienten des Hauptteils ungleich Null sind.

;=

bbb) Falten, Kuspen und Whitneys Theorem Angesichts dieser Festlegungen und des davor Gesagten sollte nun klar sein, weshalb die erwähnte Illustration für eine Falte in Form der Projektion einer Kugel auf eine Fläche und des Auftretens eines Äquatorialpunktrandes ein gutes Beispiel ist. Verläßt man den Rand in einem Punkt nach außen, dann treten keine Zustandswerte mehr auf; geht man dagegen nach innen, dann bildet der Rand eine Stelle, die immer das Auftreten von zwei Zustandswerten nach sich zieht. Der Äquatorialpunkt ist demnach ein solcher, an dem kleinste Änderungen zu völlig verschiedenen Funktionsverläufen führen (nämlich nördlich oder südlich des Kugeläquators). Interessanterweise kann damit schnell eingesehen werden, daß Projektionen der morphologischen Oberflächen von Lebewesen immer an Konturenlinien zu Singularitäten mindestens vom Typ Falte führen. Die Projektion einer Kuspenoberfläche zieht dagegen u.a. das Bild einer halbkubischen Parabel mit einer Kuspe an ihrem Ursprung als Singularität nach sich. Diese Parabel besteht aus zwei Falten-Kurven, die die Ebene in zwei Teile aufgliedert. Innerhalb der sog. Bifurkationsmenge (also des kleineren Teiles) tauchen Projektionspunkte von immer drei Oberflächenpunkten auf (3-zu-1 -Abbildung oder: jeder Ebenenpunkt weist invers drei Oberflächenpunkte auf); auf die Parabelkurven werden zwei Punkte der Oberfläche projiziert und auf den größeren Teil der Fläche immer nur ein Punkt. Nähert man sich der Kurve aus der Katastrophenmenge, dann vermengen sich zwei der drei inversen Punkte und verschwinden, so daß hier die Falte als Singularität auftritt; in der Spitze der Kurve (in ihrem Ursprung) fallen alle drei Punkte in einen zusammen und bilden die Kuspen-Singularität (vgl. Zeeman 1975a, 13f.). Die Kuspe ist nach Whitneys Theorem stabil. Überdies zeigt sich, daß jede Singularität einer glatten Abbildung einer Oberfläche auf die Ebene nach schwacher Perturbation in Falten und Kuspen aufgegliedert wird (ebenfalls nach Whitneys Theorem). Fast alle sozialwissenschaftliehen und psychologischen bzw. erziehungswissenschaftliehen Anwendungen der Katastrophentheorie stellen lediglich Anwendungen der Whitneyschen Singularitätstheorie dar (wie übrigens auch die Zeemansche Katastrophenmaschine; 11

29 Alisch

11

450

E. Probleme der Grundlagenforschung

vgl. Poston!Woodcock 1973). Diese Theorie basiert auf dem Theorem (vgl. Lu 1975, 23): (1) Die AbbildungfU ~ IR2 ist an der Stelle x 0 E U c IR2 stabil gdw sie in der Nachbarschaft von x 0 zu einer der drei Abbildungen äquivalent ist:

(a) n =x, v =y (regulärer Punkt)

=x v =y (Faltenpunkt) (c) n =xy- x 3, v =y (Kuspenpunkt) (b) n

2,

wobei jede Abbildung die Nachbarschaft der Stelle (0,0) in der ( x,y)Ebene auf die Nachbarschaft von (0,0) in der ( u,v)-Ebene abbildet. (2) Stabile Abbildungen f: M ~ IR2 einer kompakten zweidimensionalen Oberfläche M in die Ebene bilden eine überall dichte Menge im Raum aller glatten Abbildungen. (3) Die glatte Abbildung f M gungen erfüllt sind:

~

IR2 ist stabil gdw die folgenden Bedin-

(a) Die Abbildung ist an jedem Punkt in M stabil. (b) Die Bilder der Falten schneiden sich nur paarweise und unter Winkeln größer Null, während die Bilder von Falten keine Kuspenbilder schneiden. Einen Beweis findet man bei Whitney (1955). Auf welche Weise stellt sich aber die Anwendung dieses Theorems im Detail dar? Arnold (1986, 12f.) beschreibt sie wie folgt: Es wird zu Anfang unterstellt, daß der in Rede stehende Vorgang einer Zustandsänderung von Systemen mit einer bestimmten Anzahl von Kontroll- und Zustandsparametern beschrieben werden kann. Betrachtet man dann die Gleichgewichtszustände des Prozesses, so kann man oft feststellen, daß sie eine spezifisch dimensionierte Fläche im Zustandsraum bilden. Die Projektion der Gleichgewichtsfläche auf die Kontrollparameterebene kann Singularitäten aufweisen, für die unterstellt wird, daß sie generisch sind. Sodann läßt sich mit der Singularitätstheorie vorhersagen, welche Geometrie die elementaren Katastrophen Falte und Kuspe haben werden, z.B. welche Sprünge im Falle der Kuspe von einem zu einem anderen Gleichgewichtszustand unter Änderung von Kontrollparametern auftreten. ff) Katastrophen und die dritte Entgegnung auf den Endlichkeitsstandpunkt

Wir können festhalten, daß nach dem Whitney-Theorem die auf die Kontrollparameterebene projizierten Gleichgewichtsflächen von Potentialsyste-

II. Theorien über mentale Zustandsfolgen

451

men generische Singularitäten aufweisen, die Falten oder Kuspen formen. Dabei kann man leicht nachpriifen, daß z.B. im Fall einer Kuspe schon kleine Parameterwertänderungen ausreichen können, um den Systemzustand von einem in ein anderes Äquilibrium springen zu lassen. Der Sprung stellt eine Diskontinuität dar, mit der im Kontrollparameterraum die Ränder der Bifurkationsmenge mit ihren Singularitäten korrespondieren (vgl. Winfree 1980, 73). Es war in Abschnitt E.II.l.d)dd) dargestellt worden, daß universelle Entfaltungen von Singularitäten in ihrem entarteten Teil auf die Gleichgewichtsflächen der Potentialfunktionen führen. Trifft ein Gradient unter Parametervariation auf den entarteten Teil (die Inverse der Katastrophenmenge), dann realisiert er einen diskontinuierlichen Sprung in der Gleichgewichtsfläche. Dabei können verlaufsgleiche Gradienten, deren Projektionen im Kontrollparameterraum völlig übereinanderliegen, dennoch ganz unterschiedliche Äquilibria aufweisen, jenachdem wie ihre "Geschichte" vor Eintritt in die Kuspenkatastrophe aussieht. Tritt nämlich ein Gradient in den unteren Teil der Gleichgewichtsfläche über der Katastrophenmenge ein, dann springt er an einer Falte auf den oberen Teil. Tritt er dagegen in diesen ein, dann fällt er an der Falte auf den unteren. Das Allgemeine in den Gradientenverläufen besteht lediglich im Wechsel vom stabilen ins instabile und zurück zum stabilen Gleichgewicht und im Auftreten einer Diskontinuität aufgrund einer Singularität (in der Projektion). Trifft der Gradient unter Kontrollparametervariation dagegen auf die Kuspe in der Gleichgewichtsfläche, dann resultiert eine Heugabelbifurkation, wobei hervorgehoben werden muß, daß das Verhalten des Gradienten in Bifurkationspunkten absolut unvorhersagbar ist. Die Berechenbarkeil stößt für den Gradienten an ihre Grenzen. Es gibt also in Potentialsystemen Fälle, die einer effektiven Unberechenbarkeit im Endlichen gleichkommen. Auf die abgeschwächte Form des Finitismus (vgl. E.ll.l.d)cc)bbb)) kann demnach geantwortet werden, daß Systeme mit Ljapunov-Funktion, die auf lokale Weise Emergenz erklären, einer prinzipiellen Begrenzung hinsichtlich ihrer Vorhersagbarkeil durch das Auftreten von Singularitäten und Bifurkationen unterliegen. Mit Bezug auf diesen Einwand nützt es auch nichts, daß man darauf verweist, er ergäbe sich lediglich aus der Betrachtung von Familien von Potentialfunktionen und Kontrollparametervariationen. Dieser Verweis besagt nämlich lediglich, daß es Fälle gibt, für die die gekennzeichneten Systeme vorhersagbar sind, nicht aber, daß das für alle Fälle gilt. Woher sollte man also die Gewißheit nehmen können, daß man gerade ein System vorliegen hat, das sich unproblematisch verhält? Bevor wir auf die Konsequenzen des Gödel-Theorems für Theorien über Zustandsfolgen überleiten, noch ein kurzer Hinweis. Es wurden unter dem Stichwort Katastrophentheorie nur die beiden Whitneyschen Singularitäten behandelt, nicht aber die vollständigen sieben Singularitäten aus dem Thom29•

452

E. Probleme der Grundlagenforschung

sehen Theorem. Das liegt u.a. daran, daß sich pädagogisch-psychologische Anwendungen im wesentlichen in den Whitney-Singularitäten erschöpfen. Inwiefern diese mit Dynamischen Systemen in Zusammenhang stehen, habe ich für Lewinsehe Systeme in Alisch (1990) gezeigt. Allgemein kann man sagen, daß sich die zur Kuspenkatastrophe gehörende Gleichgewichtsfläche genau dann für die Modeliierung von zweiparametrigen Systemen eignet, wenn diese Systeme die folgenden qualitativen Merkmale besitzen (vgl. Jetschke 1989, 175): (a) Bimodalitat (es gibt Parameterwerte, unter denen zwei Gleichgewichtszustände möglich sind); (b) Divergenz (sehr nahe beieinanderliegende Parameterwerte können dennoch völlig unterschiedliche Gleichgewichtszustände hervorbringen); (c) Unerreichbarkeil (mitunter können nicht alle Zustände erreicht werden); (d) Diskontinuitäten; (e) Hysterese (die Zustände hängen von der Vorgeschichte der Parameteränderung ab). e) Vierte Entgegnung auf den Endlichkeitsstandpunkt

Es bleibt dem Finitismus noch ein letzter Ausweg. Er kann darauf hinweisen, daß die dritte Entgegnung lediglich für generisch viele und also nicht für alle Systeme mit Ljapunov-Funktion gilt und daß deshalb die dritte Entgegnung nicht aufrechterhalten werden kann. Zur Begründung kann er anführen, daß selbstorganisierende Systeme durchaus gerade jenes nichtgenerische Verhalten evozieren können, das die dritte Entgegnung nicht erfaßt, und daß diese Systeme dennoch einer rekursiven Logik gehorchen (vgl. Schmid/Haferkamp 1987), die sie zu geeigneten Kandidaten für einen eingeschränkten Finitismus macht. Um diesen Ausweg zu versperren, werde ich nicht die Generizitätsdebatte weiterführen und auch nicht zeigen, daß selbstorganisierende Systeme generisch sind, sondern dem Finitismus die Grundlage dadurch entziehen, daß ich die Unmöglichkeit einer Identifikation von Selbstorganisation und rekursiver Logik nachweise. Dieser Nachweis wird wieder von Gödels Theorem Gebrauch machen und insofern zugleich eine Überleitung auf die Gödel-Problematik vorbereiten. aa) Selbstorganisation durch Rekursion? Gleichungen bzw. Gleichungssysteme, die in der Lage sind, Selbstreferentialität und deren Dynamik abzubilden, sollen angeblich rekursiv sein, womit sie beinhalten, daß ihre Lösungen Eingangswerte "ihrer fortgeführten Anwendung" (Schmid/Haferkamp 1987, 10) liefern "und in diesem Sinne in Form eines in sich geschlossenen Systems auf sich selbst Bezug" (ebd.) nehmen. Zwei Probleme drängen sich dabei sofort auf: (1) Gilt nach dieser Beschreibung tatsächlich Rekursivität oder vielmehr Iteration als entscheidende Grundlage der Selbstorganisation durch Selbstreferentialität? (2) Inwiefern ist

ß. Theorien über mentale Zustandsfolgen

453

es zulässig, von einer rekursiven Logik zu sprechen, d.h. kommt das Räsonnieren über Selbstreferentialität via Rekursion dem Einhalten der Regeln eines logischen Kalküls gleich? Das erste Problem beinhaltet zwei Aspekte, nämlich die Bedeutung einer wie immer gearteten Systemsensitivität für Anfangsbedingungen und die Rolle des Operativen bei der System(morpho)genese. Das zweite Problem hängt mit der operativen Vollständigkeit des Systems zusammen. Ich wende mich zunächst dem ersten Problem zu, dessen Lösung interessanterweise eine Basis für die Behandlung des zweiten liefert. bb) Metalogisches und Rekursionstheoretisches Worauf baut Rekursivität auf? Sie bedarf zumindest fest vorgegebener (minimaler) Anfangsbedingungen, einer Klasse unveränderbarer Operationen, iterativ anwendbar auf Anfangsbedingungen bzw. Resultate jeder weiteren Anwendung sowie im endlichen Fall spezifizierter Endbedingungen für den Gesamtvorgang. Das Letztgenannte wird häufig übersehen. Eine endliche Rekursion muß auflösbar sein, wenn Widersprüche und Zirkularitäten vermieden werden sollen, d.h. es muß Möglichkeiten geben, aus der Tiefe des rekursiven Vorgangs in irgendeiner .Weise wieder hervorzugehen. Man kann das auch so verstehen, daß ein Zustand rekursiv erklärbar ist, wenn er in endlicher Weise durch einfachere Versionen seiner selbst erklärt werden kann. Die einfachsten solcher Versionen bilden natürlich die Anfangsbedingungen. Nach Evozierung eines (End-)Zustandes, der den Bedingungen der Rekursion genügt, läuft die rekursive Evolutionsdynamik dann aus. Man könnte nun fragen, ob die Endlichkeitsbeschänkung durch rekursive Auflösbarkeit nicht zu strikt ist und daher relativ willkürlich die Klasse spezieller Rekursionen ausgewählt wurde. Dagegen spricht die Endlichkeit empirischer Systementwicklungen, genauer: die rekursive Endlichkeit in den Entwicklungsintervallen sozialer Systeme ohne Strukturdynamik. Nur in diesen Intervallen mit quasistabilen oder stabilen Strukturgleichgewichtslagen der Systeme ändern sich die Operationen nicht, kann also Rekursion ablaufen. Wo aber die operative Charakteristik eines Systems einem Strukturwandel unterliegt, erreicht die Rekursion ihren Endzustand relativ zu dem zum Wandlungszeitpunkt hin beendeten Intervall und erzeugt damit die minimale Anfangsbedingung für eine neue Rekursion mit veränderter Operationscharakteristik. Es gibt aber noch ein anderes Argument. Gewöhnlich wird Rekursivität mit (Turing-)Berechenbarkeit, mit der Existenz von Algorithmen, mit der Möglichkeit von Entscheidbarkeit und Erzeugbarkeit in engste Verbindung gebracht (Churchsche These; vgl. Church 1936, 346). Zum Teil bestehen gemäß der These von Church Äquivalenzen zwischen einigen der genannten Kon-

454

E. Probleme der Grundlagenforschung

zepte, zum Teil auch andere analytische Beziehungen. Sollte also ein soziales System einer "rekursiven Logik" gehorchen, so kann man davon ausgehen, daß seine Zustände vollständig berechenbar sind und daß Algorithmen gefunden werden können, mit deren Hilfe die Berechenbarkeil konstruktiv einlösbar ist. Außerdem vermag man jeden beliebigen Zustand des Systems vermittels Punktprognostik genau vorherzusagen. Daß bislang für die zur Zeit existierenden sozialen Systeme noch keine Trajektorien in die Zukunft berechnet wurden, liegt nach dieser Auffassung lediglich an der mangelhaften Aufklärung der sie fundierenden, komplizierten rekursiven Operationen. Die "rekursive Logik" von sozialen Systemen steht also in enger Beziehung zu deren Berechenbarkeil und wird durch Endlichkeit limitiert. Da bei empirischen sozialen Systemen gegen Endlichkeit schlecht argumentiert werden kann, u.a. weil ihre Strukturdynamik dafür sorgt, daß ihre Parameter nur jeweils in endlichen Zeitintervallen bedeutsam sind (Weidlich/Haag 1983), soll im folgenden die Diskussion der Berechenbarkeil im Vordergrund stehen. aaa) Der systematische Ort der Churchschen These Für den Unterschied zwischen Rekursion und Iteration wird auf Ergebnisse der dynamischen Logik zurückgegriffen, die Programme und deren Beziehungen untereinander zum Gegenstand hat. Zuvor aber noch eine kurze vertiefende Bemerkung zum Zusammenhang von Berechenbarkeit, Programmierbarkeil und Rekursivität: - Jede rekursive Funktion ist (Turing-)berechenbar (zum Beweis vgl. z.B. Heidler/Hermes/Mahn 1977). - Für die Umkehrung gibt es noch keinen Beweis. Es existiert nur die wohlbestätigte These von Church, daß berechenbare Funktionen rekursiv sind. - Programmierbare (und damit algorithmische) Funktionen sind berechenbar. - Für die Umkehrung muß die Geltung der Churchschen These vorausgesetzt werden. Dann kann man zeigen, daß jede programmierbare Funktion rekursiv - undjede rekursive Funktion programmierbar ist. bbb) Rekursivität, Stabilität, Partikularität Mit der Entgegnung auf das genannte Berechenbarkeilsargument können zugleich die beiden Teilaspekte des Problems "Rekursion oder Iteration",

II. Theorien über mentale Zustandsfolgen

455

nämlich die Fragen nach der Systemsensitivität und dem Operativen in der System(morpho)genese aufgegriffen und beantwortet werden. Liegen Experimentalbedingungen vor, also keine, wie sie für Teile der Katastrophentheorie gelten (s.o.), dann geht Berechenbarkeit mit Stabilität einher. Damit spaltet sich das genannte Argument in drei Teilargumente auf. Erstens kommen für soziale Systeme nur Vorgänge infrage, die durch rekursive Funktionen beschrieben werden können. Zweitens sind die Vorgänge im Bereich der Funktionen stabil, oder sie entwickeln sich auf Stabilitätsregionen hin. Drittens unterliegt die Rekursivität, weil sie empirische Vorgänge existential aus dem logischen Möglichkeitsraum herausschneidet, keiner Allgemeingültigkeit (sie gilt nur fallspezifisch). Um diese drei Teilargumente mit den beiden oben genannten Fragen zu verknüpfen, zunächst der Hinweis, daß die Systemsensitivität als Perturbationsempfindlichkeit oder -Unempfindlichkeit ein Stabilitätsthema ist und daß das Operative auch den Zusammenhang von Rekursivität und Linearität bzw. Nichtlinearität betrifft. ccc) Rekursive Funktionen Zur Prüfung und Diskussion des ersten Teilargumentes muß man sich vergegenwärtigen, daß es mit der Existenz einer geeigneten rekursiven Funktion steht und fällt. Rekursive Funktionen sind entweder Elemente der Klasse P primitiv-rekursiver Funktionen, der Klasse A der allgemein-rekursiven Funktionen oder der Klasse R der partiell-rekursiven Funktionen. P enthält die Nullfunktion, die Nachfolgerfunktion und alle Identitätsfunktionen. Außerdem ist P mit Bezug auf den Superpositionsoperator und den Rekursionsoperator abgeschlossen. A ist darüber hinaus gegen die Anwendung des beschränkten Minimumoperators abgeschlossen, während für R die Abgeschlossenheit gegenüber unbeschränkter Anwendung dieses Operators gilt. Mit Hilfe der drei genannten Elementarfunktionen und der drei Operatoren läßt sich im Prinzip jede rekursive Funktion existentiell nachweisen. Wir können uns hier auf P beschränken, weil die Churchsche These die arithmetische Funktionsberechenbarkeit mit der Existenz partiell-rekursiver Funktionen identifiziert. Wenn die Beschränkung auf P gilt, ist folgendes zu beachten: Nichtjede rekursive Menge (= Menge, für deren Elemente eine primitiv-rekursive Relation definiert ist) erweist sich als primitiv-rekursiv. So würde also die Existenz einer primitiv-rekursiven Dynamik ein soziales System insgesamt noch nicht rekursiv machen. Es ist deshalb erforderlich, auf rekursiv aufzählbare Mengen überzugehen und dabei nichtleere Objektmengen vorauszusetzen (was für Zustandsmengen sozialer Systeme unproblematisch erscheint). Nun zeigt sich, daß jede Menge rekursiv aufzählbar ist, doch nicht jede rekursiv aufzählbare Menge rekursiv. Wie kann man sich das verdeutlichen?

456

E. Probleme der Grundlagenforschung

Nach dem Satz von Post (1944) istjede Menge genau dann rekursiv, wenn sie selbst und ihr Komplement rekursiv aufzählbar sind. Dies setzt voraus, daß man über ein Verfahren zur Bestimmung, genauer: zur Erzeugung des Komplementes verfügt. Bei einer Menge von Systemzuständen als positive Menge würde das bedeuten, daß man alle Nichtzustände mittels primitiver Rekursion ebenfalls bestimmen kann, und zwar als Elemente einer entsprechenden negativen Menge. Das eine Verfahren erzeugt also die Elemente der positiven Menge und das andere die der negativen. Beide Verfahren müssen nicht identisch sein. Bezogen auf die Rekursivitätsannahmen für soziale Systeme heißt das: Soziale Systeme sind nur dann rekursiv, wenn ihre Zustandsmengen und ihre komplementären Zustandsmengen rekursiv aufzählbar sind. Dazu bedarf es aber der Vorstellung von einem vollständig geordneten, determinierten und nichtchaotischen sozialen Universum, bestehend aus einem Wirklichkeitsund einem komplementären Möglichkeitsraum, der ebenfalls genau charakterisiert und aufgezählt werden kann. Gerade dies scheint aber in nichttrivialer Weise kaum möglich, jedenfalls wenn man in den Ergebnissen der historischen Forschung einen Hinweis auf die Unberechenbarkeit und Unvorhersehbarkeit historischer Alternativen sozialer Systeme sieht. ddd) Entscheidbarkeil und Berechenbarkeil Es war oben gesagt worden, daß die erste Teilannahme des genannten Berechenbarkeitsargumentes mit der Existenz einer rekursiven Funktion steht und fällt. Das läßt sich jetzt zu der Aussage verschärfen: Für soziale Systeme kommen nach der Rekursivitätsauffassung nur solche Vorgänge infrage, die die Zustandsmengen der Systeme ebenso rekursiv aufzählbar sein lassen wie deren Komplemente. Wenn dies gegeben ist, liegt Berechenbarkeil vor. Da sie aber gemäß der zweiten Teilannahme für prognostische Zwecke mit Stabilität einhergehen muß, bedarf es einerseits endlicher Rekursionen, also des Merkmals der Endlichkeit (denn Strukturwandel ist instabil), sowie andererseits relativer Rekursionen, nämlich bezogen auf strukturstabile Zeitintervalle (ohne Nichtgleichgewichtsstrukturdynamik). Existiert eine endliche, relative Funktion, dann sind die zugehörigen Systemzustandsmengen graphisch repräsentierbar. Der Graph einer Funktion ist definierbar als Wahrheitsrelation ihres charakteristischen Prädikates, weshalb Berechenbarkeil der Funktion vorliegt, wenn ihr Graph aufzählbar ist. Anders gewendet: Wenn die Zustandsmenge eines sozialen Systems rekursiv aufzählbar ist, so auch die zugehörigen Zustandsänderungstrajektorien, was sich u.a. aus dem nur unter Dynamik sinnvollen Zustandskonzept ergibt.

ll. Theorien über mentale Zustandsfolgen

457

Nehmen wir nun trotz der Überlegungen aus dem vorigen Abschnitt an, daß die Zustandsmenge im Möglichkeitsraum aufzählbar ist. Das Cantorsche Diagonalverlabren zeigt sofort die Existenz überabzählbar vieler einstelliger Funktionen über dieser Menge, von denen aber nur abzählbar viele berechenbar sind (und zu diesen berechenbaren gehören die wenigsten). Ist der Möglichkeitsraum so geordnet, dann kann es keine vollständig berechenbaren Trajektorien im Wirklichkeitsraum geben, weil ihr Komplement nicht aufzählbar ist. Man kann dazu ergänzen: Eine Funktion ist berechenbar, wenn ihr charakteristisches Prädikat entscheidbar ist. Das Prädikat ist entscheidbar, wenn seine Definitionsrelation aufzählbar ist. Entscheidbarkeit, Aufzählbarkeil und Berechenbarkeil sind also interdefinierbar. Wenn man nun das den Wirklichkeitsraum beschreibende Prädikat zu entscheiden vermag, so ist die zugehörige Funktion berechenbar und gemäß der Churchschen These rekursiv. Man kann also die Frage nach der "rekursiven Logik" eines sozialen Systems zusätzlich mit den üblichen Resultaten zur Entscheidbarkeil in Zusammenhang bringen. eee) Entscheidbarkeitsgrenzen Wie oben (vgl. E.m des ersten Exkurses) schon dargestellt, zeigen die zwei Gödelsehen Theoreme zur Unvollständigkeit und Unentscheidbarkeit, daß in logischen Systemen ab PM-Mindeststärke Beweisbarkeit nicht vollständig gewährleistet werden kann (vgl. Smorynski 1985). Es sei noch einmal an Hilberts metamathematisches Programm erinnert, das von der Existenz zweier mathematischer Systeme S und T ausging. S besteht aus finiten, bedeutungshaltigen Sätzen und Beweismethoden, während T transfinite, idealisierte Sätze und Methoden enthält. Das Ziel des Hilbert-Prograrnms lautete: Für jede bedeutungshaltige Behauptung ist zu zeigen, daß faiJs cj> aus T folge (also: T ~ cj>), so auch cj> aus S (also: S ~ cj>). Der Beweis hat zudem mit den Mitteln und innerhalb von S zu erfolgen. Gödeis erstes UnvoiJständigkeitstheorem zerstörte das Hilbert-Prograrnm. Gödel konstruierte einen Satz cj>, Theorem von T, aber nicht beweisbar in S. Mit dem zweiten UnvolJständigkeitstheorem zeigte Gödel, daß S nicht einmal seine eigene Konsistenz beweisen kann. Zum Beweis des ersten Theorems nutzte Gödel selbstreferentielJe Ausdrücke. Eine Formel cjro mit der freien Variablen u kann numerisch codiert werden (sog. Gödelisierung der Formel). Ihre Numerierung n bekommt den Namen fi in der Sprache, in der auch die Formel konstruiert wird und dieser Name kann wieder in cjro substituiert werden. Derart vermag cj> auf sich selbst zu referieren, präzise gefaßt im Diagonalisierungslemma: Für jede Formel cp mit der einzigen freien Variablen u existiert ein Satz cj>, so daß ~ cj> H cp (iicj>) Hierbei indiziert iicj> die numerische Kodierung von cj>.

458

E. Probleme der Grundlagenforschung

Daß diese Art von Selbstreferenz nicht so suspekt ist wie die Lügner-Paradoxien seit Epimenides, zeigt das Gödel-Tarski-Theorem: Es existiert keine formale Wahrheitsdefinition. Präziser ausgedrückt: Es existiert keine Formel Tr ("), so daß für alle Sätze q, der zur Debatte stehenden formalen Sprache gilt: ~ q, H Tr (fiq,). So reizvoll allerdings dieses Theorem ist, so unerquicklich mag die Konsequenz sein, Selbstreferenz nur deshalb in eine Formel einzubringen, um zu schließen, daß die Formel nicht existiert. Deshalb ist Gödels erstes Theorem weit amüsanter: Es gibt eine Festlegung für Beweisbarkeit, z.B. eine Formel Pr (·),so daß für alle Sätze

2). Da ein nur zweidimensionaler Phasenraum (mit eindimensionalem strukturstabilem Vektorfeld) theoretisch für soziale Systeme kaum zu rechtfertigen ist (man bedenke z.B., daß jedes eindimensionale System vom Gradiententyp ist (Jetschke 1989, 171), was für soziale Systeme eine zu enge Modeliierung wäre), hängt die Stabilität der Systeme offenbar von ihren Anfangsbedingungen ab. Jenachdem, in welche Region des Phasenraumes das soziale System plaziert ist, gehört es mit zu den prinzipiell strukturinstabilen Systemen oder nicht. Stabilität ist aber immer an Äquivalenzeigenschaften von (allgemein gesprochen) Diffeomorphismen oder Homöomorphismen gebunden. Deshalb liefern Anfangsbedingungen nur eine notwendige Eigenschaft für Stabilität und noch keine hinreichende. Diese wird erst durch die Existenz einer Klasse von zum Ausgangssystem mindestens topalogisch orbitweise äquivalenten Vektorfeldern gewährleistet, die beinhaltet, daß sich Strukturstabilität durch Perturbationsunempfindlichkeit auszeichnet. Bezogen auf die "rekursive Logik" ergibt sich, daß die Rekursion perturbationsunempfindlich bei gleichzeitig eng gesetzter Äquivalenzklasse von (Stabilitätsregionen erreichenden) Anfangsbedingungen sein muß. Damit verliert jedoch die Rekursion die wichtige Eigenschaft der Kontextunabhängigkeit und hört auf, Rekursion zu sein. Es unterscheidet gerade die Rekursion von der Iteration, daß sie kontextfrei anwendbar ist und über beliebigen Anfangsbedingungen operieren kann. Kontextfreiheit bei gleichzeitig gegebener Berechenbarkeil bedeutet aber Mangel an operativer Sensitivität, Unabhängigkeit von Ausgangsbedingungen und Vermeidung der meisten nichtlinearen Effekte, Eigenschaften, die denn auch

462

E. Probleme der Grundlagenforschung

nur die kontextgebundene Iteration bietet. Die Stabilitätsbetrachtungen zeigen also, daß eine "rekursive Logik" lediglich solche selbstorganisierenden Systeme steuern kann, die unabhängig von jeweiligen Ausgangsbedingungen fast identische historische Entwicklungen durchlaufen. Es darf bezweifelt werden, ob das auf alle sozialen Systeme zutrifft. Anzumerken bleibt, daß wegen der dadurch nahegelegten Bevorzugung einer eher iterativen Dynamik (Teil-)Systeme mit "rekursiver Logik" nicht generell ausgeschlossen sind, was durch das Einbettungstheorem gewährleistet wird (Harel 1979), das für Dynamische Logiken hinsichtlich kontextgebundener Iteration und kontextfreier Rekursion formuliert werden kann (vgl. oben auch den Zusammenhang von Rekursivität und Programrnierbarkeit). Dabei liegt die kontextfreie Dynamische Logik zwischen der regulären Dynarnischen Logik und der Theorie zulässiger Mengen (Barwise 1975), was u.a. beinhaltet, daß für das Räsonnieren über Iteration, Rekursion und Erreichbarkeit eine Analogierelation formuliert werden kann. ggg) Partikularität Als letzte Teilannahme des Berechenbarkeitsargumentes war oben (vgl. 4.3.1.E.II.l.e)bb)bbb)) genannt worden, daß Rekursionen in sozialen Systemen nur fallspezifisch gelten sollen, also partikulär relativ zum logischen Möglichkeitsraum. Wir haben aber schon gesehen, daß dann die rekursive Aufzählbarkeit des Möglichen gewährleistet sein muß, wodurch sich sofort Allgemeingültigkeit der Rekursion einstellt. Die einzige Partikularität, die für Rekursionen gilt, ist die eines (primitiv-)rekursiven, ggf. charakteristischen nstelligen Prädikates, das - vereinfacht gesprochen - nicht nur vollständig über n Stellen läuft, sondern dessen Partikularisierung, gültig für i Stellen (i $ x0 ), ebenfalls noch (primitiv-)rekursiv ist. Dies aber hat nurmehr bedingt etwas mit Situationsspezifität zu tun, nämlich wenn ein Rekursionsintervall kürzer ausfällt als in der "rekursiven Logik" vorgesehen. Die lntervallspezifität ist damit jedoch nicht angesprochen. hhh) Zwischenergebnis Unter der letztmaligen Einschränkung des Endlichkeitsstandpunktes werden nichtgenerische Systeme betrachtet, die durch operative Geschlossenheit selbstorganisiert sind. Selbstorganisation soll dabei auf eine "rekursive Logik" zurückführbar sein, was zwei Aspekte beinhaltet, einen rekursionstheoretischen und einen logischen. Der rekursionstheoretische wurde vorstehend mit folgenden Resultaten geprüft: Nur, wenn soziale Systeme in ihrer Zustandsmenge und deren Komplement rekursiv aufzählbar sind, d.h. wenn für jeden

II. Theorien über mentale Zustandsfolgen

463

ihrer möglichen zukünftigen Zustände entscheidbar ist, ob er zur Menge der dann tatsächlichen Zustände des sozialen Systems gehören wird oder nicht, ist die Konzeption einer rekursiven Logik überhaupt anwendbar. Da Selbstreferentialitäten als für soziale Systeme konstitutiv angesehen werden, greifen aber Gödel-Argumente zur Unentscheidbarkeit. Außerdem treten durch die Selbstkonsistenz zwangsläufig Nichtlinearitäten auf, was der Berechenbarkeil ggf. Grenzen setzt und in ganz überwiegendem Maß fehlende Prognostizierbarkeil nach sich zieht. Der Versuch, sich hier durch lokale Linearisierung gewissermaßen aus der globalen Fragestellung zu schleichen, ist ohnehin nur von technologischer Relevanz (vgl. Galler 1976). Dem Problem rekursiver Aufzählbarkeil von komplementären Graphen sind auch durch Stabilitätsbedingungen enge Lösungsgrenzen gesetzt. Smales Satz von der Existenz absolut instabiler Systemregionen auf höherdimensionalen Mannigfaltigkeilen führt zu Sensitivitätsfragen hinsichtlich der Dynamik unter verschiedenen Anfangsbedingungen und zur Kontextabhängigkeit der Dynamik. Daraus resultiert eher eine Entscheidung für Iteration als für Rekursion, wenn man glaubt, die Dynamik repetitiv fassen zu können. Der dadurch erreichbare Vorteil der Vollständigkeit kontextgebundener, iterativer Programrnkalküle, deren Relevanz durch die Churchsche These und den Zusammenhang von Berechenbarkeit, Programmierbarkeil und Rekursivität gegeben ist, löst sich an Fragen der Entscheidbarkeil wieder auf. Diese und weitere im Vorstehenden angeführte Überlegungen zur Rekursivität der Dynamik sozialer Systeme zeigen, daß es stärkerer Argumente als der Bezugnahme auf repetitive Operationen bedürfte, um Selbstorganisation durch eine "rekursive Logik" zu erklären, ein Ergebnis, das nach dem Übergang auf das zweite Problem: Ist die "rekursive Logik" eine Logik? zusätzlich gefestigt wird. Es war schon erwähnt worden, daß die Lösung des Problems "Rekursion oder Iteration" eine Basis für die Lösung dieses zweiten Problems bietet. Sie besteht darin zu prüfen, ob eine Logik des Rekursiven im Hinblick auf die Anforderungen der operativen Selbstorganisation sozialer Systeme vollständig ist. cc) Was ist eine Logik? Die Beantwortung dieser Frage gelingt z.Zt. noch nicht endgültig. Dennoch lassen sich wesentliche Bestimmungsstücke von Logiken so weit angeben, daß Ausreichendes zu einer "rekursiven Logik" gesagt werden kann. Logiken sind kalkülisierte Zeichensysteme, Gesamtheilen von Zeichenmengen und auf ihnen operierenden Zeichenbildungs- und Schlußregeln. Die Vollständigkeit eines Kalküls ist Eigenschaft seines operativen Teils. Daneben spielt, allerdings weniger unter logisch-systematischen als vielmehr unter Gesichtspunkten des Vergleichs von logisch und empirisch gültigen Sätzen bzw. Aussagen, die Allgemeingültigkeit der Schlüsse im Kalkül eine Rolle.

464

E. Probleme der Grundlagenforschung

Zur Charakterisierung von Logiken hat u.a. Smullyan (1962) Grundlegendes beigetragen. Er entwarf dazu formale Systeme, sog. Repräsentationssysteme, die Abstraktionen und Generalisierungen der üblichen logistischen Systeme darstellen. Die besondere Eigenart der Repräsentationssysteme, durch Verallgemeinerung von den zahlreichen syntaktischen Variationen der Logistiken abzusehen und dennoch die im vorliegenden Kontext interessierenden Aspekte der Unvollständigkeit und Unentscheidbarkeit hervortreten zu lassen, machen sie für unsere Zwecke besonders geeignet (vgl. im folgenden auch Webb 1968). Ein Repräsentationssystem Z kann als geordnete Menge aufgefaßt werden: Z =(E, S, T, R, P, Cl>) mit ( 1) E eine abzählbare Menge von Ausdrücken, deren Elemente durch eine Funktion g eindeutig Gödel-numerierbar sind (g:E------+ IN). (2) S c E; S eine Menge von Sätzen. (3) Tc S; Teine Menge von beweisbaren Sätzen bzw. Theoremen von Z. (4) R c S; R eine Menge von widerlegbaren Sätzen von Z. Enthält Zein Negationszeichen II-,II, so ist R ={x I -,x e T}. (5) P eine Menge von Prädikaten von Z. (6) Cl> eine Funktion; «l>:(X,n) ~ E mit Xe E; n e IN, so daß für alle Prädikate He P und allen E IN gilt: «l>(H,n) E S. Cl> ist die Repräsentationsfunktion für Z, vereinfacht zu verstehen als syntaktische Bedeutung der Anwendung eines Prädikates auf seine Argumente in Z. Minimalrepräsentationssysteme enthalten lediglich die Konkatenationsoperation als Repräsentationsfunktion. Schon in Minimalsystemen ZP (bestehend aus drei Zeichen: Konkatenation Cl>; Quotierung g(X) = (X,n); He P zur Bildung von Sätzen) lassen sich die wesentlichen Ergebnisse zur Selbstreferentialität nachweisen (vgl. auch StegmüllerNarga von Kibed 1984). Dazu braucht für H nur eine Wahrheitsregel angenommen zu werden, um das Minimalsystem mit einem semantischen Aspekt zu versehen. Sowie zusätzlich die Negation eingeführt wird, gewinnt man das oben schon erwähnte Gödel-Tarski-Theorem, das besagt: Die Menge der wahren Sätze des Minimalsystems (mit Negation) ist nicht definierbar. Ergänzt man das Minimalsystem durch Annahme von Axiomen und Schlußregeln zu einem Kalkül, dann ergibt sich über einen sog. Tarski-Satz ein Gödel-Theorem. Der Tarski-Satz sagt, daß S in ZP wahr ist gdw S Element einer in ZP definierbaren Menge ist, d.h. einer Menge, für die ein definierendes Prädikat H existiert. Als Korrolar erhält man, daß weder T noch R in Zp definierbar sind und als Gödel-Theorem für ZP, daß es, wenn R in SP definierbar ist, entweder wahre Sätze in SP gibt, die mcht Element von T sind oder falsche Sätze, die Element von T sind.

ll. Theorien über mentale Zustandsfolgen

465

Welcher Zusammenhang besteht nun zwischen Repräsentationssystemen und Logiken? Es gibt ja neben der klassischen Logik, wie Christian (1978, 79) aufzählt, u.a. die positive, die intuitionistische, die konstruktive, die modale und die m-wertige Logik. Sie aber unterscheiden sich nur nach ihren aussagenlogischen Fundamenten (worauf die Berechtigung der Generalisierung Smullyans beruht). Diese Unterschiede sind nicht von mathematischer Relevanz, sondern abhängig von methodologischen Intentionen, die sich in geeigneten Adäquatheitskriterien für das jeweilige logische System widerspiegeln. Z stellt dann eine auf einem konsistenten Standardsystem basierende, mit dem Standardsystem deduktionsäquivalente Systemklasse dar (was eine geeignete Charakterisierung von Logiken abwirft). Modelle der Basis derartiger Systeme sind Algebren, entsprechend den oben genannten Logiken: Boolesche Algebren, relativ pseudokomplementäre Verbandsalgebren, Pseudoboolesche Algebren, Quasipseudoboolesche Algebren, topalogische Boolesche Algebren und Postsehe Algebren. Von der Basis ausgehend lassen sich, wie schon beim Minimalsystem gezeigt, über Formen-, Axiomen- und Regelbegriffe sowie Quantoreneinführungs- und -reduktionsregeln prädikatenlogische Überbauten gewinnen. Damit ist angedeutet, daß durch Repräsentationssysteme nicht nur Unvollständigkeitsresultate und Unentscheidbarkeiten nachgewiesen werden können, sondern auch, daß solche Systeme echte Repräsentanten für klassische und nichtklassische Logiken sind. dd) "Rekursive Logiken" Es bleibt zu prüfen, ob die für soziale Systeme angenommene "rekursive Logik" repräsentierbar ist. Als Konkatenation kommt nur der Rekursionsoperator infrage. Dessen Grundlagen waren jedoch schon mit den Mitteln vorliegender Logiken repräsentierbar, was durch das Repräsentationstheorem für rekursive Funktionen gezeigt werden kann (Christian 1978, 72). Für Selbstreferentialitäten benötigt man Quotierungen, die zu Gödelisierungen korrespondieren. Der Weg über die Einführung eines gesonderten, rekursiv-reflexiven Prädikates H ist dagegen überflüssig, weil seine Leistungsfähigkeit bereits durch Konkatenation und Quotierung übernommen werden kann. Es bleibt der Eindruck, daß eine gesonderte "rekursive Logik" überflüssig ist, daß aber Rekursionen in einem logischen System repräsentierbar sind (und dies ist natürlich wiederum in einem Repräsentationssystem repräsentierbar). In diesem Fall handelt es sich um ein unvollständiges, unentscheidbares, konsistentes logisches System. Wegen der Unvollständigkeit wäre die operative Charakteristik eines sozialen Systems, das einer "rekursiven Logik" folgt, nicht komplett angebbar, was gerade - wie oben gezeigt - der Rekursivitäts-

30 Alisch

466

E. Probleme der Grundlagenforschung

annahme entgegenstünde. Deshalb dürfte die "rekursive Logik" auch nicht das letzte Wort zur Dynamik sozialer Systeme sein. Es könnte vielleicht noch eingewendet werden, daß die operative Unvollständigkeit wenig mit der operativen Geschlossenheit selbstorganisierender Systeme zu tun hat. Das ist allerdings nur bedingt richtig. Operative Geschlossenheit heißt, daß eine geschlossene Kategorie existiert, eine Funktionalstruktur bestehend aus Objekten, Morphismen und Morphismenverknüpfungen, an die extern keine Einflüsse herantreten, weder objektbereichs- noch funktionsverändernd. Will man eine Kategorie rekursiv betrachten, muß das Funktional berechenbar sein. Behauptet man ferner von der Kategorie, daß ihr operativer Anteil eine Logik ist, dann muß sie zur Gewährleistung der Rekursivität vollständig sein, was aber wieder den oben genannten Einwänden unterliegt. Geschlossenheit ist also nur dann unmittelbar von Vollständigkeit abgetrennt, wenn die Rekursion keine eigenständige Logik erfordert. So können sich Vertreter der "rekursiven Logik" auch nicht auf das Geschlossenheilsargument zurückziehen. Immerhin wirft dieses Argument aber ein interessantes Nebenergebnis ab. Geschlossenheit könnte in Abgrenzung zur Vollständigkeit mit Partikularität in Zusammenhang gebracht werden. Dabei würde man voraussetzen, daß soziale Systeme immer operativ unvollständig sind. Das würde aber zu keinem Nachteil führen, denn Unvollständigkeit ist nur im Hinblick auf Allgemeingültigkeit von Bedeutung. Ein soziales System, geschlossen und in einem spezifischen Entwicklungsstadium begriffen, folgt aber ggf. Rekursionsgesetzen, die nur für das System hic et nunc von Bedeutung sind und für kein anderes System eine Rolle spielen. Mithin bedeutet Gültigkeit der Gesetze empirischfallspezifische Gültigkeit und nichts weiter. Wären hingegen die Gesetze allgemeingültig, so würde der Lauf der Welt bereits aus der Logik ableitbar sein, und empirische Forschung wäre überflüssig. Man kann dieses Nebenergebnis noch anders wenden: Gödeis Resultate zeigen, daß es oft Fälle allgemeiner Unlösbarkeit gibt, obwohl partielle, auf gegebene Einzelfälle bezogene Berechenbarkeil und Entscheidbarkeil existieren. Haken (1983a, 312 f.) bringt dazu folgendes Beispiel: Die Zustände eines Dynamischen Systems seien durch den Zustandsvektor q beschrieben. Der Übergang von q zu q' erfolgt innerhalb des Zeitintervalls t durch Transformationen A, B, C ... , also q'=Aq oder q'=Bq oder ... Wenn die Inversen A- 1, B- 1, c-t ... existieren, bilden die Transformationen eine Gruppe. Betrachtet man Konkatenationen von Transformationen (z.B. BA-1C) und legt Periodizität durch W(A, B, C, ... ) = l (also z.B. BC = l) fest, was bedeutet, daß q wieder erreicht wird, dann stellt sich folgende Frage: Kann man ein generelles Verfahren entwickeln, um in endlich vielen Schritten zu entscheiden, ob das Dynamische System unter gegebenen zwei Konkatenationen W 1 und W 2

II. Theorien über mentale Zustandsfolgen

467

denselben Endzustand q 1 = q2 erreicht hat, falls es in beliebigem 'lo gestartet ist? Genauer: % = W 1(A,B, ...)q0 = q2 = W2(A,B, ... )q0 , was äquivalent ist zu W 1(A,B, ... )=W 2 (A,B, ...) oder zu W 1W 2 - 1= 1? Es existiert indes kein generelles Entscheidungsverfahren für dieses Problem, das sog. Wortproblem der Gruppentheorie, wie sich aus Gödeis Theoremen ergibt. Liegen hingegen spezielle Klassen von Wj = 1 als definierende Relationen vor, dann kann das Wortproblem partiell gelöst werden. Mithin können bestimmte Probleme hinsichtlich dynamischer sozialer Systeme zwar keiner allgemeinen, aber wenigstens einer eingeschränkten Lösung zugeführt werden. "It is quite possible that such a cautious approach is necessary when dealing with self-organizing systems" (ebd., 313). Unsere obige Argumentation behauptete das bereits für den Ansatz einer "rekursiven Logik". ff) Endgültige Zurückweisung des Endlichkeitsstandpunktes So kann man schließen, daß die Geltung einer "rekursiven Logik" weniger an der Stärke der Rekursivitätsannahme als vielmehr an der der Logikannahme scheitert, die Allgemeingültigkeit impliziert. Es mag also sein, daß soziale Systeme im Einzelfall rekursiv sind, doch die Dynamik aller selbstorganisierenden Systeme folgt keiner allgemeingültigen "rekursiven Logik". Dies darf auch für das System Mensch gesagt werden. Wie die Forschung zu mentalen Inferenzen zeigt, ist der Mensch bei logischen Anforderungen zu mindestens zwei Vorgehensweisen fähig, die beide nicht voraussetzen, daß das Mentale selbst durch eine Logik geordnet wird, die seine Operationen organisiert und steuert. Das erste Vorgehen besteht darin, partiell logisch korrekte, aber nicht allgemeingültige Schlüsse zu ziehen. Derartige Inferenzen sind zwar bezogen auf alle nur denkbaren Fälle falsch, bezogen aber auf die jeweils vorliegende fallspezifische Belegung der Argumente korrekt. Insofern genügt dem Menschen eine mentale inferentielle Ausstattung ohne Fähigkeit zur Erzielung allgemeingültiger Folgerungen. Das zweite Vorgehen wird eingesetzt, um diese Lücke in der "Allgemeingültigkeitsfähigkeit" zu schließen. Der mentale Apparat kann seine eigenen Leistungen durch Nutzung von Werkzeugen ergänzen und verbessern. Er vermag z.B., durch Bleistift und Papier oder durch Mnemotechniken seine Gedächtniskapazität zu erweitern. Er vermag aber auch, seinen Inferenzoperationen die Regeln einer Logik derart zu assoziieren, daß er durch ihre Hilfe zu allgemeingültigen Schlüssen gelangt. In diesem Fall unterliegt das Mentale natürlich der Beschränkung durch Gödel-Resultate, sofern sie auf das mentale Werkzeug ebenfalls zutreffen (vgl. Alisch 1990a). Im Hinblick auf den letzten Ausweg des Finitismus können wir also resümieren, daß er versperrt bleibt. Es kann jenseits der generischen dissipativen 30*

468

E. Probleme der Grundlagenforschung

Systeme, die oben katastrophentheoretisch behandelt wurden, keine selbstorganisierenden Systeme mit rekursiver Logik geben, die Anspruch auf Allgemeingültigkeit ihrer Dynamik erheben können. Anders formuliert: Es gibt kein Argument, wodurch der Finitismus die Geltung von limitierenden Theoremen unterlaufen könnte. Lediglich mit Bezug auf Approximationen und fallspezifisch auftretende empirische Systeme kommt dem Finitismus methodologische Berechtigung zu, wobei ausdrücklich angemerkt sei, daß der durch diese Berechtigung abgesteckte Bereich außerordentlich umfangreich sein kann. f) Warum globale Analyse?

Der vorstehende Kapitelteil E.II.l. ist mit "Globale Analyse" überschrieben und nicht mit dem dem Leser vielleicht zutreffender erscheinenden Titel "Kritik des Endlichkeitsstandpunktes". Das hat zweierlei Gründe. Der eine zielt darauf ab, deutlich zu machen, daß der Finitismus in Schwierigkeiten gerät, sobald man vom lokalen auf den globalen Standpunkt überwechselt, sobald man also nicht nur vom Galileisch-Newtonschen, sondern auch vom Aristotelischen Denken (Casti/Karlqvist 1989) Gebrauch macht. Der andere Grund betrifft Konsequenzen für Technologische Theorien der Erziehungswissenschaft. Wenn diese durch Zustandsfolgen beschreibende Theorien besonders effektiv fundiert werden, wie ich das voraussetze, und wenn die Theorien dabei vom lokalen und endlichen Typ sein sollen, dann kommen Pädagogen ggf. in Schwierigkeiten. Damit deutet sich die Notwendigkeit für einen Wandel in der Technologieauffassung der Erziehungswissenschaft an. Es steht z.B. der Verzicht auf die Universalität des lokalen und endlichen Theorientyps zur Debatte, was den Glauben an die punktprognostische Steuerbarkeil von Erziehungs- und Lernvorgängen erheblich einschränken wird. Hinzu tritt Akzeptanz für den globalen theoretischen Ansatz. Aber welche Konsequenzen zeitigt der auf technologischem Gebiet? Was heißt es, über globale Theorien Dynamischer Systeme (z.B. des Lehrers, der Lernenden, einer Schulklasse, einer Therapiegruppe etc.) zu verfügen, wenn sie in einen technologischen Zusammenhang gestellt werden? Auf jeden Fall, so kann man antworten, bedeutet das eine Verallgemeinerung der pädagogischen Technologiekonzeption. Heißt es aber auch noch mehr? In der Pädagogik hat sich gegen Ende der 70er Jahre Ernüchterung breitgemacht, was die technologische Relevanz erziehungswissenschaftlicher Forschung anbelangt (vgl. zusammenfassend Baumert/Roeder 1990). Ein Teil der Erziehungswissenschaftler plädierte für den Rückzug der Forschung von der Praxis, ein anderer für die Intensivierung der Vermittlungsforschung (vgl.

ll. Theorien über mentale Zustandsfolgen

469

oben Abschnitt 1.; eine Übersicht über die Entwicklung der Wissensverwendungsforschung geben Dewe/Ferchhoff/Radtke 1990). Meine ausführliche Stellungnatune zu diesem Problemkreis (vgl. Alisch 1990d; 1990e) kommt zu zwei entgegengesetzten Resultaten: (1) Zwar ist der Rückzug verständlich; er basiert jedoch auf einer Argumentation gegen eine Theorien- und Technologiekonzeption, die erziehungswissenschaftlich nicht realisiert werden kann. Die richtige Reaktion ist daher nicht Rückzug, sondern Änderung der theoretisch-technologischen Grundlagen der Erziehungswissenschaft. (2) Zwar ist es zu begrüßen, daß sich mit der Wissensverwendungsforschung so etwas wie ein Pendant zur (oben eingeklagten; vgl. Kap. 1) social policy researchfür die Pädagogik in Deutschland zu etablieren versucht, doch kann sie, da sie nur Bedingungen der Möglichkeit technischen Handeins untersucht, keine Verbesserung erziehungswissenschaftlicher Technologien hervorbringen. Erfolgreichere Vermittlung und Verwendung von erziehungstechnologischem Wissen zur Verbesserung erzieherischer Praxis setzt effektive technologische Theorien voraus. Fazit aus (1) und (2): Wenn lokale, endliche Theorien nicht den umfassenden Erfolg garantieren, so muß man Erwartungshaltungen korrigieren und globale Theorien in betracht ziehen. Erwartungen haben sich bisher auf die Punktprognostik bezogen. Diese ist im pädagogischen Kontext nur in abgeschlossenen, überwiegend linearen, lokal steuerbaren Realzeitsystemen gegeben und das heißt, nur sehr eingeschränkt. Die globale Analyse hilft, hier ein anderes Bild zu zeichnen, das pädagogisch-technologische Erreichbarkeilen anders definiert. Bemerkenswert ist an dem Wandel in der Technologieauffassung auch, daß er weniger durch aktuelle Theorienbildung (wenn man einmal von den zitierten Verhaltens-, Handlungs- und sozialen Systemtheorien absieht, die gegen den Finitismus angeführt wurden) oder empirische Resultate hervorgebracht, sondern mehr durch metatheoretische und logisch-mathematische Resultate nahegelegt wurde. Das war jedoch auch zu erwarten (vgl. oben Abschnitt 1.). Nun muß näher erläutert werden, was globale Analyse meint, denn ohne dies werden auch die Konsequenzen für Technologische Theorien nicht deutlich. Ursprünglich bezeichnete der Begriff globale Analysis Untersuchungen von gewöhnlichen und partiellen Differentialgleichungen auf Mannigfaltigkeilen und Vektorraumbündeln von einem globalen, topalogischen Standpunkt aus (Smale 1969, 4). Das läßt sich an einem Beispiel erläutern: Peixoto (1962) bewies das Theorem: WennMeine kompakte 2-dimensionale Mannigfaltigkeit ist, dann bilden die strukturell stabilen Differentialgleichungen in der Menge aller Vektorfelder aufMeine offene und dichte Menge. Smale (1969, 8) bezeichnet dieses Theorem als ein besonderes der globalen Analysis, denn die Differentialgleichung ist über einer ganzen Mannigfaltigkeit definiert, und ihre strukturelle Stabilität hängt von ihrem Verhalten überall auf der Mannigfaltigkeit ab. Außerdem formuliert das Theorem eine Aussage

470

E. Probleme der Grundlagenforschung

über den Raum aller Differentialgleichungen auf M. Das alles ist für den empirischen Wissenschaftler deshalb so interessant, weil er gegenüber den unbekannten tatsächlichen Beschreibungen Dynamischer Systeme via Differentialgleichungen zwar häufig nur Approximationen benutzt, deren Stabilität ihn aber einiger Sorgen enthebt. Die ursprüngliche Begriffswahl für globale Analyse stammt also aus der Mathematik Dynamischer Systeme (daher auch der Begriff Analysis) und ist erst jüngst auf Belange der empirischen Wissenschaften ausgeweitet worden. Er bezeichnet heute die topalogische Untersuchung von Dynamischen Systemen und diese nicht mehr nur eingeschränkt auf Dynarniken, die durch Differentialgleichungen beschrieben werden können. So treten auch Systembeschreibungen hinzu, die sich auf Differenzengleichungen, auf Graphen, gruppentheoretische Operationen usw. zurückführen lassen (vgl. Alisch 1990). Neben der erwähnten, technologisch relevanten Information, daß ein Theorem wie das von Peixoto approximatives Handeln im Bereich struktureller Stabilität absichert, ergibt sich eine Reihe weiterer technologischer Aussichten: Herstellung von Stabilitätsbedingungen; Herstellen von Gleichgewichten oder Quasigleichgewichten; Überlagerung von nichtlinearen Dynamiken durch andere zur Herstellung regulärer Dynarniken; Beachtung von Bereichsspezifität der Steuerbarkeit (lokal, global, cross-connected); Beurteilung von Verfahren unter Gesichtspunkten qualitativer Äquivalenz etc. (vgl. Alisch 1990e). Alle diese Aspekte zielen technologisch nicht auf Punktprognostizierbarkeit, sondern auf qualitative Prognosen. Sie bilden die Konsequenz aus den Einsichten, die sich aus der Verbindung von konservativen und dissipativen Systemen ergeben. Erziehungstechnologisch gesprochen "verneigt" sich der Pädagoge vor der stochastischen Mikroexploration des Möglichkeitsraumes für Lernhandlungen (und Ablenkungen davon) durch den Educanden. Da diese Exploration eine Voraussetzung für die normale Entwicklung von Humansystemen darstellt, gilt es nur, sie ggf. situativ einzugrenzen und zu kanalisieren, nicht aber, sie qua Determination auf eine Möglichkeit zu reduzieren (Mikrosituationen ausgeschlossen; vgl. Alisch/Rössner 1981, 9, Erstes Beispiel). Technologisch bedeutsamer ist deshalb der Versuch des Pädagogen, langfristig für globale Ordnungsvorgänge zu sorgen. Das betrifft einen komplexeren Lernvorgang ebenso wie ganze Entwicklungsabschnitte im Leben eines Educanden (man beachte, daß Lernvorgänge üblicherweise ein erhebliches Maß an Zeit benötigen, wenn es sich nicht bloß um den Erwerb einer einfachen Assoziation oder um etwas ähnliches handelt). Ich werde im letzten Kapitel darauf zurückkommen.

ll. Theorien über mentale Zustandsfolgen

471

2. Konsequenzen der Gödel-Theoreme, insbesondere für Theorien über mentale Zustandsfolgen

Wie oben (vgl. den ersten Absatz von E.ll.) schon kurz angesprochen, wurde versucht, mit Hilfe von Gödel-Argumenten erstens die Zureichendheil mechanistischer Theorien für die Erklärung menschlichen Verhaltens und ihm unterliegender mentaler Vorgänge anzuzweifeln und zweitens darauf aufbauend einen Nachweis der Nichtexistenz der Bedingung der Möglichkeit empirischer Psychologie überhaupt zu führen. Da ich der Überzeugung bin, die bisher angestrebte Fundierung erziehungswissenschaftlicher Technologischer Theorien mit Verhaltens- und Handlungstheorien vom (immer wieder im vorigen Kapitel E.ll.l.) erwähnten Typ (vgl. Alisch/Rössner 1977; Alisch 1979; Alisch 1988) sei nicht nur approximativ, sondern auch prinzipiell zulässig und technologisch erfolgversprechend, müssen die beiden Versuche zurückgewiesen werden. Dabei schlage ich nicht den Weg ein zu zeigen, daß qualitative Technologische Theorien, basierend auf globaler Analyse, wegen ihres Verzichtes auf Punktprognostizierbarkeit ohnehin nicht für Gödel-Argumente infrage kommen, da ihre Limitierungen sozusagen viel früher angesetzt werden müssen. Dieser Weg steht nämlich nur dann offen, wenn alle eine Technologische Theorie fundierenden Theorien maximal topalogisch sind. Dies ist aber eine viel zu strenge Voraussetzung für erziehungswissenschaftliche Technologische Theorien. Sie können durchaus partiell oder vollständig durch lokale, realistische Theorien (die ich bereits ausführlich abgehandelt habe; vgl. Alisch 1988a; 1988b) fundiert sein, die erst in ihrem Zusammenwirken qualitative Analysen erfordern oder auch dann noch algebraisch (im Bourbakischen Sinne) sind. Um diese Fälle ebenfalls abdecken zu können, müssen die beiden genannten Versuche, mit Gödel-Argumenten Fundierungsbegrenzungen für Technologische Theorien zu formulieren, grundsätzlich diskutiert werden. a) Lucas' Position

In der Übersicht zu seinem Buch "Gödel, Escher, Bach" schreibt Hofstadtee (1985, XIV) unter Kapitel XV: "Das ziemlich berüchtigte Argument von J.R. Lucas, wonach Gödeis Satz zeige, daß das menschliche Denken in keinem Sinne des Wortes 'mechanisch' sein könne, wird gewogen und zu leicht befunden." Zunächst verwirrt dabei die Eigenschaftszuschreibung "berüchtigt", denn auf den ersten Blick wirkt die Argumentation von Lucas (1961) durchaus einleuchtend. Sie kann nämlich kaum damit abgetan werden, Gödel hätte seine beiden Theoreme ausschließlich im Hinblick auf deduktive Systeme konzipiert und sei weit davon entfernt gewesen, ihnen in irgendeinem Sinne empirische Relevanz zuzubilligen. Lediglich größte Vorsicht schien ihm im Hinblick auf eine außermathematische Anwendung der Theoreme angebracht.

472

E. Probleme der Grundlagenforschung

Auch Popper (1979, 187f.) äußert sich ähnlich: "Und selbst wenn wir eines Tages ein Stadium erreichen sollten, in dem unsere Theorien nicht mehr korrekturbedürftig sind, da sie ganz einfach wahr sind (was wir aber nicht wissen würden), so wären sie noch immer nicht vollständig (und das würden wir wissen). Denn dann würde Gödeis berühmtes Unvollständigkeitstheorem ins Spiel kommen: Angesichts des mathematischen Hintergrunds der Physik würden wir im besten Falle eine unendliche Folge solcher wahren Theorien benötigen, um jene Probleme zu beantworten, die in jeder gegebenen (formalisierten) Theorie unentscheidbar sind." Und (Popper 1979, 316, Anm. 205): "Es mag sein, daß die Menge aller wahren theoretischen Sätze der Physik nicht (finit) axiomatisierbar ist; angesichts von Gödeis Theorem ist das fast sicher." Und schließlich (Popper 1979, 189): "Während meines Besuches in Princeton kam ich auch wieder mit Kurt Gödel zusammen, und wir diskutierten seinen Beitrag zum Einstein-Band und auch die mögliche Bedeutung seines Unvollständigkeitstheorems für die Physik." aa) Epistemologie der Struktur-Analytizität Halten wir also fest, daß Lucas versucht, eine mögliche Bedeutung der Gödel-Theoreme außerhalb der Mathematik herauszuarbeiten. Ohne daß Lucas davon bereits hätte Gebrauch machen können, wurde 20 Jahre nach Publikation seiner Arbeit eine geeignete epistemologische Grundlegung formuliert (Harsanyi 1983a), die ich wie folgt zusammenfasse: (1) Endlich axiomatisierte Theorien können durch Aufweis eines Modells im Hinblick auf ihre Konsistenz verifiziert werden. (2) Für infinit axiomatisierte Theorien gilt das nicht, weil man nach Hilbert nicht schlüssig zeigen kann, daß das Universum infinit viele Objekte aufweist. (3) Hilbert versuchte deshalb (siehe oben den ersten Exkurs), die Konsistenz der wichtigsten infiniten Theorien durch (finite) metamathematische Argumente nachzuweisen. (4) Gödeis zweites Theorem aber zeigt, daß das nicht mit strikt finiten Methoden erreicht werden kann. (5) Analog zu (1) kann für den Infinitmus jedoch ein empirisches Kriterium formuliert werden: (a) Kein Widerspruch wird je gefunden werden (Lakatos 1978); (b) Kein Widerspruch kann je gefunden werden (modale Position).

II. Theorien über mentale Zustandsfolgen

473

(6) Während also der Finitismus Konsistenz durch Verifikation nachweist, wählt der Infinitismus den Weg der Falsifikation. Es sei hier nur angemerkt, daß mein Standpunkt ein anderer ist, als der unter (6) zugesammengefaSte (vgl. dazu aber E.I.2.b)aa) - cc)). Nach meiner Auffassung sagt der Falsifikationismus nichts über die Existenz oder Nichtexistenz eines Modells, sondern nur etwas über die Existenz eines damit unverträglichen anderen Modells. Deshalb habe ich unter Bezugnahme auf das Löwenheirn-Skolern-Theorem einen durchgängigen Verifikationismus vorgeschlagen, der allerdings nur so lange anwendbar ist, so lange logische Systeme vorn Lindströrn-Typ (vgl. Lindström 1969; Eblinghaus!Flurn/Thornas 1978, Kap. XII; StegrnüllerNarga von Kibed 1984, Kap. 15; Alisch 1990f) involviert sind. Für diese Fälle und unter Einbeziehung des Vollständigkeitstheorerns von Gödel (1930) hat Beth (1951) einen topologischen Beweis für das Löwenheirn-Skolern-Gödel-Theorem vorgelegt, das lautet: (a) Eine Menge A von abgeschlossenen Ausdrücken besitzt ein abzählbares Modell gdw das System K(A) konsistent ist (zu den Begriffen Konsistenz und logisches System vgl. Beth 1951, 436, Abschnitt 2.). (b) ... gdw die Menge A ein Modell mit unendlicher Kardinalzahl Z besitzt. (c) ... gdw jede endliche Teilmenge A0 von A ein Modell besitzt. Fügt man zu (c) die Sirnonsehen FITness-Bedingungen (vgl. oben C.ill.2.b) und C.ill.2.c)) hinzu, dann kann man den Verifikationismus realisieren. Während Harsanyi (1983a) meint, daß der logische Positivismus mathematische Aussagen für wahrhaft analytisch hält, glaubt er, durch (1)- (6) gezeigt zu haben, daß ihnen eigentlich andere Eigenschaften zukommen. Diese benennt er mit dem Begriff strukturanalytisch. Entsprechend stehen solche Aussagen zwischen wahrhaft analytischen und empirischen Behauptungen. Strukturanalytische Behauptungen rekurrieren auf Strukturisornorphien (d.h. eine Struktur ist Modell einer anderen), womit alle ihre Eigenschaften notwendige Eigenschaften sind (da sie Modellklasseneigenschaften sind). Mathematische Aussagen bilden also einerseits logisch notwendige Konsequenzen der definierenden Charakteristika der Modellklasse, definiert durch eine Axiomatik, d.h. durch eine Menge von Axiomen mit Invarianz unter Isornorphisrnen, und andererseits sind sie abhängig von der Konsistenz, die im Rahmen von (1) (6) als empirische Behauptung aufzufassen ist. Lucas' Versuch kann nun als das Unterfangen betrachtet werden zu zeigen, daß es Modelle und sogar ganze Modellklassen gibt, die formale Systeme von PM-Mindeststärke erfüllen und damit den Gödelsehen Theoremen unterliegen und weiterhin, daß Menschen nicht zu diesen Modellen und Modellklassen gehören. Es folgt für Lucas, daß Menschen mangels Strukturisomorphie nicht

474

E. Probleme der Grundlagenforschung

durch Elemente der Modellklassen abgebildet werden können und daß es auch nicht gelingt, die Modellklassen so zu erweitern, daß das möglich sein wird. Auf diese Weise, so meint Lucas, limitieren die Gödel-Theoreme die Versuche, mit Hilfe der Modellklassen die menschliche Kognition und das menschliche Handeln zu erklären. bb) Lucas' Argumentation Lucas (1961, 112) beginnt seine Abhandlung mit dem Satz: "Gödels Theorem scheint mir zu beweisen, daß der Mechanismus falsch ist, was bedeutet, daß der menschliche Geist nicht als Maschine erklärt werden kann" (Übers. v. Verf.). Lucas' Wiedergabe des Gödelsehen Theorems wählt die übliche Kurzform: Das Theorem behauptet, daß es in jedem konsistenten System, welches stark genug ist, um die elementare Arithmetik hervorzubringen, Formeln gibt, die zwar nicht im System selbst bewiesen werden können, die wir Menschen aber als wahr einsehen können (Lucas 1961, 112). Als Beispiel für eine solche Formel wählt Lucas den selbstreferentiellen Satz "Diese Formel ist im System unbeweisbar" und zeigt daran zugleich, daß Beweisbarkeit und Wahrheit auseinanderfallen können. Konsistente Systeme, die geeignete Formeln enthalten, sind offenbar unvollständig. Wären sie nicht konsistent, dann wären sie beweisbar, was zu Widersprüchen führte. Lucas steht nun vor der Aufgabe, die Rede über konsistente Systeme so zu verallgemeinern, daß Menschen zu den Modellklassen in Beziehung gesetzt werden können. Dazu geht Lucas den Weg über die Modellklasse der kybernetischen Maschinen. Er behauptet, Gödeis Theorem müsse auf sie anwendbar sein, weil es zum Wesen der Maschine gehöre, daß sie die konkrete Instantiierung eines formalen Systems sein sollte (Lucas 1961, 113; dort auch die hier wiedergegebene Wort und Begriffswahl). Werden Maschinen derartig festgelegt, folgt für Lucas trivialerweise, daß jede konsistente und von ihrer Fähigkeit her für elementare arithmetische Operationen geeignete Maschine unfähig dazu ist, jede von ihr hervorgebrachte Formel als wahre Formel auszuweisen, was bedeuten soll, daß solche Formeln in der Maschine unbeweisbar sind. Im Gegensatz zur Maschine jedoch, die die Wahrheit der Formel nicht erkennt, können wir Menschen sehen, daß die Formel wahr ist. (Man beachte, daß Lucas bezüglich der Maschine nicht, wie eigentlich zu erwarten wäre, auf ihre Unfähigkeit zu vollständigen Beweisen eingeht, sondern auf ihre Unfähigkeit, Formeln als wahre Formeln "einzusehen". Obwohl für ihn Wahrheit nicht Beweisbarkeit impliziert (sonst wäre Gödeis Theorem falsch), sagt er bezüglich der Maschine aus, daß ihre Unfähigkeit, eine Formel als wahr auszuweisen, z.B. die Unbeweisbarkeil der Formel in ihr nach sich zieht.) Es folgt für Lucas, daß keine Maschine ein vollständiges oder adäqua-

ß. Theorien über mentale Zustandsfolgen

475

tes Modell für den menschlichen Geist sein kann und daß der menschliche Geist damit wesentlich verschieden von Maschinen ist. Es scheint notwendig, an dieser Stelle einen ersten Zusammenhang zu Zustandsänderungstheorien in Psychologie und Pädagogik herzustellen. Sind solche Theorien deterministisch, so erwartet Lucas offenbar, daß sie auch rekursiv sind, gleichgültig, ob sie auf Differenzen- oder Differentialgleichungssystemen basieren. Rekursivität sichert Turing-Berechenbarkeit (Maschinencharakter der theoretischen Repräsentation); in umgekehrter Richtung gewährleistet allgemeine Berechenbarkeil Rekursivität (Churchsche These; s.o. E.II.l.e)bb)aaa)) und die wiederum Programmierbarkeit. Rekursive Zustandsänderungstheorien sind mithin zu abstrakten oder konkreten, berechenbaren oder programmierbaren Maschinen äquivalent, mithin also mechanistisch. Das läßt sich in gewissem Sinne auf die Verteilungen von MarkoffKelten und -Prozessen übertragen, so daß der Mechanismus auch auf stochastische Theorien zutrifft. Die Frage ist natürlich, ob die Rekursivitätsannahme bzw. die der Berechenbarkeil oder Programmierbarkeil nicht zu stark sind. In jedem Fall aber behauptet Lucas, keine mechanistische Theorie, die eine (Turing-) Maschine repräsentiert, erklärt den menschlichen Geist. Erst recht gilt ihm das für nichtrekursive Theorien, die noch weniger wahre Sätze ausweisen können als der Mensch. (Für Turing-Maschinen gilt ein Gödel-Analogon, ein von Turipg bewiesenes Theorem: Es gibt keine Turing-Maschine, die das Programm aller Programme schreiben kann.) Zweifellos scheint aber in dem hier hergestellten Zusammenhang zwischen Zustandsänderungtheorien und menschlichem Geist ein Problem zu liegen: Gibt es nicht Formeln, die der menschliche Geist hervorbringen, aber nicht als wahr einsehen und auch nicht beweisen kann und die für eine arithmetikfähige Maschine keine Schwierigkeiten darstellen? Ist also der Mensch alogisch und deshalb nicht durch konsistente Maschinen erklärbar? Dagegen kann sofort eingewandt werden, daß parakonsistente Logiken und Relevanzlogiken, kurz: viele Varianten zur Klärung des "entailment", eine Fülle von mechanistischen Pendants zur menschlichen Alogik liefern (für die überragende Rolle der entailment-Relation bei der Reinstantiierung des Aristotelismus in der Biologie vgl. Rosen 1989). Zurück zu Lucas: Wenn seine Festlegungen und Modellerwägungen sinnvoll sein sollen, dann muß er klären, was er unter dem Begriff Maschine verstehen will. Es präzisiert ihn zum Begriff einer kybernetischen Maschine (1961, 113) und legt sie als Apparat fest, der eine Menge von Operationen gemäß einer definierten Menge von Regeln durchführt. Als Programmierung einer Maschine betrachtet Lucas die Menge von Instruktionen, die angeben, was in welcher Situation zu tun ist. Hinzu tritt die Initialinformation zur Aufnahme von Verhalten. Gilt der menschliche Geist als kybernetische Ma-

476

E. Probleme der Grundlagenforschung

schine, dann ist das Gehirn aus komplizierten neuronalen Schaltkreisen zusammengesetzt, in die über die Sinne Initialinformationen eingespeist werden, die dann der Verarbeitung unterliegen bzw. gedächtnismäßig abgespeichert werden. Strikter formuliert: Wenn das Gehirn ein kybernetischer Mechanismus ist, dann ist sein output unter den Voraussetzungen determiniert, daß als bekannt gilt, wie es programmiert vorliegt, auf welche Weise es in Gang gesetzt und welche Information eingegeben wird. Wenn aber der output determiniert ist, so auch berechenbar. Kybernetische Maschinen sind also vollständig durch die Art bestimmt, wie sie hergestellt wurden und durch die einkommenden Informationen. Dies entspricht dem klassischen Newtonsehen Modell (vgl. Casti/Karlqvist 1989): Maschinen haben keine Möglichkeit, selbstbestimmt zu agieren. Lucas schränkt die Vollständigkeit der Regelmenge kybernetischer Maschinen insofern ein, als er Alternativregeln zuläßt. Damit wird ein Verzicht auf einen vollständigen Determinismus formuliert, jedoch die Einbeziehung von Zufallsplänen ermöglicht, die als charakteristisch für mentale Humansysteme gelten (Lucas 1961, 114), wobei zufällige Verhaltensanwahlen nur über solche Operationen laufen können, die nicht zu Regelinkonsistenzen führen. In allgemeiner Formulierung nennt Lucas Maschinen definit und endlich. Ausdrücklich rekurriert er dabei nicht auf komplexitätstheoretische Fragen (Lucas 1961, 114). Maschinen können durch formale Systeme repräsentiert werden. Dafür greift Lucas aber nicht die Konstruktion einer Turing-Maschine auf, sondern nur die einfache Repräsentation auf Papier durch eine Menge initialer Formeln und Schritt-für-Schritt-Abbildungen von Operationen durch Formelfolgen, die insgesamt als Beweissequenz aufgefaSt werden können (sofern die Operationen Inferenzen entsprechen). Theoreme auf dem Papier korrespondieren mit den wahren Konsequenzen des Maschinenverhaltens. Entsprechend kann eine Maschine einen Gödel-Schritt evozieren, der in der Repräsentation einer Qödei-Formel gleichkommt (z.B. über Anwendung des Diagonalisierungslemmas). Dieser Schritt ist aber der Maschine nicht als wahr erkennbar. Lediglich wir Menschen (Lucas 1961, 115) sind in der Lage dazu, seine Wahrheit einzusehen. Hier liegt der Grund dafür, weshalb eine Maschine kein adäquates Modell des Geistes sein kann: "Now any mechanical model of the mind must include a mechanism which can enunciate truths of arithmetic, because this is something which minds can do: in fact, it is easy to produce mechanical models which will in many respects produce truths of arithmetic for better than human beings can. But in this one respect they cannot do so weil: in that for every machine there is a truth which it cannot produce as being true, but which a mind can. This shows that a machine cannot be a complete and

II. Theorien über mentale Zustandsfolgen

477

adequate model of the mind" (Lucas 1961, 115). Maschinen können also nicht alles machen, was der menschliche Geist vermag. Natürlich heißt das nicht, daß man nicht Maschinen für jedes beliebige geist-äquifinale Verhalten entwickeln kann; es heißt nur, daß es keine Maschine geben kann, die das gesamte menschliche Verhalten zeigt. Dieser Aspekt der Universalität ist es, der das Gödel-Argument überhaupt für die Fundierung von Technologischen Theorien durch Zustandsänderungstheorien relevant sein läßt. Es geht um die Vorstellung prinzipiell universeller technologischer Steuerung des Menschen, basierend auf Zustandsänderungstheorien, und Lucas ist der Überzeugung, daß eine grundsätzliche Limitierung für alle Versuche besteht, diese Vorstellung mechanistisch einzulösen. "We can never, not even in principle, have a mechanical model ofthe mind" (Lucas 1961, 116). Nach der Entwicklung seiner Position setzt sich Lucas mit Argumenten auseinander, die gegen sie vorgebracht werden könnten: mit dem Hierarchieargument (jede Metamaschine der Metaebene n+2 kann eine gegebene Maschine n entscheiden); mit dem Standardprozedurenargument (die Gödelformel kann nur durch eine solche Prozedur konstruiert werden); mit dem Turing-Argument (der menschliche Geist triumphiert immer nur über einzelne Maschinenexemplare, er kann aber nicht über alle Maschinen zugleich triumphieren); mit dem Deduktivitätsargument (Gödels Theoreme sind nur auf deduktive Systeme anwendbar, während der Mensch offenbar operativ noch andere Inferenzen als deduktive realisieren kann); mit dem Konsistenzargument (nach Gödeis zweitem Theorem kann kein Mensch seine eigene Konsistenz unterstellen; daher ist auch Gödeis erstes Theorem nicht gegen den Mechanismus einsetzbar, es sei denn, der Mensch wäre ein System, das sich so weit transzendiert, daß es seine eigene Konsistenz unterstellen kann, ohne inkonsistent zu sein; Lucas 1961, 124 ist der Auffassung, daß der menschliche Geist im Gegensatz zu Maschinen tatsächlich derart verfahren kann, ohne auf die Formalisierung einer Konsistenzbegründung angewiesen zu sein); mit dem Überraschungsargument (Turing 1950, 454 hat vermutet, daß Komplexitätssteigerungen der Maschinen jenseits einfacher und vorhersagbarer Artefakte einige unvorhersehbare Überraschungen für den menschlichen Geist bereithalten). Gerade Lucas' Erwiderung auf das Überraschungsargument macht seinen Begründungsstil deutlich. Er führt aus (Lucas 1961, 126), daß der Mechanist, falls er eine Maschine herstellt, deren Kompliziertheit sich seiner Steuerung entzieht, gerade keine kybernetische Maschine mehr realisiert. Der Mechanist hat dann einen alternativen Geist geschaffen. Wie man sieht, ignoriert Lucas jedes globale Argument. Er ist der Auffassung, Maschinen zur Reduplikation des menschlichen Geistes müßten lokal vollständig beschreibbar und vorhersagbar sein. Damit definiert er als Maschine, was nicht menschlicher Geist

478

E. Probleme der Grundlagenforschung

sein kann. Das Gödel-Argument zum Nachweis der Differenz ist danach völlig überflüssig. b) Smarts Kritik

Obwohl bisher schon hie und da Einwände gegen die Lucas-Position angeklungen sind, bedürfen sie doch einer systematischeren Ergänzung, wie sie sich aus der jahrelangen Diskussion um Lucas' Auffassung ergibt. Ohne diese Ergänzung würde nicht deutlich, was Gödeis Theoreme limitieren und in welcher Beziehung das zu psychologischen Zustandsänderungstheorien steht. Smart (1961) rekurriert auf die Tendenzen in Biologie und Psychologie, den Menschen als komplizierten Mechanismus zu analysieren, und setzt sich mit den Einwänden, basierend auf Gödeis Theoremen, aber auch auf dem Theorem von Church, auseinander. Für seinen Argumentationsgang geht Smart (1961, 105) von einer Korrespondenz zwischen einer formalen Sprache einschließlich ihrer Unentscheidbarkeiten und einer Turing-Maschine aus und macht darüber hinaus von Sprachhierarchien Gebrauch. Diese scheinen dem Mechanismus zu widersprechen, legen sie es doch nahe, daß dem menschlichen Nervensystem keine Turing-Maschine entspricht, die alles das kann, was das Nervensystem kann. Doch selbst, wenn dem nicht so wäre, so zeigte sich ein Unterschied zwischen Nervensystemen und Turing-Maschinen in der Art des intelligenten Umgangs mit der Zeit. Eine beweisfähige Turing-Maschine müßte für einen Beweis alle Alternativen prüfen, wobei sehr schnell ein Zeitaufwand nötig wird, der den bisher bekannten Existenzzeitraum des Universums überschreitet. Intelligentes Beweisverhalten zeichnet sich deshalb durch Selektivität unter einigermaßen zutreffenden Hypothesen aus. Dem Standpunkt allerdings, hieraus einfürallemal zu entnehmen, daß diese Art des Problemlösens humanspezifisch ist, läßt sich entgegenhalten: Unter der Voraussetzung von Mustererkennungen, der Fähigkeit zu leichten Variationen in bewährten Beweisgängen und. der Fehleranalyse sind lernende Maschinen denkbar, die dem Problemlösepotential des Menschen äquifinal sind. Smart (1961, 107f.) bezeichnet das als das Ingeniositätsproblem für Maschinen, dessen Lösung Antwort auf Fragen im Zusammenhang mit Churchs Unentscheidbarkeitstheorem für Sprachen 1. Stufe liefern würde. Church hat gezeigt (siehe auch schon Abschnitt E.II.l.e)dd)), daß es keine Entscheidungsprozedur für diese Sprachen gibt. Eine Maschine könnte zwar, gegeben beliebig lange Zeiträume, alle wahren Sätze der Sprache als solche ausweisen, aber nicht die falschen (vgl. oben Abschnitt E.II.l.e)bb)ccc) zur Rekursivität). Angesichts eines vorliegenden Satzes wäre es also unmöglich zu sagen, ob die Maschine aus Zeitgründen noch nicht bei seinem Wahrheits-

ll. Theorien über mentale Zustandsfolgen

479

aufweis angelangt ist oder ob sie ihn wegen seiner Falschheit unbeachtet läßt. Jenseits derartigen maschinellen Verhaltens, so führt Smart ( 1961, 108) aus, kann dagegen ein Mathematiker oft Beweise für die Wahrheit oder Falschheit von Sätzen des Prädikatenkalküls liefern, und zwar in akzeptabler Zeit und ohne explizite Einbeziehung von Zufallsrnechanisrnen, eben aufgrund seiner Ingeniosität. In dieser Hinsicht würde demnach die Lösung des Ingeniositätsproblerns die Maschine auf das menschliche Niveau heben. Allerdings hilft die Lösung dieses Problems nicht gegenüber Lucas' GödelArgumenten, denn die besagen, daß der Mensch etwas zu leisten imstande ist, das keine Maschine leisten kann, auch keine "Ingeniositätsrnaschine". Die nämlich erweist sich nur als geeignet, etwas, wozu eine Turing-Maschine infinite Zeit braucht, unter vernünftigem Zeitaufwand abzuarbeiten. Sie kann aber nicht, wie etwa der Mathematiker, ihre Beweissprache und die dieser unterliegende Syntaxsprache zugleich einsetzen, um zu einem Beweis zu gelangen. Um diese Fähigkeit des menschlichen Gehirns zu approximieren, schlägt Smart (1961, 109) vor, eine induktive Maschine zu konstruieren (Induktivität hier gerneint in Abgrenzung zur Deduktivität und nicht als mathematische Induktion). Diese Maschine wäre in der Lage dazu, durch Beobachtung ihres eigenen linguistischen Verhaltens ihre eigene Syntax induktiv zu erschließen (was ersichtlich nicht unter Gödel-Limitierungen fällt). Unter Voraussetzung ausreichend großer Gedächtniskapazitäten kann die induktive Maschine dann ihrem eigenen Programm neue Syntaxelemente hinzufügen, so daß sie sich selbst von einer L0- zu einer L 1-Maschine verändert, sodann zu einer L2-Maschine usw. und damit also zu einer Maschine von immer größerer logischer Kraft, obwohl natürlich die induktive Einsicht der inferentiellen Gewißheit mathematischer Schlußweisen nicht gleichkommt. Smart meint, die induktive Maschine entspräche durchaus humanen Beweisfähigkeiten und unterliege den Beschränkungen durch Einwände gegen das Hierarchieargument nicht anders als der Mensch selbst, was bedeutet, daß sowohl der Mensch als auch die induktive Maschine zwar nie Gödel-Sätze endgültig eliminieren können, sie aber ggf. beliebig oft sprachebenenabhängig transzendieren. Für Smart ist damit mentaler Mechanismus möglich. c) Whiteleys Kritik

Die bekannt gewordene Kritik von Whiteley (1962, 61) an Lucas läßt sich vereinfacht wie folgt zusammenfassen: Lucas' Gründe für die Unmöglichkeit des Mechanismus zur Erklärung des menschlichen Geistes kann nicht aufrechterhalten werden, womit jedoch kein Argument für die Stützung des Mechanismus formuliert ist. Interesse ruft in der Detaileinwendung Whiteleys bereits die Wiedergabe des Gödel-Theorems hervor. Dieses zeigt für jedes konsistente formale System - so Whiteley -, daß in ihm eine Formel konstru-

480

E. Probleme der Grundlagenforschung

ierbar ist, die nicht im System bewiesen werden kann und die dennoch evident wahr ist. Lucas (1961) hingegen sprach davon, daß "wir" deren Wahrheit einsehen können. Weiterhin meint Whiteley, Lucas behaupte, die Maschine könne die Wahrheit des selbstreferentiellen Satzes nicht ausweisen, weil sie eine Maschine ist (qua Definition; s.o.). Da aber die Wahrheitsbehauptung selbstwidersprüchlich gestaltet wurde, kann sie auf kein Defizit der Maschine zurückführen, denn das Defizit dürfte schlechterdings nicht darin bestehen, daß die Maschine unfähig ist, eine selbstwidersprüchliche Aufgabe zu erledigen. In ähnlicher Weise äußerte sich bereits Turing (1950, 449). Man sei gut beraten, zwischen Funktions- und Schlußfolgerungsfehlern zu unterscheiden. Zur Absicherung des Defizit-Einwandes zeigt Whiteley, daß auch der menschliche Geist Schwierigkeiten mit selbstwidersprüchlichen Sätzen hat. "This formula cannot be consistently asserted by Lucas" stellt solch einen Satz dar (Whiteley 1962, 61). In der Tat vermag Lucas nicht, diesen Satz konsistent zu behaupten (man prüfe dazu das Paradoxon). Dennoch sieht jeder andere Mensch die Wahrheit des Satzes ein. Heißt das, die anderen Menschen seien von Lucas' Geist fundamental verschieden und ihm sogar in mindestens einer Hinsicht überlegen? Natürlich nicht, denn die Schwierigkeiten ergeben sich für Lucas nur aus der Verwendung des Satzes selbst, nicht aber aus einer Betrachtung des Sachverhaltes ohne Benutzung des Satzes, zu der Lucas wie jeder andere Mensch auch befähigt ist. Er könnte z.B. behaupten: "Ich kann Whiteleys Formel nicht konsistent behaupten" und würde damit dem Problem entgehen. In ähnlicher Weise kann auch eine Maschine der Gödel-Falle entgehen, wenn man sichert, daß sie behauptet, was die Gödel-Formel behauptet, ohne diese Formel zu verwenden. Das ist nämlich genau das, was der menschliche Geist auch tut. Auch ihm gelingt ja kein Beweis der Gödel-Formel. Conclusio: "Thus the Gödel theorem does not demoostrate a difference between minds and machines" (Whiteley 1962, 62). d) Georges Kritik

Schon 1962 ist das Argument vorgebracht worden, deduktive Maschinen, die hinsichtlich des Gödel-Theorems tatsächlich Defizite aufweisen, seien selbst für den Mechanismus relativ uninteressant (George 1962, 62). "Cybernetics has been almost wholly concerned with what are called 'Inductive Systems', or probabilistic machines that are capable of producing the axioms from which deductive operations start" (ebd.). Derartige Maschinen befinden sich offensichtlich nicht im Einzugsbereich des Gödel-Theorems. Wesentlich ist, daß kybernetische Maschinen nicht ex ante spezifiziert sind, sondern selbstprogrammierend angelegt werden, so daß sie sich selbst organisieren

D. Theorien über mentale Zustandsfolgen

481

und flexibel auf Umweltänderungen reagieren können (ggf. mit selbsttransformierendem Parameterwandel). Es erscheint George (1962, 63) daher nicht schwierig, z.B. ein künstliches System mit selbstinduziertem Zielwandel zu konstruieren. Entsprechend limitiert kein Gödel-Theorem effektiv konstruierbare Maschinen. e) Erste Kritik von Good In seiner 1967 vorgebrachten Kritik an Lucas geht Good (1967, 144) hauptsächlich auf die Iteration der Übernahme von Gödel-Formeln als Axiome in damit immer stärkere deduktive Systeme ein. Läßt sich der iterative Übernahme- und Eingliederungsvorgang, der einem Prozeß transfiniten ZähJens entspricht, formalisieren? Und ist dann nicht eher das transfinite Zählen als das Gödel-Theorem für den amechanistischen Mentalismus entscheidend? Hinsichtlich der Argumentation von Lucas meint Good, Ausgangspunkt seiner Kritik sei ihm ein Gefühl dafür gewesen, daß man manchmal zwar mathematische Ergebnisse durch metaphysische Gründe beweisen kann, aber nicht umgekehrt. Insofern lehnt Good den Standpunkt von Lucas ab. Um auf die erwähnten Iterationsfragen hinzuarbeiten, führt Good (1967, 145) ein formales System F =(R, A) ein. R bezeichnet dabei eine Menge von Inferenzregeln, die auf endlichen Folgen von Axiomen oder Theoremen arbeiten; A bezeichnet eine Menge endlicher Symbolketten (von Symbolen aus einem gegebenen endlichen Alphabet). Jede Kette heißt Axiom und bildet einen speziellen Fall von Theoremen. Jedem endlich basierten formalen System F korrespondiert ein Computerprogramm, daß den Inferenzregeln analog folgend Theoreme ausdruckt. Jedem System F kann zudem die Diagonalisierung als Konstruktion hinzugefügt werden, die dann eine neue Gödel-Proposition als Theorem hervorbringt, welche aber in Funbeweisbar bleibt (vorausgesetzt, Fist konsistent). Indes kann die Gödel-Proposition den Axiomen von F hinzugefügt werden, so daß ein neues konsistentes System F' entsteht. Auch diesem läßt sich via Diagonalisierung und axiomatischer Ergänzung der Übergang in ein System F" ermöglichen und immer so weiter. Auf Maschinenprogramme bezogen kann man sagen, daß die Diagonalisierung C offensichtlich auf dem Programm F operiert. Wenn C auf F operiert, produziert es F, wenn es auf F' operiert, dann F" usw. Auch C kann also als formales System aufgefaßt werden. Da C aber auf jedes F (R, A) anwendbar ist, kann seine endliche Basierung nur schwer nachgewiesen werden. Good kommt zu dem Schluß, daß zwar für jede Maschine P' durch den Menschen eine Gödel-Proposition CJil gesetzt werden kann, wodurch sich der Mensch P' in dieser Hinsicht überlegen zeigt, daß der

=

31 Alisch

482

E. Probleme der Grundlagenforschung

Sieg jedoch unter dem Programm C sofort zusammenbricht, da pt+I natürlich

an hervorzubringen vermag.

Durch Triangularisierung kann C so modifiziert werden, daß es alle Theoreme der Folge F, F', F" ... ausdruckt. Ist ro die erste transfinite Ordinalzahl, dann bezeichnet man das modifizierte C mit pro. Wie Good (1967, 146) zeigt, kann die gesamte Konstruktion transfinit zu immer höheren Systemen fortgesetzt werden. Um entsprechend den Prozeß des transfiniten Abzählens programmierbar zu machen, müßte man eine Repräsentation für alle spezifizierbaren Ordinalzahlen und die darunter liegenden angeben können (während die noch kleineren auf natürliche Zahlen abgebildet werden). Allerdings ist kein Weg bekannt, wie man das durchführen könnte und entsprechend gilt der Vorgang transfiniten Zählens als kreativ. Indes heißt das nicht unbedingt, daß der Prozeß nicht formalisierbar ist, und Good (1967, 146) meint, jedes ausreichend gut geschriebene Programm schreitet im Abzählvorgang so weit fort wie der Mensch. Es ist deshalb für den Mentalisten nutzlos, darauf zu verweisen, daß jedes Programm im Hinblick auf seine Beweisstärke als unvollständig angesehen werden muß, weil sogar der Unbeweisbarkeitsnachweis programmierbar ist, wie gezeigt. Betrachtet man allerdings das Auswahlaxiom der Mengenlehre als wahr, dann existiert eine kleinste unkonstruierbare transfinite Ordinalzahl t , die durch kein transfinites Abzählprogramm erreicht wird. Es darf vermutet werden, daß sich auf dem nicht beendbaren Weg zu t die Mechanismus-Mentalismus-Kontroverse mangels Feststeilbarkeit der letzten Metasystemstufe auflöst. (Anmerkung: Das Auswahlaxiom lautet:

\ix31(Fknl 1\ Def I= X /\3x(x e X 1\ x :;~: 0

~

l(x) e x)),

d.h. zu jedem X gibt es eine Funktion I, die auf X definiert ist und für x e X nicht-leer ein I (x) e X ergibt (vgl. z.B. Ebbinghaus 1979, Kap. VIII, 98ff.). Mit Hilfe dieses Axioms gelingen Stetigkeitsbeweise. Das Auswahlaxiom gilt in gewissen Varianten der Mengentheorie, wie Gödel (1940) gezeigt hat. Doch da Cohen (1966) nachweisen konnte, daß dort auch seine Negation gilt, stellt das Auswahlaxiom ein tiefes Beispiel für eine formale Unentscheidbarkeit dar. Die Ergebnisse von Gödel und Cohen bedeuten nämlich nicht, daß die Axiome der Mengenlehre ihre Widerspruchsfreiheit verlieren, wenn ihnen das Auswahlaxiom hinzugefügt wird, sondern lediglich, daß das Axiom gewissermaßen in der Luft hängt. Unterstellt seine Wahrheit, die nicht bewiesen werden kann, hat das Auswahlaxiom in der Mathematik allerdings große Bedeutung (vgl. Jech 1973)).

II. Theorien über mentale Zustandsfolgen

483

[) Lucas' Erwiderung

Während Hofstadtee (1985) der Meinung ist, die bisherigen Kritiken hätten ausreichen müssen, um unter die Debatte zur Position von Lucas einen Schlußpunkt zu setzen, gab Lucas (1969) noch nicht auf und replizierte. In der oben schon einmal angesprochenen despektierlichen Weise nennt Hofstadtee (1985, 504), was nun beginnt, die "Leidensgeschichte nach Lucas". Indes, so einfach darf man sich die Sache nicht machen. Die angesprochenen Probleme sind schwierig und durchdenkenswert, wenn auch vielleicht nicht mit der Erfolgsaussicht verbunden, daß die Behauptung einer Limitation für Erkenntnis, Forschung oder Technologie zugleich auch den Ansporn verloren gehen ließe, in bestimmten Richtungen weiter nach Lösungen zu suchen. Wie drückt dies Schank (zit. nach Rose 1986, 242) sinngemäß aus? Es wird immer jemanden geben, der aus metaphysischen Gründen zeigen zu können glaubt, daß etwas nicht realisiert werden kann, bis es dann realisiert ist. Zieht man von diesem unerschütterlichen Glauben amerikanischer KITechnologen das kulturelle Selbstvertrauen ab, so bleibt immer noch ein Argumentationsrest, der nachdenklich stimmt. Hierher gehört dann auch eine Äußerung von Halmos (1985, 204), der hinsichtlich der Mathematik die Auffassung vertritt, die Ergebnisse von Gödel, Cohen u.a. seien zwar bewunderungswürdig, fundamental und endgültig limitierend, sie hätten aber überhaupt keine Konsequenzen für die Mathematiker gehabt, die nach wie vor ihrem täglichen Geschäft nachgingen und lediglich versuchten, in ihren Problemformulierungen und -Iösungen die von Gödel beschränkten Bereiche nicht zu tangieren. Während jedoch Halmos so tut, als hätten Gödeis Theoreme gar keine praktische Wirkung auf die Mathematik, scheint mir, daß die Umgehung problematischer Fragestellungen eine außerordentlich tiefe Wirkung darstellt. Der Logiker van Bentham (1982) drückt das so aus, daß Fragen der Vollständigkeit, Konsistenz und Entscheidbarkeil heutzutage in den Hintergrund getreten sind und den Problemen von Kategorien und Komplexität Platz gemacht haben. Ich bin der Auffassung, in genau derselben Weise kann sich die außermathematische Diskussion der Gödelsehen Theoreme auswirken. Wenn man Technologische Theorien nicht so fundieren kann, daß jeder steuerbare Zustand auch entscheidbar ist, dann vermag man vielleicht, wenigstens seine Zulässigkeil zu prüfen (etwa unter dem in jüngster Zeit meßtheoretisch so wichtig gewordenen Kriterium der Bedeutungsamkeit; vgl. Roberts/Rosenbaum 1986) oder seine komplexitätstheoretischen Eigenschaften. Zulässigkeil, lokale und globale Unlösbarkeilsgrade von Beweisen (vgl. z.B. Lerman 1983), entailment und Parakonsistenz sind theoretisch derartig fruchtbare Problemstellungen, daß sie als zukunftsträchtige wissenschaftliche Forschungsrichtungen angesehen werden müssen, die ohne Unvollständigkeitsbeweise 31*

484

E. Probleme der Grundlagenforschung

undenkbar wären und zweifellos helfen werden, in fundamentallimitierter Erkenntnissituation den Möglichkeitsraum für das Machbare neu zu vermessen. In diesem Sinne ist es vielleicht sogar gut, daß Lucas (1969) nicht sogleich aus dem Felde gegangen ist. Er greift zunächst das Argument von Good auf (das vor diesem bereits Turing 1950 benutzte), besondere menschliche Geisteskräfte, wenn sie denn existierten, müßten sich exakt beschreiben und daraufhin auch programmieren lassen. Lucas erwidert, daß Existenz nicht per se heißen könne: Existenz in einer Computer-Sprache. Ferner zweifelt er nicht an, daß Goods Widerlegungen der Superioritätsbehauptung korrekt ist, sondern meint, es sei die Widerlegung einer nicht in Rede stehenden Behauptung. Lucas (1969, 156) will in seiner ersten Arbeit nämlich nur zweierlei gezeigt haben: Erstens kann der Test zwischen Maschine und Mensch nur im Hinblick auf jeweils thematisierte Maschinen durchgeführt werden und nicht für Goods Metamaschinen. Zweitens geht es nicht um Überlegenheit, sondern um Äquivalenz. Lucas meint, der Mensch sei also der Maschine nicht mühelos überlegen, sondern sie seien beide unbestreitbar ungleich. Dies reiche aus, um den Mechanismus zu widerlegen, ohne zugleich die Grundlage für einen wiederkehrenden Dualismus zu bilden. g) Die Kritik von Benacerraf

Während die bisherigen Kritiken ebenso wie Lucas' Darlegungen noch an der Peripherie psychologischer Theorien argumentierten (Suche nach der Bedingung der Möglichkeit mechanistischer Theorien des Geistens bzw. Nachweis ihrer Unmöglichkeit), schränkt Benacerraf (1967) aus formalen Gründen den Maschinenbegriff auf den Begriff eine Turing-Maschine ein, um sodann nicht nur zu zeigen, daß Lucas' Position zu Widersprüchen führt oder daß mit relativ einfachen Mitteln Wissensparadoxien erzeugt werden können, sondern auch, daß die Psychologie des cartesisch fundierten privilegierten Zugriffs des Selbst auf sich selbst verkehrt ist, ebenso übrigens wie der Behaviorismus. Wegen der außerordentlichen Wichtigkeit des Benacerrafschen Beweisganges sowohl für die Konzipierung von Zustandsänderungstheorien als auch für deren technologische Nutzung gehe ich etwas ausführlicher auf ihn ein. Interessanterweise bietet Benacerraf aber nicht nur diesen Beweis sowie die Freilegung eines Wissensparadoxons, sondern auch einen interessanten philosophiehistorischen Rückgriff auf die Auseinandersetzung zwischen Descartes und La Mettrie um die Frage, ob der Mensch ein Tier und mithin eine Maschine sei. Das erscheint deshalb so bedeutsam, als erst neuerdings wieder die pädagogisch-technologische Relevanz von La Mettries Maschinenmensch

D. Theorien über mentale Zustandsfolgen

485

aufgearbeitet worden ist (vgl. Rössner 1990). Dazu später noch einige Bemerkungen. Benacerraf (1967, 17) präzisiert Lucas' Anliegen dahingehend, daß er offenbar folgende Implikation der Theoreme Gödeis nachweisen will: Keine Maschine ist dem deduktiven output des menschlichen Geistes äquifinal. Der Geist bleibt jeder Maschine deduktiv überlegen. Es scheint dagegen eine ganze Reihe von Einwendungen zu geben, die diesseits formaler Beweise liegen und dennoch bereits tiefgreifende Konsequenzen für die Position von Lucas beinhalten. So ist durchaus unklar, was mit dem Begriff "menschlicher Geist" gemeint sein könnte, insbesondere in Abgrenzung zu bestimmten Menschen. Weiterhin kann man fragen, welche allgemeinen empirischen Adäquatheilsbedingungen den Erklärungen mentaler Phänomene aufzuerlegen sind. Ist es z.B. für den psychophysischen Mechanismus unbedingt notwendig, ein den deduktiven output reduplizierendes Modell für jeden beliebigen Menschen hervorzubringen? Sicher doch wohl nicht, denn Menschen sind ganz im Gegensatz zu den transfiniten Maschinenhierarchien, die zur Elimination von Gödelsätzen konstruiert werden müssen, immer endlich. Benacerraf (1967, 19) ist sogar der Ansicht, daß aufgrunddieser Finitheil Lucas' Kampf eigentlich schon verloren ist, denn keine noch so umfangreiche Evidenzmenge kann einen strikten Finitisten widerlegen (vgl. jedoch oben die Einwände gegen den Finitismus; dem strikten Finitismus ist die umfangreiche Arbeit von Wright 1982 gewidmet, auf die ich aus thematischen Gründen hier nicht weiter eingehe). Die von Benacerraf vorgeschlagene Präzisierung von Lucas' Anliegen läßt sofort zwei Einwände wichtig werden: (1) Es ist unklar, inwiefern das erste Gödel-Theorem für Maschinen etwas ausschließen und zugleich für den Geist behaupten soll. Offenbar wird durch das Theorem doch nur behauptet, daß die Maschine ihre Gödel-Formel aus ihren Axiomen heraus und unter Anwendung ihrer Regeln nicht beweisen kann. Doch das kann Lucas ebensowenig. Dagegen könnte er vielleicht die Gödel-Formel informell beweisen, d.h. auf eine in der Maschine nicht formalisierbare Weise. Dieser Ausweg kann jedoch ebensowenig genutzt werden, denn die Maschine ist nur im Hinblick auf formale Beweise limitiert. Sie vermag also mit Gödeis zweitem Theorem zu behaupten, daß "Con(Maschine) ~Gödel-Formel" und das auch zu beweisen. (2) Dieser Beweis gelingt natürlich nur, wenn Con(Maschine) zutrifft, d.h. wenn die Maschine tatsächlich konsistent ist (nicht jedoch unbedingt korrekt, d.h. nur aus wahren Theoremen bestehend, vgl. Benacerraf 1967, 21). Lucas zeigt tatsächlich an keiner Stelle, daß 'Con' auf Maschinen oder den Geist zutreffen könnte. Er setzt das stattdessen voraus und überläßt es dem Mechanisten, ein System zu konstruieren, das dem Geist äquifinal ist und für das Lucas keine Gödel-Formel finden kann. Nur dann triumphiert der Mechanist.

486

E. Probleme der Grundlagenforschung

Lucas übersieht bei dieser Argumentation jedoch, daß auch eine Maschine seine Rolle übernehmen und Gödel-Formeln für Produkte des Mechanisten suchen kann. Und selbst wenn es eine notwendige Wahrheit sein sollte, daß der Mechanist keine indefiziente Maschine konstruieren kann, so steht damit keineswegs notwendig fest, daß Lucas das auch zu identifizieren vermag. Neben den bisher genannten Einwänden gegen Lucas schlägt Benacerraf (1967, N, 23ff.) in der Hauptsache folgenden Argumentationsweg ein: Es könnte sein, daß Lucas' Formulierungen insgesamt zu vage ausgefallen sind und daß es deshalb zweckmäßig ist, seinen Nachweis der Mechanismusinsuffizienz zu präzisieren und zu prüfen. Obwohl sich dabei zeigt, daß der menschliche Geist günstigenfalls eine Turing-Maschine sein kann und daß beide Gödel-Theoreme erarbeitet werden können, endet dieser Präzisierungsversuch in Widersprüchen, was Benacerrafs Arbeit sicher zu den wichtigsten gegen Lucas' Position macht. Für den hier interessierenden Zusammenhang der technologischen Relevanz von Zustandsänderungstheorien ist jedoch noch etwas anderes an dieser Arbeit wichtig: Obwohl Benacerraf den Weg einer Präzisierung von Lucas' Argumentationsgang einschlägt, gelangt er nicht nur zu den erwähnten Widersprüchen, sondern darüber hinaus zu ganz anderen Konsequenzen als Lucas hinsichtlich der Theorien des Geistes. Nach Benacerrafs Rekonstruktion besteht Lucas' Argumentation aus 20 Schritten.

(1) Sei S der deduktive output eines menschlichen Geistes, dann besagt S = {xl Der Geist kann x beweisen} ebendies, wobei S aus Sätzen unter einer In-

terpretation besteht. 'Beweisen' involviert keine Limitation des outputs, sondern die Annahme der Korrektheit von S (siehe oben). (2) Sei S* der Abschluß von S unter den Regeln einer Sprache 1. Stufe mit Identität, dann bezeichnet S* = {x I S ~ x} alles, was aus S durch diese Sprache ableitbar ist. (3) S* ist konsistent. Dies folgt aus der Annahme der Korrektheit (siehe (1)). (4) 'Con(S*)' e S. Die Behauptung (3) kann von einem menschlichen Geist bewiesen werden und liegt daher als Behauptung (apostrophiert) in S. (5) 'Con(S*)' e S*, da definitorisch Se S* gilt und wegen (4). Zwischen (5) und der Auffassung von Lucas, die eigene Konsistenz beweisen zu können, besteht Korrespondenz. Da hier nicht etwas über Maschinen, sondern über den Geist ausgesagt wird (also nicht über formale Systeme}, verstößt die Behauptung des Selbstkonsistenzbeweises nicht gegen Gödeis Theoreme, ebensowenig wie der Beweis selbst. (6} 'Vx(W, ~ S*--+ Con(W, )) . Dies folgt aus (3). Mit W werden rekursiv aufzählbare Teilmengen von S* notiert.

II. Theorien über mentale Zustandsfolgen

487

(7) 'v'x(W, ~ S* ~ Con(W, )) E S, da der menschliche Geist (1) - (6) als Beweis konstruiert hat. 1

1

(8) l'v'x(W,

!:;;;;

S* ~ Con(W, ))'ES*, wegen SES* und (7).

(9) Es gibt eine rekursiv aufzählbare Menge (9 .1) Q ~ wj I

I

E

s*

(9.2) Wi

~S* 1 ES*

(9.3)

wj

1

S*~

WJ. so daß

Dies ist offenbar bisher die einzige Existenzbehauptung des Beweises. (9.3) stellt den Zusammenhang zwischen dem Bisherigen und der Lucas-Annahme her, daß der menschliche Geist eine kybernetische Maschine sei, wobei diese wiederum als Turing-Maschine präzisiert wird. Wj sichert, daß die TuringMaschine beweisproduzierend arbeitet (wegen der Eigenschaft der rekursiven Aufzählbarkeit). Unter einfachen Festlegungen können alle solche Maschinen Gödel-numeriert und über ihren Index aufgerufen werden. So bezeichnet z.B. Wx die Turing-Maschine mit dem Programm, das mit x numeriert ist. Auf diese Weise läßt sich mit Wi, i 1,2,3 ... die Gödel-Nummer einer rekursiv aufzählbaren Menge von Theoremen bezeichnen, eben die Nummer jener Maschine, die die Theoreme zu beweisen vermag. Benacerraf ( 1967, 25) legt besonderen Wert darauf, daß sich damit das Maschinenprogramm effektiv aus dem Namen der Maschine ergibt (weshalb überhaupt die W-Notation eingeführt wurde).

=

Die in (9.1) auftauchende Bezeichnung Q referiert auf eine Theorie, die wie die Theorie Q von Tarski, Mostowski und Robinson (1953, 51) zwar relativ schwache, aber für die Beweise der elementaren Arithmetik ausreichende Axiome bietet. Lucas unterscheidet offenbar nicht zwischen dem Fall, der ihn alle Theoreme der Arithmetik beweisen läßt und dem, daß er dies beweisen kann (Er kann A beweisen, aber kann er auch beweisen, daß A ?). Doch gerade das benötigt er für seine Argumentation (vgl. unten (15) und (17) sowie die Kritik von Fuhrmann 1990, 127). (9.2) gibt an, daß der menschliche Geist bezüglich Wj beweisen kann, daß sie eine Teilmenge seines Outputs ist. (9.3) schließlich behauptet, daß der menschliche Geist eine Teilmenge von Wj bildet, genauer: daß der Abschluß von S unter einer Sprache 1. Stufe Teilmenge einer Turing-Maschine ist. Indem Benacerraf das behauptet, setzt er sich zu Lucas ins Gegenteil, denn mit S* ~ Wj wird über eine Maschine gesagt, daß sie alles beweisen kann, was der menschliche Geist zu beweisen vermag und ggf. noch mehr. Allerdings muß hervorgehoben werden, daß (9.3) damit noch keine Äquivalenz zu der Behauptung darstellt, der menschliche Geist sei eine Turing-Maschine, denn es wird weder S* = Wj aufgestellt (obwohl die Identität aus der Korrektheits-

488

E. Probleme der Grundlagenforschung

annahme und aus (9 .2) folgt), noch wird ausgesagt, daß S = lf;· So kann also (9.3) wahr sein, ohne daß der menschliche Geist eine Turing-Maschine sein muß, d.h. es besteht die Möglichkeit, daß der Geist weniger als jede (9 .1) und (9.2) erfüllende Maschine vermag. Kann nun gezeigt werden, daß jedes lf;. welches (9) erfüllt, in einen Widerspruch gerät, so gibt es keine Turing-Maschine, die alle drei Teile von (9) gleichermaßen erfüllt. (10) Q ~ W i; was bewiesen werden kann, muß wahr sein (aus (9.1)). (11) Es gibt eine Formel H mit Gödel-Eigenschaften Vx-JJ(x, g(H)), so daß, falls HE W i, dann auch -,HE W i und Wi ist inkonsistent (wegen 10. und 9.). Hierbei bezeichnet g(H) die Gödelnummer der Gödelformel H und 'B(x,- )'ein Prädikat der Sprache 1. Stufe. Dieses Prädikat sichert, daß für je zwei Zahlen m und n eine Relation Rz

~

-

:r

~ = ~

~

~ ~.

~

~

c

.,

Q.

(I>

:2.

Cl)

0 ~

~

~ ., g 0

~

N

"' .... ;· ::s

...,

:::> r;;·

(1)

e:

., 0:r =

-



....

(1)

g:::>



5.

S:



~

Q.

N c (I)

....

i3

[ ~ =- g ~ 1:1

a

§ §.

el t." ~ ~

a'

> a-

Q.

n ::r ....

~

(1) "' ::s •...;) "'

OQ

Thecrien der interpcnonalen Wahrnehmung und Beurteilung

I

I

Theorio zur Kommunikation und zu Komnmnilr.atioru sttulcturen

-.

Theorieazur lnfnnnalionsaufnahmj und -vcrarbcitung

Theorien zu Einstellungen und Motivationen

H 4: Wechselseitige realistische Einscbl.tzuns des Anspruchsniveaus

J

Attributionstheorien

Equiry-Theorien

H 6: Wechselseitig H S: Mllli11 bobe Fordenmg zu Beginr korrekte Eillschltzungen VOD der Verhandlung Status und Prestige

I

1-PDG-charalcteristiscbe SpJC!e I

Nullsummenspiele ]

Die Wahrscheinlichkeit, daJI ein pareto-optimales V~ungsergebnis (=KorrlliktiÖSUng) erzielt wird, ist hoch, wen~~ folgende Declincunaeo ertllllt smd:

H 2: VoUstlndige H 3: Uneingeschrlnlcte Infonnation über !Kommunikation uru1 störungsfreier Eitrige, Verlust lmroooationsaustausch undGewinn

.E, YPOTHESE)Ij .F.N VARIABLEN

IVerbandlunl!SSPielol

INichtnuUsummeos!'iiele

Spieltheorie und spicltbeoreti~ fundierte so:tialpsychologi!ICbe Erwcitenmp

I AUSWAHL VON THEORIEN ZUR AUSSCHALnJNG VON STÖRFAKTOREN TN H 1-H 6

H I: Kein gegenseitiges Bedrohen und Bestrafcn

I

I Inkompatible Interessen, Konflikt l I Interpersonaler &tscbeidungskonflikt I

jl'arcto-optimale Kontliktlosung, Kompromiß. Abbau des nicbt-tolerionen Verhaltens, Aufbau oo9itiv bewerteten Vetbaltens

11r

I Nicllt-toleriernare Drohungen, Agressionen, Kommunikationsstörungen, mangelhafte Kooperation l

VI

~

:::::>

~

"'~ ::s g_

~

ir

~ =-· ~

'0

"'~ ~

v;

~

~

03 .

:'Tl ~ 0..

00

0\

I. Intuitiver Problemaufriß

569

K 10: Fehlende Älmlichkeiten K 9: Negative Bewertungen K 8: Nichtbca

~