Struktur und Dynamik erfahrungswissenschaftlicher Systeme 9783205159612, 3702900969, 3486492713, 9783205782193

126 57 8MB

German Pages [163] Year 1976

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Struktur und Dynamik erfahrungswissenschaftlicher Systeme
 9783205159612, 3702900969, 3486492713, 9783205782193

Citation preview

ill

m

saunte] mm

eine Bibliothek des modernen wissenschaftlichen Denkens

Bisher erschienen: Karl H. BORCH, Wirtschaftliches Verhalten bei Unsicherheit. C . West CHURCHMAN - Rüssel L. ACKOFF - E. Leonard ARNOFF, Operations Research. Morton D. DAVIS, Spieltheorie für Niditmathematiker. Heinz H A A S (Hrsg.), Technikfolgen-Abschätzung. Richard C. JEFFREY, Logik der Entscheidungen. Norman MALCOLM, Ludwig Wittgenstein. Oskar MORGENSTERN, Spieltheorie und Wirtschaftswissenschaft. Ernest N A G E L - James R. NEWMAN, Der Gödelsche Beweis. John von NEUMANN, Die Rechenmaschine und das Gehirn. Erhard OESER, Wissenschaft und Information. Band 1: Wissenschaftstheorie und empirische Wissenschaftsforschung. Band 2: Erkenntnis als Informationsprozeß. Howard RAIFFA, Einführung in die Entscheidungstheorie. Hans SACHSSE (Hrsg.), Möglichkeiten und Maßstäbe für die Planung der Forschung. Hubert SCHLEICHERT, Elemente der physikalischen Semantik. Erwin SCHRÖDINGER, Was ist ein Naturgesetz? Claude E. SHANNON - Warren WEAVER, Mathematische Grundlagen der Informationstheorie. Herman WEYL, Philosophie der Mathematik und Naturwissenschaft. Dean E. WOOLDRIDGE, Mechanik der Gehirnvorgänge. Dean E. WOOLDRIDGE, Mechanik der Lebensvorgänge.

In Vorbereitung: Erhard OESER, Wissenschaft und Information. Band 4: Wissenschaftstheorie als Rekonstruktion der Wissenschaftsgeschichte.

mm Erhard Oeser

Wissenschaft und Information Systematische Grundlagen einer Theorie der Wissenschaftsentwicklung

Band 3

Struktur und Dynamik erfahrungswissenschaftlicher Systeme

R. Oldenbourg Verlag Wien München 1976

© 1976 R. Oldenbourg Verlag Wien Drude: R. Spies & Co., Wien ISBN 3-7029-0096-9 R. Oldenbourg Wien ISBN 3-486-49271-3 R. Oldenbourg München

Inhalt 1. Wissenschaft als Informationssystem 2. Die Basis erfahrungswissenschaftlicher Erkenntnis: Systemrelative £lementarinformationen 3. Begriffsbildung durch Abstraktion: Die erste Stufe der Informationsverdiditung 4. Hypothesenbildung durch Induktion: Die zweite Stufe der Informationsverdichtung 5. Theorienbildung durdi Konstruktion und Theorienstabilisierung durch Deduktion: Die dritte Stufe der Informationsverdichtung 6. Theoriendynamik: Der interne Mechanismus der Wissenschaftsentwicklung Literatur Personenregister Sachregister

Struktur und Dynamik erfahrungswissenschaftlicher Systeme Die Einsicht in den Systemdiarakter wissenschaftlidier Erkenntnis ist keineswegs erst das Resultat wissenschaftstheoretischer Überlegungen des 19. Jahrhunderts, sondern so alt wie die Wissenschaft selbst. Relativ neu ist hingegen die einseitige Festlegung des Begriffs „Wissenschaft" auf den Begriff „Aussagensystem". Diese in der gegenwärtigen Wissensdiaftstheorie gebräuchlichste Auffassung beruht jedoch auf einer sehr eingeschränkten Verwendung des Systembegriffs, der als solcher aus der mathematisch-logischen Grundlagenforschung stammt und in seiner eindeutigsten Formulierung auf Frege zurückzuführen ist. Denn erst mit dem formalen Apparat der Aussagenlogik ist es möglich gewesen, den Begriff des „Aussagensystems" in einer nichttrivialen Weise als axiomatisch deduktives System zu explizieren. Damit ist aber bereits notwendig eine Einschränkung vollzogen worden mit Bezug auf den Umfang dessen, was als wissenschaftliche Erkenntnis angesehen werden kann. Denn mit einem „Aussagensystem" im axiomatisch-deduktiven Sinn kann immer nur eine wissenschaftlidie Theorie und niemals der Gesamtbereich einer Wissenschaft gemeint sein. Wenn aber wissenschaftliche Erkenntnis als „Aussagensystem" betrachtet wird, muß dementsprechend der Begriff „Wissenschaftstheorie" korrekterweise auf eine Metatheorie wissenschaftlicher Theorien eingeschränkt werden. Damit ergeben sidi aber zwei folgenschwere Konsequenzen: 1. Es würde der größte Bereich dessen, was gewöhnlidi als wissenschaftliche Erkenntnis bezeichnet wird, aus dem Rahmen der wissensdiaftstheoretischen Untersuchung fallen — nämlich der ganze Bereich des prätheoretischen Wissens, der im Gesamtkomplex einer Wissensdiaft die axiomatisch-deduktiven Theorien umgibt, ebenso wie alles bloß deskriptivklassifikatorische Wissen, das in vielen Erfahrungswissenschaften noch nicht im Rahmen einer Theorie, sondern nur als Klassifikationssystem darstellbar ist. 2. Es gäbe keine Möglichkeit, die Wechselwirkung von Theorien innerhalb eines Wissensgebietes zu erfassen oder gar den

8

1. Wissenschaft als Informationssystem

Prozeß der Veränderung und des Wechsels von Theorien zu behandeln. Gerade diese letzte Konsequenz, in einer Metatheorie wissenschaftlicher Theorien zwar die statischen Strukturzusammenhänge, nidit aber die „Theoriendynamik" erfassen zu können, mußte schließlich zu einem Scheitern der bereits klassisch gewordenen linguistischen Konzeption der wissenschaftlichen Theorie als „Aussagensystem" führen. In der gegenwärtigen Wissenschaftstheorie liegen mehrere Vorschläge zur Ablösung dieses als einseitig erkannten Standpunktes vor. Das Gemeinsame dieser Vorschläge ist das Ersetzen der linguistischen Konzeption des Systembegriffs durch modelltheoretische Vorstellungen. Die beiden in diesem Zusammenhang wichtigsten Arbeiten, die ungefähr zur gleichen Zeit, jedoch unabhängig voneinander, konzipiert wurden — das an der mathematischen Physik orientierte Strukturmodell von J. D. Sneed1 und das an der Thermodynamik und Biologie orientierte systemtheoretische Modell von E. Laszlo 2 —, sollen im folgenden bei der Darstellung und Erläuterung der neu zu gewinnenden Einsicht in den Systemcharakter der Wissenschaft herangezogen werden 8 . Sneeds Darstellung ist vor allem deswegen von Bedeutung 4 , weil sie gezeigt hat, daß die Ablehnung der Konzeption der Wissenschaft als Aussagensystem nicht notwendig mit einer Preisgabe der Rekonstruktion ihrer logischen Struktur verbunden sein muß. Um seine eigene Auffassung von diesem Standpunkt abgrenzen zu können, charakterisiert Sneed diesen, den er auch als Statement view bezeichnet hat, durch folgende Grundthesen: 1

2

3

4

J. D. Sneed, The Logical Structure of Mathematical Physics, Dordrecht 1971. E. Laszlo, A General Systems Model of the Evolution of Science, in: Scientia, Vol. 107, 1972, S. 379 ff. Ein ähnliches Konzept, wie es Laszlo vertreten hat, scheint G. Radnitzky vorzuschweben, der jedoch seine Vorgangsweise des intuitiven „Systemdenkens" ohne Technizismen von der Systemtheorie unterscheidet. Vgl. Vom möglichen Nutzen der Forschungstheorie, in: Neue Hefte für Philosophie 6/7 (Tendenzen der Wissenschaftstheorie), 1974, S. 131. Auf die Bedeutung der Arbeit von Sneed hat bereits W. Stegmüller aufmerksam gemacht. Vgl. Theorie und Erfahrung, 2. Halbbd., Theorienstrukturen und Theoriendynamik, Berlin-Heidelberg-New York 1973.

Theorien als axiomatisch-deduktive Systeme

9

A. Erfahrungswissenschaftliche Theorien sind Klassen von Aussagen, von denen einige empirisdi wahr oder falsch sind 8 . B. Die logischen Beziehungen zwischen den Aussagen einer erfahrungswissenschaftlichen Theorie lassen sich durch ein axiomatisdies System darstellen 8 . Die erste Behauptung, die sehr plausibel klingt, gibt im wesentlichen die klassische, vom frühen Carnap vertretene Zweistufenkonzeption der Wissenschaftssprache wieder, die besagt, daß die Sprache, in der eine erfahrungswissenschaftliche Theorie abgefaßt ist, grundsätzlich in zwei Teilsprachen, in die Beobachtungssprache und in die theoretische Sprache, zerlegt werden kann, die voneinander völlig isolierbar sind. Die Verbindung der theoretischen Sprache zur empirischen Beobachtungssprache ist ein prinzipiell von der logischen Untersuchung der theoretischen Spradie unterschiedenes Problem, das durdi einfache Zuordnungsregeln 7 oder durch ein eigenes kompliziertes interpretatives System geregelt wird. Die entscheidende Vorwegnahme, die mit dieser Konzeption von Wissenschaft gemacht wird, ist die Behauptung, daß zuerst die Beobachtungssprache festgelegt sein muß, bevor man die Theorien auf dieser Basis interpretieren kann. Mit diesem Zweistufenmodell der Wissenschaftssprache wird daher von vornherein eine Entscheidung gefällt, welche Begriffe als empirische Begriffe der Beobachtungssprache und welche Begriffe als theoretische Begriffe aufzufassen sind. Als untrügliches Kennzeichen derjenigen Begriffe, die der Beobachtungssprache angehören, wird angegeben, daß sie f ü r sich verständlich sind und keiner weiteren Interpretation bedürfen, weil sie der natürlichen Alltagssprache angehören und durch ihren direkten Bezug zur sinnlichen Wahrnehmung vollständig gedeutet sind. Die Begriffe der theoretischen Sprache dagegen sind nicht schon f ü r sich allein verständlich, sondern erhalten ihre konkrete Deutung erst durch eine deduktive Definition, die bis zu undefinierbaren Grundbegriffen zurückführt. Diese Grundbegriffe wiederum erhalten durch bestimmte Zuordnungsregeln zur Beobachtungssprache eine zumindest partielle Deutung. Der gesamte Aufbau der Wissenschaftssprache der empirischen Erfahrungswissenschaften hängt daher nach 5

Sneed, The Logical Structure of Mathematical Physics, S. 1. • Ebenda, S. 5. 7 Vgl. R. Carnap, Einführung in die Philosophie der Naturwissenschaft, München 1969, S. 236; Ε. Nagel, The Structure of Science, New York 1961, S. 97 ff.

10

1. Wissenschaft als Informationssystem

dieser Konzeption von der Existenz einer vollständig gedeuteten unproblematischen Beobachtungssprache ab. Carnap selbst hat jedoch sehr bald erkannt, daß es eine derartige völlig theorienfreie Beobachtungssprache selbst in ihrer primitivsten Form nicht geben kann 8 . Bereits die einfachsten der sogenannten „Dispositionsprädikate", wie etwa der Begriff „löslich", sind nicht selbstverständliche Beschreibungen der Sinneswahrnehmungen von Eigenschaften von Dingen, sondern beziehen sidi auf theoretisch vorausgesagte Vorgänge. Konkret gesagt: Im Unterschied zur Eigenschaft „weiß", der ein selbstverständlicher Begriff der primitiven Beobachtungssprache entspricht, sieht man einem Ding nicht von vornherein an, ob es die Eigenschaft „löslich" besitzt. Daraus ergibt sich, daß schon die einfachsten deskriptiven Begriffe komplizierte abstrakte Gebilde sind, die erst durch logische Operationen zustande kommen. Es ist ein wissenschaftsgeschichtliches Faktum, daß die Anzahl der empirischen, nur partiell und indirekt deutbaren „theoriebeladenen" Begriffe in allen empirischen Wissenschaftssprachen in dem Maße ständig zunimmt, in dem die direkte Beobachtung und Messung der Erfahrungsgegenstände durch die konstruktive Beobachtungstechnik ersetzt wird, was zur Folge hat, daß die Theorie der Meß- und Beobachtungsapparate in die empirische Erfahrung notwendig mit eingeht. Diese Schwierigkeiten in der Zweistufenkonzeption der Wissenschaftssprache bilden jedoch nicht den eigentlichen Ausgangspunkt der Kritik Sneeds am traditionellen Standpunkt. Selbst wenn hinreichend klar ist, was den empirischen Teil einer Theorie und was ihre rein logisdien Beziehungen ausmacht, so führt doch eine „logische Rekonstruktion" der wissenschaftlichen Theorie nach Meinung Sneeds lediglich zu einer „statischen Betrachtung einer erfahrungswissenschaftlichen Theorie", das heißt zu einer genauen Momentaufnahme einer bestimmten Theorie zu einer bestimmten Zeit 9 . Diese Auffassung der logischen Rekonstruktion ist aber viel zu beschränkt, um überhaupt für die Wissenschaft interessant zu sein. Die „wirklich interessanten Fragen", die sich auf die erfahrungswissenschaftliche Theorie beziehen, sind für Sneed die dynamischen Aspekte, 8

Vgl. R. Carnap, The Methodological Character of Theoretical Concepts, in: H. Feigl, M. Scriven, Minnesota Studies in the Philosophy of Science, Bd. I, 1956, S. 38 £F. • Vgl. Sneed, The Logical Structure of Mathematical Physics, S. 4.

Theorien als axiomatisdi-deduktive Systeme

11

„die Fragen des Wechsels, der Entwicklung, der Akzeptierung und Zurückweisung von Theorien", also Fragen einer „allgemeinen Methodologie". Entscheidend ist jedoch, daß Sneed im Unterschied zu allen anderen Kritikern der Wissenschaftslogik die Aussagenkonzeption der Wissenschaft zwar verwirft, den Systemcharakter wissenschaftlicher Theorien aber beibehält, und zwar im strengen Sinn des „axiomatischen Systems". Der Begriff des „axiomatischen Systems" ist weit genug, um von der Aussagenkonzeption unabhängig zu sein. Denn es lassen sich drei grundsätzliche Darstellungsformen des axiomatischen Systems unterscheiden 10 , die in sich zum Teil noch weiter differenziert 11 werden können. Das axiomatische System kann betrachtet werden: 1. als ein System von Aussagen, das aus zwei Teilklassen besteht, den sogenannten Grundsätzen oder Axiomen und den aus ihnen als logische Konsequenzen ableitbaren Folgesätzen. Damit ist die klassische Auffassung des axiomatischen Systems, das in einer natürlichen Sprache abgefaßt ist, wiedergegeben. Die unterschiedlichen Auffassungen über diesen Typ des axiomatischen Systems beziehen sich hauptsächlich auf die Interpretation der Axiome. So gibt die Hilbertsdie Axiomatik die Forderung nach Anschaulichkeit und Gewißheit der Axiome auf, die in der euklidischen Geometrie noch aufrechterhalten ist. Damit werden jedoch alle Folgerungen innerhalb des Axiomensystems von kategorischen Aussagen zu bloßen Wenn-Dann-Beziehungen. 2. als eine axiomatisierte deduktive Theorie in einer formalen Sprache. Der Unterschied zur ersten Darstellungsform besteht darin, daß in der formalen Axiomatik keine wortsprachlichen Ausdrücke mehr enthalten sind. £s handelt sich also um die Kalkülisierung der Theorie im Sinne der Beweistheorie. Die Probleme betreffen dabei nicht die Anschaulichkeit oder Gewißheit der Axiome, sondern die Widerspruchsfreiheit und Vollständigkeit. 3. als Definition eines mengentheoretischen Prädikats. Die Axiome sind in diesem Sinn nur Definitionsbestandteile des eingeführten mengentheoretischen Prädikats, das heißt, sie sind weder Aussagen oder Aussageformen, wie im ersten Fall, noch Formeln eines Kalküls, wie im zweiten Fall der 10 11

Vgl. ebenda, S. 5. Vgl. Stegmüller, Theorienstrukturen und Theoriendynamik, S. 34 ff.

12

1. Wissenschaft als Informationssystem

Darstellung des axiomatischen Systems. Das naheliegendste Beispiel für ein solches axiomatisches System ist die Axiomatisierung der Wahrscheinlichkeitstheorie durch Kolmogorow. Ebenso läßt sich aber audi die euklidische Geometrie oder die Zahlentheorie in dieser Form durch Einführung eines mengentheoretischen Prädikats wie „euklidische Struktur" oder „Progression" 1 2 darstellen. Für Sneed ist nun diese letzte, „nicht-linguistische" Konzeption des axiomatischen Systems die Grundlage seiner weiteren Überlegungen, die schließlich zu einer modelltheoretischen Darstellung der Struktur erfahrungswissenschaftlicher Theorien führen. Den Übergang zu dieser Form der Axiomatisierung bildet die sogenannte „Ramsay-Darstellung einer Theorie" 1 3 . Auf die Bedeutung des von Ramsay vorgeschlagenen Verfahrens haben vor allem R. B. Braithwaite 14 und R. Carnap 1 5 hingewiesen. Im Prinzip handelt es sich dabei um die Frage nach dem empirischen Gehalt einer erfahrungswissenschaftlichen Theorie: „Was sagt uns eine gegebene Theorie über die wirkliche Welt? Beschreibt sie die Struktur der realen Welt, oder ist sie nur ein abstraktes, künstliches Hilfsmittel, um eine Ordnung in die große Menge der Erfahrungen zu bringen?" 1 6 Ramsays Vorschlag bedeutet nun keine Lösung dieser Frage, sondern vielmehr eine völlige Beseitigung des Problems dadurch, daß genau jene Bestandteile einer wissenschaftlichen Theorie durch ein rein formales Verfahren eliminiert werden, die Anlaß zu dieser Frage geben, nämlich die theoretischen Begriffe. Dieses Verfahren besteht, kurz angedeutet, darin, daß alle theoretischen Begriffe durch willkürlich gewählte Klassen- und Relationsvariable einer formalen symbolischen Sprache ersetzt und miteinander so verbunden werden, wie die ursprüngliche, nichtformalisierte Theorie es verlangt. Nicht eliminiert werden dabei die empirischen Beobachtungsbegriffe. Diese werden aber ebenfalls nach bestimmten Zuordnungsregeln in die formale Darstellung eingeflochten. Dadurch entsteht ein in sich zusammenVgl. ebenda, S. 39. N a d i : F. P. Ramsay, The Foundations of Mathematics, London 1931. 14 Als Herausgeber von Ramsays Werk und in einer eigenen Arbeit: Scientific Explanation, Cambridge 1953. 1 5 Carnap, Einführung in die Philosophie der Naturwissenschaft, S. 246 ff. " Vgl. ebenda, S. 246.

11 18

Struktur- und Entwicklungsmodelle

13

hängendes Gebilde, das im Grunde genommen nidits anderes ist als ein „etwas umständlicher Ausdrudk f ü r die ursprüngliche Theorie", der sogenannte „Ramsay-Satz" dieser Theorie. Der einzige Vorteil dieser Darstellung ist die Möglichkeit, theoretische Begriffe durch rein logische Strukturzusammenhänge zu ersetzen, was allerdings die Hinzunahme einer komplizierten Logik höherer Ordnung erfordert, die praktisch die ganze Mathematik enthalten muß. Während Carnap diese durch eine komplizierte Logik „erweiterte Beobachtungssprache" f ü r die Formulierung nicht nur aller gegenwärtigen, sondern auch aller zukünftigen physikalischen Theorien für ausreichend hält, versucht Sneed das Ramsay-Verfahren so zu verbessern, daß die statische Struktur aller möglichen physikalischen Theorien nicht nur erfaßbar, sondern auch konkret anwendbar wird bei der Diskussion der eigentlichen wissenschaftstheoretischen Grundfragen. Diese Fragen sind Fragen der Methodologie, die primär den Wechsel und die Veränderung wissenschaftlicher Theorien betreffen. Solche Fragestellungen sind jedoch nur nach einer Preisgabe des „Statement view" 17 der „Aussagenkonzeption", mit der auch die RamsayDarstellung noch behaftet ist, lösbar. Die vollkommene Abstraktion von aller sprachlichen Darstellung, sei es der natürlichen Sprache oder sei es der formalen Sprache der Aussagenlogik, führt dazu, daß unter einer Theorie weder ein System von Sätzen noch ein einziges satzartiges Gebilde wie in der Ramsay-Darstellung, sondern nur ein „begriffliches Gebilde" 18 verstanden werden kann, das genauer als mengentheoretisches Prädikat oder als mathematische Struktur zu diarakterisieren ist. Diese mathematische Struktur soll auf „physikalische Systeme" 1 · angewendet werden. Bei der modelltheoretischen Explikation des Begriffes „mathematische Struktur" ergibt sich nun bei Sneed eine der systemtheoretischen Betrachtungsweise völlig adäquate dreifache Gliederung in: Strukturrahmen (frame), Strukturkern (core) und erweiterten Strukturkern (expanded core) 20 . Die zugrunde gelegte mathematische Struktur bildet dann dabei die Menge 17

Vgl. Sneed, The Logical Structure of Mathematical Physics, S. 261. Vgl. Stegmüller, Theorienstrukturen und Theoriendynamik, S. 75 ff. " Vgl. Sneed, The Logical Structure of Mathematical Physics, S. 156. 10 Vgl. ebenda, S. 171 if. Der dort angegebene formale Apparat präzisiert dieses anschauliche Grundmodell. 18

1. Wissenschaft als Informationssystem

14

aller möglichen Modelle. Als interpretierte mathematische Strukturen sind sie genau das, was man für gewöhnlich eine physikalische oder exakte naturwissenschaftliche Theorie nennt, das heißt eine Theorie, die sich bei der Formulierung ihrer Gesetze der Mathematik bedient. Damit ist ein begrifflicher Rahmen für die Lösung einer zentralen Aufgabenstellung der Wissenschaftstheorie geschaffen: für die Analyse des Phänomens der Theoriendynamik. Sneed beschränkt sich dabei allerdings auf ein bestimmtes Problem, nämlich auf die Rolle, welche die theoretischen Begriffe in diesem Prozeß spielen. Um aber dem Problem der Wissenschaftsdynamik gerecht werden zu können, muß der Ansatz von Sneed in doppelter Hinsicht erweitert werden: einerseits durch die Erweiterung des Systembegriffs und andererseits durch eine eingehendere Untersuchung der Rolle, die die empirische Erfahrung bei der Veränderung der Wissenschaft spielt. Der Systembegriff Sneeds weist nämlich eine doppelte Beschränkung auf: Er bezieht sich nur auf Theorien als axiomatische Systeme, und er wird ausschließlich auf die klassische mathematische Physik (Partikelmechanik) angewendet. Eine Erweiterung dieses Ansatzes zur allgemeinen systemtheoretischen Betrachtungsweise, die ja, wie bereits gezeigt wurde, aus der nichtdeterministischen, statistischen Mechanik und aus der organismischen Betrachtungsweise der theoretischen Biologie stammt, läßt sich nicht nur durch die modelltheoretische Darstellung der axiomatischen Theorie, sondern auch deshalb rechtfertigen, weil Sneed den Ausdruck „physikalisches System" bereits im systemtheoretischen Sinn, das heißt nicht nur zur Bezeichnung einer Menge von physikalischen Objekten, sondern auch zur Bezeichnung ihrer Beziehungen zueinander gebraucht. Das reale, materielle physikalische System besteht also aus den Elementen und ihren Relationen; und eine Theorie bezüglich dieses physikalischen Systems besitzen („having a theory") 21 , bedeutet nicht nur, Aussagen über dieses System machen zu können, sondern zugleich auch, ein Instrument zur Lösung von Problemen in der Hand zu haben. Bertalanffy selbst hat zwar bereits in einem sehr frühen Stadium des Ausbaus der Systemtheorie die Möglichkeit ihrer Anwendung auf das Phänomen der Wissenschaftsentwicklung sowohl in wissenschaftstheoretischer als auch, wie sein Hinweis auf 21

Ebenda, S. 261.

Struktur- und Entwicklungsmodelle

15

T. S. Kuhn zeigt 22 , in wissenschaftssoziologischer Hinsicht erwogen. Ein systemtheoretisches Modell der Wissenschaftsentwicklung hat jedoch erst E. Laszlo 23 geliefert. Bei der Darstellung dieses Modells geht Laszlo von einer Kritik der klassischen evolutionistischen Erklärungsmodelle aus, wie sie bereits sowohl in der älteren Wissenschaftstheorie, insbesondere bei Mach und Boltzmann, als auch in der gegenwärtigen Wissenschaftstheorie bei Kuhn, Popper und Toulmin vorliegen. Diese Auffassungen haben, so sehr sie sich sonst unterscheiden mögen, eines gemeinsam: Sie alle sind darwinistisdie Modelle, und zwar im Sinne des Darwinismus und nicht Darwins selbst. Modelle solcher Art arbeiten ausschließlich mit den Begriffen „Mutation" und „Selektion". Mutationen, das heißt Veränderungen in den Wissenschaften im Sinne eines Theorienwechsels, werden nach dieser darwinistisdien Auffassung durch die Freiheit des kreativen Denkens und durch die grenzenlose Neugierde des menschlichen Geistes erklärt; sie haben eine Überproduktion von Varianten einer Theorie für ein und denselben Gegenstands- und Problembereich zur Folge. Wie in der biologischen Evolution gibt es unter diesen Varianten eine natürliche Selektion: Die unbrauchbaren Theorien werden zugunsten der brauchbaren ausgeschieden. Brauchbare Theorien sind solche, die der ständigen Kontrolle und Nachprüfung durch die empirische Erfahrung standhalten. Mit diesem allgemeinen darwinistischen Modell der Wissenschaftsentwicklung durch Mutation und Selektion scheint ein Mechanismus gefunden zu sein, der sowohl Zufälligkeit als auch Notwendigkeit des wissenschaftlichen Forschungsprozesses erklären kann. Gegen dieses klassische darwinistisdie Modell hat jedoch Laszlo berechtigte Einwände anführen können. Das „Versagen" (failure) dieser Theorien liegt nach seiner Meinung in ihrer Unfähigkeit, die zukünftige Entwicklung der Wissenschaft vorauszusagen. Es handelt sich dabei aber um ein Versagen des Modells selbst. Denn eine darwinistisdie Theorie der Wissenschaftsentwicklung ist prinzipiell unfähig, Voraussagen hervorzubringen, die den zukünftigen Verlauf der Prozesse betreffen, den diese Theorie erklären will. Diese Diskrepanz zwischen Erklärung und Prognose, deren logische Gleichwertigkeit offensichtlich und leicht nachweisbar ist, kommt durch eine Erklä22

Vgl. L. v. Bertalanffy, General Systems Theory, New York 1968. Introduction, 3. Trend in Systems Theory. l * Laszlo, Α General Systems Model of the Evolution of Science.

16

1. Wissensdiaft als Informationssystem

rungslücke zustande, die weder Darwin selbst nodi der Darwinismus schließen konnte. Die Selektionstheorie erklärt zwar die Eliminierung unangepaßter Varianten, nicht aber das Entstehen von Varianten überhaupt. Lamarck hat den Vorgang der Variation durch Anpassung und Vererbung der durch Anpassung erworbenen Eigenschaften erklärt. Darwin selbst hat diese Erklärung übernommen und ist zumindest in diesem Punkt als Lamarckist anzusehen24. Der spätere Darwinismus, der sich in einen Gegensatz zum Lamarckismus stellte, hat im Zusammenhang mit der Mutationstheorie diese Situation noch verschärft. Denn dem Auftreten von Mutationen wurde der Charakter der Zufälligkeit und nicht der der Gesetzmäßigkeit zugesprochen. Bekanntestes Beispiel in der gegenwärtigen biologischen Literatur ist die Auffassung von Jacques Monod, für den die Mutation den Zufall, die Selektion die Notwendigkeit des Evolutionsprozesses repräsentiert. Daraus folgert Laszlo bezüglich der klassischen Erklärungsstruktur des Darwinismus, daß das Vorkommen von Mutationen25 unabhängig von irgendwelchen Gesetzen ist, die in dieser Theorie formuliert werden können, und daß deshalb das Zusammentreffen dieser zufälligen Mutationen mit Umweltfaktoren, die diesen Mutationen selektiven Wert verleihen, im Rahmen dieser Theorie frei von entdeckbaren Wechselbeziehungen sein muß: „Mutationen sind völlig zufällig bezüglich der natürlichen Selektion, und die Dynamik der Umgebungsfaktoren, die die geeignetesten Varianten aussuchen, ist zufällig bezüglich des Vorkommens der Mutation. Da somit alle relevanten Faktoren zufällig koordiniert sind, ist der Verlauf der Evolution in jedem besonderen Fall durch den Zufall beherrscht. Obwohl kausale Erklärungen der vergangenen Ereignisse möglich sind, sind Extrapolationen auf zukünftige Ereignisse durch die Struktur der Theorie blockiert."28 Nach Laszlo werden bei der Anwendung der klassischen darwinistischen Theorie auf den Prozeß der Wissenschaftsentwicklung Vgl. E. Oeser, System, Klassiiikation, Evolution, Wien-Stuttgart 1974, S. 95. 2 5 Laszlo weist in diesem Zusammenhang auf das Vermutungswissen Poppers hin, das er als paralleles Konzept zum Prozeß der Mutation ansieht. Denn audi die „conjectures" Poppers haben den Charakter der Zufälligkeit und Blindheit. 2 * Laszlo, Α General Systems Model of the Evolution of Science, S. 382.

24

Struktur- und Entwicklungsmodelle

17

zwei wesentliche Einsichten übersehen. Die eine Überlegung stammt aus der Biologie selbst, in der das darwinistische Modell des Evolutionsprozesses durch die systemtheoretische Betrachtungsweise verbessert worden ist27. Der andere Faktor liegt in der Natur der wissenschaftlichen Erkenntnis begründet, in der sehr viel klarer als im umstrittenen Bereich der biologischen Evolution die Entwicklungsfaktoren als relativ direkte kausale Wechselwirkungen erkennbar sind. Ein systemtheoretisches Modell der Wissenschaftsentwicklung stellt sich daher nach Laszlo die Gesamtdynamik des Wissenschaftswachstums als eine Wechselwirkung von System und Umgebung vor. Sind die hauptsächlichen Faktoren, die dem System als Möglichkeiten innewohnen, bekannt, dann können derartige Modelle nicht nur die vergangenen Entwicklungsstrukturen des Systems ex post facto erklären, sondern sind auch fähig, allgemeine Charakteristika zukünftiger Entwicklungen vorauszusagen, analog den anderen Anwendungsbereichen systemtheoretischer Modelle auf dem Gebiet der Biologie, der Soziologie und auf allen Gebieten wirtschaftlicher und kultureller Entwicklung. Das systemtheoretische Modell der Wissenschaftsentwicklung wird von Laszlo auf folgende Weise charakterisiert: Das beobachtbare und ableitbare (inferable) Universum wird als „Umgebung" (environment) und die Wissenssysteme der wissen-: schaftlichen Forschungsgemeinschaften als „offene Systeme" vorgestellt. Laszlo nennt die Umgebung „Natur" und das offene System „Wissenschaft". Natur und Wissenschaft bilden zusammen ein geschlossenes System, das nach dem zweiten Gesetz, der Thermodynamik in den wahrscheinlichsten Zustand übergeht. Im Unterschied zu Brillouin sieht aber Laszlo den Informationsprozeß von vornherein nicht als einen mit dem physikalischen Energieprozeß identischen, sondern lediglich analogen Mechanismus an, bei dem nicht klar ist, ob das Anwachsen der Information im System notwendig mit einem Anwachsen der Entropie in der Umgebung des Systems verbunden ist. Das nichtphysikalische Informationsverarbeitungssystem ist vielmehr ein sich selbst organisierendes System, das der Neigung zum statistischen Durchschnitt, zur Gleichwahrscheinlichkeit aller Zustände im System, durch bestimmte stabile Konfigurationen entgegen27

Laszlo schließt sich in diesem Punkt Dobzhanskys Kritik an J. Monods „Zufall und Notwendigkeit" an. Vgl. ebenda, S. 382; Th. Dobzhansky, Review in Science 175, Nr. 4017, S. 49 ff.

2

Oeser, Band 3

18

1. Wissenschaft als Informationssystem

wirkt. Dadurch entsteht ein „Gegenstrom", der sich gegen den Durchschnitt wendet und zu immer höheren Stufen der Stabilität aufsteigt. Diese „geschichtete Stabilität" (stratified stability) ist, wie Laszlo unter Berufung auf J . Bronowski ausführt, die Eigenart komplexer Systeme. Nicht das zweite Gesetz der Thermodynamik fixiert also bereits die Richtung des Zeitpfeils, sondern die Evolution zu höheren Schichten von Stabilität ist es, die den Zeitpfeil gewissermaßen mit einem „Widerhaken versieht, der ihn daran hindert zurückzulaufen" 2 8 . Auf die Wissenschaft als offenes System angewendet bedeutet das, daß in dem geschlossenen System „Wissenschaft-I-Natur" ein ständiges Fortschreiten zum Gleichgewichtszustand stattfindet, der notwendig mit einer anwachsenden Stabilität, das heißt einer Widerstandsfähigkeit der Wissensdiaft gegenüber Störungen von der N a t u r her verbunden ist. Die „ideale" oder „perfekte" Wissenschaft würde nach dem Modell Laszlos gänzlich der N a t u r angepaßt sein, das heißt, sie könnte alle empirischen „ I n p u t s " erklären und voraussagen. D a das jedoch ein unerreichbarer theoretischer Grenzfall ist, befindet sich die Wissenschaft ständig auf dem Weg einer Selbstorganisation zum jeweils nächsten Zustand des Gleichgewichts: „Inputs aus der N a t u r pressen auf einen Zustand der Wissensdiaft, der durch innere Zwänge beherrscht ist. D a s Zusammenpassen oder Nichtzusammenpassen des empirischen Inputs mit der innerlich gezwungenen, bereits bestehenden Theorie hat entweder die Bestätigung oder Nichtbestätigung der Theorie zur Folge. In letzterem Fall organisiert sich die Wissenschaft selbst zum nächsten Zustand des möglichen Gleichgewichts, der gegeben ist durch eine Art von Theorie, die den störenden empirischen Input absorbieren kann und doch mit den Wissenschaftsidealen der Forscher übereinstimmt." 2 · empirischer Input

->- bestehende Theorie

->- bewahrter oder neuer Zustand des Gleichgewichts

.Ideale der Wissensdiaft" Vgl. J. Bronowski, New Concepts in the Evolution of Complexity: Stratified Stability and Unbounded Plans, in: Zygon 5, 1970, S. 33 ff. ** Laszlo, A General Systems Model of the Evolution of Science, S. 388. 28

Netzwerkdarstellungen

19

Die „Ideale der Wissenschaft" sind für Laszlo die stabilisierenden Faktoren einer Wissenschaft. Nach diesen Idealen sollen wissenschaftliche Theorien aufgebaut sein, die gewissermaßen das tragende Gerüst einer Wissenschaft darstellen. Es sind dabei zwei grundsätzliche Werte, die nach Laszlo vor allem als bestimmend gelten müssen: 1. Empirische Adäquatheit (A), „ein Maß für die Anzahl von Fakten, über welche die Wissenschaft Rechenschaft ablegt, und für die Präzision, Detailliertheit und Voraussagekraft, womit sie ihre Rechenschaft liefert". 2. Integrative Allgemeinheit (generality=G), „ein Maß für die innere Folgerichtigkeit, Eleganz und Sauberkeit des erklärenden Rahmenwerkes . . . J e kleiner die Anzahl von Hypothesen bezüglich einer Anzahl von erklärten Fakten ist, desto größer ist die Allgemeinheit einer Theorie". Der „Gleichgewichtszustand zwischen diesen beiden Faktoren" (E) stellt jenen Zustand einer Theorie dar, bei dem die größtmögliche Anzahl von Fakten von der kleinstmöglichen Anzahl von Hypothesen abgeleitet werden kann. Damit ist für Laszlo eine allgemeine Basis für den Vergleich von Theorien gegeben. Denn wissenschaftliche Theorien können nun bezüglich des Grades miteinander verglichen werden, indem sie die Formel für den idealen Gleichgewichtszustand (A/G) E erfüllen. D a s Akzeptieren einer Theorie und das Zurückweisen einer anderen ist somit eine wohlbegründete rationale Entscheidung. Sowohl mit der von Sneed dargestellten Dynamik physikalischer Systeme als auch mit Laszlos systemtheoretischem Modell der Wissenschaftsentwicklung ist ein bereits durch Whewell, Mach, Boltzmann und Duhem behandelter Bereich wissenschaftstheoretischer Überlegungen zurückgewonnen worden, der von der linguistisch orientierten Wissenschaftslogik ausgeschieden worden ist. Während jedoch die älteren Wissenschaftstheoretiker gezwungen waren, ihre Ansichten vom dynamischen Systemcharakter in Metaphern zu kleiden oder aber in der psychologischen Terminologie auszudrücken, stehen dem Wissenschaftstheoretiker der Gegenwart schon eine Reihe von präzisen Hilfsmitteln modelltheoretischer Art sowie formale Techniken zur Verfügung, die sich durch die Entwicklung der neuen Kommunikationsmittel als praktische Notwendigkeiten ergeben haben. Das klassische Kommunikationsmittel der Wissenschaft, das geschriebene Wort, hatte den Systembegriff eindeutig auf das 2*

20

1. Wissenschaft als Informationssystem

Aussagensystem eingeengt und die klassische Wissensdiaftstheorie zu einer Disziplin gemacht, welche die logisch korrekte Darstellung eines Lehrbuchs (Bolzano) oder die Wissenschaftssprache (Carnap) zum Untersuchungsgegenstand hatte. Die neuen Kommunikationsmittel technischer Art haben jedoch den tatsächlichen Systemcharakter der Wissenschaft nicht erst geschaffen, sondern sie haben nur diese einseitige Beschränkung des Systembegriiis wieder aufgehoben. Denn der Begriff von „Wissenschaft" als sich selbst organisierendes Informationssystem ist keineswegs neu; ebenso wie die Einsicht in den dynamischen Prozeßcharakter dieses Systems nicht neu ist. Denn die Unterscheidung zwischen Wissenschaft als Forschungsprozeß und Wissenschaft als statisches Produkt ist so alt wie die Wissenschaft selbst. Die Darstellungsform der Wissenschaft in ihrem Prozeßcharakter ist sogar als die ältere und ursprünglichere anzusehen. Sie hat gegenüber den statischen, monologischen Aussagen- oder Ableitungssystemen dialogischen Charakter. Es ist der klassische Unterschied zwischen den Dialogen Piatons und den systematischen Lehrschriften des Aristoteles, der Unterschied zwischen den Meditationen des Descartes und den Discorsi Galileis, der übrigens in diesem Werk gezeigt hat, wie die dynamische, dialogische Form übergehen kann in das statische Endprodukt, in die axiomatische Theorie der terrestrischen Mechanik. Dieser Unterschied findet sich auch in den modernen Kommunikations- und Informationsverarbeitungsmitteln wieder. Dort ist es der Unterschied zwischen den algorithmischen Monologen der alten Rechenmaschinen und dem Dialogverkehr, der zwischen Menschen und Maschinen in computerisierten Wissensgebieten ablaufen kann. Verwendet man zur Bezeichnung der Wissenschaft den Ausdruck „Informationssystem" nicht nur im Sinne einer vagen Analogie, sondern im Sinne einer Wesensbestimmung, so läßt sich ein konkretes Darstellungsmittel angeben, welches das allgemeine Rahmenwerk zur Abbildung der Struktur und Dynamik wissenschaftlicher Systeme liefern kann: Es ist die bereits erwähnte Netzdarstellung, die aus dem Bereich der Informationssystemforschung stammt. Die Netztheorie bietet ein ebenso allgemeines wie präzises Instrument zur Organisation von Wissenssystemen. Sie ist allgemeiner als der von Sneed verwendete mengentheoretische Begriff der mathematischen Grundstruktur als einer „Matrix für eine Theorie der mathematischen Physik" und präziser als Laszlos Begriff vom „erklärenden Rahmen-

21

Netzwerkdarstellungen

werk", das nach dem Prinzip des Gleichgewichts von empirisdier Adäquatheit und integrativer Allgemeinheit konstruiert ist. Die Auffassung vom „Netzwerk des Wissens" ist bekanntlich sehr alt. Sie wurde sdion in der Antike nicht nur als intuitive Vorstellung, sondern auch als systematisches Werkzeug zur Organisation und Erweiterung des Wissens verwendet. Die Platonische Diairesis liefert das erste ausführliche Muster für die systematische Konstruktion von Begriffsnetzen. Es handelt sich zwar in den von Piaton selbst angeführten Beispielen, wie etwa die Bestimmung der Angelfischerei im Sophistes, immer nur um deduktive Definitionen, doch ist diese Deduktion kein monologischer Ableitungsprozeß, sondern ein ausdrücklich durdi die Dialogform manifestierter Entsdieidungsprozeß zwischen je zwei Alternativen. Am deutlichsten zeigt sich jedoch die Verwandtschaft des Platonischen Entscheidungsnetzes mit der modernen Auffassung der elementaren Entscheidung im Prozeß der Informationsverarbeitung bei der Darstellung des diabetischen Bildungsgesetzes der Zahlen. Piaton setzt nämlich an die Stelle der natürlichen Zahlenreihe ein dyadisches Schema analog der Diairesis der Ideen, die in endlich vielen Schritten zur genauen Bestimmung eines bestimmten Begriffes führt. Daraus geht, wie bereits H . Weyl 80 im Ansdiluß an J . Stenzel 31 gezeigt hat, ein Dualsystem in folgender Schreibweise hervor: 1

Durch ein solches Teilungsnetz kann Piaton das Zahlenkontinuum als eine Parallelreihe des logischen Kontinuums auffassen. Dieses Vorgehen ist, wie Weyl betont, alles andere als eine analytische Selbstverständlichkeit, es bedeutet vielmehr eine theoretische Konstruktion, die „die Mathematik davor bewahrt, 30

51

H . Weyl, Philosophie der Mathematik und Naturwissensdiaft, Mündien-Berlin 1928; zitiert wird nadi der 3., wesentlich erweiterten Aufl. München-Wien 1966, S. 86. J . Stenzel, Zahl und Gestalt bei Piaton und Aristoteles, 1924; 3. Aufl. Bad Homburg 1959.

22

1. Wissenschaft als Informationssystem

eine ungeheure Tautologie zu sein" 82 . Die Einzeldiairesen Piatons legen nahe, seine Netzdarstellung als „Begriffspyramide" zu bezeichnen und das metaphysisch-kosmologische Gesamtkonzept Piatons mit derselben intuitiven Vorstellung einer hierarchischen Struktur in Form einer Pyramide zu belasten. Tatsächlich bildet aber eine Koppelung der Einzeldiairesen weder eine Reihe von kleinen Pyramiden noch eine einzige große Pyramide, sondern es entsteht nach den Gesetzen der geometrischen Symbolik ein Vieleck, das um so eher in einen geschlossenen Kreis übergeht, je größer die Anzahl der Einzeldiairesen wird. Nimmt man noch die Überlegungen Piatons über die Grenze (Peras) und das Unbegrenzte (Apeiron) hinzu, so ist damit bereits das Grundschema der modernen Systemtheorie — System, Grenze und potentiell unbegrenzte Umgebung — erreicht. Piaton hat aber auch mit der Diairesis eine Methode für die Organisation des Systems des Wissens als eines begrifflichen Netzwerkes angegeben, in welchem sich der Grad der Sicherheit deutlich manifestiert. Denn die Spitzen der Pyramiden und damit das Zentrum des ganzen Systems werden bei Piaton durch die Ideen gebildet, die den Charakter ewiger, unveränderlicher Wahrheit beanspruchen. Gegen die Peripherie des gesamten Wissenssystems hin nimmt diese Sicherheit gradmäßig ab. Auch in diesem Punkt stimmen moderne Auffassungen vom logischen Netzwerk mit Piatons allgemeinerem Grundkonzept überein. So ist die von Quine 33 verwendete Modellvorstellung über unser Wissen als eine Art Netzwerk von miteinander verflochtenen Wahrheiten, die sich gegenseitig stützen, mit Piatons Begriffsnetzen durchaus zu vergleichen. Denn auch dabei wird der höchste Sicherheitsgrad in theoretisch bewiesenen Zusammenhängen gesehen. In der systemanalytischen Betrachtungsweise von Kunz und Rittel ergibt sich folgendes Bild des Quineschen Netzwerkes: „Die Peripherie dieses Netzwerks, das in seiner Gesamtheit keineswegs widerspruchsfrei und konsistent ist, entspricht den sogenannten unmittelbaren oder primären Erfahrungen und Meinungen, während seine inneren Bezirke abgeleiteten, erschlossenen Sachverhalten, Theo" Vgl. Weyl, Philosophie der Mathematik und Naturwissenschaft, S. 86. M Ψ. v. O. Quine, From a Logical Point of View, New York 1953, 2. Aufl. New York 1961.

Netzwerkdarstellungen

23

rien und Überzeugungen entsprechen." 34 Gegenüber dieser Auffassung der Wissenschaft als eines in verschiedenen Graden sicheren Netzwerks bietet die bereits erwähnte Netzdarstellung von C. A. Petri den Vorteil, die Grenze des sicheren Netzes durch Schnittstellen angeben zu können. Die Sicherung des Netzes durch den Aufweis von eindeutigen Verflechtungen, und zwar in Form von logischen Beziehungen, ist seit Piaton der eigentliche Sinn und die Zielsetzung aller systemtheoretischen Darstellungsversuche gewesen. Das kommt audi generell dadurch zum Ausdruck, daß in den bisher erwähnten systemtheoretischen Darstellungen des realen Phänomens Wissenschaft von einem stabilen Kern, einem durch feste und enge Verknüpfungen gebildeten Zentrum des Netzwerkes, die Rede ist. Dieses stabile Zentrum eines wissenschaftlichen Systems wird durch die axiomatischen Grundlagentheorien repräsentiert, die Veränderungen von außen so lange standzuhalten versuchen und die entsprechend diesen Veränderungen nur geringfügig modifiziert werden, bis sie durch andere Theorien ersetzt werden, die eine größere Stabilität garantieren. Diese Theoriendynamik ändert jedoch an der Gesamtstruktur des Netzwerks nichts, denn alle möglichen Theorien sind konkrete Modelle dieses Netzwerks, das sich in diesen Veränderungen stets neu organisiert. Hinter diesem Begriff des sich selbst organisierenden wissenschaftlichen Systems steht keine metaphysische Hypostasierung, sondern diese Selbstorganisation ist das Produkt von realen, konkreten Arbeitsprozessen aller derjenigen, die am konkreten Forschungsprozeß beteiligt sind. Eine solche Selbstorganisation der Wissenschaft ist jedoch nur durch die Integrierung aller parallel laufenden Arbeitsprozesse möglich, die aus der Wissenschaft als Informationssystem zugleich ein Kommunikationssystem macht. In einem solcherart systematisierten Wissensgebiet ist dann die inhaltliche Information ein objektiver, absoluter Wert, der durch die Gesamtmenge an Informationen eines Systems und nicht durdi einen subjektiven Benutzer bestimmt ist. M

Vgl. W. Kunz - H. Rittel, Systemanalyse und Informationsverarbeitung in der Forschung, München-Wien 1970, S. 35.

24

2. Die Basis erfahrungswissensdiaftlicher Erkenntnis

2. Die Basis erfahrungswissenschaftlidier Erkenntnis: Systemrelative Elementarinformationen Die erfahrungswissenschaftliche Erkenntnis ist auf Beobachtung und Experiment gegründet. Das bedeutet, daß sowohl der Beginn als auch das Ende eines jeden erfahrungswissenschaftlichen Erkenntnisprozesses in Informationen über die reale Außenwelt, über die Welt der Dinge, Sachverhalte und Vorgänge, liegen. Wo immer Beobachtungen und Experimente angestellt werden, werden Informationen über diese Welt gesucht; sei es, um induktiv zu neuen Erkenntnissen zu gelangen, sei es, um reduktiv durch Zurückführung auf die unmittelbare Erfahrung hypothetische Annahmen und theoretische Überlegungen zu bestätigen. Daher ist die entscheidende und grundlegende Frage, die das Basisproblem aller erfahrungswissenschaftlichen Erkenntnis bildet, die Frage nach dem Informationsgehalt. Die Frage nach dem Informationsgehalt ist, wie bereits ausführlich dargestellt wurde, zuerst im Bereich der Nachrichtentechnik aufgeworfen und durch die Shannonsche Theorie der Kommunikation beantwortet worden. Obwohl es sich auch beim Beobachter und Experimentator um einen Informationsempfänger handelt, besteht doch zwischen diesem Prozeß der Informationsgewinnung durch Erfahrungserkenntnis und dem Prozeß der Informationsübertragung im Sinne der Kommunikationstheorie ein wesentlicher Unterschied. Denn zwischen dem Beobachter und der ihm unbekannten Außenwelt besteht von Vornherein keine echte „Kommunikationsverbindung". Er empfängt weder Zeichen oder Signale als physikalische Verkörperungen von Nachrichten noch Wörter, Bilder oder Symbole. Die „Eindrücke", die er empfängt, sind spezifische Invarianten, auf die er seine besondere Aufmerksamkeit richtet. Mit dem psychologischen Begriff der „Aufmerksamkeit" 1 ist erkenntnistheoretisch nichts anderes gemeint als die aktive Tätigkeit des Erkenntnissubjekts als des dem Erkenntnisprozeß zugrunde liegenden Bezugssystems. In der Terminologie der Kommunikationstheorie gesprochen: Die reale Außenwelt kann als „Informationsquelle" nur durch die Tätigkeit des Informationsehipfängers, der eine Kommunikationsverbindung oder einen 1

Durch die „Aufmerksamkeitstheorie" Husserls wurde dieser Begriff bereits erkenntnistheoretisch umgedeutet. Vgl. E. Oeser, Begriff und Systematik der Abstraktion, Wien-Mündien 1969, S. 51.

Invariantenbildung und Konstanzleistungen

25

Kanal herstellt, funktionieren. Die einfachste und grundlegendste Tätigkeit, durch die ein solcher Informationsprozeß zustande kommt, ist die Bewegung, durch die sidi das Erkenntnissubjekt aktiviert. Information entsteht nur durch Bewegung. In und zwischen absolut ruhenden, statischen Systemen kann kein Informationsfluß entstehen, da alles unverändert bleibt. Bei der geringsten Bewegung wird jedoch alles prinzipiell veränderlich. Erkenntnis besteht in nichts anderem, als in diesem Chaos von Veränderungen das Unveränderliche zu erfassen und durch Hervorhebung zu isolieren. Diese Invariantenbildung ist ein Auswahl- und Entsdieidungsprozeß, der durch die Aktivität des Erkenntnissubjekts in Gang kommt. Die klassisdie empiristische Erkenntnistheorie hat sich, ebenso wie die Sinnesphysiologie, an der Passivität der Sinneswahrnehmung orientiert, wie die schon dargestellten Analogiemodelle kognitiver Funktionen — Schreibplatte, Spiegel, Fotoapparat etc. — deutlich machen. Zumindest aber seit Kant ist in der Erkenntnistheorie klar geworden, daß auch in den einfachsten Prozessen der Wahrnehmungserkenntnis die Spontaneität als aktiv ordnende Funktion nicht auszuklammern ist. Durch eine realistische Interpretation der Kantischen Erkenntnistheorie sind bereits Helmholtz und andere Physiologen im 19. Jahrhundert zur Einsicht gelangt, daß die Wahrnehmung wesentlich von der Aktivität des perzipierenden Sinnesapparats abhängt, der durch Invariantenbildung eine gewisse Konstanz hervorruft, die als Voraussetzung schon für die einfachste Wahrnehmungserkenntnis gilt. So ist zum Beispiel die Konstanz der Farbwahrnehmung ohne die Aktivität des Erkenntnissubjekts nidit erklärbar. Das Bild, das der Spiegel zurückwirft oder das die fotografische Platte entwickelt, ist ausschließlich durch das darauffallende Licht bestimmt. In der Wahrnehmung aber muß notwendig die bestimmte Farbe von den durch die Beleuchtungsbedingungen veranlaßten Farberscheinungen getrennt werden, nur so ist es möglidi, dieselbe Farbe unter den ständig wechselnden Bedingungen wiederzuerkennen. Diese „Wahrnehmungskonstanz" läßt sidi nicht nur an den Farbwahrnehmungen, sondern auch an der Wahrnehmung der Gestalt und Größe eines Gegenstandes feststellen. Mit der Entfernung eines Gegenstandes vom Auge werden die Netzhautbilder kleiner. Mit der Drehung und Rotation verändern sidi die Muster der nervösen Reizungen.

26

2. Die Basis erfahrungswissensdiaftlicher Erkenntnis

Trotzdem bleiben Gestalt und Größe des Gegenstandes für den Beobachter dieselben, da dieser zwischen einer tatsächlichen Veränderung und einer bloßen Verschiebung des Gegenstands relativ zum eigenen körperlichen Sinnesorgan unterscheiden kann. Mit jeder Wahrnehmung ist somit die Fähigkeit verbunden, unter den stets wechselnden Bedingungen von Sinnesreiz und Sinnesempfindung die „objektiven", invarianten Eigenschaften zu erkennen. Der Prozeß der Erkenntnisgewinnung durch Wahrnehmung ist daher als ein Prozeß der Objektivierung zu betrachten, der durch die Erfassung und Koordinierung von Invarianten hervorgerufen wird. Diese Konstanzleistungen sind jedoch weder mit der klassischen Sinnesphysiologie noch mit der klassisdien, auf der sogenannten „Reflextheorie" beruhenden Physiologie des Zentralnervensystems zu erklären. Erst das von E. von Holst und H . Mittelstaedt entdeckte Reafferenzprinzip hat jene fundamentalen Konstanzmechanismen deuten können, die Raum und Größe als invariante Eigenschaften der objektiven Umgebung erkennen lassen. Diese Konstanzleistungen, auf denen die Objektivität der Wahrnehmung beruht, ist das Ergebnis von Wechselwirkungen, die zwischen dem Zentralnervensystem (ZNS) und seiner Peripherie auftreten. Die Entdeckung des Reafferenzprinzips, von dem diese Wechselwirkungen bestimmt sind, hat aber nicht nur zu einem Bruch mit der klassischen psychophysiologischen Reflextheorie geführt, sondern ist auch für die Erkenntnistheorie von entscheidender Bedeutung. Denn dieses Prinzip besagt in erkenntnistheoretischer Hinsicht, daß „Objektivität" nicht durch passive Rezeptivität, sondern im Gegenteil durch eine verobjektivierende Grundleistung des Erkenntnissubjekts zustande kommt. Die Basis jeder wissenschaftlichen Erkenntnis sind daher weder die einfachen Sinnesempfindungen noch jene darauf beruhenden Protokollsätze, „welche in absoluter Schlichtheit, ohne jede Formung, Veränderung oder Zutat die Tatsachen aussprechen"2, sondern sie ist vielmehr ein Komplex invarianter Informationen, deren konstante Konfiguration das Ergebnis bereits sehr komplizierter Operationen darstellt. Das Faktum der parallel laufenden, sich gegenseitig erhellenden Entwicklungen der Erkenntnistheorie und der Physiologie der * M. Schlick, Über das Fundament der Erkenntnis, in: Erkenntnis IV, 1934, S. 79 f.

Das Reafferenzprinzip

27

Wahrnehmungsvorgänge läßt sich als eine Bestätigung jenes in der Einleitung propagierten Kriteriums von der Wahrheit wissenschaftlicher Erkenntnis als Übereinstimmung von Kontrollbereichen betrachten. Denn bereits vor der Erklärung jener Konstanzmechanismen in der Wahrnehmung durch das Reafferenzprinzip ist es in der Erkenntnistheorie durch Erklärungsversuche derselben Phänomene zu einer Annäherung der klassischen Extrempositionen sensualistischer Empirismus und aprioristischer Rationalismus gekommen. So hat auf der Seite der Empiristen V. Kraft 8 gerade auf Grund der Betrachtung soldier Konstanzphänomene an die Stelle der Madischen Empfindungstheorie und des Positivismus der Protokollsätze einen „konstruktiven Empirismus" gesetzt, während auf der Seite des Kantianismus E. Cassirer 4 bei der Analyse der Wahrnehmungskonstanzen zu einer Relativierung des Apriori geführt worden ist, die er dann in wissenschaftsgeschiditlidien Zusammenhängen noch entschiedener betont hat. Wenngleich die Problemstellung, von der E. von Holst und H . Mittelstaedt ausgegangen sind, sehr weit von erkenntnistheoretischen Fragestellungen entfernt zu sein scheint — es ging um Koppelungs- und Überlagerungserscheinungen, die bei der Lokomotionsrhythmik von Würmern, Fischen und Amphibien festgestellt wurden —, so ist doch von vornherein klar gewesen, daß das Wissen um die Funktion dieser Ordnungsmedianismen die Grundlage bilden kann für das Verstehen ähnlicher Mechanismen bei höheren Lebewesen und sogar beim Menschen. So weisen von Holst und Mittelstaedt ausdrücklich auf die „formal ganz ähnlichen" Phänomene hin, die „die Gestaltpsychologie für die vorbewußte Ordnung der Sinneswahrnehmungen aufdeckte" 5 . Solche vorbewußten Verhaltensmuster spielen nicht nur in der biologischen Verhaltensforschung (K. Lorenz) und der Psychologie (Campbell), sondern, wie schon am Beispiel von N . R. Hansons „Patterns of Discovery" gezeigt worden ist, audi in der Erkenntnis- und Wissenschaftstheorie eine entscheidende Rolle.

s

V. Kraft, Konstruktiver Empirismus, in: Zeitschrift für allgemeine Wissensdiaftstheorie, Bd. IV, 1973. * E. Cassirer, Psychologische Wahrnehmung und Gruppentheorie, in: Philosophische Perspektiven, Bd. 3, 1971, S. 12 ff. s E. v. Holst - H . Mittelstaedt, Das Reafferenzprinzip, in: Die Naturwissenschaften 37, 1950, S. 464.

28

2. Die Basis erfahrungswissenschaftlicher Erkenntnis

Der konkrete Untersuchungsgegenstand, den von Holst und Mittelstaedt als einführendes Beispiel gewählt haben, ist ein biologisch sehr einfach konstruiertes Lebewesen, die Fliege Eristalis. Bereits das Verhalten dieses Insekts ist jedoch von höchst komplizierten Ordnungsmechanismen bestimmt, die mit der alten Reflextheorie nicht zu erklären sind. Die Reflextheorie ist von folgender Fragestellung ausgegangen: „Welche gesetzmäßige Beziehung besteht zwischen den Impulsen, die, durch Reize veranlaßt, ins ZNS hineingelangen, und denen, die dann — direkt oder auf Umwegen — von dort wieder herauskommen, also zwischen der Afferenz und der Efferenz?" Die Auflösung dieses Problems durdi die Reflextheorie läßt „das ZNS unter dem Bild eines Automaten erscheinen, der für ein bestimmtes Geldstück ,reflektorisch' eine bestimmte Fahrkarte liefert". Auch die klassische sensualistische Erkenntnistheorie ist von dieser Vorstellung eines Reflexbogens beherrscht, der die Tätigkeit des Verstandes auf die Reproduktion von Kopien der Dinge der Außenwelt reduziert, hervorgerufen durch die Affektion der Sinnesorgane. Gegenüber dieser Auffassung stellt der von Kant eingeführte umgekehrte Ausgangspunkt, der von der Spontaneität des Erkenntnissubjekts ausgeht, tatsächlich eine „kopernikanische Wende" dar. Auch von Holst und Mittelstaedt charakterisieren ihre „neue Denkart" als eine „Blickwendung um 180 Grad": „Wir fragen nicht nach der Beziehung zwischen einer gegebenen Afferenz und der durch sie bewirkten Efferenz, also nach dem ,Reflex', sondern gehen umgekehrt von der Efferenz aus und fragen: was geschieht im ZNS mit der von dieser Eiferenz über die Effektoren und Rezeptoren verursachten Afferenz, die wir die ,ReafFerenz* nennen wollen?" 6 Die Beantwortung dieser Frage, die hier im einzelnen nicht referiert werden kann, bringt jedenfalls eine für die Erkenntnistheorie wesentliche Einsicht: Die Konstanz der objektiven Umgebung eines Lebewesens ist die Leistung eines verobjektivierenden „Verrechnungsapparates"7. Damit ist eine grundsätzliche Basis für die Lösung des allgemeinen Problems der Objektivität der Wahrnehmung gegeben. Denn nach von Hoists und Mittelstaedts eigenen Worten ist die „richtige" Meldung lediglich die Resultierende von zwei • Ebenda. 7 Vgl. K. Lorenz, Die Rückseite des Spiegels, München-Zürich 1973, S. 32.

Das Reafferenzprinzip

29

„falschen" Meldungen, die — im Experiment jederzeit aufzeigbar — für sich allein genommen den gleidien Charakter des „Richtigen" besitzen. Für ein niederes Zentrum, in das nur eine AfTerenz eintritt, sind alle Meldungen in gleicher Weise „richtig". Die Frage, ob eine Wahrnehmung auch „objektiv" richtig oder ob sie „Schein" ist, kann überhaupt erst auftaudien, wenn mehrere unterschiedliche Afferenzen zusammenkommen. „Objektiv richtig" heißt dann nichts anderes als: „Koinzidieren verschiedener Meldungen; als ,Schein' wird eine Meldung bewertet, die zu den anderen nicht paßt. Das niedrigste Zentrum ist in dieser Hinsicht unbedingt dumm — aber wir sollten bedenken, daß auch das höchste nie klüger sein kann, als seine Afferenzen es zulassen, deren jede einzelne ,täuschbar' ist!" 8 Mit diesen Äußerungen ist nicht nur eine konstruktive Methode für die Analyse komplexer Wahrnehmungsleistungen bei höheren Lebewesen aufgewiesen, die bis zu den in der Gestaltpsychologie (von Ehrenfels, M. Wertheimer, W. Köhler, W. Metzger) erörterten Konstanzleistungen führen, sondern wiederum eine Parallele zur Erkenntnistheorie als Abstraktionsoder Begriffsbildungstheorie erkennbar geworden. Denn audi die Abstraktionstheorie ist auf der Basis der Konstanzleistungen aufgebaut. Wie Lorenz deutlich gemacht hat, ist der biologischphylogenetisdie Weg, den die „Naturgeschichte menschlichen Erkennens" durchlaufen hat, derselbe, den die systematische Erkenntnistheorie beschreibt. Die Konstanzleistungen der Wahrnehmung sind „alle im Dienst der Ding-Konstanz entwickelt worden; der Selektionsdruck, unter dem dies geschah, wurde von der Notwendigkeit ausgeübt, bestimmte Gegenstände der Umwelt verläßlich wiederzuerkennen. Dieselben physiologischen Mechanismen, die uns dazu befähigen, sind nun erstaunlicherweise auch imstande, konstante Eigenschaften herauszuheben, zu abstrahieren, die nicht nur ein Ding, sondern vielmehr eine bestimmte Gattung von Dingen kennzeichnen. Sie vermögen von den Eigenschaften abzusehen, die nidit gattungskonstant sind, sondern nur einzelne Individuen auszeichnen. Mit anderen Worten, sie behandeln diese individuellen Merkmale als den akzidentellen Hintergrund, von dem sidi eine allen individuellen Vertretern der Gattung gemeinsam anhaftende und für sie alle konstante Gestaltqualität abheben * E. v. Holst - H . Mittelstaedt, Das Reafferenzprinzip, S. 475.

30

2. Die Basis erfahrungswissenschaftlidier Erkenntnis

läßt. Diese wird dann unmittelbar als Qualität der Gattung wahrgenommen."· Systemtheoretisch ausgedrückt heißt das, daß die bereits in der einfachsten Gestaltwahrnehmung vollbrachten Leistungen einer zwar noch nicht rationalen, aber zumindest „ratiomorphen" 10 Abstraktion und Objektivierung den noch einfacheren Funktionen der Konstanzwahrnehmung nicht nur verwandt sind, sondern auf diesen aufbauen, das heißt, sie enthalten diese als unentbehrliche Teilfunktionen. Die vorbewußte Gestaltwahrnehmung besitzt jedoch neue Systemeigenschaften, von denen die wesentlichste die Fähigkeit ist, Informationen zwecks späterer Auswertung zu speichern. Diese Fähigkeit ist zwar dem rationalen Gedächtnis analog, beruht aber nach Lorenz wahrscheinlich auf andersartigen physiologischen Voraussetzungen 11 . Mit diesen Analogien zwischen rationalen und ratiomorphen Leistungen hat Lorenz deutlich gemacht, daß die Abstraktions- und Objektivationsleistungen der Wahrnehmung zumindest funktionell Vorläufer der entsprechenden Funktionen des begrifflichen Denkens sind. Sie werden durch das rationale Denken keineswegs überflüssig, sondern bilden nadi wie vor dessen unentbehrliche Voraussetzungen und Bestandteile. Umgekehrt sind aber die „ratiomorphen Leistungen unabhängig vom begrifflichen Denken funktionsfähig, sie sind erdgeschichtlich uralt, denn man darf mit Sicherheit annehmen, daß die Netzhaut bei den Stegocephalen der Steinkohlenzeit prinzipiell gleiche Abstraktionsleistungen vollbracht hat, wie wir sie von der Netzhaut unserer Frösche kennen" 12 . Die informationstheoretische Analyse der ratiomorphen Wahrnehmungserkenntnis, die den methodischen Hintergrund für die Entdeckung des Reafferenzprinzips bildet, hat eine genaue Entsprechung in der erkenntnistheoretischen Einsicht, daß die objektive Erkenntnis der Außenwelt nidit in einer simplen Rezeption von „objektiven Sinnesdaten" besteht, sondern auf einem verobjektivierenden Verarbeitungsprozeß beruht. • Lorenz, Die Rückseite des Spiegels, S. 161. Diesen Terminus übernimmt K. Lorenz von E. Brunswik. Vgl. Die Rückseite des Spiegels, S. 163. 11 Vgl. Lorenz, Die Rückseite des Spiegels, S. 163, und: Gestaltwahrnehmung als Quelle wissenschaftlicher Erkenntnis, in: Über tierisches und menschliches Verhalten. Gesammelte Abhandlungen, Bd. II, 11. Aufl. München 1974. 11 Lorenz, Die Rückseite des Spiegels, S. 164. w

Systemrelative Informationen

31

Was dabei verarbeitet wird, sind nicht letzte einfache Gegebenheiten (Daten), sondern f ü r das erkennende System relevante elementare Informationen, die miteinander im Sinne entgegengesetzter Operationen verrechnet werden. Der Verrechnungsapparat des Zentralnervensystems — und nicht die sogenannte Rezeptivität der Sinnesorgane — ist also die Ursache f ü r objektive Erkenntnis. Diese verobjektivierende Methode der „entgegengesetzten Operationen" 1 8 findet sich auf allen Ebenen rationaler Erkenntnis wieder: in der Begriffs-, Hypothesen- und Theorienbildung. Begriffsbildung durch Abstraktion kann nur deswegen als Grundlage objektiver, rationaler Erkenntnis gelten, weil auch in ihr eine Verrechnung stattfindet, wie bereits Vaihinger gerade am Beispiel der mathematischen „Denkhandlungen" deutlich gemacht hat. Die Lösung mathematischer Aufgaben durch Gleichungen beruht auf der Methode entgegengesetzter Fehler. Um zum Beispiel Ellipse und Kreis gleichsetzen zu können, muß zunächst ein logischer Fehler in Kauf genommen werden: die Gleichsetzung zweier verschiedener geometrischer Gebilde. Dieser Fehler wird durch einen zweiten wieder abgerechnet: „Wenn ich sage: der Kreis ist eine Ellipse, so ist dies offenbar ein Fehler; indem ich aber sage: deren Brennpunkte die Distanz = 0 haben, bekommt der Satz einen Sinn. Aber wodurch? Noch einmal durch einen Fehler! Denn Distanz = 0 ist ein logischer Nonsens. Eine Distanz = 0 ist ja eben keine Distanz." 1 4 Vaihingers Beispiel ist keineswegs trivial, wie es zunächst vielleicht erscheinen mag, denn durch eine derartige „heuristische Fiktion", das heißt durch Einführung einer stellvertretenden Hypothese (hypothesis vicaria), die ebenfalls nur eine Hilfsvorstellung ist, ist auch das erste Keplersdie Planetengesetz gefunden worden 15 . Historische Beispiele dieser Art bringt Vaihinger selbst: Fermats „Kunstgriff" zur Lösung einer algebraischen Aufgabe, bei der gleichfalls Fehler durch entgegengesetzte Fehler beseitigt werden, oder die Einführung der Newtonschen Fluxionsrechnung, die schon Berkeley als Resultat eines doppelten Fehlers erkannt, aber fälschlicher13

14 111

Ein Ausdruck, der von H. Vaihinger stammt, bei diesem allerdings mit einem Fiktionalismus belastet ist. Vgl. Die Philosophie des Als-Ob, Leipzig 1922, S. 204. Ebenda, S. 199. Vgl. K. Hübner, Was zeigt Keplers „Astronomia Nova" der modernen Wissenschaftstheorie?, in: Phil. Nat., Bd. 11, 1969.

32

2. Die Basis erfahrungswissenschaftlidier Erkenntnis

weise verworfen hat, weil er nicht begriff, daß die Verdoppelung eines Fehlers im Sinne einer entgegengesetzten Operation die Beseitigung dieser beiden Fehler bedeutet 16 . Mathematische Beispiele dieser Art zeigen am deutlichsten den methodischen Charakter nidit nur der wissenschaftlichen, sondern audi der alltäglichen Erkenntnis 17 . Das Ziel der Erkenntnis, die Erfassung der objektiven Wirklichkeit, wird gerade durch die Veränderung des „Gegebenen" erreicht. Diese Veränderung ist jedoch keine willkürliche Veränderung, sondern eine methodische Entscheidung in einem Prozeß der Verrechnung von Informationen. Damit bestätigt sich ein alter Grundsatz der klassischen Abstraktionstheorie, daß der, der abstrahiert, keinen Fehler begeht, wenn er weiß, daß er abstrahiert: abstrahentium non est mendacium 18 . Wenn Erkenntnis definiert wird als die Veränderung des „Gegebenen", dann wird damit deutlich, daß der Erkenntnisprozeß seinen Ausgang nicht von unveränderlichen Daten, sondern von elementaren Informationen nimmt, die zu einer Entscheidung führen. Als Grundlage für Entscheidungen sind Informationen relativ zur Instanz, die die Entscheidung trifft. Dieses Bezugssystem für Informationen kann verschieden interpretiert werden. Ist es ein konkretes, lebendiges System, Tier oder Mensch, dann ist auch die Information individuell. Bezogen auf ein bestimmtes Subjekt, den Benutzer der Information, kann sie als „subjektive" Information bezeichnet werden, die jedoch zur „objektiven" Information werden kann, wenn sie in ein abstraktes, intersubjektives Informationssystem eingeordnet wird. Als objektive Information muß sie aber eine bestimmte Bedingung erfüllen, die vom Informationssystem abhängt: Sie muß im Rahmen dieses Systems zu einer objektiven Entscheidung führen, das heißt, sie muß die Struktur des Informationssystems verändern. Wissenschaft als Informationssystem betrachtet, bedeutet nicht ein Aggregat von einzelnen Daten, keinen Speicher für empirische Fakten, sondern im Gegenteil ein Instrument zu deren „Herstellung" im Sinne der abstrakten Operationen retrospektiver und prognostischer Erklärung. Die Astronomie ist bei-

" G. Berkeley, The Analyst, 1734. 17 Vgl. Vaihinger, Die Philosophie des Als-Ob, S. 204. 18 Th. v. Aquin, Summa theol. I, q 7, a 3, ob 1. Übersetzung des Aristotelischen: οΰδέ γίγεται ψεΰδος χωριζόντων, Physik 193 b, 35. Vgl. Oeser, Begriff und Systematik der Abstraktion, S. 212.

Systemrelative Informationen

33

spielsweise nicht die Sammlung von Beobachtungen und Fakten über Sonnenauf- und -Untergänge, über die Stellungen der Planeten usw., sondern sie ist als Wissenschaft ein System von Gesetzen und Anweisungen zur Berechnung solcher Phänomene in ihrer Besonderheit und Individualität, das heißt in ihrer Veränderlichkeit. Keine empirische Wissenschaft als Informationssystem enthält jedoch, audi wenn sie noch so sehr mathematisiert ist, nur strukturelle Informationen, sondern auch empirische Konstanten, das heißt systemrelative metrische Informationen verschiedenen Allgemeinheitsgrads. So sind zum Beispiel die „Bahnelemente" eines Planeten als empirische, metrische Informationen notwendige Bestandteile einer Theorie des Sonnensystems, die der Berechnung und Voraussage der empirisch beobachteten Planetenpositionen dient. Allgemeiner als diese „individuellen" Konstanten sind etwa die allgemeinen Konstanten der Physik, die deskriptiv-metrische Informationen über die Natur darstellen 19 . Die Entscheidung, welche empirischen Informationen notwendige Bestandteile einer Wissenschaft als Informationssystem sind und welche nicht, mag im einzelnen einer genauen Untersuchung bedürfen, doch ist diese Frage grundsätzlich keineswegs unlösbar, wie es die Scientiometrie (Wissenschaftsmessung und Wissenschaftsstatistik) mit ihrer These von der Übersättigung an Informationen behauptet hat 20 . Denn jedes Informationssystem ist, wie schon Mach wußte, nach dem Ökonomieprinzip aufgebaut, das besagt, daß berechenbare oder ableitbare empirische Informationen nicht in den internen Speicher des Informationssystems gehören. Die These von der Systemgebundenheit oder Systemrelativität der wissenschaftlichen Information verbindet auch alle Versuche, über den bloß statistischen Informationsbegriff der Shannonschen Kommunikationstheorie hinauszugehen: sei es zu einer Theorie der semantischen Information (Bar-Hillel, Carnap), sei es zu einem wissenschaftlich-deskriptiven Informationsbegriff (MacKay). So hat Bar-Hillel ausdrücklich darauf hingewiesen, daß die semantische Information als solche nichts mit den statistischen Entropievorstellungen zu tun habe, die er mit einem von Carnap stammenden Begriff als „qualifizierten Psychologismus" bezeichnet. Denn die reine Semantik als logische Disziplin definiert den Informationsbegriff als völlig 20

Vgl. die Spekulationen Eddingtons über die Naturkonstanten. Vgl. D. J. de Solla Price's These von der satured science, in: Little Science, Big Science, Frankfurt/M. 1964.

3 Oeser, Band 3

34

2. Die Basis erfahrungswissenschaftlicher Erkenntnis

unabhängig von jedem Beobachter als einen rein logisdien Begriff. Als solcher ist er selbstverständlich auch völlig frei von jeglichem Problem der Übertragung von Information, das in diesem Zusammenhang nur zu Mißverständnissen, Konfusionen und nutzlosen Diskussionen führen würde: „Man ist erstaunt zu lesen, daß Brillouin, eine Autorität auf dem Gebiet des Kommunikations-Ingenieurswesens, ernsthaft die Frage aufwirft, woher die Information, die in einem bestimmten Buch enthalten ist, stammt, da der Autor dieses Buchs im allgemeinen diese Information nidit .verliert', und ob diese Information durch den einfachen Vorgang des Druckens nicht aus dem Nichts multipliziert wird." 21 Die semantisdie Information ist ausschließlich abhängig von jenem künstlichen Sprachsystem, das als eine mögliche Zustandsbeschreibung eines möglichen Universums zu betrachten ist. Das bedeutet aber auch, daß innerhalb dieses Systems die algorithmische Verarbeitung von Informationen nicht zu „neuen" Informationen führt; die Lösungen stellen vielmehr nur Transformationen der Informationen dar, die implizit im ursprünglidien Ansatz enthalten waren. Wenn Bar-Hillel die These von der Unwahrscheinlichkeit bzw. Unsicherheit einer Information als ein Kriterium für deren Bedeutung und für deren Gehalt bejaht, dann nur im Sinne der Berechenbarkeit der Information aus dem vorgegebenen System; die Möglichkeit der Berechnung ist dabei völlig unabhängig von jedem Kommunikationsprozeß. Nach der induktiven Logik, auf die sich die Theorie der semantischen Information stützt, fällt die höchste Wahrscheinlichkeit mit der vollständigen deduktiven Ableitbarkeit zusammen. Die partielle logische Implikation ist zur totalen Implikation geworden; eine totale Implikation erweitert jedoch den semantischen Informationsgehalt eines Systems nicht. Die präzise Begründung der Systemrelativität der objektiven semantischen Information dürfte aber das einzig greifbare praktische Resultat der Theorie der semantischen Information sein. Damit scheinen ihre Erklärungsmöglidikeiten erschöpft zu sein. MacKay hat daher mit Recht die Notwendigkeit einer deskriptiven Semantik des wissensdiaftlidien Informationsbegriffs betont, der nidit aus dem Zusammenhang der empirischen Erfahrung als eines Informationsprozesses gerissen werden kann. !1

Y. Bar-Hillel, Language and Information, Reading, Mass.-Palo Alto-London-Jerusalem 1964, S. 292.

Systemrelative Informationen

35

Die Systemrelativität jeglichen erfahrungswissenschaftlichen Erkenntnisprozesses ist bei MacKay durch die These von der „totalen Information", die aus dem metrischen und strukturellen Informationsgehalt besteht, ausgesprochen. Der strukturelle Informationsgehalt bezeichnet dabei den apriorischen Aspekt des Informationsprozesses, ohne den der vom System unabhängige metrische Informationsgehalt gar nicht erfaßt werden könnte. MacKay verweist in diesem Zusammenhang nachdrücklich auf K a n t : „Kant war es, der sagte: ,Der Verstand hat Einsicht nur in das, was er nadi seinem eigenen Plan hervorbringt.' Der Plan eines Experiments ist wesentlich die apriorische Spezifizierung eines ,pattern' bzw. von Kategorien, mit deren Hilfe allein das Resultat beschrieben werden kann. Alle Ereignisse des Experiments müssen in der einen oder anderen von ihnen einen Platz finden, obwohl natürlich nidit alle Kategorien notwendigerweise ein Beispiel in einem gegebenen Experiment finden werden." 2 * Im Unterschied zu Bar-Hillel und Carnap ist daher MacKay der Meinung, daß sich die Theorie der semantisdien Information nicht von einer „allgemeinen Theorie der Information" 2 8 , die auch das von Shannon behandelte Problem der Übertragung von Information bzw. des Informationsflusses enthalten muß, trennen läßt. Erfahrungswissensdiaftliche Erkenntnis ist kein universales Struktursystem, sondern bildet nur in systematischer Weise einen Teilbereich der Wirklichkeit ab. Die reale Außenwelt ist als die Umgebung des abstrakten Systems der Erfahrungswissenschaft anzusehen, das heißt als das Reservoir potentieller Informationen, die dem System durch geplante Beobachtung und auf dem Wege vorstrukturierter Experimente zufließen können. Jede Information ist damit von vornherein und ex definitione systemrelativ. Denn das, was als „rohe Fakten", als „Daten" oder als „Gegebenes" bezeichnet wird, kann als potentielle Information nur im Hinblick auf ein Bezugssystem verstanden werden, das durch den „Filter" seiner Randelemente und Kanäle den Zufluß potentieller Informationen von vornherein bestimmt. Das Begreifen der Wirklichkeit — nicht nur in der wissenschaftlichen, sondern audi in der vorwissenschaftlichen a

D.M. MacKay, Quantal Aspects of Scientific Information, in: Philosophical Magazine 1950, 41, S. 296. " Vgl. D. M. MacKay, Information, Medianism and Meaning, Cambridge, Mass.-London 1969, S. 83. 3*

36

2. Die Basis erfahrungswissenschaftlicher Erkenntnis

Erfahrung — ist daher in des Wortes eigentlicher Bedeutung tatsächlich als ein „Ergreifen" der Wirklichkeit, das heißt als ein Zugriff des Systems zu verstehen, in das nichts auf rätselhaft „ungewollte" Weise eindringen kann. Erkenntnis als ein Informationsfluß ist also ein systembedingter Zusammenhang. Das bedeutet aber auch, daß sich das System selbst durch diesen Prozeß bei jeder echten Information, die als soldie immer eine „neue" Information sein muß, in seiner Struktur verändern wird. Nur die redundante Information, das heißt die Beobachtung des Gleichen, ändert an der Struktur des Informationssystems nichts; sie wird klaglos und problemlos vom System geschluckt und dient der Stabilisierung der Struktur. Die eigentliche Information dagegen bringt immer Innovationen mit sich, die das System selbst betreffen. Denn Informationen werden gesucht, um eine strukturverändernde Entscheidung im Gesamtzusammenhang des Systems zu ermöglichen. Jede Information, die dem System zufließt, ist daher eine geplante Veränderung. Daran ändert audi die als historisches Faktum nachweisbare Tatsache nichts, daß die geplante Information, die dem Plan nicht entspricht, audi zu Strukturveränderungen im System führt, die freilich nicht vorauszusehen und beabsichtigt waren. Doch auch in solchen Fällen muß sidi die Struktur des gesamten Systems den neuen „Gegebenheiten" anpassen. Das ist jedoch ein Vorgang, der zwangsläufig geschieht. Denn alle neuen „Gegebenheiten" sind als Informationen Entscheidungselemente des Veränderungsprozesses. Solche Entscheidungselemente können und müssen sich nach dem Gesetz vom zureichenden Grund summieren, um eine Veränderung im Informationssystem hervorzurufen 24 . Trifft diese Veränderung den harten Kern des Informationssystems, das heißt die Grundbegriffe der axiomatisdien Grundlagentheorie eines erfahrungswissenschaftlichen Systems, dann ist eine andere Art von Information als diejenige, die aus der realen Umgebung dem Informationssystem zufließt, zur Wiederherstellung des Systems nötig. Diese Information ist die strukturelle apriorische Information, die als logisches „Pattern" aus den Bedingungen des Systems selbst erzeugt werden muß. Auch das strukturelle Apriori — und nur ein solches und kein empirisch-inhaltliches kann es geben — ist daher keine absolut statische Gegebenheit im Sinne von un84

Diese Überlegung beruht auf einer mündlidien Mitteilung C. A. Petri.

von

Systemrelative Informationen

37

problematischen, evidenten ersten Gründen, Prinzipien oder Kategorien. Es kann vielmehr im Rahmen eines Systemzusammenhanges geschichtlich relativiert werden 25 . Der apriorische und der aposteriorische Informationsgehalt eines erfahrungswissenschaftlichen Systems stehen somit in einem dynamischen Wechselwirkungsverhältnis, das die Geschichtlichkeit eines Systems im Sinne eines irreversiblen Prozesses ausmacht. Bei dem bisher Gesagten ist jedoch streng zu beachten, daß die Kennzeichnung der Wissenschaft als „Informationssystem", falls sie nicht nur eine belanglose Metapher sein soll, einen Ausgangspunkt bedeutet, der vor jeder anderen metatheoretischen Charakterisierung der Wissenschaft als „Begriffssystem" oder „Aussagensystem" liegt. Das bedeutet, daß auch die deskriptive Semantik des Informationsbegriffs nicht verwechselt werden darf mit einer Lehre von der Bedeutung von Elementen der Wissenschaftssprache, nämlich von Begriffsworten oder Sätzen. Daher ist auch die strukturelle, apriorische Information nicht mit apriorischen Begriffen oder „Kategorien" im ursprünglich sprachorientierten Sinn als „Aussageweisen" gleichzusetzen. Ebenso wie die metrische aposteriorische Information nicht mit metrischen Begriffen verwechselt werden darf. Ein Begriff im Sinne eines sprachlich fixierten Gebildes stellt immer schon die totale Information dar, die sowohl aus dem apriorischen als auch aposteriorischen Informationsgehalt besteht. Das strukturelle Apriori des Informationsgehalts läßt sich daher als solches nicht ohne Relativierung in ein sprachliches Mitteilungssystem, wie etwa eine „Kategorientafel", übersetzen, die in der mehr als zweitausendjährigen Geschichte der abendländischen Philosophie von Aristoteles bis Kant ständige Veränderungen bezüglich der Zahl und Anordnung erfahren hat. Der Ursprung der Kategorien liegt in den Strukturgesetzen der logischen Operationen, das heißt in Handlungen, die nur in realen Erkenntnisprozessen auftreten können und notwendig durch diese relativiert werden. Die metrische Information wird von MacKay nicht deswegen als „metrisch" oder „quantitativ" bezeichnet, um alle empi25

Die Relativierung des Kantischen Apriori wurde bereits ausdrücklich von E. Cassirer sowohl durch seine wissenschaftsgeschichtlichen als auch systematischen Untersuchungen vollzogen. Vgl. Das Erkenntnisproblem in der Philosophie und Wissenschaft der neueren Zeit, Berlin 1911 ff., und: SubstanzbegrifF und Funktionsbegriff, Berlin 1910.

38

3. Begriffsbildung durch Abstraktion

rische Erfahrung auf die mathematische Begriffsbildung reduzieren zu können, sondern weil er erkannt hat, daß der fundamentalste wissenschaftliche Begriff, der Begriff des „Informationsgehalts", unter dem Aspekt der Kommunikation, das heißt seiner Übertragbarkeit, grundsätzlich „quantal" ist2®. Die Interpretation und Verallgemeinerung dieser von MacKay 1949 zum ersten Mal vertretenen These macht nadi der ausdrücklichen Formulierung des Reafferenzprinzips (1950) keine Schwierigkeiten mehr. Von MacKay ist sie zwar primär im Hinblick auf die optischen Beobachtungsgeräte formuliert worden, ein Ausgangspunkt, der auch den Überlegungen Brillouins zugrunde liegt 27 . Die Anwendung der informationstheoretischen Betrachtungsweise in der Physiologie des Zentralnervensystems hat jedoch diese These weit über den bloß technischen Aspekt hinaus bestätigt. Dadurch ist klar geworden, daß bereits bei dem einfachsten ratiomorphen Erkenntnisverhalten der niedrigen Tiere komplexe Verrechnungsvorgänge stattfinden. Und dadurch ist auch klar geworden, daß die Konstanz- und Abstraktionsleistungen des begriffsbildenden Denkens auch bei der Herstellung höchst einfacher, qualitativer „abbildender" Begriffe in der Alltagserfahrung und in bloß deskriptiven, prätheoretischen Wissensgebieten auf einem sehr komplizierten quantitativmetrisch bestimmbaren Verrechnungsmechanismus beruhen, durch den erst das entsteht, was man Begriff nennt: ein komplexes Gebilde oder Schema strukturell verdichteter Informationen, die als das Produkt einer nicht nur zusammenfassenden, sondern audi konzentrierenden Tätigkeit zu verstehen sind: der Abstraktion.

3. Begriffsbildung durch Abstraktion: Die erste Stufe der Informationsverdichtung Die Prozesse der Informationsgewinnung, der Verarbeitung, Speicherung und Übertragung von Informationen, sind, wie die Anwendung der informationstheoretischen Analyse in den verschiedensten erfahrungswissenschaftlichen Disziplinen, insbesonle

Vgl. MacKay, Quantal Aspects of Scientific Information, S. 289. " Auf diese Übereinstimmung weist MacKay selbst hin. Vgl. Structural Information-Capacity of Optical Instruments (1958), in: Information, Mechanism and Meaning, S. 186.

38

3. Begriffsbildung durch Abstraktion

rische Erfahrung auf die mathematische Begriffsbildung reduzieren zu können, sondern weil er erkannt hat, daß der fundamentalste wissenschaftliche Begriff, der Begriff des „Informationsgehalts", unter dem Aspekt der Kommunikation, das heißt seiner Übertragbarkeit, grundsätzlich „quantal" ist2®. Die Interpretation und Verallgemeinerung dieser von MacKay 1949 zum ersten Mal vertretenen These macht nadi der ausdrücklichen Formulierung des Reafferenzprinzips (1950) keine Schwierigkeiten mehr. Von MacKay ist sie zwar primär im Hinblick auf die optischen Beobachtungsgeräte formuliert worden, ein Ausgangspunkt, der auch den Überlegungen Brillouins zugrunde liegt 27 . Die Anwendung der informationstheoretischen Betrachtungsweise in der Physiologie des Zentralnervensystems hat jedoch diese These weit über den bloß technischen Aspekt hinaus bestätigt. Dadurch ist klar geworden, daß bereits bei dem einfachsten ratiomorphen Erkenntnisverhalten der niedrigen Tiere komplexe Verrechnungsvorgänge stattfinden. Und dadurch ist auch klar geworden, daß die Konstanz- und Abstraktionsleistungen des begriffsbildenden Denkens auch bei der Herstellung höchst einfacher, qualitativer „abbildender" Begriffe in der Alltagserfahrung und in bloß deskriptiven, prätheoretischen Wissensgebieten auf einem sehr komplizierten quantitativmetrisch bestimmbaren Verrechnungsmechanismus beruhen, durch den erst das entsteht, was man Begriff nennt: ein komplexes Gebilde oder Schema strukturell verdichteter Informationen, die als das Produkt einer nicht nur zusammenfassenden, sondern audi konzentrierenden Tätigkeit zu verstehen sind: der Abstraktion.

3. Begriffsbildung durch Abstraktion: Die erste Stufe der Informationsverdichtung Die Prozesse der Informationsgewinnung, der Verarbeitung, Speicherung und Übertragung von Informationen, sind, wie die Anwendung der informationstheoretischen Analyse in den verschiedensten erfahrungswissenschaftlichen Disziplinen, insbesonle

Vgl. MacKay, Quantal Aspects of Scientific Information, S. 289. " Auf diese Übereinstimmung weist MacKay selbst hin. Vgl. Structural Information-Capacity of Optical Instruments (1958), in: Information, Mechanism and Meaning, S. 186.

Begriff als Informationsverdiditung

39

dere in der Sinnesphysiologie, der Physiologie des Zentralnervensystems und im Bereich der Theorie der Rechenautomaten gezeigt hat, keine neuen und spezifischen Leistungen der menschlichen Erkenntnis. Nur die Begriffsbildung selbst und ihre sprachliche Fixierung zum Zweck der Mitteilung oder logisdien Verarbeitung im Denken stellt das Eigentümliche menschlicher Erkenntnis und Wissenschaft dar. Die Begriffsbildung ist jener elementare Erkenntnisprozeß, der die Voraussetzung für alle weiteren, komplexeren Erkenntnisprozesse in den Wissenschaften bildet. Dieses Verfahren der Begriffsbildung ist die Abstraktion. Abstraktion bedeutet die Auswahl und Verknüpfung von Teilinformationen zu einem allgemeinen Informationsmuster. Dieses allgemeine Informationsmuster ist primär eine Konfiguration von invarianten Ähnlichkeitsbeziehungen, die zu einem selbständigen Schema verdichtet worden sind. Voraussetzung für diesen Prozeß der Verdichtung von Teilinformationen ist eine Konstanzerfahrung, die sich in der wechselseitigen Abhängigkeit dieser invarianten Teilinformationen in ihrem faktischen Auftreten äußert, worin auch die einzige Garantie besteht, daß die menschliche Erkenntnis die reale Wirklichkeit adäquat abbildet. An die Stelle einer linguistizistischen Auffassung des „Begriffs" als sprachliches Gebilde, das als solches nicht von der Bezeichnung „Wort" abgelöst werden kann, tritt damit eine nichtlinguistische, spezifisch erkenntnistheoretisch-logische Definition des Begriffs als „Informationsverdichtung". Dadurch ist für die Erkenntnistheorie ein Ausgangspunkt gewonnen, der methodisch noch vor der „Spradianalyse" liegt, die im 20. Jahrhundert als ein Ersatz für die naiv-psychologistische Auffassung der Erkenntnistheorie des 19. Jahrhunderts eingeführt worden ist. Daß der Übergang vom sensualistisch-psychologistischen Positivismus zum „logischen Positivismus" der Sprachanalyse, wie er sich historisch in den beiden Phasen des Wiener Kreises dargestellt hat, keine endgültige Lösung bedeuten konnte, ist besonders am Problem der empirischen Beobachtungssprache klar geworden. Die Selbstverständlichkeit der primitiven Beobachtungssprache erweist sich keineswegs als die erkenntnistheoretisch nicht mehr hintergehbare Basis erfahrungswissenschaftlicher Erkenntnis. Denn diese „Selbstverständlichkeit", mit der die einfachen qualitativen Beobachtungsbegriffe ausgezeichnet sind und die deren unreflektierte, sichere Anwendung erlaubt, ist das Ergebnis eines langen Entwicklungsprozesses, das unter dem Selektionsdruck

40

3. Begriffsbildung durdi Abstraktion

der Verständigung zustande gekommen ist und in den Ordnungsmedianismen des zentralen Nervensystems seinen phylogenetischen Ursprung hat. Die Veränderlichkeit aller Begriffsworte in den natürlichen Sprachen zeigt, daß dieser Entwicklungsprozeß noch keineswegs abgeschlossen ist. Andererseits weist jedoch sowohl das Phänomen der Übersetzbarkeit der natürlichen Sprachsysteme als auch ihre Ersetzbarkeit durch künstliche Symbolsysteme auf einen tiefer liegenden stabilisierenden Faktor hin, der mit den Konstanzphänomenen der vorsprachlichen Wahrnehmung zu vergleichen ist. Dieser stabilisierende Faktor ist nichts anderes als jene weitgehend starre Konfiguration von invarianten Elementarinformationen, auf die sich ein Begriffswort in seiner Bedeutung bezieht, und zwar nicht im semantischdefinitorisdien, sondern im pragmatisdi-operationalen Sinn als ein Symbol für eine Tätigkeit, die selbst nur eine Reaktion auf konkrete, individuelle Gegenstände und Sachverhalte ist. Ein Begriff ist das Schema für einen stets wiederholbaren Entscheidungsprozeß. Das einzige Kriterium für die „Wahrheit" eines Begriffs ist seine Anwendbarkeit im Akt der Identifizierung dieses Schemas mit den individuellen Dingen. Die Anwendung eines Begriffs bedeutet demnach zugleich die Wiedererkennung jener konstanten Konfiguration von Informationen, die es erlaubt, Gegenstände unter den ständig wechselnden Bedingungen ihres Gegebenseins zu identifizieren. Die Bedeutung eines Begriffs liegt daher in seiner Fähigkeit der Identifikation. Er stellt damit nichts anderes dar als eine Instruktion oder Anweisung zur Durchführung einer logischen Operation, die in der Herstellung einer Beziehung zwischen zwei Gliedern besteht. Damit erweisen sich die scheinbar trivial klingenden Grundsätze der formalen Logik — der Satz von der Identität und sein negatives Korrelat, der Satz vom verbotenen Widerspruch — als fundamentale, strukturelle Konstituentien des realen Erkenntnisprozesses. Den „nicht-trivialen" Charakter des logischen Begriffs der „Gleichheit" hat bereits Frege sehr deutlich zum Ausdruck gebracht. Gleichheit ist eine Beziehung zwischen zwei Gliedern; ebenso wie der Widerspruch eine Beziehung zwischen zwei Gliedern ist. Deshalb muß der Satz von der Identität als Prinzip der Identifizierung verstanden werden. Er drückt eine Erkenntnisrelation, eine Beziehung aus, die durch logische Operationen hergestellt wird. „Identisch" heißt daher nicht dasjenige, was mit sich selbst gleich ist, und Identität wird daher

Begriff als Informationsverdichtung

41

auch nicht durch eine Formel nach der Art a = a dargestellt, sondern „identisch" heißt, daß das, was durch verschiedene Bezeichnungen dargestellt werden kann, miteinander übereinstimmt oder gleichgesetzt werden kann. Die Gleichsetzung eines Gegenstandes mit sich selbst ist eine inhaltslose, leere Tautologie, das heißt, sie ist ohne Erkenntniswert. Das Prinzip der Identifizierung ist das Prinzip der Erkenntnis des Gleichen, das durch Verschiedenes bezeichnet wird, und zwar nach der Art a = b . Unterschied oder Verschiedenheit kommt jedoch nur dadurch zustande, daß der Unterschied des Zeichens einem Unterschied in der Art des Gegebenseins des Bezeichneten entspricht. Frege demonstriert diesen abstrakten Sachverhalt an dem bekannten Beispiel von „Abendstern" und „Morgenstern". Die Gleichsetzung dieser beiden verschiedenen Bezeichnungen geschieht nach dem Prinzip der Identifizierung und hat einen besonderen Erkenntniswert. Während also die Gleichsetzung Venus=Venus tautologisch und somit ohne Erkenntniswert ist, bedeutet die Gleichsetzung von Abendstern und Morgenstern die Erkenntnis, daß es sich um denselben Gegenstand handelt, der nur auf verschiedene Art gegeben ist und deswegen verschieden bezeichnet werden kann. Ebenso verhält es sich mit der durchaus nicht selbstverständlichen Erkenntnis, daß es jeden Tag dieselbe Sonne ist, die am Morgen aufgeht. Die wissenschaftliche Begründung dieser Annahme kann nur durch eine Theorie des Sonnensystems, und zwar auf sehr verschiedenartige Weise, geliefert werden. Die Identifikation ist also immer auch von Rekonstruktion begleitet, die nicht zu eindeutigen Abbildungen, sondern zu Alternativen führt, die auf der Vielfalt möglicher Strukturgesetzlichkeiten beruhen. Daß dieses Problem nicht erst auf der Ebene der Theorienbildung, sondern bereits auf der elementarsten Ebene der Repräsentation oder Abbildung von Informationskomplexen auftritt, hat MacKay unter dem Titel „Identifikation und Rekonstruktion" in bezug auf die strukturelle Informationskapazität optischer Geräte erörtert 1 . So wie dort prinzipiell eine scharfe Trennung zwischen der Rekonstruktion und Identifikation einer optischen Signalfolge getroffen werden muß, so muß auch schon auf der untersten Stufe der Repräsentation durch Sinneswahrnehmung zwischen Identifikation und Rekonstruktion unterschieden werden. Erkenntnistheoretisch aus1

Vgl. MacKay, Information, Mechanism and Meaning, S. 188 f.

42

3. Begriffsbildung durch Abstraktion

gedrückt heißt das: Die einfache Sinneswahrnehmung ist nodi keine Erkenntnis, sondern bildet nur den Anlaß zur Erkenntnis, zur (Re)-Konstruktion eines Erkenntnisgegenstands, dem ein Rekonstruktionsschema zur Wiedererkennung des Gleichen, ein Begriff, zugeordnet -wird. Die Wiedererkennung des Gleichen beruht auf einem Hervorheben von Invarianten und auf einem Absehen von veränderlichen Nebenbedingungen. Die Festsetzung dessen, was als veränderlich und was als unveränderlich angesehen werden muß, ist eine Entscheidung des Erkenntnissubjekts. Daher sind auch die elementaren Invarianten selbst bei der simpelsten Wahrnehmung weder mit der von außen kommenden Sinnesreizung nodi mit der daraus erfolgenden Sinnesempfindung gleichzusetzen. Denn aus Reiz und Sinnesempfindung entsteht nidit notwendig Wahrnehmung. Diese kommt vielmehr durch die Tätigkeit des Bezugssystems zustande. „Sehen" ist daher etwas anderes als „Sehempfindung haben" 2 . Die Grundlage des aktiven Wahrnehmungsprozesses sind daher Informationen, die aus einem unübersehbaren Chaos von nicht mehr abzählbaren Sinneseindrücken aktiv herausgearbeitet werden. Die Erarbeitung von solchen elementaren Informationen ist nicht durch die Aufnahmekapazität der Sinnesorgane, die das lebendige System von vornherein vor Überlastungen schützt, bloß passiv bestimmt, sondern beruht vielmehr auf einer aktiven Leistung. Im vormenschlichen Bereich ist diese Aktivität durch die Mechanismen des Instinktverhaltens bestimmt, die bewirken, daß unter den tatsächlich zustande gekommenen Sinnesempfindungen nur jener geringe Teil als Information ausgewählt wird, der für die Lebenserhaltung relevant ist. Bei der eigentlichen Wahrnehmungserkenntnis handelt es sich um den bewußten Akt der Aufmerksamkeit, durch welchen in den Rezeptoren orientierende und erforschende Bewegungen hervorgerufen werden, die erst zu wirklichen Informationen elementarer Art führen, aus denen sich schließlich die eigentliche Wahrnehmungserkenntnis aufbaut. Dieser Akt der Aufmerksamkeit ist jedoch nicht auf die Wahrnehmungserkenntnis beschränkt. Er reicht vielmehr so weit, wie der Begriff des „Bewußtseins von etwas" überhaupt reicht. Deshalb braucht audi der daraus resultierende Begriff der Information 1

Vgl. J. J. Gibson, Neue Gründe für den Realismus, in: Synthese 17, 1967, S. 162—172; nach: M. Moser, in: Phil. Nat., Bd. 13, Heft 4, 1972, S. 474 ff.

Klassische Abstraktionstheorie

43

nicht auf die Sinneswahrnehmung eingeschränkt zu werden. Eine Information, die durch das Lesen eines geschriebenen Textes gewonnen wird, entsteht nicht durch das Aufnehmen der optisdien Reize, sondern durch Richtung der Aufmerksamkeit auf den Inhalt des geschriebenen Textes. Daraus ergibt sich, daß alle Arten von Informationen unabhängig von ihren physikalischen Trägern und konkreten Situationen, in denen sie zustande kommen, prinzipiell durch ein bevorzugtes Beachten bestimmter Inhalte, unter Absehung von gleichzeitig mitgegebenen Inhalten, entstehen. Mit diesem Verfahren der Informationsgewinnung ist jedoch nichts anderes beschrieben als die positive und negative Seite der Abstraktion, jener grundlegenden Operation, die sdion immer der Gegenstand erkenntnistheoretischer Untersuchungen war. Die logisch-erkenntnistheoretisdie Grundbedeutung des Informationsbegriffs wurde schon in der lateinischen Wissenschaftsspradie des mittelalterlichen Aristotelismus entwickelt. Sie wurde explizit in der Abstraktionstheorie präzisiert, die eine Theorie der Erkenntnisgewinnung durch Begriffsbildung darstellt. Bereits in dieser als „klassische Abstraktionstheorie" bezeichneten Theorie der Erkenntnisgewinnung wurden jene grundlegenden Einsichten gewonnen, die auch in der modernen Informationstheorie erhalten geblieben sind. Denn der schon definitorisch postulierte Zusammenhang von Information und begrifflich fixierter Erkenntnis macht deutlich, daß jede Information erst durch Umformung und Umwandlung zustande kommt. Selbst die elementarsten Wahrnehmungserkenntnisse sind Resultate eines Verarbeitungsprozesses nach logisdien Strukturen. Die einfachste begriffliche „Abbildung" von empirischen Sachverhalten und Vorgängen ist nämlidi audi nadi der aristotelisdi-sdiolastischen Abstraktionstheorie kein passiver Vorgang, sondern muß als eine Konstruktion eines allgemeinen Schemas von Ähnlichkeitsbeziehungen verstanden werden, unter welches eine Vielzahl von individuellen Gegenständen fallen kann. Deshalb hat der scholastische Aristotelismus die Priorität des „tätigen Verstandes" (intellectus agens) gegenüber dem „leidenden Verstand" (intellectus passivus) hervorgehoben und das Prinzip der „Ähnlichkeit" (similitudo) zum Grundprinzip aller Begriffsbildung schlechthin gemacht. Dieses Prinzip besagt, daß die äußere Ähnlichkeit der Dinge, auf der alle Begriffsbildung beruht, durch gesetzmäßige Strukturen erfaßt werden kann, die das Gleichbleibende in den Veränderungen darstellen. In diesem

44

3. Begriffsbildung durch Abstraktion

Verfahren, das bestimmte invariante Ähnlichkeiten der Dinge hervorhebt und von Unähnlidikeiten absieht, ist das Wesen der Abstraktion zu sehen. Auf diese Fähigkeit einer partiellen Identifikation von zeitlidi oder räumlich voneinander unterschiedenen Sachverhalten läßt sich alles Wiedererkennen, Mitteilen, Erklären und Verstehen im vorwissenschaftlichen und wissenschaftlichen Bereich empirischer Erkenntnis zurückführen. Es ist N . Wiener gewesen, der in der ersten Ausgabe seiner „Kybernetik" 1948 diesen Begriff der „Ähnlichkeit" an den Anfang jenes Kapitels stellt, in dem er die philosophisch-erkenntnistheoretischen Grundlagen seiner Konzeption des „neuralen Medianismus" auf informationstheoretischer Basis erörtert. Er beruft sich in diesem Kapitel, das die Überschrift „Gestalt und Universalbegriffe" trägt, zwar nicht auf die aristotelisch-scholastische Abstraktionstheorie, sondern auf die Lockesche Abstraktionstheorie, die jedoch nur deren empiristisdi-sensualistische Version darstellt 3 , da sie die Sinnesempfindung als die eigentliche Quelle aller Erkenntnisse betrachtet. Dennoch hat auch Locke nicht übersehen können, daß alle Erkenntnisgewinnung auf einer inneren Aktivität beruht; wodurch sich wiederum die klassische Zweiteilung der Funktionsweise des Verstandes ergibt, die in der aristotelisch-scholastischen Abstraktionstheorie durch das Begriffspaar „intellectus agens" und „intellectus possibilis" bezeichnet worden ist4. Nach der Interpretation Lockes durdi Wiener ereignet sich diese innere Aktivität gemäß den Prinzipien der Berührung, der Ähnlichkeit und der Ursache und Wirkung. Im Unterschied zur scholastischen Auffassung, die den statischen Substanzbegriff überbetont hat, sieht Wiener in der Lockeschen Version der Abstraktionstheorie jenen dynamischen Gesichtspunkt vorbereitet, der die Grundlage der kybernetischen Auffassung des Erkenntnisprozesses bildet. 3

4

Vgl. Oeser, Begriff und Systematik der Abstraktion, S. 122 ff. und S. 216 ff. Die von K. Popper in „Objective Knowledge" angeführte Unterscheidung von „Kübel- und Scheinwerfertheorie" des mensdilidien Geistes ist dagegen eine undiskutable Simplifizierung, der jede historische Grundlage fehlt. Seine auf dieser Simplifizierung aufbauende Kritik an der informationstheoretischen Betrachtungsweise verkennt völlig den logischen Status des Informationsbegriffs als Prädikatenprädikat und verwechselt diesen Begriff mit „ding-ähnlidien Gegenständen". Vgl. Objektive Erkenntnis, Hamburg 1973, S. 75.

Klassische Abstraktionstheorie

45

Das Lockesche Prinzip der Berührung besagt, daß die Ideen oder Eindrücke, die sich oft zeitlich oder räumlich zugleich ereignet haben, einander audi gegenseitig hervorrufen können. Wiener sieht daher die Lockesche Theorie der Gedankenassoziation in Pawlows Theorie der bedingten Reflexe im Sinne des dynamischen Aspekts weiter ausgestaltet. Der Unterschied zwischen beiden besteht jedoch darin, daß Locke noch „Gedanken" betrachtet, während Pawlow „Handlungsweisen" analysiert. Gegenüber diesem Prinzip der Berührung spielt das Prinzip von Ursache und Wirkung eine untergeordnete, ja letzten Endes sogar entbehrliche Rolle. Deshalb wurde es, wie Wiener deutlich erkennt, von Locke selbst, und noch bestimmter von Hume, auf eine konstante Koexistenz reduziert und somit dem ersten Prinzip, dem der Berührung, untergeordnet. Das zweite Prinzip, das der Ähnlichkeit, verdient aber nach Wiener eine detailliertere Erörterung. Denn es ist jenes Prinzip, mit dem Locke den Bereich der sensualistischen Empfindungstheorie verläßt und das spezifisch erkenntnistheoretische Problem der klassischen Abstraktionstheorie, das Problem der Begriffsbildung, zumindest auf der untersten Stufe, der empirischen Abstraktion, erreicht. Damit vertritt auch Locke die These der klassischen Abstraktionstheorie, in der die begrifflidie Erkenntnis die Konstruktion eines Schemas von Ähnlichkeitsbeziehungen bedeutet. Während es Wiener in seiner Interpretation Lockes nicht um die Abstraktionstheorie selbst, sondern um ihre Entsprechung im Bereidi des neuralen Mechanismus geht, soll nun die spezifisch erkenntnistheoretische Problematik des Ähnlichkeitsprinzips weiter verfolgt werden. Daß der Begriff von Ähnlichkeit von allem Anfang an nicht auf ein einfaches Abbildungsverhältnis zurückgeht, zeigt schon die Platonische Ideenlehre, in der nicht die abstrakten Ideen als Abbilder der konkreten Dinge, sondern gerade umgekehrt die konkreten Dinge als unvollkommene Realisierungen der Ideen betrachtet werden. Der mathematische Piatonismus der neuzeitlichen Physik hat diese Lehre dahingehend präzisiert, daß nunmehr die konstruktiven Ideen der Geometrie als die gesetzmäßigen Strukturen, die der Realität zugrunde liegen, gedeutet werden. Nach Galileis berühmten Worten aus seinem Werk „II Saggiatore" ist das Buch der Natur in mathematischer Sprache geschrieben, deren Schriftzüge Dreiecke, Kreise

46

3. Begriffsbildung durdi Abstraktion

und andere geometrische Figuren sind, ohne deren Hilfe es unmöglich ist, audi nur ein Wort davon zu verstehen 5 . Konstruktive geometrische Begriffe bildeten seit jeher die Grundlage f ü r ein „objektives", gesetzmäßiges Erfassen der Wirklichkeit®. Gerade ein geometrischer Begriff war es schließlich, an dem die empiristische Abbildtheorie Lockes explizit gescheitert ist: am Begriff des Dreiecks. Wäre der allgemeine Begriff des Dreiecks nur eine Abbildung oder Widerspiegelung aller möglichen konkreten Dreiecke im vorstellenden Denken, so würde sich die absurde Vorstellung eines Dreiecks ergeben, das weder schiefwinkelig noch rechtwinkelig, weder gleichseitig noch ungleichseitig, das dieses alles und zugleich audi nichts von alledem wäre. Die Bildung geometrischer Begriffe, die in ihrer Anschaulichkeit einerseits und ihrer abstrakten Exaktheit andererseits zwischen Wahrnehmungserkenntnis und „reinem" Denken stehen, zeigt deutlich das Wesen der Erkenntnis als eines Prozesses der Informationsverarbeitung nach bestimmten, im voraus festgelegten Strukturen. Denn die geometrischen Begriffe sind, erkenntnistheoretisch betrachtet, nichts anderes als Handlungsanweisungen zur Koordination von elementaren invarianten Informationen, die von der Wahrnehmung geliefert werden. Schon Galilei hat klar das wesentliche Problem der Erkenntnis durch Informationsverarbeitung, das Problem der Berechenbarkeit, hervorgehoben: Der Rechner, der von idealen Strukturen ausgehen muß, gerät in Schwierigkeiten, wenn er allen Singularitäten des Einzelfalls gerecht werden will. N u r dann, wenn es ihm gelingt, den empirisch gegebenen Einzelfall unter die Gesetzmäßigkeit jener allgemeinen Strukturen zu bringen, kann dieser besondere Fall als geklärt gelten. Ist das nicht möglich, so liegt die Schuld weder bei der N a t u r noch bei den idealen, vorausgesetzten Strukturen, sondern beim Rechner, der nidit zu rechnen versteht 7 . So zeigt sich bereits bei der anschaulich geometrischen Erkenntnis, daß die äußere Ähnlichkeit der Dinge, auf der alle gewöhnliche Begriffsbildung beruht, durch gesetzmäßige Strukturen erfaßt werden kann, die das Gleidibleibende in den » Vgl. Ed. Naz. VII, S. 232. • Vgl. E. Oeser, Copernicus und die ägyptische Hypothese, in: Phil. Nat., Bd. 14, Heft 3/4, 1973. 7 Vgl. G. Galilei, Opere, ed. Albiri, Florenz 1842—1856, I, S. 224 ff., VII, S. 156 ff.

Ähnlichkeit und Äquivalenz

47

Veränderungen darstellen. Vorgebildet sind dieses planmäßige Erfassen und das Verarbeiten von Informationen schon in der Wahrnehmung, die bereits bestimmte Muster und Strukturen zur Transformation und Koordination in sich birgt. Seine eigentliche Bedeutung erhält dieses Verfahren aber erst dann, wenn diese zugrunde liegenden Strukturen als notwendige logische Gesetzmäßigkeiten des Informationsprozesses selbst erkannt und explizit angegeben sind. Dann beruht die Abstraktion nidit mehr auf dem letzten Endes vagen und intuitiven Begriff der Ähnlichkeit, sondern auf einem neuen Prinzip, das sich schärfer definieren läßt. Dieses Prinzip ist das Prinzip der „Äquivalenz" oder Gleichwertigkeit. Es tritt bereits bei der Bestimmung des Zahlbegriifs auf. Während es in der empirischen Abstraktion um Ähnlidikeitsbeziehungen der Dinge untereinander geht — worauf die „abbildende" Funktion des empirischen Begriffs zurückzuführen ist —, handelt es sich bei den Zahlen nicht mehr darum, eine begriffliche Kopie von Dingen oder Sachverhalten zu schaffen, die diesen in irgendwelchen Einzelzügen entspricht, sondern „Abbildung" besagt nichts anderes als eine logische Zuordnung, durch die ganz verschiedenartige und unähnliche Elemente zu einer systematischen Einheit verbunden werden können. Diese Bestimmung der Zahl als eines Gliedes von Zuordnungsbeziehungen ist unabhängig von jeder Berufung auf sinnlich erfaßbare Gegenstände, deren begriffliche Fixierung auf Ähnlichkeitsbeziehungen beruht. Denn die Ordnung, aus der der Begriff der Zahl hervorgeht, läßt sich selbst nicht in der sinnlichen Wahrnehmung unmittelbar aufweisen, sondern geht auf rein logische Operationen zurück, in denen diese Zuordnungsbeziehungen hergestellt werden. Nachdem durch eine ursprüngliche Setzung ein bestimmter Ausgangspunkt fixiert ist, werden alle weiteren Elemente dadurch gegeben, daß eine Beziehung, eine Relation (R), angegeben wird, die in fortgesetzter Anwendung alle Glieder eines Komplexes erzeugt. Wie bereits E. Cassirer in seiner erkenntnistheoretischen Interpretation der Fregeschen Überlegungen zur Grundlegung der Arithmetik dargestellt hat 8 , ist daher audi die Erklärung des Zahlbegriffs durch äquivalente Klassen nur als eine an der empirischen Abstraktion orientierte Übergangslösung anzu8

Vgl. Cassirer, Substanzbegriff und Funktionsbegriff, Berlin 1910, S. 47 ff.

48

3. Begriffsbildung durch Abstraktion

sehen, die für die methodischen Zwecke mathematischer Begriffsbildung unerheblich ist. Denn mit der Bestimmung der Zahl als einer Klasse von „gleichen" Mengen wird nur das Verhältnis der gegenseitig eindeutigen Zuordnung der Umfangselemente zum Ausdruck gebracht. Von dieser bloß extensionalen Äquivalenz ist jedoch die intensionale Äquivalenz der Zahlenbegriffe zu unterscheiden, die grundsätzlich durch die gesetzmäßigen Beziehungen der Glieder des Gesamtsystems der Zahlenreihe bestimmt ist. Die bloße Nebeneinanderstellung von „äquivalenten" Mengen gibt noch keine Auskunft über die gesetzmäßigen Zuordnungsbestimmungen, die zwischen den Zahlen, die jede für sich als eine Klasse von solchen anzahlgleichen Mengen interpretiert werden können, vorhanden sind. Deshalb muß an die Stelle des extensionalen Kriteriums der „Anzahlgleichheit" das Kriterium der „Zuordnungsbeziehungen" treten, durch das die Bedeutung jeder Zahl als Element einer Zahlenreihe gekennzeichnet ist. Damit ist jedoch ein Verfahren der Begriffsbildung aufgewiesen, das die Bedeutung der Begriffe ohne Rückgriff auf äußerliche Ähnlichkeiten allein durch logische Operationen festlegt. Diese intensionale Äquivalenz, die mit der inhaltlichen Bedeutung von Begriffsworten gleichzusetzen ist, drückt nicht Ähnlichkeitsbeziehungen im Bezug auf wesentliche oder unwesentliche Eigenschaften von Dingen aus, sondern meint Gleichwertigkeit der Funktionen: Einem Wert in der einen Reihe eines Ablaufgeschehens entspricht ein Wert in einer anderen Reihe. Äquivalente Terme sind daher als gleichwertige Glieder in verschiedenen Reihen aufzufassen. Die Information, die mit einem Zahlenbegriff verbunden ist, bezieht sich daher nicht auf die Anzahlgleichheit der Elemente von Mengen beliebiger Gegenstände, sondern auf die Möglichkeit ihrer Verarbeitung zu weiteren Informationen mit Hilfe der intensionalen Äquivalenz der Zahlbegriffe, die durch die Funktionen bestimmt ist, welche jede Zahl im Gesamtsystem der Zahlenbegriffe besitzt. Diese Funktionen der Zahlbegriffe bestimmen alle quantitative Erkenntnis, die durch Zählen oder Messen zustande kommt, und zwar völlig unabhängig von den qualitativen Eigenschaften der einzelnen Gegenstände und Gegenstandsbereiche. Sie bilden auch die Grundlage einer bestimmten Art und Weise des Denkens, das sich wegen seiner genau definierbaren Gesetzmäßigkeit weitgehend automatisieren läßt: Diese durch bestimmte Gesetzmäßigkeiten determi-

Ähnlichkeit und Äquivalenz

49

nierte Form logischer Operationen, die auf die Funktionen des Zahlbegriffs zurückzuführen ist, wird als „Rechnen" bezeichnet. Die Systematisierung der Regeln oder Gesetze des Rechnens hat zu einer eigenen wissenschaftlichen Disziplin, der Arithmetik, geführt. Die Arithmetik ist nun nach Frege nur als eine „weiter ausgebildete Logik" und „Rechnen" nur als eine bestimmte Art von „Schlußfolgern" 9 zu deuten. Die Abstraktionstheorie erfährt in der mathematischen Begriffsbildung eine prinzipielle Erweiterung, da sie nun nicht mehr bloß als Erklärung des Übergangs von der Sinneswahrnehmung zur rationalen Erkenntnis dient, sondern auf einer anderen „Stufe" einen neuen Bereich von abstrakten Gegenständen konstituiert, in dem nicht nur von den Bedingungen des individuellen Gegebenseins abgesehen wird — was immer nur zu Ähnlichkeiten führen kann —, sondern in logisch eindeutiger Form dasjenige isoliert wird, was in allen Operationen gleichbleibt. Der Übergang von Ähnlichkeitsbeziehungen zu Gleichheitsrelationen im Sinne logisch definierter Äquivalenz hängt daher von bestimmten Bedingungen ab. Die Erfüllung dieser Bedingungen garantiert dann, daß die Gleidisetzung gültig ist. Trotz grundsätzlicher Differenzen in der gegenwärtigen Auffassung des formallogischen Abstraktionsverfahrens ist die im wesentlichen auf Frege 10 zurückführende Darstellung dieser Bedingungen allgemein akzeptiert worden. Diese Bedingungen ergeben sich aus der formalen Explikation des Äquivalenzbegriffs als des grundlegenden Begriffs der logischen Gleichheit. Sieht man von den technischen Einzelheiten des formalen Darstellungsapparats ab und beschränkt sich auf eine allgemeine wortsprachliche Charakterisierung, dann bedeutet „Äquivalenz" die Ununtersdieidbarkeit zweier Gegenstände bezüglich bestimmter Invarianzen, die durch ein bestimmtes Regelsystem festgelegt werden. Eine Äquivalenzrelation wird formal durch logische Operationen hergestellt, das heißt durch explizite Aussagen über die Bedingungen, unter welchen eine gegenseitige Ersetzbarkeit erlaubt ist. Je nachdem in welchem Zusammenhang der unspezifizierte Begriff der Äquivalenz („Gleichwertigkeit") gebraucht wird, ergeben sich verschiedene Bedingungen. Bezieht sich die Gleichwertigkeit auf den aus* G. Frege, Die Grundlagen der Arithmetik, Breslau 1884, S. 99. Vgl. ebenda.

10

4

Oeser, Band 3

50

3. Begriffsbildung durch Abstraktion

sagenlogischen Wahrheitswert, dann ergeben sich nach Whitehead und Russell die Bedingungen der Reflexivität, Symmetrie und Transitivität11: Symmetrie bedeutet, daß die beiden Glieder der Äquivalenzrelation miteinander vertauschbar sein müssen; Reflexivität heißt, daß jedes Glied mit sich selbst gleich ist; Transitivität bedeutet, daß, wenn beide Glieder untereinander gleich sind und ein Glied mit einem weiteren dritten gleich ist, auch das andere Glied der Äquivalenzrelation mit dem dritten gleich ist. Damit wird jedoch nur die extensionale Äquivalenzrelation bestimmt, die zur extensionalen logischen Gleichheit der Klassenabstraktion führt. Um die sogenannte intensionale Äquivalenz von Aussagen und Prädikaten festzulegen, bedarf es weiterer semantischer und pragmatischer Analysen. Wie bereits Cassirer aus erkenntnistheoretischer Sicht die Unzulänglichkeit der mengentheoretisch begründeten Klassenabstraktion erkannt hat, so wurde auch von der konstruktiven Logik ein Versuch unternommen, das Abstraktionsverfahren auf die fundamentalere Basis der operativen Auffassung der Mathematik zurückzuführen, die eine Darstellung der intensionalen Äquivalenz nicht ausschließt. Nach P. Lorenzen12 muß eine Äquivalenzrelation den beiden Grundbedingungen der Reflexivität (x = x) und der Komparativität (wenn χ = ζ und y = z, dann ist χ = y) genügen. Nach der operativen Auffassung hat man es in der Mathematik nicht mit gegebenen abstrakten Objekten zu tun, die durch Eigennamen bezeichnet werden müssen, um zu mathematisdien Aussagen kommen zu können, sondern man hat mit der Konstruktion von Figuren zu beginnen, zum Beispiel mit Figuren, die aus Strichen zusammengesetzt sind |, ||, |||, . . . Die Einführung von anderen Ziffern 1, 2, 3, . . . , die dieselben Zahlen wie die Figuren bedeuten sollen, ist zwar keine logische, aber eine praktische Notwendigkeit. Dadurch entstehen abstrakte Objekte, mit denen sich zweckmäßiger und einfacher operieren läßt. Der Existenzcharakter dieser neuen Objekte ergibt sich aus der Eigenschaft der Invarianz, die jeder Äquivalenzrelation zugrunde liegt. Den abstrakten Be11

iS

Vgl. Α. N. Whitehead - B. Russell, Princ. mathematica I, X V I ; Nachweis bei I. M. Bochenski, Formale Logik, Freiburg-München 1956, S. 399. P. Lorenzen, Gleichheit und Abstraktion, in: Ratio 4, 1962, S. 77 ff.

Ähnlichkeit und Äquivalenz

51

griffen kommt demnadi „Realität", und zwar im Sinne einer Stellvertretung zu. Mit anderen Worten: Die mathematische Abstraktion, die zur Einführung metrischer Begriffe dient, ermöglicht also ein erfahrungsunabhängiges logisches Operieren, das heißt ein rechnerisches Verknüpfen von Sachverhalten und Vorgängen, das auf der Ebene der empirischen Begriffsbildung undurchführbar, ja undenkbar ist. Das Pathos, mit dem Galilei seine Theorie der Fall- und Wurfbewegung als eine „ganz neue Wissenschaft über einen sehr alten Gegenstand" 13 bezeichnet hat, ist durch den Nadiweis von gegenseitigen Abhängigkeitsverhältnissen meßbarer Größen zwischen völlig unähnlichen Dingen gerechtfertigt. Denn die Erkenntnis, daß der Fallraum in irgendeinem Verhältnis mit der Fallzeit zusammenzubringen ist, ist eine Leistung, die nur auf Grund der mathematischen Begriffsbildung möglich ist und die die Abkehr vom „primo aspetto" der unmittelbaren Erfahrung zur Voraussetzung hat. Der mathematische Piatonismus Galileis und seine Abwendung von der aristotelisdi-sdiolastischen Abstraktionstheorie ist aus dieser historisdien Situation erklärbar. Verständlich ist auch die Distanzierung der modernen Abstraktionstheorie als einer Theorie der mathematischen Gegenstände von der Theorie des Zustandekommens von (empirischen) Begriffen. Denn die Vereinheitlichung beider Theorien zu einer den gesamten Begriffsbildungsprozeß umfassenden Theorie in der Scholastik (Boethius, Thomas von Aquin) geschah sicherlich auf Kosten der Aristotelischen Aphairesis, die in der scholastischen Version nur eine Stufe auf dem Weg zur Bildung der metaphysischen Begriffe darstellte. Konsequenterweise wurde in der nadikantischen Fundamentalphilosophie (Sdielling) die mathematische Abstraktion überhaupt als eine Sackgasse der philosophischen Begriffsbildung aus dem Konstitutionssystem der Begriffe eliminiert und an ihre Stelle die transzendentale Abstraktion gesetzt14. Die Abstraktionstheorie bedeutete jedoch audi in dieser Form eine Aufhebung des Piatonismus und eine systematische Relativierung des Apriori 15 . Die sukzessive Verdrängung der Aphairesis aus der klassischen Abstraktionstheorie, sei es durch Eliminierung und Ersetzung

13 14 15

4*

Vgl. G. Galilei, Discorsi, 3. Tag. Vgl. Oeser, Begriff und Systematik der Abstraktion, S. 342 ff. Vgl. Oeser, System, Klassifikation, Evolution, S. 66.

52

3. Begriffsbildung durch Abstraktion

(Schelling) oder sei es durch den Abbruch dieses Verfahrens (Locke), entspricht sicherlich nicht der Aristotelischen Abstraktionstheorie, ebenso wie ihr audi eine absolute Trennung zwischen empirischer und mathematischer Begriffsbildung nicht entspricht, so wie sie von der modernen Abstraktionstheorie des Konstruktivismus im Anschluß an Scholz und Beth verlangt worden ist. Scholz hat auf den nichtaristotelischen Charakter der sogenannten „klassischen Abstraktionstheorie" hingewiesen und eine unvoreingenommene Untersuchung der Aphairesis vermißt 16 . Dieser Hinweis ist später von Beth17 aufgegriffen worden, der die Entstehung der klassischen Abstraktionstheorie auf eine Vermischung (fusion) von zwei bei Aristoteles völlig getrennten Theorien, der Theorie der Abstraktion und der Theorie der Induktion, zurückführt. Über die verschiedenartige Verwendungsweise des Begriffs Epagoge bei Aristoteles besteht kein Zweifel 18 , ebensowenig wie über die Tatsache, daß Aristoteles in den Analytica posteriora die Epagoge als den Weg vom Besonderen zum Allgemeinen mit dem Prozeß der Bildung empirischer Begriffe zwar vergleicht, jedoch nicht gleichsetzt19. Diesen Prozeß der Begriffsbildung bezeichnet Thomas von Aquin in seinem Kommentar als „abstractio" 20 . Er meint damit ausschließlich jenes Verfahren, durch das der Artbegriff (species) aus dem Individuellen gewonnen wird, und unterscheidet dieses Verfahren von dem Weg von den Species zu den Genera, der „via inductionis" genannt wird 21 . Das bedeutet jedoch für eine 16

H. Scholz - H. Schweitzer, Die sogenannte Definition durch Abstraktion. Eine Theorie der Definitionen durch Bildung von Gleichheitsverwandtschaften, Leipzig 1935. 17 E. W. Beth, The Foundations of Mathematics, Amsterdam 1959, S. 18. 18 Vgl. K. v. Fritz, Die ε π α γ ω γ ή bei Aristoteles, München 1964, in: Sitzungsbericht der Bayerischen Akademie der Wissenschaften, Phil.Hist. Klasse, Jg. 1964, Heft 3. " Vgl. Kommentar von W. D. Ross in seiner Edition: Aristotle's Prior and Posterior Analytics, Oxford 1949, S. 675. Auf Ross stützt sich E. Kapp, Der Ursprung der Logik bei den Griechen, Göttingen 1965, S. 89. t0 In Libros Posteriorum Analyticorum Lib. II, cap. X V , lectio X X . 11 Vgl. Η . J. Schneider, Historische und systematische Untersuchungen zur Abstraktion, Erlanger Dissertation; nach dem Thomas-Lexikon von R. J. Deferrari - Μ. I. Barry, Baltimore 1958, S. 1152.

Ähnlichkeit und Äquivalenz

53

allgemeine Theorie der Begriffsbildung, daß die Induktion gegenüber der Abstraktion ein sekundäres Verfahren zur Erzeugung von sekundären Begriffen aus primären Begriffen darstellt; ein Verfahren also, das in der sogenannten Klassenabstraktion angewendet wird, die zu immer inhaltsleereren Begriffen führt, welche keine Funktion der Repräsentation besitzen, sondern nur Ordnungsschemata darstellen. Nach Thomas von Aquin entspricht aber der mathematischen Begriffsbildung nur die Erzeugung der Artbegriffe: „Der Verstand abstrahiert auch bei den Naturdingen das Allgemeine vom Besonderen auf ähnlidie Weise (simili modo), insofern er das Wesen der Substanzen ohne die individuierenden Bedingungen, die nicht in die Wesensbestimmung der Art fallen, erfaßt." Und Thomas von Aquin setzt hinzu: „Weil Piaton dieses Verfahren der Abstraktion nicht erwogen hat, war er gezwungen, die mathematischen Gegenstände und die Arten als abgetrennt zu setzen; statt dessen nahm Aristoteles den intellectus agens an, der jene vorher erwähnte Abstraktion durchführt." 22 Diese ausdrückliche Gleichsetzung der Verfahren der mathematischen Begriffsbildung und der Bildung der Artbegriffe enthält bereits die klassische Lösung des erkenntnistheoretischen Grundproblems von der „Wahrheit" der begrifflichen Erkenntnis im Sinne der Adäquationstheorie. Weder die empirischen noch die mathematischen Begriffe konstituieren einen eigenen Seinsbereich. Sie haben Realität nur insofern, als sie die Wirklichkeit adäquat abbilden. Der einheitliche Gebrauch des Abstraktionsbegriffs als Herstellungsverfahren für „Begriff", also nicht für „Namen", „Bezeichnungen" oder „Prädikatoren", zeigt deutlich, daß es sich bei diesen beiden Arten der Abstraktion um prinzipiell gleichwertige Ebenen der Begriffsbildung handelt. Darüber kann audi die — wohl kaum von Thomas von Aquin, sondern erst in der Spät- und Neusdiolastik eingeführte — Redeweise von den Abstraktionsstufen (gradus abstractionis) nicht hinwegtäuschen. Ein präzisiertes Regelsystem, wie es in der mathematischen Struktur der metrisch-quantitativen Begriffsbildung vorliegt, ermöglicht es zwar, Gesetzmäßigkeiten zu erfassen, die der unmittelbaren

22

S. Thomae Aquinatis in Aristotelis Librum de Anima Commentarium, ed. Α. M. Pirotta, Turin-Rom 1948, η 784, p. 185. Vgl. Schneider, Historische und systematische Untersuchungen zur Abstraktion, S. 49.

54

3. Begriffsbildung durdi Abstraktion

Erfahrung nicht zugänglich sind, es verliert aber die Eindeutigkeit einer repräsentierenden Abbildung der Wirklichkeit. Die Begriffe, die durdi die mathematische Abstraktion gebildet werden, sind definitorisch exakte Begriffe, die sich zu formallogischen und mathematischen Operationen verwenden lassen. Diese Operationen können audi zu Voraussagen über noch unbekannte Phänomene führen. Diese Voraussagen betreffen aber immer nur einen bestimmten Aspekt des einheitlichen Phänomens. Mit anderen Worten: Die Exaktheit mathematischer Begriffsbildung und die darauf beruhende Möglichkeit, Voraussagen machen zu können, wird mit einer definitorischen Einschränkung der Wirklichkeitserkenntnis erkauft. So würde sich zum Beispiel ein intelligentes Wesen, das die Natur lediglich aus Darstellungen moderner Lehrbücher der Physik kennt, kaum in dieser Welt zurechtfinden 23 ; es würde die einfachsten Phänomene nach den ihm vorgelegten mathematischen Beschreibungen nicht wiedererkennen. Noch im 19. Jahrhundert hat man versucht, Darstellungsformen der Physik zu finden, die nicht populärwissenschaftlichsimplifizierend, sondern in exakter Entsprechung der mathematischen Formalismen den gesamten Erklärungszusammenhang dieser Wissenschaft wiedergeben. So hielt der französische Physiker Jean Baptiste Biot an der Pariser Fakultät der Wissenschaften Lehrvorträge über „Experimental-Physik", in denen er „die algebraische Sprache" 24 und mit ihr jede theoretische Folgerung gänzlich zu vermeiden versuchte. Das Ziel, das er damit verfolgte, hat später P. Duhem mit seiner These von der „natürlichen Klassifikation" der physikalischen Gesetzes- und Theorienbildung aufgegriffen und wissenschaftstheoretisch durch die Forderung begründet, daß die mathematische Begriffsbildung der Physik einen ständigen organischen Anpassungsprozeß an das natürliche System der Dinge leisten müsse. Einen ähnlichen Weg wie Biot, der bereits seine deskriptiv-wortsprachliche Darstellung der Physik mit historischen

" Diese Überlegung ist einem im Rahmen des interdisziplinären Seminars „Die Naturwissenschaften — Wechselwirkungen und Auswirkungen" an der Universität Wien am 20. Juni 1975 gehaltenen Vortrag von V. Weisskopf „Frontiers and Limits of Science" entnommen. 84 J. B. Biot, Lehrbudi der Experimental-Physik oder ErfahrungsNaturlehre, Leipzig 1828, S. VIII.

Ähnlichkeit und Äquivalenz

55

Anmerkungen versah, hat audi F.Rosenberger mit seiner geschichtlichen Darstellung der Physik propagiert 2 5 . Im Rahmen der erfahrungswissenschaftlichen Begriffsbildung sind demnach zwei unterschiedliche Zielsetzungen zu beachten, durch die sich die qualitativ-deskriptiven Begriffe von den quantitativ-metrischen Begriffen unterscheiden: 1. Exaktheit der Repräsentation der Tatsachen und 2. Exaktheit der logisdien Form Die Exaktheit der logisdien Form beruht auf Definition. Die mathematisdie Begriffsbildung wird daher audi „Definition durch Abstraktion" genannt. Das Verfahren der Abstraktion bezieht sich im oben dargestellten Sinn auf die Festsetzung von logischer Gleichheit oder Äquivalenz. Die Begriffe der mathematischen Physik sind daher abbildende Definitionen. Von diesen abbildenden Definitionen sind jedoch jene abbildenden Begriffe zu unterscheiden, die keine Definitionen sind. Solche niditdefinitorischen abbildenden Begriffe sind überall dort in den empirischen Erfahrungswissenschaften notwendig, wo es sich wie im Bereich der Biologie um Gegenstandsfelder handelt, die fließende Grenzen haben können. Die Eigenart solcher Begriffe im Gegensatz zu der der abbildenden Definitionen ist von B. Hassenstein durch folgende Unterscheidung klargestellt worden: „Im logisdien Bereich wird ein Begriff präzisiert durch die Schärfe seiner Abgrenzung gegen Nachbarbegriffe. Als abbildender Begriff wird ein Begriff präzisiert durch die genaue Besdireibung seiner Grenzen oder Übergänge zu den Nadibarbegriffen." 26 Ein Biologe, der in einem Gebiet arbeitet, in welchem fließende Übergänge vorkommen 27 , entscheidet sich mit Sidierheit für die Exaktheit der Repräsentation, die sich nicht durch logischdefinitorische Exaktheit ersetzen läßt. Die Gründe d a f ü r sind einsichtig: Die logisdien Definitionen setzen notwendig einen Trennungsstridi zwisdien den benachbarten Begriffen zweier nahverwandter Phänomene und lassen diese dadurch viel weiter voneinander entfernt erscheinen, als sie es in Wirklichkeit sind. Solche Definitionen sind dann nicht mehr getreue Repräsentanten der Phänomene. Demgegenüber bietet ein anderes, M

Vgl. F. Rosenberger, Die Gesdiidite der Physik, 3 Teile, Braunschweig 1887—1890. M B. Hassenstein, Abbildende Begriffe, in: Philosophie und Kybernetik, hrsg. von F. Steinbuch - S. Moser, München 1970, S. 178. " Ebenda, S. 179.

56

3. Begriffsbildung durdi Abstraktion

nicht nur in der Biologie, sondern audi in weiteren, vorwiegend deskriptiven Naturwissenschaften gebräuchliches Verfahren einen Ausweg; und zwar das typologisdie Verfahren, das von extremen Fällen ausgeht, diese als Typen ansieht und das übrige Feld als Übergangsreihe von Zwischentypen bestimmt. Daß diese typologisdie Besdireibungsweise mindestens ebenso exakt, ja in manchen Fällen sogar exakter sein kann als die Definitionsmethode, demonstriert Hassenstein an einem Beispiel aus der Meteorologie: „Die Luftdruckkarte ist eine beim Vorliegen von Meldungen von genügend vielen Beobachtungsstationen beliebig exakt ausführbare Darstellung der jeweiligen Luftdruckverteilung. Formal aber ist sie typologisch aufgebaut. Η und Τ bezeichnen Hoch- und Tiefdruckkerne, welche den Typen entsprechen. Die Isobaren beschreiben die kontinuierlichen Übergänge, die Gefalle zwischen ihnen. Die Luftdruckkarte sieht davon ab, die Hoch- und Tiefdruckgebiete scharf voneinander abzugrenzen. Solche Abgrenzungen von Gebieten entsprächen Definitionen. Hochund Tiefdruckgebietsgrenzen allein gäben eine weit weniger vollständige Darstellung der Tatsachen als die Angabe der Kerne und Gefalle. Sie würden deren Kennzeichnung daher nicht ersetzen. Die definierende Begriffsbildung wäre also im Falle dieses Modellbeispiels eine inadäquate Verfahrensweise." 28 Die gesamte Geschichte der biologischen Begriffsbildung zeigt jedoch, daß weder die definitorisch-klassifikatorische noch die typologisdie Begriffsbildung eine adäquate Beschreibung des natürlichen Systems im Sinne exakter Repräsentation liefern konnte. Denn alle klassifikatorisdien Begriffssysteme waren künstliche Systeme, mit dem Charakter der Vorläufigkeit behaftet; und typologisdie Systeme, wie dasjenige von Cuvier, waren derart theorienbelastet, daß sie ein methodisches Hindernis für die Durchsetzung der Evolutionstheorie darstellten 29 . Dem Ideal der deskriptiven Erfahrungswissenschaft entspricht weder die Charakterisierung des Begriffs als Definition noch eine solche als Typ, sondern vielmehr die Bestimmung des Begriffs als exakt abbildende Repräsentation. Nach Hassenstein ist ein solcher abbildender Begriff vollständig bestimmt, wenn 1. alle voneinander unabhängigen (nicht auseinander ableitbaren) kennzeichnenden Merkmale und 28

Ebenda, S. 175 f. Vgl. Oeser, System, Klassifikation, Evolution.

Ähnlidikeit und Äquivalenz

57

2. ihre Ausprägungen im Innern des Begrifisfeldes und an den Übergängen zu den Nachbarbegriffen angegeben sind 30 . Aus dieser Bestimmung der deskriptiven, abbildenden Begriffe wird gleichzeitig auch ihr dynamischer Charakter als Begriffsfolgen deutlich. Sie bilden exakt angebbare Verdichtungsfelder von Informationen mit fließenden Übergängen und sind somit die adäquaten Beschreibungsmittel für Phänomene, deren definitorische oder typologische Fixierung eine theorienbelastete Nomenklatur erzeugen würde. Es sind dies vor allem die Begriffe der biologischen Systematik, insbesondere der Artbegriff, dann die Begriffe „Reiz" und „Reflex" in der Physiologie, die Begriffe „instinktives Verhalten", „Lernen", „Prägung" in der Verhaltensforschung und die Begriffe „Klein-" und „Großmutation", „Domestikation", „Tier" und „Pflanze" in der Evolutionstheorie und allgemeinen Biologie81. Bei allen diesen Phänomenen liegen fließende Übergänge vor, die durch eine definitorische Festlegung Leerstellen zwisdien der Begriffsbestimmung und dem Gegenstandsfeld entstehen lassen, in denen sich die subjektive Meinung in Form von spekulativen Elementen ansiedeln kann. Deskriptive Begriffe als abbildende Begriffe haben jedoch ihren Sinn und ihre Exaktheit nur dadurch, daß sie den in allen Einzelheiten reproduzierbaren Beschreibungen nichts hinzufügen. Informationstheoretisch gesehen stellen die abbildenden Begriffe keine abgeschlossenen Gebilde dar im Sinne von Rekonstruktionen, sondern sie bilden lediglich eine unabgeschlossene Reihe von repräsentierenden Informationen, die zur logischen bzw. auch spekulativen Weiterverarbeitung ungeeignet sind. Findet eine solche logische Definition statt, dann wird aus dem abbildenden Begriff bereits eine Begriffshypothese. Klassifikatorische Begriffe sind also Begriffshypothesen. Die in der Wissenschaftstheorie übliche Einteilung beginnt erst auf der Stufe der klassifikatorischen Begriffe. Der Grund für diese Festlegung liegt in der Beschränkung auf die Klassenabstraktion und auf eine rein formale Semantik, die Begriffe nur definitorisch charakterisieren kann. Bei Carnap ist diese Auffassung eine Konsequenz seiner Theorie der semantischen Information, die auf der Idee einer formalen, induktiven 30 31

Hassenstein, Abbildende Begriffe, S. 177. Vgl. ebenda, S. 176 f.

58

3. Begriffsbildung durch Abstraktion

Logik gegründet ist. Der semantisdie Informationsgehalt ist, wie bereits ausführlich gezeigt wurde, nur im Rahmen einer exakt definierten Sprache feststellbar. Informationsgehalt und enge Definiertheit entsprechen sich daher wechselseitig: „Wenn ich den Gegenstand in einer engeren Klasse lokalisiere, dann nimmt die Information über ihn zu, auch wenn sie vielleidit immer noch nicht besonders groß ist. Die Aussage, daß ein Gegenstand ein lebendiger Organismus ist, sagt uns viel mehr über ihn als die Aussage, daß er warm ist. ,Ist ein Tier', sagt etwas mehr. ,Ist ein Wirbeltier', sagt noch mehr aus. Wenn die Klassen immer enger werden — Säugetier, Hund, Pudel, usw. —, nimmt die Information immer mehr zu." 38 Diese Kennzeichnung der deskriptiven Begriffe der Klassenabstraktion verfehlt jedoch die eigentliche Bedeutung solcher Begriffe, nämlich die abbildende Repräsentation, und steht zu deren tatsächlicher Verwendung im wirklichen Wissenschaftsprozeß in Widerspruch. Abbildende Begriffe, die seit jeher die Grundlage beschreibender Wissenschaften ausgemacht haben, sind keineswegs Begriffe einer primitiven Beobachtungssprache, sondern sie sind vielmehr zu beliebig genauen „exakten" Beschreibungen von Gegenstandsgruppen geeignet, bei denen es sich um Gegenstandsfelder handelt, in denen allmähliche Obergänge vorliegen, die durdi Definitionen, das heißt willkürliche Abgrenzungen, nur verfälscht werden können. Der charakteristische Mangel der Begriffslehre der sogenannten „analytischen Wissenschaftstheorie", soweit sie sich von der induktiven Logik Carnaps distanziert, der seine Begriffsbildungstheorie noch auf eine Theorie der Information stützte, besteht in einer Verwechslung von Abstraktionstheorie und trivialer Definitionslehre 33 . Während die Abstraktionstheorie die Eigenart empirisch-deskriptiver Begriffe im Sinne ihrer Abbildungs- und Repräsentationsfunktionen genau angeben kann, führt die Kennzeichnung aller empirisch-deskriptiven Begriffe als klassifikatorischer Begriffe zu Adäquatheitsbedingungen — wie „scharfe Abgrenzung", „wechselseitige Aus38 33

Carnap, Einführung in die Philosophie der Naturwissenschaft, S. 59. Vom Standpunkt der „konstruktiven" Wissenschaftstheorie hat bereits P. Janich die analytische Theorie der wissenschaftlichen Begriffsformen kritisiert. Vgl. Eindeutigkeit, Konsistenz und methodische Ordnung, in: F. Kambartel - J. Mittelstraß (Hrsg.), Zum normativen Fundament der Wissenschaft, Frankfurt/M. 1973, S. 152 ff.

Schema der Begriffsformen

59

Schließung von Klassen" — oder zu der Forderung, daß die „Klasseneinteilung erschöpfend" sein soll84, Bedingungen, die nicht nur höchst trivial sind, sondern nodi dazu den Nachteil haben, unerfüllbar zu sein. Eine Theorie der wissenschaftlichen BegrifFsformen, die die klassische Abstraktionstheorie mit der informationstheoretischen Betrachtungsweise verknüpft, bietet dagegen die Möglichkeit, trotz der dem Gegenstandsbereich angepaßten methodischen Unterschiede ein einheitliches Schema aller erfahrungswissenschaftlichen Begrifisformen zu liefern, das sowohl die unhaltbare Dichotomie von empirischer und theoretischer Sprache als auch die völlige Ablösung der mathematischen „Abstraktion durch Definition" von der empirischen „Abstraktion durch Repräsentation" vermeidet. Dieses Schema liefert einen Ausgangspunkt, der noch vor der semantischen Sprachanalyse und vor der konstruktiven Sprachlogik liegt. Damit soll jedoch kein sprachfreier Zugang zum Phänomen menschlicher Erkenntnis auf physiologischer, psychologischer oder physikalisch-technischer Basis propagiert werden. Die informationstheoretische Betrachtungsweise ist vielmehr gleich weit und gleich nahe von allen diesen einzelwissenschaftlichen Untersuchungen des Erkenntnisphänomens entfernt. Der generelle Irrtum der modernen Wissenschaftstheorie besteht darin, in der Sprache eine nicht mehr hintergehbare bzw. nur mit der Sprache selbst (Metaoder Orthosprache) hintergehbare Basis zu sehen. Das führt dann notwendig zur linguistizistischen Auffassung der Erkenntnis- und Wissenschaftstheorie. Erkenntnistheorie wird dabei in Sprachlogik und Wissenschaftstheorie in Analyse der Wissenschaftssprache (Syntaktik und Semantik) aufgelöst. Auch die konstruktive Wissenschaftstheorie entgeht diesem Linguistizismus nicht, wenn sie die logisdien Operationen lediglich als „Sprechakte" und nicht prinzipiell als Handlungsweisen betrachtet. Damit soll aber nicht einem Operationalismus das Wort geredet werden, sondern vielmehr einer Handlungslogik oder allgemeiner einer Logik der Veränderungen, die auf Strukturen, das heißt auf Bedingungs- oder Abhängigkeitsverhältnissen, die durch ein System dargestellt werden können, beruht. Sprache ist dann nur eine Eigenschaft von Systemen, genauer: eine neue Systemeigenschaft komplexer Informationssysteme. M

Vgl. Stegmüller, Theorie und Erfahrung, S. 19.

3. Begriffsbildung durch Abstraktion

60

Schema der erfahmngswissenschafllichen empirische Begriffe Begriffsfarmen

Begriffs formen

> - theoretische Begriffe

komparative Bispositionsstrukturelle deskriptive metrische (typologische begriffe (nicht(abbildende) (Quantitative) u.lopolog.) (operationale) quantitative)

Ähnlichkeit methodisches der RepräsenGrundpriniip totion

Vergleichsfestigung

gesetimöBige Veränderung

Mafisystem

Struktursystem

Die wissenschaftlichen Begriffsformen bilden in diesem Schema eine kontinuierliche Skala der „Informationsverdichtung". M i t dem Begriff der „Informationsverdichtung" ist der semantischpragmatisdie Informationsgehalt gemeint, der mit der Zunahme der theoretischen Belastung der Begriffe steigt; er steht im Gegensatz zur bloßen extensionalen Klassenabstraktion, bei der ein höherer G r a d der Abstraktheit eine Entleerung des Informationsgehalts zur Folge hat. 1. A m wenigsten theoretisch belastet, dem individuellen Phänomen am nächsten stehend und ihm am besten angepaßt sind die bloß deskriptiven abbildenden Begriffe, deren ideal eigentlich „Theorienfreiheit" ist. Sie sind die konkretesten Begriffe, der Anfang aller wissenschaftlichen Erkenntnis. Sie sind am stärksten situationsgebunden, das heißt, sie bieten, abgelöst vom konkreten Zusammenhang mit den Dingen, die sie beschreiben, keine Möglichkeit der gedanklichen, logischen Weiterverarbeitung. Das Grundprinzip ihres Zustandekommens ist die Ähnlichkeit mit den individuellen Dingen. Die Verwendung empirischer Begriffe in einem klassifikatorisdien System führt zu keiner „Informationsverdichtung", sondern nur zu einem extensionalen Ordnungsschema, zu einem künstlichen, diagnostischen System. D i e klassifikatorischen, diagnostischen Begriffe der Klassenabstraktion können jedoch auf andere Weise einen höheren Informationsgehalt erlangen, nämlich dadurch, daß sie zu theoretischen, das heißt systemrelativen Begriffen einer Theorie werden, wie zum Beispiel die klassifikatorischen Begriffe der Biologie zu Begriffen der Evolutionstheorie werden. I n diesem Fall wird jedoch das Grundprinzip der Ähnlichkeit durch eine Theorie der natürlichen Verwandtschaft ersetzt. Ähnlich verhält es sich bei der typologischen Interpretation der klassifikatorischen Begriffe der Biologie; auch

Schema der Begriffsformen

61

dabei wird das methodische Grundprinzip der reinen Beschreibung von Ähnlichkeiten aufgegeben und durch theoretisches Vergleichen eine andere Stufe der Informationsverdichtung erreicht. 2. Die komparativen Begriffe dienen nicht der bloßen Repräsentation, sondern der Vergleichung der realen Phänomene; genauer gesagt: sie dienen der Vergleichsfestigung im Rahmen eines Systems. Die vergleichende Anatomie Cuviers oder das natürliche Periodensystem der Elemente in der Chemie35 sind historische Beispiele für diese Begriffsform. Auch dabei erweist sich die triviale Definitionsmethode als unzureichend. Die definitorisdie „Klassenabstraktion" bildet wiederum nur ein provisorisches, künstliches Ordnungsschema, das als solches noch keinen Informationswert besitzt. Denn nicht ein einziges, besonders hervorgehobenes konstantes Merkmal, sondern eine „durchgängige" Relation bestimmt das System komparativer Begriife. Die vorläufige Klasseneinteilung wird erst durdi den Aufweis einer inneren Ordnung der Reihung oder der topologischen Gesetzmäßigkeit der Elemente einer Klasse gerechtfertigt. Den komparativen Begriffen entsprechen daher nicht Namen von Klassen als ungeordnete Mengen, sondern vielmehr geordnete Strukturen. So repräsentiert der Typus der komparativen Anatomie Cuviers einen Bauplan, und die diemische Reihe, Gruppe oder Periode repräsentiert eine topologisdie Struktur, die auch durch „metrische Begriffe" quantitativ ausgedrückt werden kann. Dadurch wird deutlich, daß diese wissenschaftliche Begriffsform eine innere Dynamik enthält, die sie notwendig in ein anderes Stadium übergehen läßt. Die Abstraktion entleert nicht diese Begriffe, sondern erhöht deren Informations-Kapazität. Mit diesem Übergang zu einem höheren Informationsgehalt ist ein Wechsel der Begriffsform verbunden, der die theoretische Vorbelastung eines Begriffes steigert. 3. Die Rätselhaftigkeit der sogenannten „Dispositionsbegriffe", die alle bisherigen wissenschaftstheoretischen Einteilungen der Begriffsformen gesprengt haben, wird durch die informationstheoretische Betrachtungsweise aufgehoben. Diese einfachen Begriffshypothesen, die schon die natürliche Alltagssprache kennt, sind nicht durdi eine statische Logik der Definition zu 35

Vgl. E. Ströker, Der Systembegriff in der Chemie, in: A. Diemer (Hrsg.), System und Klassifikation in Wissenschaft und Dokumentation, Meisenheim a. Gl. 1968, S. 84.

62

3. Begriffsbildung durdi Abstraktion

fassen, sondern nur durdi eine Logik der Veränderung. Zum Beispiel ist die Begriffshypothese „löslich" weder ein abbildender, deskriptiver, nodi ein komparativer Begriff. Denn dieser Begriff vergleicht nicht Gegenstände, sondern versucht, den gesamten Prozeß der Zustandsveränderung in ein Schema zu bringen. Dispositionsbegriffe sind daher als hypothetische Beschreibungen aufzufassen, die, ähnlich wie die abbildenden Begriffe, mit fließenden Übergängen nur als eine Folge von Zustandsbesdireibungen präzisiert werden können, welche die topologisdien Strukturen oder Reihenbildungen als Prozesse erscheinen lassen. Dadurch wird nicht nur eine Verobjektivierung von Konstanzphänomenen, sondern auch von Veränderungen erreicht. An die Stelle der subjektiven Erwartung, die mit dem alltagssprachlichen Begriff „löslich" verbunden ist, tritt der Begriff der „chemischen Reaktion", der diese Disposition als eine objektive Eigenschaft der Gegenstände bestimmt. Eine solche Bestimmung involviert aber den Übergang zu weiteren, von der Individualität der Gegenstände und Zustände noch entfernteren Begriffsformen, zu den metrischen und strukturellen Begriffen. 4. Die Grundlage der metrischen Begriffe bildet ein Maßsystem, auf das alle Begriffe auf dieser Stufe der Informationsverdichtung bezogen sein müssen. Erst auf dieser Stufe wird die Abstraktion zu einem definitorischen Begriffsbildungsverfahren im Sinne logischer Grundoperationen. Der Zusammenhang der metrischen Begriffe mit der „niedrigeren" Begriffsform der komparativen Begriffe ist dadurch gegeben, daß jedes Maßsystem den Prozeß der Vergleichung voraussetzt. Die Herstellung von „Maßstäben" selbst geschieht nicht durch die Empirie, sondern durch die logischen Operationen der Gleichsetzung im Sinne der Symmetrie, Reflexivität, Komparativität und Transitivität. Reflexivität bedeutet in diesem Zusammenhang, daß ein Maßstab die Bedingungen erfüllen muß, um sich selbst stets gleich zu bleiben, das heißt um keinen Veränderungen von außen zu unterliegen. Diese trivial klingende Forderung ist in der Realität nur annähernd zu erfüllen. Ebenso ist die Festlegung einer „objektiven" Maßeinheit von theoretischen Überlegungen verschiedener Art begleitet, wie die Geschichte der Maßsysteme, angefangen von Newtons Spekulationen über die altägyptische Maßeinheit, die sich in den Abmessungen der Cheopspyramide darstellt, bis zur Fixierung des heute üblichen Metermaßes,

Schema der Begriffsformen

63

zeigt. Ebenso ist die Forderung nach der Symmetrie, die in der relativistischen Physik des 20. Jahrhunderts eine besondere Bedeutung als nidit weiter relativierbare Basis aller Meßprozesse erhält, keineswegs trivial. Denn auch die Veränderung der Maßstäbe in verschiedenen bewegten Systemen muß einer Gesetzmäßigkeit unterliegen. Speziellere Bedingungen wie die Transitivität ergeben sich methodisch aus der Notwendigkeit, daß alle quantitativen oder metrischen Begriffe als numerische Funktionen eingeführt werden müssen. Einfacher ausgedrückt: „Die Gewinnung quantitativer Bestimmungen auf irgendeinem Gebiet geschieht entweder durch Zählung oder durch Messung. Das ursprüngliche Verfahren ist die Zählung."" Betrachtet man den Unterschied zwischen der quantitativen und der qualitativen Begriffsbestimmung „als einen Unterschied im Verfahren der Benennung", dann wird auch der höhere Grad an Informationsverdichtung deutlich, der auf dieser Stufe der Abstraktion erreicht worden ist. Denn die „Benennung mit Zahlen" hat gegenüber der „Benennung mit Worten" nach Carnaps plausibler Darstellung folgende Vorzüge: „Der Unterschied zwischen der quantitativen und der qualitativen Methode ist im Grunde ein Unterschied im Verfahren der Benennung: die quantitative Methode ,mißt' die verschiedenen Erscheinungsformen (Grade, Phasen) einer Eigenschaft, das heißt sie benennt sie mit Zahlen, die qualitative Methode benennt sie mit anderen Zeichen, meist Worten. Nun besitzt eine Benennung mit Zahlen folgende Vorzüge gegenüber einer Benennung mit Worten: 1. In den Zahlen steht uns eine unerschöpfliche Menge von Bezeichnungen zur Verfügung, während eine Aufstellung immer neuer Wortnamen für Tausende von Einzelphasen kaum durchführbar ist. 2. Die Benennung mit Zahlen kann der qualitativen Ordnung der Elemente (Phasen) so angepaßt werden, daß der Name eines jeden Elementes zugleich seine Stellung in der Ordnung angibt (Vorzug der Numerierung der Häuser einer Straße vor der Benennung mit individuellen Namen). 3. Die Benennung mit Zahlen macht es möglich, allgemeine Gesetzmäßigkeiten durch einen Ausdruck zusammenzufassen (nämlich durch mathematische Relationen zwischen den Zahlen, die ,Funktionen'); an Stelle einer einzigen mathematischen Gleichung müßten bei Wortbenennung Tausende von Einzelsätzen treten; prak51

R. Carnap, Physikalische Begriffsbildung, Karlsruhe 1926, S. 14.

64

3. Begriffsbildung durch Abstraktion

tisdi gesprochen: mit Wortbezeichnungen würde man das, was die Gleichung besagt, überhaupt nicht ausdrücken, sondern sich mit der Angabe vager Beziehungen begnügen. Der zuletzt genannte Umstand wirkt auch auf die Forschungstätigkeit zurück: erst wenn ein Mittel vorhanden ist, schärfere Gesetzmäßigkeiten in knapper Form (und damit überhaupt erst praktisch brauchbar) zum Ausdruck zu bringen, erhält die Forschung einen hinreichenden Anreiz, solche Gesetzmäßigkeiten aufzusuchen. Hier wirkt, wie auch an manchen anderen Stellen der Wissenschaftsentwicklung, die wesentliche Verbesserung eines Darstellungsmittels als Anlaß zu schärferer Fragestellung und weiterdringender Untersuchung." 87 5. Hängt die Einführung metrischer Begriffe in die empirische Erfahrungswissenschaft von der Festsetzung eines Maßsystems ab, das dann ein erfahrungsunabhängiges, aber dennoch sicheres logisches Operieren mit abstrakten Begriffen ermöglicht, so hängt die Einführung nichtquantitativer, theoretischer Grundbegriffe von der Gesamtstruktur des wissenschaftlichen Systems ab. Theoretische Begriffe sind zwar erfahrungsunabhängige, aber nicht apriorische Begriffe im absoluten Sinn; sie sind systemrelativ, das heißt abhängig vom historischen Zustand einer jeweils gegebenen wissenschaftlichen Grundlagentheorie, die zumeist in der Form eines axiomatisdien Systems auftritt. Diese theoretischen Grundbegriffe eines erfahrungswissenschaftlichen Systems, wie „Raum", „Zeit", „Bewegung", „Leben" usw., können in anderen Zusammenhängen, etwa auch in der Alltagssprache, durchaus einen nichttheoretisdien, empirischen Charakter haben. Dann aber sind sie keine exakten Begriffe im Sinne der empirischen Beschreibungsbegriffe, ausgestattet mit einer eindeutigen Abbildungsfunktion, sondern nur sehr vage allgemeine, inhaltsarme Begriffe ohne besonderen Informationsgehalt. Relativiert auf ein bestimmtes wissenschaftliches Informationssystem, haben sie jedoch den höchsten Grad an Informationsverdichtung, denn ihre Verknüpfung mit den axiomatischen Grundsätzen einer wissenschaftlichen Theorie macht sie zu den Repräsentanten aller strukturellen Informationen, die ein bestimmtes erfahrungswissenschaftliches System in einem bestimmten historischen Zustand enthält. " Ebenda, S. 51.

Das Induktionsproblem

65

4. Hypothesenbildung durdi Induktion: Die zweite Stufe der Informationsverdichtung Über die Berechtigung und den Wert der Hypothese im erfahrungswissenschaftlichen Forschungsprozeß sind im Laufe der neuzeitlichen Wissenschaftsgeschichte eine Reihe höchst ambivalenter, zumeist jedoch negativer Aussagen gemacht worden. Berühmt ist jene von Newton im Scholium generale seines Hauptwerks getroffene Feststellung: „Hypotheses non fingo"1, die zum Teil als empiristisches Verdikt über jede Art von Hypothesen, zum Teil in abgeschwächter Form als Verbot von unbegründeten metaphysischen Hypothesen aufgefaßt worden ist. Die letztere Auffassung vertrat auch R. Cotes, der Herausgeber der zweiten Auflage der Principia, der die Ansichten Newtons am klarsten und folgerichtigsten weiterentwickelt hat: „Hypothesen werden ersonnen (comminiscor statt fingo), jedoch werden sie nur als Fragen, über deren Wahrheit geurteilt werden soll, in die Physik aufgenommen."8 Mit dieser Formulierung wird bereits der eigentliche Charakter der Hypothese als methodischer Anfang des wissenschaftlichen Forschungsprozesses zum Ausdruck gebracht. Nodi präziser hat sich W. Whewell geäußert: „Die Bildung von Hypothesen ist für den Wahrheitssudler nicht das Ende, sondern der Beginn seines Werkes."8 Im Rahmen der erfahrungswissensdiaftlichen Erkenntnis ist dieser methodische Anfang jedoch kein absoluter Anfang; er setzt vielmehr empirische Anfänge voraus, durdi deren Induktion erst die Hypothesen aufgestellt werden können. Das bedeutet, daß die Bildung von Hypothesen auf einem methodischen Suchen beruht, das selbst wiederum auf objektive Informationen über die Natur zurückgeht, die als Fakten, als „Tatsachen" bezeichnet werden. Der Prozeß der Hypothesenbildung setzt mit einer solchen Sammlung von Fakten ein. Die eigentliche Induktion besteht aber nicht im bloßen Sammeln und Anhäufen von empirischen Fakten, sondern sie bezweckt eine Erweiterung des empirischen Erfahrungswissens auf Grund eines theoretischen Verfahrens. Den theoretischen Charakter der Induktion hat schon Whewell 1

Vgl. I. Newton, Philosophiae naturalis principia mathematica, ed. le Seur - Jaquier, Genf 1760, Tom. III, p. 676. t Ebenda, Tom. I, XVI. * W. Whewell, Novum Organon Renovatum, London 1858, S. 80. 5

Oeser, Band 3

66

4. Hypothesenbildung durch Induktion

audi gegenüber J . St. Mill betont. „Induktion", sagt er in seiner „Philosophy of Discovery", „ist nicht dasselbe wie Erfahrung und Beobachtung. Induktion ist Erfahrung und Beobachtung, die man mit Bewußtsein in einer allgemeinen Gestalt auffaßt." 4 Durch diese Definition des Induktionsbegriffs wird deutlich, daß es sich dabei im Prinzip um dasselbe Verfahren handelt, das als Abstraktion der methodischen Begriffsbildung zugrunde liegt. Dieser Zusammenhang wurde bereits von Apelt eindeutig erkannt: „Das zusammengesetzte Besondere steht immer früher vor unserem Bewußtsein als das einfachere Allgemeine. In den abgesonderten Besitz des letzteren kommt der Verstand immer erst durch Abstraktion. Die Abstraktion ist daher die Methode der Aufsuchung der Prinzipien." 5 So ist nadi Apelts Meinung auch Galileis Entdeckung des Trägheitsgesetzes durch Abstraktion erfolgt: „Wie und wann aber Galilei darauf gekommen sein mag, so ist doch soviel gewiß, daß die Erkenntnis dieses Gesetzes nicht, wie Whewell sich zu zeigen bemüht, der Induktion, sondern der Abstraktion ihren Ursprung verdankt." 6 Die Kritik Apelts an Whewell ist jedoch nicht gerechtfertigt, denn dieser versteht, wie bereits Mach klargestellt hat, den Begriff der Induktion im Sinne einer theoretischen Begründung durch Abstraktion, nur daß er die Wichtigkeit der Bekanntschaft mit verschiedenen Fällen als Vorbedingung zur Bestätigung der Abstraktion weit besser hervorhebt als Apelt. So wie die Begriffsbildung durch Abstraktion nur durch Vergleichung invarianter Elementarinformationen zustande kommt, so bildet bei der induktiven Hypothesenbildung die Vergleichung der beobachtbaren Fälle die Grundlage für die abstrakte Verallgemeinerung. Eine solche Charakterisierung des Whewellschen Induktionsbegriffs als eines sich auf die Abstraktion stützenden sekundären Verfahrens theoretischer Erkenntniserweiterung hat schon vor Mach J . St. Mill geliefert, wenn er sich mit folgenden Worten von Whewell distanziert: „Dr. Whewell nennt nichts Induction, wo-

Whewell zitiert von J . St. Mill, System der deduktiven und induktiven Logik. Eine Darlegung der Grundsätze der Beweislehre und der Methoden wissenschaftlicher Forschung, übersetzt von Th. Gomperz, Leipzig 1872, 1. Bd., S. 307. Vgl. W. Whewell, On the Philosophy of Discovery, London 1860, S. 245. 5 E. F. Apelt, Die TTieorie der Induktion, Leipzig 1854, S. 49. • Ebenda, S. 60. 4

Das Induktionsproblem

67

durch nicht ein neuer Verstandes-Begriff eingeführt wird, und nennt Alles, wodurch dies geschieht, Induction." 7 Mill rechnet dieses Verfahren Whewells zu den „Inductionen im uneigentlichen Sinn"; er wirft Whewell vor, daß er „zwei sehr verschiedene Dinge zusammenwürfelt: Erfindung und Beweis"8. Die gegenwärtige Wissenschaftstheorie, die sich in der Behandlung des Induktionsproblems zwar nidit an Whewell, sondern an D. Hume orientiert9, hat die von Mill propagierte Trennung von Beweis und Erfindung durch die Zerlegung des „Humesdien Problems" in ein logisches und ein psychologisches nachvollzogen. Der Unterschied zur Millsdien Auffassung besteht allerdings in der Verwerfung der induktiven Logik bzw. in deren Ersetzung durch wahrsdieinlidikeitstheoretisdie Überlegungen10. Die Beschränkung der modernen Wissenschaftstheorie bei der Behandlung des Induktionsproblems auf die Humesche Auffassung hat ihren Grund in der Radikalisierung der Problemstellung, die Hume durchgeführt und durch den Satz ausgedrückt hat: „Alle Ableitungen aus Erfahrung sind Wirkungen der Gewohnheit, nicht der Vernunfttätigkeit. an Für Popper ist in diesem Zusammenhang entscheidend, daß Hume gleichzeitig zeigt, daß die logisdien Verhältnisse völlig unverändert bleiben, wenn der induktive Schluß als wahrscheinlich bezeichnet oder auf wahrscheinliche Erfahrungen geschlossen wird. Von Russell wurde Humes Skeptizismus als eine Bankrotterklärung der Vernunft des 18. Jahrhunderts aufgefaßt und die Forderung nach einer Lösung des Induktionsproblems in folgender Weise dramatisiert: „Daher ist es wichtig, herauszufinden, ob es im Rahmen einer ganz oder teilweise empiristischen Philosophie eine Antwort auf Hume gibt. Wenn nicht, dann gibt es keinen erkenntnistheoretischen Unterschied zwischen Vernunft und Wahnsinn. Der Verrückte, der

7

Mill, System der deduktiven und induktiven Logik, S. 329. Ebenda. • Vgl. Popper, Objektive Erkenntnis, S. 13 ff. 10 Eine besondere Stellung nimmt Popper bei der Diskussion dieses Problems ein, indem er auch die wahrsdieinlidikeitstheoretisdie Uminterpretation des Induktionsproblems durdi Reidienbadi und Carnap negiert. 11 Vgl. D. Hume, An Enquiry Concerning Human Understanding, section V, part I, deutsche Übersetzung von R. Richter, Leipzig 1920, S. 55 f. 8

5*

68

4. Hypothesenbildung durdi Induktion

sich für ein Rührei hält, ist nur deshalb abzulehnen, weil er sich in der Minderheit befindet." 12 Im folgenden soll gezeigt werden, daß die historische Fixierung des Induktionsproblems auf Hume unberechtigt und die systematische Trennung von Beweis und Erfindung verfehlt ist und daß das Verständnis des klassischen Induktionsproblems in der modernen Wissenschaftstheorie an einer fundamentalen Verwechslung leidet, nämlich an der Verwechslung des Induktionsverfahrens mit erkenntniserweiternden Schlüssen der Aussagenlogik. Von Hume selbst wird das Induktionsproblem nie als ein Problem der demonstrativen Aussagenlogik, sondern stets als ein Problem der „Erfahrungsschlüsse" angesehen, die nicht auf das rein logische Verhältnis von Grund und Folge, sondern auf das Verhältnis von Ursache und Wirkung gegründet sind, dessen Feststellung ausschließlich durdi Erfahrung zustande kommt. Sein Skeptizismus richtet sich daher nicht gegen die logische Rechtfertigung von erkenntniserweiternden Schlüssen, die es im Rahmen einer demonstrativen Logik als gültige Schlußformen gar nicht gibt, sondern gegen die Möglichkeit einer Entdeckung der letzten realen Ursache für eine Wirkung. Das geht eindeutig aus dem Humeschen Originaltext hervor; Hume leugnet, daß sich für empirische Ereignisse, wie für die „Entzündung des Schießpulvers" oder die „Anziehung des Magneten", Gründe a priori entdecken lassen, das heißt reale Ursachen, die vor aller Erfahrung gültig sind und deswegen auch notwendig für jede zukünftige Erfahrung gelten müssen. Dieses Problem der apriorischen Verknüpfung von Ursache und Wirkung nannte Kant das „Humesche Problem". Popper nimmt für sich in Anspruch, als erster das Induktionsproblem als „Humesches Problem" bezeichnet zu haben 13 und dieses Problem mit seiner Falsifikationstheorie der „Logik der Forschung" „negativ" sowie mit seiner sich auf Tarski berufenden Approximationstheorie der Wahrheit „positiv" gelöst zu haben14. Tatsächlich handelt es sich bei dem „Humeschen Problem" 12

,s

14

B. Russell, A History of Western Philosophy, London 1946, S. 698. Vgl. Popper, Objektive Erkenntnis, S. 17. Vgl. ebenda, S. 16, unter Hinweis auf seinen Aufsatz, in: Erkenntnis 3, 1933, S. 426 f., und: Logik der Forschung, 1925, Abschnitt 4, S. 9. Popper, Logik der Forschung, 3. deutsche Aufl., S. 226.

Das Induktionsproblem

69

weder um ein logisches noch um ein psychologisches Problem der Induktion, sondern, wie Kant ausdrücklich betonte, um das Problem der „Möglidikeit der Metaphysik". Daß es Hume selbst nicht um Logik und Wissenschaftstheorie, sondern primär um Metaphysik gegangen ist, versucht Kant durch die wörtliche Zitierung Humes klarzustellen: „Metaphysik und Moral", sagt er (Versuche 4. Teil, S. 214, deutsche Übersetzung), „sind die wichtigsten Zweige der Wissenschaft; Mathematik und Naturwissenschaft sind nicht halb soviel wert." 15 Das Induktionsproblem ist nicht das metaphysische Problem der apriorischen Verknüpfung von Ursache und Wirkung; es ist das wissenschaftstheoretische Problem der Bildung einer Hypothese über das Verhältnis von Bedingung und Ereignis16. Eine Hypothese bezieht sich auf beobachtbare Ereignisse oder Phänomene, deren zeitliche Abfolge (post hoc im Sinne von Hume) nicht als Ablauf zwischen Ursache und Wirkung (propter hoc) aufgefaßt werden kann. Es handelt sich dabei also auch nicht um ein Problem der demonstrativen = deduktiven Logik, in der es keine zeitliche Abfolge gibt, sondern um dasjenige einer Logik von Erfahrungsprozessen. Antecedens und consequens sind daher weder metaphysische Behauptungen über Ursache und Wirkung nodi formallogische Aussagenverknüpfungen im Sinne von Prämissen und Folgerungen; sie sind vielmehr als „Erfahrungsbeweise" zu betrachten, die Hume von den „Demonstrationen" sowie den „Wahrscheinlichkeiten" unterscheidet. Die Induktion besteht nun darin, aus den beobachtbaren Verhältnissen von Bedingung und Ereignis Rückschlüsse auf deren mögliche ursächliche Verknüpfung zu ziehen. Die Induktion ist also kein Prozeß der Zusammenzählung von Ereignissen; sie ist ein Abstraktionsprozeß, der zu einem allgemeinen Begriff führt. Die Bildung eines solchen allgemeinen Begriffs ist die eigentliche Entdeckung. Der induktive Syllogismus, der daraus im Sinne der klassischen Logik konstruiert wird, ist demgegenüber nur die sekundäre Darstellung des Entdeckungs- oder Hypothesenbildungsprozesses in einem logisdien Schema. In der Terminologie der modernen Logik ausgedrückt: Das Induktionsproblem ist nicht ein Problem der 15

le

Vgl. I. Kant, Prolegomena, 6. Aufl., hrsg. von K. Vorländer, Leipzig 1920, S. 4. Diese Meinung vertritt Whewell, sie wird von Mill nicht akzeptiert.

70

4. Hypothesenbildung durdi Induktion

Aussagenlogik, das heißt, es ist nicht primär das Problem reduktiver Folgerungstechniken, sondern es ist vielmehr ein Problem der Prädikatenlogik. Wie es für den Prädikatenkalkül keinen allgemeinen Algorithmus gibt, so gibt es auch für die Logik der Hypothesenbildung keinen Algorithmus, das heißt ein formales Verfahren zur Lösung einer Klasse von Problemen unabhängig von deren inhaltlicher Bedeutung. Die historische Entwicklung der Induktion als ein der methodischen Begriffsbildung der Abstraktion entsprechendes Verfahren der Hypothesenbildung läßt sich an Hand von drei auseinander hervorgehenden klassischen Werken induktiven Denkens demonstrieren: 1. Das Organen des Aristoteles, der in der Topik und in den Analytica sowohl die Idee der Heuristik als audi der Induktion als erster systematisch dargestellt hat. 2. Das Novum Organon von Bacon, der die Induktion als die einzige rationale Methode erfahrungswissenschaftlicher Entdeckungen propagierte, in ihr aber kein Instrument der Hypothesenbildung sehen wollte, womit er sich in Gegensatz zur zeitgenössischen mathematischen Naturwissenschaft Galileis17 und Keplers stellte. 3. Das Novum Organon Renovatum von W. Whewell, der die Schwächen des methodischen Ansatzes von Bacon erkannte und auf Grund Kantischer Überlegungen 18 , die an der mathematischen Physik Newtons orientiert waren, zu einer Lösung kam, die durch die historische Relativierung des Apriori weit über Kant hinausging. Whewells einziges systematisches Werk zur Wissenschaftstheorie ist zwar, ebenso wie Bacons Novum Organon, nur eine Sammlung von Aphorismen geblieben. Diese Unabgeschlossenheit und Unvollendetheit, die von formalistischen Systemen nur scheinbar überwunden wird, liegt jedoch im Wesen einer Wissenschaftstheorie, die auf der Geschichte der Wissenschaft 17

18

Bekannt ist die Stellungnahme Bacons gegen Galilei: „Ich wollte lieber, die Astronomen Italiens hielten sich etwas mehr an die Erfahrung und Beobachtung, anstatt uns mit diimärischen und verrückten Hypothesen zu unterhalten." Brief aus dem Jahre 1617. Vgl. F. Bacon, Novum Organon, hrsg. von M. Buhr, Berlin 1962, Einleitung S. XII. Kant hat selbst die „Kritik der reinen Vernunft" als eine neue „Instauratio Magna" verstanden, wie seine Zitierung Bacons als Motto der zweiten Auflage zeigt.

Das Induktionsproblem

71

gegründet ist 19 . Auf der empirischen Basis einer historischen Analyse des Gesamtbereichs des seinerzeit bekannten naturwissenschaftlichen Wissens ist Whewell nicht nur zu einer heute noch relevanten Lösung des Induktionsproblems und anderer wissenschaftstheoretischer Einzelprobleme, sondern auch zu einem Verständnis des Gesamtprozesses wissenschaftlicher Erfahrungserkenntnis gelangt. Die Theorie der Hypothesenbildung wird von ihm als der methodische Anfang eines Rekonstruktionsprozesses betrachtet, der zu einer Metatheorie der erfahrungswissenschaftlichen Theorienbildung führt und schließlich mit der Darstellung jenes Mechanismus von „conjectures" und „refutations" endet 20 , in dem die moderne, an Popper orientierte Forschungslogik ihre einzige Aufgabe sieht. Whewell stützt seine positive Lösung des Induktionsproblems, das er als ein in sich untrennbares Problem der Entdeckung und Begründung von erfahrungswissenschaftlichen Hypothesen ansieht, auf die ursprüngliche Bedeutung der Induktion bei Aristoteles und zitiert aus dem 23. Kapitel des zweiten Buchs der Analyt. prior, folgende Stelle: „Induktion besteht darin, daß man mit Hilfe eines Außenbegrifis den anderen Außenbegriff als zutreffend f ü r den Mittelbegriff erschließt." 81 Aristoteles hat die Induktion ausdrücklich als einen Schluß auf die erste allgemeine und unvermittelte Prämisse verstanden und sie deshalb auch als das Gegenteil des Schlusses, des Syllogismus im eigentlichen Sinn, bezeichnet. Denn der Syllogismus weist durch den Mittelbegriff den Oberbegriff f ü r den Unterbegriff nach, die Induktion dagegen findet durch den Unterbegriff den Oberbegriff f ü r den Mittelbegriff 22 . D a ß Aristoteles den „induktiven Schluß" in Form eines Syllogismus darstellen kann, beruht darauf, daß die Aristotelische Logik bzw. die peripatetische Logik überhaupt im Unterschied zur stoischen Logik und zur modernen Logik seit Frege keine Aussagenlogik, sondern

" Vgl. E. Oeser, Wissenschaftstheorie als Rekonstruktion der Wissenschaftsgeschichte, in: Geschichte und System, Wien-München 1972, S. 66. M Diese beiden Begriffe werden von Whewell im Kapitel V von Novum Organon Renovatum in den Abschnitten über den „Gebrauch" und das „Testen von Hypothesen" ausdrücklich verwendet. 21 Whewell, Novum Organon Renovatum, S. 74. 28 Aristoteles, Analyt. prior., II, S. 23.

72

4. Hypothesenbildung durch Induktion

eine Namen- oder Prädikatenlogik ist, wie J . Lukasiewicz23 ausführlich dargestellt und begründet hat. Als einen „Prädikatenkalkül", für den es, wie bereits gezeigt, keinen universellen Ableitungsalgorithmus gibt, hat audi Whewell die Induktion verstanden, wie er am Beispiel der Entdeckung des ersten Keplerschen Planetengesetzes illustriert: „Merkur, Venus, Mars" stellen den logischen Unterbegriff im partikulären Urteil dar. Die generelle Bezeichnung „Planeten" bildet den logischen Mittelbegriff. Die Auffindung des zweiten Außenbegriffs, der den Oberbegriff in der allgemeinen Gesetzesaussage bildet, ist dabei der eigentliche Schritt der Entdekkung (discovery). Die Auffindung des Begriffs der „elliptischen Bewegungsform" ist nach Whewell ein methodisch analysierbarer Prozeß, der nicht, wie Mill annahm, der sukzessiven Entdeckung der Küstenlinie einer Insel gleicht, sondern sie ist ein Prozeß des Aufstellens und Verwerfens (rejecting) einer Reihe von „zweiten Außenbegriffen", wie er auch von Kepler selbst durch verschiedene Kombinationen epizyklischer Konstruktionen durchgeführt worden ist 24 . Der Kern einer allgemeinen Gesetzeshypothese besteht also aus einer Kette von Begriffshypothesen, die sich in methodischer Folge den Bedingungen der „mathematischen Abstraktion durch Definition" annähern. Jede Induktion ist für Whewell deshalb eine „überinduzierte Auffassung der Fakten" 2 5 , die in mehreren, methodisch begründbaren Schritten zu einem abstrakten, verdichteten Begriffsschema führt, das in jedem Stadium seiner Entwicklung durch einen entsprechenden Tatsachenkomplex (colligation of facts) gestützt wird. Whewells dynamische Auffassung der Hypothese als eines Elements innerhalb einer Hypothesenfolge ist in der modernen Wissenschaftstheorie von K. Greiling vertreten worden: „Jede Hypothese hat eine Lebensgeschichte... In jedem Stadium ihrer Lebensgeschichte kommt der Hypothese ein gewisser Grad von Bewährung zu, und zwar schon bei ihrer Geburt; denn sie würde gar nicht aufgestellt werden, wenn es nicht Tatsachen gäbe, die sie bestätigen." 26 Damit wird in einer posiJ.Lukasiewicz, Zur Geschichte der Aussagenlogik, in: Erkenntnis, Bd. 5, 1935, S. 112. 24 Whewell, Novum Organon Renovatum, S. 75. 2 5 Conception superinduced upon the facts, ebenda, S. 74. 2 · Κ. Greiling, Wahrscheinlichkeit von Hypothesen, in: Erkenntnis, Bd. 5, 1935, S. 169. 23

Positive und negative Heuristik

73

tiven Heuristik, das heißt einer Theorie der Hypothesenbildung, die Aussage über die Wahrscheinlichkeit von Hypothesen durch Aussagen über das wahrscheinliche Schicksal von Hypothesen ersetzt. Diese Ansicht ist jedoch von Popper ohne jede Argumentation als „unbefriedigend" verworfen und durch jenes Dogma ersetzt worden, von dem noch heute ein Großteil forschungslogischer Untersuchungen beeinflußt wird, nämlich das Dogma von den Hypothesen als „grundsätzlich unbegründbaren Anticipationen" 27 . Die Konsequenz daraus ist, daß die empirische Erfahrungswissenschaft nicht als „Wissenssystem" aufgefaßt wird, sondern als ein System von Ableitungsbeziehungen, das letzten Endes auf unbegründbaren Vermutungen basiert. Eine scheinbare Stütze erhält diese Auffassung durdi das negative Resultat der metamathematischen Beweistheorie, das besagt, daß es prinzipiell nicht möglich ist, die Axiome, von denen alle anderen Aussagen eines deduktiven Systems abhängen, aus dem System selbst oder mit den Mitteln dieses Systems abzuleiten. Wenn jedoch die Axiome und Grundbegriffe eines erfahrungswissenschaftlichen Systems als „Hypothesen", als „vorweggenommene" Erfahrungen, betrachtet werden, dann ist damit auch klar, daß weder die Bildung noch die Rechtfertigung von Hypothesen eine Angelegenheit der formalen deduktiven Logik, sondern diejenige einer positiven und negativen Heuristik ist, die methodisch allen anderen Disziplinen der Wissenschaftstheorie, sei es Begründungstheorie, Beweistheorie oder Bestätigungstheorie, vorgeordnet ist28. Die Aufgabe einer Heuristik im positiven wie im negativen Sinn ist es zu zeigen, daß die Bildung von erfahrungswissenschaftlichen Hypothesen als axiomatisdien Anfangsbedingungen einer deduktiven Theorie zwar niemals durdi formallogische Ableitungsprozesse erzwungen werden kann, daß es aber trotzdem methodische Verfahren gibt, welche die Suche nach brauchbaren Hypothesen erleichtern und eine rationale Bewertung schon vor deren Eingliederung in ein axiomatisdi-deduktives System ermöglichen. Mit anderen Worten: Hypothesen haben zwar den Charakter von „Vermutungen", weil zu ihnen kein zwangsläufiger Weg führt, sie beruhen aber deswegen noch lange nidit auf bloßem Zufall oder gar auf dem unergründbaren 27

28

K. Popper, „Induktionslogik" und „Hypothesenwahrscheinlichkeit", in: Erkenntnis, Bd. 5, 1935, S. 172. Wie bereits Whewell, Bolzano und andere wußten.

74

4. Hypothesenbildung durch Induktion

Einfall einer individuellen, exzeptionellen Forscherpersönlichkeit. Denn zwischen dem vollständig determinierten Ableitungsprozeß, wie ihn die deduktive Logik als Grundlage des formalen Schließens ansieht, und der völligen Ungebundenheit und Freiheit der Intuition gibt es verschiedene methodische Suchverfahren, die alle zu demselben Ziel führen: zu einer wissenschaftlich begründeten Hypothese. Die Wissenschaftsgeschichte selbst liefert für die Existenz solcher methodischer Suchverfahren und für die „Rationalität" in dem Auftreten und dem Einander-Ablösen von Hypothesen den besten Beweis. Denn die Entdeckung wissenschaftlicher Hypothesen ist durch den historischen Gesamtzustand einer Wissenschaft bestimmt, der bewirkt, daß bestimmte Hypothesen zu einem bestimmten historischen Zeitpunkt auftreten müssen. Obwohl der Prozeß der Auffindung oder Entdeckung auf sehr verschiedenartige Weise ablaufen kann, ist das Ergebnis das gleiche und unterscheidet sich bestenfalls in der äußeren Darstellung. Deshalb kann man audi durchaus sagen, daß die Keplerschen Gesetze oder das Newtonsche Gravitationsgesetz auch dann entdeckt worden wären, wenn es Kepler und Newton nie gegeben hätte. Einen noch stärkeren Hinweis auf die Möglichkeit einer Heuristik stellt das historische Faktum der Doppel- und Mehrfachentdeckungen dar. Wenn die in der Wissenschaftsgeschichte mit großer Heftigkeit und Voreingenommenheit diskutierten Prioritätsstreitigkeiten überhaupt einen Sinn haben, so den zu zeigen, daß das Auftreten einer bestimmten wissenschaftlichen Entdeckung zu einem bestimmten Zeitpunkt nicht auf Zufall beruht, sondern triftige Gründe hat, so verschiedenartig sie auch sein mögen. Ein berühmtes Beispiel dafür ist der Prioritätsstreit um die Entdeckung der Infinitesimalrechnung zwischen Newton und Leibniz. Für Newton ging es dabei um das Problem der Berechnung „fließender Größen" bei mechanischen Bewegungsvorgängen, für Leibniz dagegen ging es um das metaphysisch-ontologische Problem des Unendlichen im Rahmen der Monadenlehre. Mit diesen Beispielen soll betont werden, daß die Heuristik stärker als alle anderen Disziplinen der Wissenschaftsgeschichte an die Analyse der faktischen Wissenschaftsgeschichte gebunden ist, während die formale, deduktive Beweistheorie von jener gänzlich abgelöst werden kann. Die Heuristik studiert tatsächlich vorkommende Fälle von Entdeckungen und Erfindungen und versucht, aus ihnen allgemeine Gesetze des Ent-

Positive und negative Heuristik

75

deckens und Erfindens abzuleiten, die von der jeweiligen konkreten Aufgabe unabhängig sind 28 . In der formalen Beweistheorie geht es dagegen lediglidi um die formale Wahrheit bzw. Widerspruchsfreiheit eines wissenschaftlichen Systems; eine Aufgabe, die ohne jeden Rückgriff auf die faktische Wissenschaftsgeschichte gelöst werden kann. Heuristische Überlegungen werden im Stadium dieses deduktiven, metatheoretischen Überprüfungsprozesses überflüssig, wie sie es auch im faktischen Forschungsprozeß werden, wenn eine Sache beendet, eine Aufgabe gelöst oder ein Beweisgrund mit heuristischen Methoden gefunden ist und der Beweis selbst sidi mit rein formalen Mitteln als deduktive Lösungsprozedur darstellen läßt. Sieht man jedoch die Aufgabe der Wissenschaftstheorie nicht nur in einer metatheoretischen Analyse formaler Argumentationsstrukturen, sondern in einer methodischen Analyse des gesamten Forschungsprozesses, der diesen deduktiv-formalen Ableitungsprozessen vorausgeht, so kommt der Heuristik eine besondere Aufgabe zu, die ihr wegen ihres praktischen Nutzens und ihrer möglichen Verwertbarkeit seit jeher eine höhere Wertschätzung eingetragen hat als der Beweistheorie. So weist bereits Cicero darauf hin, daß die Stoiker die Aristotelische Syllogistik als eine „ars iudicandi" weiter ausgearbeitet haben, während die Topik als „ars inveniendi", als Lehre von den Anfangssätzen und ihren Suchregeln, unberücksichtigt geblieben ist. Diese Topik ist jedoch nach Cicero nicht nur nützlicher, sondern auch „ordine naturae certe prior". Diese Wertschätzung der „ars inveniendi" vor der „ars iudicandi" findet sich später auch bei Raimundus Lullus, dem eigentlichen Begründer einer Lehre der mechanischen Suchregeln30. Bolzano setzt schließlich die Topik als „ars inveniendi" mit der Heuristik gleich und baut sie in sein System der Wissenschaftslehre als „Erfindungskunst" ein. Einer der wenigen, der sich in der gegenwärtigen Wissenschaftstheorie mit der Heuristik beschäftigt, ist Pölya, der auf Descartes zurückgreift. Ansätze zu einer Heuristik, zumeist verknüpft mit Kybernetik, finden sich außerdem in der marxistischen Erkenntnis- und Wissenschaftstheorie31. Die konkrete Aufgabe der Heuristik besteht in der Lösung ** Vgl. G. Klaus, Wörterbuch der Kybernetik, Berlin 1968, S. 249. 50 Vgl. E. W. Platzeck, Raimund Lull, Düsseldorf 1962, S. 125 ff. 31 Vgl. Klaus, Wörterbuch der Kybernetik, S. 249.

76

4. Hypothesenbildung durch Induktion

zweier grundsätzlicher Probleme, die bei der Frage nach dem methodischen Charakter von Hypothesen als Anfangsbedingungen erfahrungswissenschaftlicher Theorien auftaudien: 1. das Problem der Hypothesenbildung, dessen Lösung mit Hilfe von Sudiregeln möglich ist. Dieses Problem ist seit Bolzanos ausführlichem, ja geradezu umständlichem Versuch einer Darstellung der „Erfindungskunst" nur selten explizit in der Wissensdiaftstheorie behandelt worden. Es wurde meistens unter Berufung auf das höchst ungeklärte Dogma der Trennung von „context of discovery" und „context of justification", auf das bereits hingewiesen worden ist, bewußt aus der wissenschaftstheoretischen Diskussion eliminiert. Eine „logic of discovery" 82 bildet jedoch als positive Heuristik einen notwendigen Bestandteil einer Wissenschaftstheorie, die den dynamischen Prozeß der Wissenschaftsentwicklung von seinen Anfängen her rational rekonstruieren will. 2. das Problem der Hypothesenbewertung, dessen Lösung mit Hilfe formalisierbarer Methoden möglich ist, wobei jedoch die Hypothesen selbst als gegeben vorausgesetzt werden müssen. Dieses Problem ist nicht zu verwechseln mit dem der Überprüfung von Hypothesen im Rahmen einer kompletten Theorie, aus der Prognosen als singuläre Aussagen über mögliche Beobachtungen abgeleitet werden können, denn diese deduktive Argumentationsstruktur berücksichtigt die Hypothese nur als nichtisolierbare Allaussage. Die Bewertung einer Hypothese mit Bezug auf ihren Wahrscheinlichkeitsgrad ist vielmehr die notwendige Aufgabe einer negativen Heuristik, die noch vor dem konstruktiven Aufbau der Theorie bewältigt werden muß. Die Eliminierung dieses Problems würde konsequent in den halbierten Rationalismus des deduktivistischen Falsifikationismus führen, der wissenschaftliche Theorien gewissermaßen in der Luft hängen läßt, bzw. sie lediglich mit einem „metaphysischen Hintergrundwissen" ausstattet, dem jeder wissenschaftstheoretische Erklärungswert fehlt. 31

Vgl. N.R.Hanson, The Logic of Discovery, in: B.Brody and N. Capaldi (eds.), Science — Men, Methods, Goals, New York 1968, S. 150 ff.; Patterns of Discovery, Cambridge 1972, und Perception and Discovery, San Francisco 1969.

Positive und negative Heuristik

77

Für die Methode, die der negativen Heuristik zugrunde liegt, gibt es traditionellerweise auch in der modernen Wissenschaftstheorie nur einen möglichen Namen: Induktion. Wie bereits Carnap, Reichenbach u. a. hervorgehoben haben, stellt die Induktion als formalisierbare Methode der Hypothesenbewertung im Rahmen der negativen Heuristik keinen Gegensatz zur Deduktion dar. Vielmehr soll sie das Schema deduktiven Schließens, das auf einer totalen logischen Implikation beruht, durch solche Verfahren erweitern, die auf Grund partieller logischer Implikation zustande kommen und die deswegen Gültigkeit nur in Form von Wahrscheinlichkeitsgraden beanspruchen können. Dadurch bewegen sich alle diese Verfahren partieller logischer Implikation im Rahmen des deduktiven Schließens; weswegen diese Form von Induktion als Sonderfall der Deduktion als „ hypothetisch-deduktive" 33 Methode bezeichnet werden konnte. Die negative Heuristik der Hypothesenbewertung stellt also eine Parallele dar zum ebenfalls „hypothetisch-deduktiven" Verfahren der Falsifikation im Bereich der Bestätigung oder Bewährung wissenschaftlicher Theorien mit Hilfe des prognostischen Verfahrens. Der Unterschied zwischen dem hypothetisch-deduktiven Verfahren der Induktion, das auf partieller logischer Implikation basiert, und der Deduktion als totaler, vollständiger logischer Implikation besteht darin, daß im ersten Fall Wahrscheinlichkeitsgrade — im numerischen oder im nichtnumerischen Sinn — aufgestellt werden, während im zweiten Fall solche Wahrscheinlichkeiten bei der deduktiven Überprüfung von Hypothesen gerade nicht auftreten können. Denn die deduktive Logik ist als totale logische Implikation eine zweiwertige Logik ohne Zwischenstufen, das heißt eine Theorie der Übertragung der Wahrheit oder Falschheit ohne jegliche Abschwächung durch Wahrscheinlichkeitsgrade. Nach den Gesetzen der klassischen deduktiven Logik ergibt sich daraus notwendig eine Asymmetrie von Verifikation und Falsifikation im Sinne der hypothetischen Schlußformen des modus ponens und des modus tollens. Bei der Beurteilung von Hypothesen mit Hilfe der formalen Methoden der induktiven Logik treten dagegen ex definitione nur Wahrscheinlichkeitsgrade auf. Aus diesem Grund kann es auch in diesem Bereich keine Verifizierung oder Falsi3

* So von Reidienbach unter Berufung auf Galilei, in: Der Aufstieg der wissenschaftlichen Philosophie, Berlin o. J. (1951), S. 118.

78

4. Hypothesenbildung durdi Induktion

fizierung von Hypothesen und daher auch keine Asymmetrie zwischen den beiden Formen der Hypothesenbeurteilung geben. Im Stadium der negativen Heuristik kann es also lediglich ein Vergleichen, Abschätzen und Bewerten von mehr oder weniger wahrscheinlichen Hypothesen geben, wobei jedoch das „Mehr" an Wahrscheinlichkeit niemals den Grad absoluter Gewißheit oder Wahrheit erreichen kann und das „Weniger" an Wahrscheinlichkeit niemals gleich Null werden kann. Das schließt aber nicht aus, daß gewisse geringe Wahrscheinlichkeiten als Unmöglichkeiten behandelt werden können und daß hohe Wahrscheinlichkeiten zur Akzeptierung von Hypothesen genügen müssen. Eine solche Entscheidung ist dann letzten Endes eine pragmatische Entscheidung, die trotz einer gewissen niemals eliminierbaren Unsicherheit zustande kommen muß. Eine Entscheidung, die trotz dieser Unsicherheit gefällt wird, hat aber nur dann rationalen Charakter, wenn sie methodisch begründet ist. Diese methodische Begründung bezieht sich nicht auf die Explikation des Begriffs „wahrscheinlich" als einer Eigenschaft, sondern muß als ein Relationsbegriff aufgefaßt werden, der einen abgeschwächten logischen Zusammenhang zwischen der Hypothese und den sie unterstützenden Daten im Sinne der partiellen, unvollständigen logischen Implikation herstellt. Die aposteriorischen statistischen Wahrscheinlichkeiten des Datenmaterials werden auf diese Weise in apriorische Wahrscheinlichkeiten umgeformt, die einen gewissen logischen Spielraum bilden. Die Schwierigkeit bei der konkreten Anwendung dieses Verfahrens besteht darin, im gegebenen Fall der einzelnen Zustandsbeschreibung eine adäquate Apriori-Wahrscheinlichkeit zuzuordnen. Die einfachste Lösung des Problems scheint das klassische Indifferenzprinzip der Wahrscheinlichkeitstheorie, das sogenannte „Prinzip vom unzureichenden Grund", zu sein. Es ist aber für die Hypothesenbewertung unbrauchbar, weil es das Lernen aus der Erfahrung, das gerade in der empirischen Wissenschaft die entscheidende Rolle spielt, vollständig ausschließt. Deswegen muß nach Carnap das Indifferenzprinzip in seiner Anwendung dahingehend modifiziert werden, daß verschiedene induktive Bestätigungsfunktionen angegeben werden müssen. Die auf wahrscheinlichkeitstheoretischen Überlegungen gegründete Induktionslogik stellt dann zwar kein absolut sicheres Verfahren dar, bietet aber anstelle dessen ein

Positive und negative Heuristik

79

ganzes Kontinuum von induktiven Methoden 84 , von denen keine besonders ausgezeichnet ist. Daß aber die negative Form der Heuristik nicht ausreicht, um das Problem der Hypothesenbewertung durch induktive Logik zu lösen, dafür gibt es, abgesehen von formalen Schwierigkeiten, die den Begriff der partiellen logischen Implikation betreffen, zwei wesentliche Gründe, die auch Carnap selbst weitgehend eingestanden hat: 1. Die induktive Logik ist ein ideales System, das seine Beziehung zu den Erfahrungstatsachen erst durch seine Anwendung gewinnt. Die Bedingungen der Anwendbarkeit lassen sich jedoch in adäquater Weise nicht herstellen. Um die Wahrscheinlichkeit einer erfahrungswissenschaftlichen Hypothese bestimmen zu können, müssen zunächst ihr logischer Spielraum und die Spielräume der Aussagen, welche ihre Grundlagen bilden, bestimmt werden. Es müßte sich dabei um so vereinfachte Verhältnisse handeln, daß sie mit den Mitteln einer formalisierten Sprache bewältigt werden könnten, das heißt, es muß mit einem fiktiven Beobachter gearbeitet werden, dessen gesamte Erfahrungen so begrenzt sind, daß sie leidit formuliert und als Grundlage für induktive Schlüsse verwendet werden können. Für die induktiven Schlüsse wird ja außer der Forderung nadi einer relativ einfachen Struktur der Sprachsysteme, in denen sie ausgedrückt werden, auch noch die Forderung des „Gesamtdatums" erhoben. Denn die Induktionsschlüsse betreffen grundsätzlich das Verhältnis zwischen einer „Grundgesamtheit", das heißt einer „Klasse von Individuen, auf welche sich eine statistische Untersuchung bezieht", und einer „Stichprobe" daraus, das heißt einer „Teilklasse dieser Grundgesamtheit, die durch Aufzählung der einzelnen Elemente und nicht durch Angabe einer gemeinsamen Eigenschaft aus der Grundgesamtheit ausgesondert wird. Es wird entweder von der Gesamtheit auf eine Stichprobe geschlossen* oder umgekehrt von einer Stichprobe auf die Gesamtheit, der .inverse Schluß', oder von einer Stichprobe auf eine andere, eventuell auf ein einziges Individuum, der ,Voraussageschluß'." 35 Diese Aufzählung der In54

35

Vgl. R. Carnap, The Continuum of Inductive Methods, Chicago 1952. Vgl. J. Hintikka, A Two Dimensional Continuum of Inductive Methods, in: Hintikka - Suppes (eds.), Aspects of Inductive Logic, Amsterdam 1966, S. 113 ft. V. Kraft, Erkenntnislehre, Wien 1960, S. 232.

80

4. Hypothesenbildung durch Induktion

duktionsschlüsse, wie sie Carnap bereits in „Logical Foundations of Probability" gegeben hat, enthält auch jenen Schluß, von dem am wenigsten einsichtig ist, wie er mit Hilfe formaler Methoden sinnvoll dargestellt werden kann; und zwar den Analogieschluß, der von einem Individuum auf ein anderes auf Grund einer Ähnlichkeit zwischen beiden schließt. Er fällt schon deswegen aus dem Bereidi der induktiven Logik, weil bei ihm die Forderung des „Gesamtdatums" bedeutungslos wird. 2. In diesem System der induktiven Logik lassen sich induktive Verallgemeinerungen in Form von Gesetzesaussagen nicht begründen. Denn der Schluß von einer Stichprobe auf einen Allsatz ergibt die Wahrscheinlichkeit „Null". Das aber ist nach V. Kraft eine „katastrophale Konsequenz" 86 , womit er der Auffassung Poppers von der „logischen Unwahrscheinlichkeit" von Gesetzeshypothesen, die mit dem Grad der Überprüfbarkeit wächst, recht zu geben scheint. Nach Popper strebt die Wissenschaft nicht primär nach hohen Wahrscheinlichkeiten; sie strebt vielmehr nach hohem Informationsgehalt, der durch Erfahrung gut fundiert ist. Das heißt jedoch nicht, daß ein hoher Wahrscheinlichkeitsgrad „nicht erstrebenswert ist", weil er „möglicherweise nur ein Symptom niedrigen Informationsgehalts" ist 37 . Denn wäre mit dem Anwachsen des Informationsgehalts nicht zugleich ein Anwachsen des Wahrscheinlichkeitsgrades verknüpft, so wäre das Aufstellen einer Hypothese prinzipiell eine haltlose, unbegründete Spekulation, deren Sinn auch durch nachträgliches deduktives Überprüfen, das niemals eine positive Bestätigung erbringen kann, nicht gerettet werden könnte. Die notwendige Verknüpfung von Wahrscheinlichkeitsgrad und Informationsgehalt ist also das eigentliche Kriterium echter erfahrungswissenschaftlidier H y p o thesen. Dadurch unterscheiden sie sich von unbegründeten „kühnen Vermutungen" oder haltlosen Spekulationen auf der einen Seite und trivialen Aussagen mit niedrigem Informationsgehalt auf der anderen Seite. Die Notwendigkeit einer negativen Heuristik, die noch vor dem Aufbau einer wissenschaftlichen Theorie als eines axiomatisdideduktiven Systems eine Bewertung der Hypothesen nach ihrem

s

· Ebenda. Popper, Logik der Forschung, S. 352.

37

Positive und negative Heuristik

81

Grad der Bewährung durchführt, geht schon aus einer Plausibilitätsüberlegung hervor: Niemand würde sich beim komplizierten Aufbau einer mathematisch strukturierten erfahrungswissenschaftlichen Theorie auf Hypothesen stützen, wenn er nicht von ihrem hohen Wahrscheinlichkeitsgrad überzeugt wäre. Ob sich dieser Wahrsdieinlichkeitsgrad numerisch oder niditnumerisch angeben läßt, ist demgegenüber ein sekundäres Problem. „Wahrscheinlichkeit" muß als ein relationaler Begriff verstanden werden — bezogen auf die jeweils gegebene Gesamtsituation eines Wissensgebietes zu einem bestimmten Zeitpunkt. Zur Erklärung des Zustandekommens von erfahrungswissenschaftlichen Hypothesen ebenso wie zu ihrer methodischen Begründung reicht jedoch weder eine negative Heuristik der Hypothesenbewertung noch eine deduktive Uberprüfungstheorie aus, für die es stets ein Rätsel bleiben muß, warum es überhaupt Hypothesen und Theorien gibt, die auf irgendeine Weise die Struktur der Wirklichkeit — wenn auch nur annähernd — beschreiben können. In der Wissenschaftsgeschichte ist das Problem einer positiven Heuristik stets notwendig verbunden mit der Explikation eines Verfahrens der Gewinnung von neuer Erkenntnis, genauer: von Erkenntnis des Unbekannten, das weder durch direkte Erfahrung erfaßbar ist noch durch logische Ableitung erschlossen werden kann. Der wissenschaftliche Forschungsprozeß läßt sich als ein derartiges Verfahren zur Entdeckung des Unbekannten auffassen. Damit wird auch der pragmatische Charakter der erfahrungswissenschaftlichen Forschung offensichtlich. Denn nicht aus logischen, sondern aus pragmatischen Gründen wird der Bereich des Bekannten verlassen. Es gibt dabei keinen eindeutigen logischen Weg zur Entdeckung neuer Hypothesen; sie führt vielmehr immer über eine pragmatische Entscheidung. Diese Entscheidung beruht jedoch nicht nur auf intuitiven Vermutungen, sondern ist durch deskriptive metrische Informationen über den zugrunde liegenden Gegenstandsbereich bestimmt. Das Aufstellen einer wissenschaftlich begründeten These erfolgt dann durch eine Korrelation des vorhandenen deskriptiven Datenmaterials mit apriorisch-strukturellen Informationen. Der Weg zur Hypothesenbildung ist also kein anderer als derjenige, den das Bayessche Theorem vorschreibt, und zwar in seiner ursprünglichen, verobjektivierenden Bedeutung im Unterschied zur betont subjektivistischen Auffassung der modernen Bayesianer. t

Oeser, Band 3

82

4. Hypothesenbildung durch Induktion

Wie bereits in der Einleitung gezeigt worden ist, haben erst die Bayessdien Überlegungen die Anwendbarkeit der Wahrscheinlichkeitstheorie auf andere Gegenstände als auf Glücksspiele ermöglicht. Im Bereich der erfahrungswissenschaftlichen Erkenntnis lassen sich diese Überlegungen deshalb in verobjektivierender Weise verwenden, weil es sich im Unterschied zu den nichtwissensdiaftlichen Entsdieidungssituationen nicht nur um Präferenzen im subjektiv-pragmatischen Sinn von Nutzensvorstellungen und „Wünschbarkeiten", sondern um objektive strukturelle Informationen handelt, die eine Entscheidung trotz mangelnder empirischer Informationen ermöglichen. In den exakten Erfahrungswissenschaften sind diese strukturellen Informationen stets auf mathematische Strukturen rückführbar. Am klassischen Beispiel Whewells, an der Entdeckung des ersten Keplerschen Planetengesetzes demonstriert, heißt das: Der Prozeß der Hypothesenbildung war erst mit einer eindeutigen Definition der Planetenbahn durch eine geometrisch konstruierbare Flächenfigur, die Ellipse, abgeschlossen. Ebenso konnte auch Newton seine Priorität bei der Entdeckung des Gravitationsgesetzes gegenüber R. Hooke mit Recht behaupten, da er der erste war, der die mathematische Struktur dieses Gesetzes explizieren konnte. Die Anwendung der Mathematik auf physikalische Gegenstandsbereiche wurde daher zumindest seit Maxwell als die allgemeinste Form von Analogie angesehen, die zur eigentlich schöpferischen Entscheidung führt und sich dennoch rational begründen läßt: „Auf diese Art sind alle Anwendungen der Mathematik in der Wissenschaft auf Beziehungen zwischen den Gesetzen der physikalischen Größen zu denen der ganzen Zahlen gegründet, so daß das Streben der exakten Wissenschaft darauf gerichtet ist, die Probleme der Natur auf die Bestimmung von Größen durch Operationen mit Zahlen zurückzuführen." 88 Maxwell hat in seiner Abhandlung „Uber Faradays Kraftlinien", aus der dieses Zitat stammt, auch ausdrücklich auf die „Existenz physikalischer Analogien" aufmerksam gemacht. Seine Ausführungen sind, wie Boltzmann unter Hinweis auf Helmholtz, Mach und seine eigenen Schriften 89 betont, zum ω

J. C. Maxwell, Uber Faradays Kraftlinien, hrsg. von L. Boltzmann, Leipzig 1895, S. 4. " H. v. Helmholtz, Studien zur Statik monocyclisdier Systeme, in: Berl. Ber. März/Dezember 1884; E. Mach, Über das Prinzip der

Positive und negative Heuristik

83

„Schlagwort" 40 für die Wissenschaftstheorie des 19. Jahrhunderts geworden. Sie enthalten die erste präzisierte Definition der Analogie als eines heuristisdien Verfahrens zur Bildung erfahrungswissenschaftlicher Hypothesen: „Unter einer physikalischen Analogie verstehe ich jene teilweise Ähnlichkeit zwischen den Gesetzen eines Erscheinungsgebietes mit denen eines anderen, welche bewirkt, daß jedes das andere illustriert." 41 Mach hat diese Auffassung von Analogie verallgemeinert und den Ursprung dieses Verfahrens historisch-genetisch im Gebiet der Mathematik angesetzt, wo allerdings nach seiner Meinung „die Sache am einfachsten liegt, die klärende, vereinfachende heuristische Funktion der Analogie sich deutlidi geoffenbart hat" 42 . Er kann sich in diesem Zusammenhang nicht nur auf die antiken Mathematiker, wie Euklid, sondern audi auf Piaton und vor allem Aristoteles berufen, der die Analogie auf quantitative (proportionale) Verhältnisse bezieht43. In der Neuzeit ist es dann Descartes gewesen, der das Verfahren der Analogie besonders zur Konstitution der analytischen Geometrie benützt hat, die ja auf der Analogie zwischen Algebra und synthetisdi-anschaulicher Geometrie basiert. Ausdrücklich hat auch Kepler den heuristischen Wert der Analogie zwischen geometrischen und physikalisdien Gegenstandsbereichen hervorgehoben, wie bereits Madi mit entsprechenden Zitaten nachgewiesen hat 44 . Kepler ist im übrigen gerade wegen dieser expliziten Darstellung seiner Forsdiungswege auch in der gegenwärtigen wissensdiaftstheoretischen Literatur zu einer Sdilüsselfigur geworden46.

40

41 48 45

44

45

6*

Vergleidiung in der Physik (Naturforscherverhandlungen 1894, S. 7 Sep. Druck); L. Boltzmann, Über die Methode der theoretischen Physik, in: Populäre Schriften, Leipzig 1905. Vgl. Boltzmanns Anmerkungen zu seiner Übersetzung von Maxwells Schrift „Über Faradays Kraftlinien", S. 100. Vgl. Maxwell, Über Faradays Kraftlinien, S. 4. E. Mach, Erkenntnis und Irrtum, Leipzig 1905, S. 218. Ein Verfahren, das audi in der spekulativen Analogie durch die sogenannte Proportionalitätsanalogie ihren Niederschlag gefunden hat. Vgl. Oeser, Begriff und Systematik der Abstraktion, S. 226. J. Kepler, Opera, ed. M. Frisch, Vol. II, S. 186. Vgl. E. Mach, Erkenntnis und Irrtum, S. 219 f. Hanson, Patterns of Discovery; Κ. Hübner, Was zeigt Keplers „Astronomia nova" der modernen Wissenschaftstheorie? E. Oeser, Die philosophische Bedeutung der Weltharmonik Keplers, in: Phil. Nat., Bd. 13,1971.

84

4. Hypothesenbildung durch Induktion

In Anlehnung an Whewell hat Madk darauf hingewiesen, daß dagegen die Darstellungsform des axiomatisch-deduktiven Systems dazu angetan ist, die eigentlichen Forschungswege zu verdecken46, wie das Beispiel Euklids lehrt. Auch Reichenbach hat in seiner Kritik an Poppers Forschungslogik diesen Aspekt im Hinblick auf die induktive Logik betont und seine Meinung mit einem drastischen Vergleich zu verdeutlichen versucht: „Die Obstverkäufer auf der Straße haben die Angewohnheit, die guten Äpfel auf die Vorderseite ihres Karrens, also auf die dem Publikum zugewandte Seite, zu legen, während die schlechten Äpfel hinten liegen; beim Einfüllen des Obstes in die Tüten pflegen sie dann die Äpfel immer von der hinteren Seite des Haufens zu nehmen. Stellt man einen Obstverkäufer deshalb zur Rede, so wird er energisch bestreiten, daß er ein solches Prinzip bei seinem Obstverkauf benutzt; er wird die Wahl der ausgelieferten Äpfel als unabhängig von solchen Überlegungen bestimmt bezeichnen. Gerade so wenig wie ich diesem Obstverkäufer Glauben schenke, kann ich denjenigen glauben, die behaupten, ohne das Induktionsprinzip ihre Zukunftsaussagen zu bilden." 47 Während jedoch Reichenbachs pragmatische Induktionslogik, ähnlich wie Carnaps ursprünglich formalistische, später aber entscheidungstheoretisch umgedeutete Induktionslogik, auf eine nachträgliche Hypothesenüberprüfung ausgerichtet ist, hat Mach von vornherein eine positive Heuristik intendiert, da er erkannt hat, daß das, was Whewell als das „mysteriöse" 48 , nicht formalisierbare Element der Induktion bezeichnet hat, auf das Verfahren der vergleichenden Abstraktion zurückzuführen ist. Erst die Rationalisierung des Entdeckungszusammenhangs führt nach Mach zu einer vollständigen Begründung: „Am vollständigsten und strengsten ist jedoch ein Gedanke begründet, wenn alle Motive und Wege, welche zu demselben geleitet und ihn befestigt haben, klar dargestellt sind. Von dieser Begründung ist die logische Verknüpfung mit älteren, geläufigeren, unangefochtenen Gedanken doch eben nur ein Teil. Ein Gedanke, dessen Entstehungsmotive ganz klargelegt sind, ist für alle Zeiten unverlierbar, so lange letztere gelten, und kann andererseits sofort aufgege4

* Mach, Erkenntnis und Irrtum, S. 220. H. Reidienbach, Über Induktion und Wahrscheinlichkeit, in: Erkenntnis 5, Leipzig 1935, S. 282. 48 Whewell, On the Philosophy of Discovery, S. 284. 47

Positive und negative Heuristik

85

ben werden, sobald diese Motive als hinfällig erkannt werden."4® Wie Carnap und die meisten „Induktivisten" verstehen auch Whewell und Mach das Verhältnis von Induktion und Deduktion nicht als Gegensatz. Während aber Carnap die Aufhebung dieses scheinbaren Gegensatzes in dem Übergehen von partieller zu totaler logischer Implikation sieht, unterstreicht Whewell die wechselseitige Unterstützung beider Verfahren im wissenschaftlichen Forsdiungsprozeß: Ein allgemeiner Satz, welcher den Ausgangspunkt der Deduktion bildet, ist umgekehrt das Ergebnis der Induktion. Während jedoch die Deduktion schrittweise methodisch vorgeht, findet die Induktion in Sprüngen statt. Die Deduktion hat daher die Aufgabe, dieses sprunghafte Vorgehen nachträglich in Ordnung zu bringen 50 . Im Unterschied zu den wahrscheinlichkeitstheoretischen Überlegungen der negativen Heuristik Carnaps, die ursprünglich nur darauf ausgeht, den Wahrscheinlichkeitsgrad einer Hypothese relativ zu dem sie unterstützenden Datenmaterial rein theoretisch, ohne pragmatische Relevanz, anzugeben, bedeutet das induktive Verfahren der positiven Heuristik zugleich eine pragmatische Rechtfertigung des mit Hilfe der deduktiven Logik nicht beweisbaren Typensprungs, der im Übergang von den empirischen Fakten bzw. den behauptenden empirischen Aussagen zu allgemeinen Gesetzeshypothesen liegt. Dem Prozeß der Begriffsbildung durch Abstraktion entsprechend läßt sidi nun dieser Übergang als ein Prozeß der strukturellen Informationsverdichtung verstehen, aus dem die Hypothese als neue Systemeigenschaft entsteht. Diese Auffassung der Hypothesenbildung ist freilich nur unter der Voraussetzung gerechtfertigt, daß zwischen dem Abstraktionsverfahren und der Induktion kein grundsätzlicher Unterschied besteht. Die Induktion ist tatsächlich ein sekundäres, auf der Abstraktion aufbauendes Verfahren, das die Bildung theoretischer Begriffe voraussetzt. Mit der Konstitution eines theoretischen Begriffs ist daher bereits eine Begriffshypothese gegeben, die, definitorisdi präzisiert, die Grundlage einer Gesetzeshypothese für einen Bereich des empirischen Wissens bildet. Diese Übergänge 49 50

Mach, Erkenntnis und Irrtum, S. 220. Vgl. W. Whewell, The Philosophy of Inductive Science, London 1847, II, S. 92; Madi, Erkenntnis und Irrtum, S. 313.

86

4. Hypothesenbildung durch Induktion

oder Typensprünge geschehen in der Regel nicht abrupt, sondern sind durch eine Kette von Annäherungsversuchen vermittelt. Diese „schrittweise Eroberung des Unbekannten" läßt sich in der Wissenschaftsgeschichte am deutlichsten in der Entwicklung der Mathematik und Astronomie, insbesondere bei Kepler, nachweisen. Im Anschluß an Descartes hat in jüngster Zeit G. Polya eine umfassende Deutung heuristischer Verfahren in der Mathematik geliefert und die rekursive Induktion, die sich bei jedem neuen Schritt an dem bereits erworbenen Wissen orientiert, als die allgemeinste Form des praktischen Aufgabenlösens hervorgehoben: „Bei jedem Schritt des Lösungsvorgangs fügen wir die Kenntnis einer weiteren Komponente zu den vorher erworbenen Kenntnissen hinzu; bei jedem Schritt benützen wir bereits erworbenes Wissen, um neues Wissen zu erwerben. Wir erobern ein Imperium, Provinz für Provinz, und benützen dabei auf jeder Stufe die bereits erworbenen Provinzen als Operationsbasis für die Unterwerfung der nächsten Provinz . . . Wenn die Unbekannte viele Komponenten hat (wie in einem Kreuzworträtsel), gehen wir vielleicht gleichzeitig in verschiedenen Richtungen vor: Wir brauchen nicht alle unsere Perlen auf eine Schnur aufzureihen, sondern wir dürfen mehrere Schnüre verwenden. Das Wesentliche ist jedoch, die bereits erworbenen Kenntnisse als Operationsbasis für die Erwerbung weiterer Kenntnisse zu benützen. Vielleicht sind alle rationalen Verfahren des Aufgabenlösens und des Lernens in diesem Sinn rekursiv." 5 1 Die Rekonstruktion von Entstehungsgeschichten mathematischer Problemlösungen zeigt, daß es methodische Verfahren gibt, welche die Entdeckung von allgemeinen Gesetzmäßigkeiten zwar niemals auf einen mechanischen Ableitungsprozeß reduzieren, aber doch zu Lösungsschemata führen, die die Suche nach dem Unbekannten optimieren können. Deshalb taucht audi der Ausdruck „Problemlosen" (problem-solving) im Sinne heuristischer Programme schon früh im Zusammenhang mit maschineller Intelligenz (artificial intelligence) auf 82 . Das klasS1

58

G. P61ya, Vom Lösen mathematischer Aufgaben, Basel-Stuttgart 1966, S. 213 f. A. Newell - H. Simon, Heuristic Problem Solving: The Next Advance in Operations Research, in: Operations Research, Bd. 6, Januar/Februar 1958, S. 1—10. Vgl. A. Newell - H. Simon, GPS — a Programm that Simulates Thought, in: Computers and Thought,

Theorien und Theorienfolgen

87

sische Modell zur Anwendung des Rekursionsverfahrens ist seit jeher das Labyrinth gewesen. Die rein medianische Anwendung dieses Verfahrens zur Auffindung einer Lösung in einer Labyrinthkonstruktion reduziert sich auf ein Abtasten aller Verzweigungen nach dem „trial-and-error-Prinzip". Diese Methode hat sich jedoch für kompliziertere Probleme, um deren schematische Lösung es ja in einer positiven Heuristik geht, als nicht effektiv erwiesen, da die Gefahr unendlicher Verzweigungen zu groß ist. Diese Erkenntnis ist keineswegs neu. Sie wird grundsätzlich schon von Descartes in bezug auf die zureichende Aufzählung (enumeratio sufficiens) erörtert. Aus diesen Überlegungen ergibt sich die Forderung aller Heuristik: die Einschränkung des Suchraums, die in einer strategischen Auswahl der zulässigen Varianten besteht. Descartes hat diese Regel in folgender Weise formuliert: „Die Aufzählung der Induktion wird begrenzt durch die Frage, was gesucht ist." 53 Die Problemanalyse und ihre Auswahlfunktion bildet also den Anfang jeder methodischen Suche nach einer Problemlösung, die dann in methodisch kontrollierten Einzelschritten im Sinne rekursiver Induktion stattfinden kann. Voraussetzung für ein solches methodisches Verfahren der schrittweisen Bildung von Hypothesenketten ist jedoch die vorgängige Einsicht, daß zwischen dem Beobachter und der Natur ein geregelter Systemzusammenhang herrschen muß. Diese Einsicht gründet sidi nicht auf ein rätselhaftes Induktionsprinzip, sondern ist bereits mit dem elementarsten Informationsprozeß unmittelbar und notwendig verbunden. Die Hypothesenbildung durch Induktion ist von dieser Unmittelbarkeit sdion weit entfernt.

5. Theorienbildung durdi Konstruktion und Theorienstabilisierung durch Deduktion: Die dritte Stufe der Informationsverdichtung Begriffsbildung und Hypothesenbildung beruhen auf demselben Verfahren, das in der Hervorhebung von invarianten Elementen der Erfahrung besteht, die als die Konstanten der theoretischen Konstruktion zu betrachten sind. Wie zwischen Begriff und Hypothese kein wesentlicher, sondern nur ein gra-

51

hrsg. von V. E. Feigenbaum - J. Feldmann, New York S. 279—296. R. Descartes, Regulae ad directionem ingenii, Regel XIII.

1963,

Theorien und Theorienfolgen

87

sische Modell zur Anwendung des Rekursionsverfahrens ist seit jeher das Labyrinth gewesen. Die rein medianische Anwendung dieses Verfahrens zur Auffindung einer Lösung in einer Labyrinthkonstruktion reduziert sich auf ein Abtasten aller Verzweigungen nach dem „trial-and-error-Prinzip". Diese Methode hat sich jedoch für kompliziertere Probleme, um deren schematische Lösung es ja in einer positiven Heuristik geht, als nicht effektiv erwiesen, da die Gefahr unendlicher Verzweigungen zu groß ist. Diese Erkenntnis ist keineswegs neu. Sie wird grundsätzlich schon von Descartes in bezug auf die zureichende Aufzählung (enumeratio sufficiens) erörtert. Aus diesen Überlegungen ergibt sich die Forderung aller Heuristik: die Einschränkung des Suchraums, die in einer strategischen Auswahl der zulässigen Varianten besteht. Descartes hat diese Regel in folgender Weise formuliert: „Die Aufzählung der Induktion wird begrenzt durch die Frage, was gesucht ist." 53 Die Problemanalyse und ihre Auswahlfunktion bildet also den Anfang jeder methodischen Suche nach einer Problemlösung, die dann in methodisch kontrollierten Einzelschritten im Sinne rekursiver Induktion stattfinden kann. Voraussetzung für ein solches methodisches Verfahren der schrittweisen Bildung von Hypothesenketten ist jedoch die vorgängige Einsicht, daß zwischen dem Beobachter und der Natur ein geregelter Systemzusammenhang herrschen muß. Diese Einsicht gründet sidi nicht auf ein rätselhaftes Induktionsprinzip, sondern ist bereits mit dem elementarsten Informationsprozeß unmittelbar und notwendig verbunden. Die Hypothesenbildung durch Induktion ist von dieser Unmittelbarkeit sdion weit entfernt.

5. Theorienbildung durdi Konstruktion und Theorienstabilisierung durch Deduktion: Die dritte Stufe der Informationsverdichtung Begriffsbildung und Hypothesenbildung beruhen auf demselben Verfahren, das in der Hervorhebung von invarianten Elementen der Erfahrung besteht, die als die Konstanten der theoretischen Konstruktion zu betrachten sind. Wie zwischen Begriff und Hypothese kein wesentlicher, sondern nur ein gra-

51

hrsg. von V. E. Feigenbaum - J. Feldmann, New York S. 279—296. R. Descartes, Regulae ad directionem ingenii, Regel XIII.

1963,

88

5. Theorienbildung und Theorienstabilisierung

dueller Unterschied vorhanden ist, da die Hypothese als allgemeines Gesetz nichts anderes ist als die Explikation eines theoretischen Begriffs in Form eines Satzes, so besteht auch zwischen Hypothese und Theorie kein absoluter Unterschied. Denn auch eine noch so komplizierte Theorie ist nur ein Konstrukt höherer Art, das mehrere Hypothesen zu einem System vereinigt. Durch eine solche Vereinigung aller auf einen bestimmten Gegenstandsbereich bezogenen Hypothesen zu einem geordneten, widerspruchsfreien System wird der grundsätzlich pragmatisdi-instrumentelle Charakter der erfahrungswissenschaftlichen Erkenntnis klar ersichtlich, auf den schon Mach hingewiesen hat: „Alle Wissenschaft hat Erfahrungen zu ersetzen oder zu ersparen durch Nachbildung und Vorbildung von Tatsachen in Gedanken, welche Nachbildungen leiditer zur Hand sind als die Erfahrung selbst und diese in mancher Hinsicht vertreten können." 1 Mit dieser Auffassung des „Ökonomieprinzips der Wissenschaft" stimmt auch P. Duhem überein und hebt außerdem den Charakter der Wissenschaft als Informations· und Kommunikationssystem hervor: „Die Reduktion der physikalischen Gesetze auf Theorien trägt indirekt zur Ökonomie des Denkens bei, in der Ernst Mach das die Entwicklung der Wissenschaft beherrschende Entwicklungsgesetz der gesamten Wissenschaft erkannt hat. Das experimentelle Gesetz repräsentiert bereits eine erste Ökonomie des Denkens. Der menschliche Geist hat eine ungeheure Zahl von konkreten Tatsachen vor sich, deren jede in der Verwirklichung vieler anderer unähnlicher Details bestand. Kein Mensch könnte sie seinen Mitmenschen mitteilen. Ist aber die Abstraktion ins Spiel getreten, so läßt sie das Eigenartige, Individuelle jeder dieser Tatsachen beiseite, sucht, was an ihrer Gesamtheit allgemein und gemeinsam ist, und erhebt diese ungeheure Menge von Tatsachen durch den einzigen Satz, der im Gedächtnis wenig Raum einnimmt: Die Abstraktion hat also das physikalische Gesetz formuliert." 2 Die axiomatische Theorie als ein in diskreten, sequentiellen Schritten ableitbares Aussagensystem ist nur die extensionale Explikation einer Theorie, die in ihrem eigentlichsten Wesen 1

2

E. Mach, Die Medianik in ihrer Entwicklung, 8. Aufl., Leipzig 1921, S. 457. P. Duhem, The Aim and Structure of Physical Theory, PrincetonNew Jersey 1954, S. 21 f.

Theorien und Theorienfolgen

89

den höchsten Grad von Informationsverdichtung darstellt, der in der erfahrungswissenschaftlichen Erkenntnis erreicht werden kann. In einer Theorie wird das Aggregat einzelner Erkenntnisse zu einem System zusammengefaßt, das heißt, daß das gesamte Relationsgefüge aller empirischen Informationen zu einer modellhaften Struktur verbunden ist. Auf Grund informationstheoretischer Überlegungen hat auch Brillouin den Wert einer Theorie in der Verdichtung aller isolierten Informationen zu einem geordneten System gesehen. Er verweist dabei ausdrücklich auf die „Etymologie des englischen Terminus ,comprehension'", den er in diesem Zusammenhang verwendet: „Note that the original etymologic meaning of this last word was: to take together (cum-prehend), to regroup und assemble together." 8 „Comprehension" ist daher für Brillouin kein extensionaler Begriff der Umfangslogik, sondern ein intensionaler Begriff, der sich auf die Informationskapazität oder auf das „Fassungsvermögen" einer wissenschaftlichen Theorie bezieht. Tatsächlich steckt ja auch in der etymologischen Grundbedeutung der beiden logisch-erkenntnistheoretischen Begriffe „extensional" und „intensional" die intuitive Vorstellung des Zusammenziehens (intendere) und des Auseinanderspannens (extendere), der in einer axiomatisdi-deduktiven Theorie auf der einen Seite das begriffsähnliche, modellhafte Gesamtgebilde, darstellbar als Netz, Matrix, als mengentheoretisches Prädikat oder als geometrisches Gebilde, auf der anderen Seite die Auseinanderfaltung dieses Gebildes in Aussagenfolgen oder mathematische Ableitungsprozesse im Sinne algorithmischer Lösungsprozeduren entspricht. Aus Mangel an begrifflicher Klarheit bezeichnet Brillouin den Aspekt der „comprehension" im Unterschied zu dem praktischen Wert einer Theorie, der in ihrer Voraussagekraft besteht, als den „ästhetischen Wert" (aesthetic value) und beruft sich in diesem Zusammenhang auf Einstein, der ebenso wie eine Reihe anderer Naturwissenschaftler seiner Meinung nach besonderen Wert auf die „mathematische Schönheit einer physikalischen Theorie" 4 gelegt habe. Auch wenn Brillouin mit diesem ästhetischen Aspekt nichts anderes als Einfachheitsüberlegungen zum Ausdruck bringen will, so verwischt jedoch diese Charakterisie* L. Brillouin, Scientific Uncertainty and Information, N e w YorkLondon 1964, S. 30. 4 Ebenda, S. 31.

90

5. Theorienbildung und Theorienstabilisierung

rung wesentliche wissenschaftstheoretische Unterschiede, wie sich an dem Gegensatz von P o i n c a ^ und Einstein demonstrieren läßt. Denn Einfachheitsüberlegungen können sich bei einer erfahrungswissenschaftlichen Theorie entweder auf den mathematischen Apparat, in diesem Fall auf die Gesetze der Geometrie, oder auf die physikalischen Gesetze selbst beziehen. D a ß es eine einfache Entsprechung der mathematischen und physikalischen Gesetzmäßigkeiten nicht gibt, läßt sich in der Geschichte der Wissenschaft am Beispiel Keplers nachweisen, der die Mathematisch einfache Planetengeometrie der Antike zugunsten der Einheit einer physikalisch interpretierten Theorie der Himmelsmechanik aufgegeben hat. Ein grundsätzlich analoger Konflikt hat sich im Übergang zur Relativitätstheorie abgespielt: Das Festhalten an der euklidischen Geometrie, wie es Poincari auf Grund seiner Einfachheitsüberlegungen propagiert hat, führt zwar zu einfachen geometrischen, aber zu komplizierten physikalischen Gesetzen; der nichteuklidische Weg dagegen, den Einstein eingeschlagen hat, bringt zwar eine sehr viel kompliziertere Geometrie mit sich, andererseits aber auch einfachere physikalische Gesetze. Einstein hat im Gegensatz zu dem Konventionalisten Poincare erkannt, daß es nicht um eine Wahl oder Vorentscheidung zwischen verschiedenen axiomatischen Geometrien, sondern um die Einfachheit des Gesamtsystems geht, das eine solche alternative Wahl insofern nicht zuläßt, als es sich bei dem Verhältnis von euklidischer und nichteuklidischer Geometrie um Stufen der Verallgemeinerung handelt. Seine Schilderung der „Schichtung des wissenschaftlichen Systems" läßt sich als eine intuitive Darstellung der konstruktiven Verdichtung eines wissenschaftlichen Informationssystems auffassen: „Das Ziel der Wissenschaft ist einerseits die möglichst vollständige Erkenntnis der Verbindung zwischen den Sinneserfahrungen in ihrer Gesamtheit und andererseits die Erreichung dieses Ziels mit einem Minimum von primären Begriffen und Beziehungen (mit der Tendenz, die logische Einheit im Weltbild soweit wie möglich zu erreichen, das heißt mit der geringstmöglichen Zahl logischer Elemente). Die Wissenschaft bezieht sich auf die Gesamtheit der primären Begriffe, die mit Sinneserfahrungen direkt verknüpft sind, und der Theoreme, welche jene verknüpfen. Ja in ihrem ersten Entwicklungsstadium enthält Wissenschaft nichts anderes. Unser Alltagsdenken gibt sich im ganzen mit diesem Stadium zufrieden. Doch einem wirklich Wissenschaft-

Theorien und Theorienfolgen

91

liehen Geist kann ein solcher Zustand nicht genügen, weil der so gewonnenen Gesamtheit von Begriffen und Beziehungen die logische Einheit gänzlich fehlt. Um diesen Mangel abzugleichen, bildet man ein an Begriffen und Beziehungen ärmeres System, ein System, das die primären Begriffe und Beziehungen der ,ersten Schicht' als logisch abgeleitete Begriffe und Beziehungen beibehält. Dieses neue .sekundäre System' bezahlt seine höhere logische Einheit damit, daß es als eigene Elementarbegriffe (Begriffe der zweiten Schicht) nur die behält, welche nicht mehr direkt mit den Komplexen der Sinneserfahrungen zusammenhängen. Das weitere Streben nach logischer Einheit bringt uns zu einem tertiären System, noch ärmer an Begriffen und Beziehungen, und zwar um die abgeleiteten Begriffe und Beziehungen der zweiten (und damit indirekt der ersten) Schicht. So geht die Geschichte weiter, bis wir zu einem System von größter begrifflicher Einheit gelangen und von größter Armut an Begriffen der logischen Grundlage, die noch mit der Beobachtung unserer Sinne vereinbar sind."5 Wie jeder Begriff im Grunde genommen eine Begriffsfolge und jede Hypothese eine Hypothesenfolge ist, so ist auch jede Theorie eine Folge von Theorien, denen verschiedene Grade der abstrakten Informationsverdichtung entsprechen. Die Grade der Informationsverdichtung sind wiederum nichts anderes als Grade des Fassungsvermögens einer Theorie im Sinne ihrer erklärenden Funktion und Voraussagekraft. Daß diese Deutung audi den Intentionen Einsteins entspricht, zeigt die Bemerkung: „Ein Anhänger der Theorie der Abstraktion oder Induktion könnte unsere Schichten ,Grade der Abstraktion' nennen."® Der Grund, warum Einstein diese Bezeichnung selbst nicht gewählt hat, ist die eingeschränkte Bedeutung, die die Abstraktionstheorie als Grundkonzeption des sensualistischen Empirismus zu seiner Zeit noch besessen hat. Daß jedoch Einstein die Beziehung zwischen Begriff und Sinneserfahrung als Äquivalenzrelation im Sinne der modernen Abstraktionstheorie auffaßt, geht deutlich aus dem drastischen Vergleich hervor, den er in diesem Zusammenhang anführt: „Die Beziehung entspricht nicht jener von Suppe und Rindfleisch, sondern besser der von Garderobenummer zu Mantel." 7 5

A. Einstein, Physik und Wirklichkeit (1936), in: Aus meinen späten Jahren, Stuttgart 1952, S. 67 f. • Ebenda, S. 68. 7 Ebenda.

92

5. Theorienbildung und Theorienstabilisierung

Wenn nun Begriffsbildung durdi Abstraktion und Hypothesenbildung durch Induktion dem Aufbau von Theorien in mehreren Schichten gleichzusetzen sind, so erhebt sich jedoch andererseits die Frage, worin eigentlich der methodische Unterschied zwischen Hypothese und Theorie besteht, der es ermöglicht, die Theorie als eine höhere Stufe der Informationsverdichtung anzusehen, die mit einem höheren Grad der Sicherheit der wissenschaftlichen Erkenntnis verbunden ist. Dieser methodische Unterschied läßt sich eindeutig durch die Angabe zweier Verfahren bestimmen, durch deren Anwendung sowohl der Entstehungsprozeß als auch die logische Struktur erfahrungswissenschaftlicher Theorien erklärt werden kann: 1. die konstruktive Methode, die grundsätzlich synthetischen Charakter hat und dem Aufbau einer erfahrungswissenschaftlichen Theorie dient; 2. die deduktive Methode, die formal-analytischen Charakter hat und der Stabilisierung der formalen Struktur bereits vorhandener Theorien dient. Die Konstruktion steht als synthetische Methode zwischen der empirischen Analyse der Induktion und der formalen Analyse der Deduktion. Sie wird in der klassischen Zeit der neuzeitlichen Naturwissenschaft bis Newton als die eigentliche Methode für die Aufstellung von Theorien als gesicherter Wissenssysteme angesehen. Wenngleich Roger Cotes, der Herausgeber der zweiten Auflage der Principia Newtons, diese Methode als ein Ableitungsverfahren charakterisiert, so hat sie doch nichts mit dem Deduktionsbegriff der formalen Logik zu tun. Es ist vor allem Galilei gewesen, der die konstruktiv-synthetische Methode, den „metodo compositivo", als Verfahren der naturwissenschaftlichen Theorienbildung von der aristotelischen Syllogistik in schärfster Form unterschieden hat. Die Verwerfung der syllogistisdien Deduktion ist für Galilei nicht eine Folge der im Grunde genommen trivialen Einsicht, daß sie keine neuen Erkenntnisse hervorzubringen vermag, sondern ist die Konsequenz einer prinzipiellen Entscheidung, die er am deutlichsten in seinen Briefen über die Sonnenflecken formuliert hat: „Entweder wir suchen auf dem Wege der Spekulation in das wahre und innerliche Wesen der natürlichen Substanzen einzudringen oder wir begnügen uns mit der Erkenntnis einiger ihrer empirischen Merkmale (affezioni)." Indem Galilei entgegen der Tradition der aristotelisch-scholastischen Metaphysik die Möglichkeit einer Wesenserkenntnis der

Konstruktion und Deduktion

93

Natur leugnet, verliert für ihn auch der Syllogismus die von Aristoteles geforderte Fähigkeit, auf Grund des Wesensbegriffs apodiktisches Wissen über das reale Seiende erzeugen zu können 8 . Die Prämissen eines Syllogismus müssen nach Aristoteles die Ursachen der Konklusion sein, das heißt, die Prämissen müssen diejenigen Tatsachen darstellen, die die Ursachen der in der Konklusion enthaltenen Tatsachen sind 9 . Nach Galilei dagegen handelt es sich bei den „Prämissen" nicht um die Angabe der wahren Ursachen, sondern lediglich um die der mathematischen Gesetzmäßigkeit eines Verursachungskomplexes, deren Struktur sich durch die empirisch-quantitative Analyse der einzelnen Fälle (metodo risolutivo) gewinnen und an weiteren Fällen auch ständig überprüfen läßt: „Der Zweck der reinen Astronomie ist es, Gründe nur für die Erscheinungen an den Himmelskörpern zu geben und für die Bewegung der Sterne solche Strukturen und Kompositionen von Kreisen zu finden, daß die Bewegung, die aus diesen Kalkulationen folgt, den vorausgesagten Erscheinungen entspricht." 10 Die Galileiische Methodenlehre liefert somit die erste metatheoretische Darstellung des konstruktiven Aufbaus einer erfahrungswissenschaftlichen Theorie, der in der systematischen Verkettung rekursiv gesicherter Einzelschritte besteht. Der Vorwurf, den Descartes in einem Brief an Mersenne gegen Galilei erhebt, daß dieser, „ohne die ersten Gründe der Natur zu betrachten, lediglich die Ursachen einiger besonderer Vorgänge untersucht hat", verkennt diese neue Methode, die weniger beansprucht, aber um so mehr erreicht. Denn mit dem Verzicht auf die „ersten Gründe" verliert auch die erfahrungswissenschaftliche Erkenntnis die Verpflichtung, ihre Theorien auf einen absoluten Anfang zu gründen, und damit wird der Weg frei zu einer schrittweisen Eroberung des Unbekannten, wobei stets der zuvor erreichte Wissenskomplex als strategische „Operationsbasis" zur Erweiterung der Erkenntnis dient 11 . Der konstruktive Aufbau einer erfahrungswissenschaftlichen Theorie ist daher als ein historischer Prozeß aufzufassen, in dem die einzelnen Bestandteile zunächst als unabhängige Teiltheorien

8

Aristoteles, Metaphysik Ζ 9 1034 a 31. • Vgl. Ch. H. Lohr, Mittelalterlicher Augustinismus und neuzeitliche Wissenschaftslehre, in: Scientia Augustina, Würzburg 1975, S. 159. 10 Galilei, Opere VII, S. 369. 11 Vgl. Boltzmann, Populäre Schriften.

94

5. Theorienbildung und Theorienstabilisierung

über bestimmte beobaditbare Gegenstandsbereiche ausgebildet werden. Am Beispiel der klassischen Mechanik erläutert: Newtons universale Mechanik ergibt sich aus der Zusammensetzung der terrestrischen Mechanik der Fall- und Wurfbewegungen (Galilei) und der Mechanik des Himmels (Kepler). Vermittelt wird dieser Übergang durch die Theorien über Ebbe und Flut, in denen Bewegungen auf der Erde durch Bewegungsvorgänge am Himmel erklärt werden, oder durch Hilfsvorstellungen in der Art des damals noch utopischen Gedankenexperiments Newtons, der bereits mit der Vorstellung arbeitet, daß die Wurfparabeln terrestrischer Geschosse über die Erdanziehung hinaus in Umlaufbahnen um die Erde übergehen müssen12. Wenngleich audi ohne genauere Analyse von vornherein klar ist, daß keine der Teiltheorien ohne Veränderung in die Gesamttheorie eingehen kann, legt doch der weitgehend als kontinuierlich anzusehende Prozeß der Theorienentwicklung in doppelter Hinsicht nahe, daß es sich bei der Konstruktion von Theorien um ein der Induktion zumindest ähnliches Verfahren handelt: Einerseits unterscheiden sich provisorisch aufgestellte Teiltheorien geringeren Umfangs kaum von einer isolierten Gesetzeshypothese, und andererseits stellen auch noch so umfangreiche Theoriensysteme in ihrem faktischen Entstehungsprozeß nichts anderes als eine Kette von Teiltheorien dar. Auch W. Whewell hat die Konstruktion von Theorien als ein Teilgebiet der Logik der Induktion angesehen und diese These durch seine „induktiven Tafeln" der Astronomie und Optik zu beweisen versucht13. Whewell beruft sich in diesem Zusammenhang ausdrücklich auf Bacons klassisches Modell der induktiven Wissenschaftssystematik und übernimmt dessen Vorstellung von den sukzessiven Ebenen der Induktion, die durdh Skalen oder Leitern miteinander verbunden sind 14 . Anders jedoch als Bacon, dessen induktive Tafeln lediglich mehr oder weniger willkürliche Sammlungen und Aufzählungen einzelner empirischer Beobachtungen sind, stellen Whewells „induktive Tafeln" ein „konstruktives Schema" des faktisch in der Wissenschaftsgeschichte sich vollziehenden Prozesses der Theorien12

13

14

I. Newton, Opuscula, ed. Joh. Castillioneus, Lausanne-Genf 1744, Tom. II, S. 38. Ein Verfahren, das ihm das Lob A. v. Humboldts einträgt. Vgl. Kosmos II, S. 505. Vgl. Bacon, Novum Organon, Aph. CIV und CV; Whewell, Novum Organon Renovatum, Preface IX f.

Konstruktion und Deduktion

95

bildung dar. Die Konstruktion einer erfahrungswissenschaftlichen Theorie ist nach Whewell mit der Errichtung einer Pyramide vergleichbar: Sie erfolgt durch die sukzessive Verallgemeinerung von partikulären Gesetzmäßigkeiten, die auf einer anderen Ebene zu einem allgemeinen Gesetz integriert werden. Jede dieser Gesetzmäßigkeiten stellt ein notwendiges und unerläßliches Element in der Konstruktion der Theorie dar, auch wenn im Verlauf dieses Konstruktionsprozesses eine theoretische Erklärung auf einer höheren Stufe durch eine andere ersetzt wird. In der Terminologie der modernen Wissenschaftstheorie ausgedrückt: Es gibt keine inkommensurablen Theorien. Verschiedene, ja sogar entgegengesetzte Theorien werden in ihrer konsequenten Weiterentwicklung miteinander vereinbart, soweit sie sich ständig an der Erfahrung orientieren. Als Beispiel führt Whewell den Gegensatz zwischen Newtons Gravitationstheorie und der Wirbeltheorie von Descartes an: „Ohne Zweifel können alle diese Erklärungen richtig und in Übereinstimmung miteinander sein und würden es sein, hätte man jede in der Weise weiter entwickelt, daß man gezeigt hätte, wie man sie mit den Tatsachen in Einklang bringen kann. U n d dies geschah in Wirklichkeit in einem hohen Maße. Die Lehre, daß die Himmelskörper durch Wirbel bewegt würden, wurde erfolgreich derart umgebildet, daß sie zuletzt in ihren Resultaten mit der Lehre von einer umgekehrt-quadratischen Zentripetalkraft überein kam. Sobald man diesen Punkt erreicht hatte, war der Wirbel nur mehr eine gut oder schlecht ausgedachte Maschinerie, die eine solche Zentripetalkraft hervorbringen sollte, und stand daher mit der Annahme derselben nicht im Widerspruch. N e w ton selbst sdieint der Erklärung der Gravitation durch irgendeinen Anstoß nicht abgeneigt gewesen zu sein. So wenig ist es wahr, daß, wenn eine Theorie richtig ist, darum die andere falsch sein muß." 1 5 Diese Argumentation wird freilich bereits von den zeitgenössischen Vertretern der induktiven Logik, deren Wissenschaftskonzeption rein kumulativ ist und Entwicklung durdi Veränderung ausschließt, nicht akzeptiert. Whewell, der ursprünglich nicht nur die Hypothesenbildung, sondern auch die Theorienbildung als einen „Teil der induktiven Logik" ansieht, ändert, insbesondere nach den Angriffen Mills, zwar nicht seine Ansichten, aber doch die Bezeichnung für 15

Whewell, On the Philosophy of Discovery, S. 231.

96

5. Theorienbildung und Theorienstabilisierung

seine Metatheorie der Theorienbildung, die er ab dem Jahr 1860 ausdrücklich „philosophy of discovery" nennt. Sie stellt die erste ausführliche Theorie der organisatorischen Veränderung im Rahmen der Wissenschaftstheorie dar, die auf den Informationsbegriff gegründet ist. Der Unterschied zwischen dem konstruktiven Verfahren des Aufbaus einer Theorie und der induktiven Gewinnung von Hypothesen besteht darin, daß in der Konstruktion von Theorien keine Typensprünge mehr erforderlidi sind, durch die die Hypothesenbildung gekennzeichnet ist. Die Verallgemeinerung partieller Gesetzmäßigkeiten von Teiltheorien geschieht durch eine Systematisierung, die logisch total rekonstruierbar ist, denn es handelt sich dabei nicht mehr primär um den Übergang von empirischer Erfahrung zu allgemeinen Gesetzeshypothesen, der ein Übergang von der ersten zur zweiten Stufe der Informationsverdichtung ist, sondern um die widerspruchsfreie, logische Verknüpfung solcher Gesetzeshypothesen zu einem System. Diese logische Verknüpfung, die zum konstruktiven Aufbau einer Theorie führt, ist jedoch nicht mit der deduktiv-analytischen Systematisierung zu verwechseln, die in einer späteren Phase die formale Stabilisierung einer Theorie leistet. Die Konstruktion ist ein synthetisches Verfahren, das überhaupt die Verallgemeinerung der Grundaxiome einer Theorie hervorbringt. Dieses Verfahren zeigt sich am ausgeprägtesten in den frühen Phasen der Wissenschaftsentwicklung, zum Beispiel in den Werken Galileis und Keplers. Im synthetischen Aufbau der terrestrischen und der coelestischen Mechanik wird in verkürzter Weise der historische Prozeß, der zu diesen Theorien geführt hat, wiederholt, und zwar in der Gesamtheit seines faktischen Ablaufs, der nicht nur die strukturellen, sondern auch die empirischen Informationen als Beobachtungsdaten umfaßt. Denn die empirischen Informationen liefern die nicht mehr rüdegängig zu machenden Entscheidungen über die Auswahl aus dem prinzipiell unbegrenzten Bereich struktureller Informationen. Sobald eine solche Auswahl unter bestimmten strukturellen Informationen durchgeführt worden ist, beginnt die Axiomatisierung einer erfahrungswissenschaftlichen Theorie nach dem Muster der deduktiven Methodologie rein mathematischer Theorien. Auf diese Art und Weise hat Kepler das Axiomensystem seiner Planetentheorie aus einer Kette von möglichen Strukturgesetzlichkeiten konstruiert, deren Auswahl und Verknüpfung durch

Konstruktion und Deduktion

97

Entscheidungen auf Grund deskriptiv-metrischer Informationen geleitet worden sind. So haben zum Beispiel jene acht Bogenminuten bei der Berechnung der Marsbahn Kepler zu einer vollständigen Veränderung der zu seiner Zeit gültigen Planen tentheorien gezwungen. In einem Brief an Christian Longomontanus beschreibt Kepler selbst diesen in der Astronomia N o v a dargestellten Prozeß: „Wie ich gegen tausend Wände stieß, bis ich endlich auf diesen Weg gedrängt wurde, das ist in jenen 51 Kapiteln d a r g e s t e l l t . . . Ihr mahnt mich, ich solle bei der Erforschung der physikalischen Ursachen darauf achten, daß ich nicht dem Himmel Gewalt antue. Ja, mein Christian, hätte ich 8 Minuten im Zweifel lassen wollen, so hätte ich mir die so ungeheure Mühe des ganzen letzten Jahres 1604 ersparen können."1® Kein Werk der Wissenschaftsgeschichte läßt jedoch den Aufwand an struktureller Information, den die Konstruktion eines erfahrungswissenschaftlichen Axiomensystems erfordert, besser erkennen als die Harmonice Mundi. In dieser Schrift geht es primär nicht um die Entdeckung des dritten Planetengesetzes als einer isolierten Hypothese, sondern um die Grundlegung der gesamten Theorie der Planetenbewegung. Denn mit diesem Gesetz, das nicht nur die Bahnform und die Geschwindigkeit einzelner Planeten, sondern das Verhältnis dieser Bewegungen zueinander in einen gesetzmäßigen Zusammenhang bringt, ist bereits die axiomatische Grundlage des Gesamtsystems der Planetentheorie gegeben. Die Übergangsphase zwischen der Erörterung der Vorbedingungen, die sowohl historisch-faktisch als auch logisch-abstrakt sein können, und dem eigentlich konstruktiven Aufbau einer Theorie auf den durdi gesicherte Auswahl gegebenen Grundelementen läßt sich besonders deutlich in Galileis Discorsi erkennen. An diesem Beispiel zeigt sich außerdem, daß zu den Vorbedingungen einer Theorie auch die Festigung des Begriffsapparates, in dem sie formuliert wird, gehört. Für die Schilderung der ersten beiden Tage der „Unterredungen über zwei neue Wissenschaften", die den Erörterungen der Vorbedingungen des Systems gewidmet sind, verwendet Galilei die italienische Alltagssprache, das heißt die natürliche Primärsprache, in der zuallererst wissenschaftliche Innovationen ausgedrückt werden müssen. Nachdem das Alte vom Neuen geschieden, derKom11

Vgl. E. Oeser, Kepler. Die Entstehung der neuzeitlichen Wissenschaft, Göttingen 1971, S. 53.

7

Oeser, Band 3

98

5. Theorienbildung und Theorienstabilisierung

plex intuitiver Grundeinsichten durch Beispiele erläutert und die zu verwendende Terminologie geklärt ist, findet sich in den folgenden Teilen, nur gelegentlich durch Unterredungen der Dialogpartner unterbrochen, das geordnete System der Demonstrationen, die die Theorie der Fall- und Wurfbewegungen im strengen Stil der lateinischen Wissenschaftssprache darstellen. Doch selbst wenn die Theorie von vornherein in Form eines Lehrbuchs konzipiert ist, wie es bei der Mechanik Newtons der Fall ist, geht der historische Prozeßcharakter erfahrungswissenschaftlicher Erkenntnis in dieser Systematisierung keineswegs gänzlich unter. Nicht nur die Namen der Entdecker der Gesetze und Teiltheorien bleiben gewissermaßen als historische Markierungen an bestimmten Stellen des Systems erhalten, sondern der gesamte konstruktiv-synthetische Aufbau der Theorie spiegelt gerade diesen historischen Prozeß ganz eindeutig wider. Die Struktur klassischer synthetischer Theorien ist durch folgende Klassifikation der elementaren Darstellungsformen bestimmt: 1. Definitionen: Sie haben von Euklid bis Newton den Charakter vorläufiger Abgrenzungen. Es sollen damit weder neue Begriffe geschaffen noch die bereits bekannten Begriffe in einer endgültigen Form festgelegt werden. Wer nicht weiß, was ein Punkt ist, wird es audi aus Euklids Definition nicht lernen. Auch Newtons Definitionen von Masse, Bewegung und Kraft haben diesen vorläufigen Charakter. Die Grundbegriffe „Raum" und „Zeit" werden von ihm ebenfalls nicht eindeutig fixiert, sondern es werden nur einige Merkmale an ihnen hervorgehoben, um damit zu zeigen, in welchem Sinn sie gebraucht werden können. Es sind also keine Definitionen im streng logischen Sinn, weder Nominal- noch Realdefinitionen, sondern es handelt sich dabei um Präliminarien, durch welche die Aufmerksamkeit von vornherein auf die Beziehung und Abhängigkeit gewisser Begriffe zuund voneinander gelenkt werden soll. 2. Axiome oder Grundsätze: Sie sind logisch gesehen indemonstrable Allsätze, die weder eines Beweises fähig noch bedürftig sind; praktisch gesehen sind sie Postulate oder Anweisungen zur konstruktiven Verknüpfung der Grundbegriffe; und empirisch gesehen sind sie Hypothesen oder Voraussetzungen, die nur partiell begründbar sind und deren Konsequenzen sich nur nachträglich überprüfen lassen. So

99

Synthetische Theorien

treten zum Beispiel in den Grundsätzen der Newtonschen Mechanik, in den drei Axiomata sive Leges motus (Bewegungsgesetzen), die Grundbegriffe „Raum", „Zeit" und „Masse" in bestimmten Verknüpfungsrelationen auf, die diesen Begriffen einen konkreteren Sinn geben. Denn erst in dieser Verknüpfung liefern die Grundbegriffe eine Operationsbasis zur Erweiterung des Gesamtsystems der Mechanik. Mit dieser konstruktiven Erweiterung wächst audi die Festigkeit, Präzision und Sicherheit der allgemeinen Grundsätze. Die klassischen erfahrungswissenschaftlichen Theorien lassen sich daher als „Systeme mit rückwirkender Verfestigung"17 charakterisieren. Diese Sicherung ist jedoch keine rein formale, sondern beruht auf einer schrittweisen Überprüfung der Konsequenzen aus den Grundsätzen durch empirische Beobachtung und Experimente. 3. Theoreme oder Lehrsätze sind Sätze, die demonstrabel oder beweisbar sind. Zu dem Satz, der die Lehre enthält, kommen also noch einer oder mehrere hinzu, welche die Wahrheit der Lehre demonstrieren können. Logisch gesehen sind die Theoreme zwar Konsequenzen aus den Axiomen; damit wird jedoch nur ihre formale Beweisbarkeit oder Ableitbarkeit aufgezeigt, das heißt ihre logische Verknüpfung mit den axiomatischen Grundlagen einer Theorie wird nachgewiesen. Der Beweis der Widerspruchsfreiheit und Ableitbarkeit genügt aber nicht, um die Brauchbarkeit und empirische Relevanz der Theoreme zu demonstrieren. Die zu den Theoremen hinzukommenden Sätze sind: a) unmittelbare Folgerungen oder Korollarien, die ein Theorem spezifizieren oder b) auf Beobachtung und Versuch gegründete Sätze: observationes und experimenta. Aus den Axiomen einer erfahrungswissenschaftlichen Theorie lassen sich jedoch nicht nur Lehrsätze ableiten, sondern auch: 4. praktische

Aufgabenstellungen

oder Probleme.

Zu

einem

Problem gehört: a) der Satz, der die Aufgabe enthält, b) die Anweisung, das Geforderte auszuführen, und c) das Problemlösungsverfahren selbst. 17

7*

Vgl. P. Volkmann, Einführung in das Studium der theoretischen Physik, Leipzig-Berlin 1913.

100

5. Theorienbildung und Theorienstabilisierung

In einer erfahrungswissenschaftlichen Theorie ergeben sich aber auch Probleme, zu deren Lösung weder die ableitbaren Theoreme noch die darauf gegründeten Problemlösungsverfahren ausreichen. In einem solchen Fall werden 5. Lemmata oder Lehnsätze eingeführt, deren Gültigkeit evident ist, das heißt, diese hat sich in anderen Wissenschaften bereits erwiesen. In der Newtonschen Mechanik stammen fast alle derartigen Lemmata aus der Geometrie (zum Beispiel aus der Theorie der Kegelschnitte). 6. Die Scholien schließen dann die einzelnen Abschnitte und das Gesamtsystem ab. Es sind Erläuterungen, die nicht notwendig zum System selbst gehören. In ihnen werden jedodi audi, wie in dem berühmten Scholium Generale der Newtonsdien Mechanik, grundsätzliche methodische Festsetzungen getroffen (zum Beispiel das Verdikt über die unbegründeten Hypothesen). Hypothesen, die in einem bestimmten historischen Zustand einer Theorie nicht begründbar sind, können jedodi als: 7. Fragen oder Quaestiones am Ende des systematischen Aufbaus einer Theorie auftreten. In dieser Frageform stellt die Hypothese die Entwicklungsform der Wissenschaft überhaupt dar. Sie demonstriert den provisorischen Charakter jedes erfahrungswissensdiaftlichen Systems. Der konstruktive synthetische Aufbau der Newtonsdien Mechanik stellt jedoch nur eine Phase der Theorienbildung dar. In dieser Phase zeigt sich die erfahrungswissenschaftliche Theorie als ein offenes, sidi selbst entwickelndes und sich schrittweise organisierendes System mit rückwirkender Verfestigung. Dieser Prozeß der Stabilisierung, der bereits mit dem konstruktiven Aufbau einer Theorie einsetzt, erfährt aber erst durch die deduktive Methode, die nicht mehr synthetischen, sondern formal-analytischen Charakter hat, seinen provisorischen Abschluß. Der stabilisierende Faktor, den schon die konstruktivsynthetische Methode enthält, ist auf die verfestigende Tendenz partieller Deduktionen zurückzuführen, in denen Beobachtungen und experimentelle Ergebnisse durch Ableitungszusammenhänge mit den Theoremen und Axiomen der Theorie retrospektiv erklärt oder für zukünftige Ereignisse vorausgesagt werden können. Selbst die Lehrbudidarstellung einer konstruktiv-synthetischen Theorie, wie Newtons Werk „Philosophiae naturalis principia mathematica" es für die Mechanik

Analytische Theorien

101

ist, ist daher methodisch gesehen als die Wiedergabe eines fragmentarischen axiomatisdi-deduktiven Systems anzusehen. Der Übergang zwischen den verschiedenen Methoden, die zur Gewinnung und Systematisierung erfahrungswissenschaftlicher Erkenntnis dienen — Induktion, Konstruktion und Deduktion —, ist ohne Grenzen fließend. Denn die erfahrungswissenschaftliche Erkenntnis ist ein Entwicklungsphänomen, das die „Systematik immer nur bis zu einem gewissen G r a d verträgt" 1 8 . A m deutlichsten hat Mach diese methodologischen Entwicklungsphasen erfahrungswissenschaftlicher Theorien am Beispiel der Mechanik beschrieben: „Sind einmal alle wichtigen Tatsachen einer Naturwissenschaft durch Beobachtung festgestellt, so beginnt für diese Wissenschaft eine neue Periode, die deduktive . . . Es gelingt dann, die Tatsachen in Gedanken nachzubilden, ohne die Beobachtung fortwährend zu H i l f e zu rufen. Wir bilden allgemeinere und kompliziertere Tatsachen nach, indem wir uns dieselben aus einfacherem, durch die Beobachtung gegebenen wohlbekannten Elementen zusammengesetzt denken. Allein wenn wir auch aus dem Ausdruck für die elementarsten Teilchen (den Prinzipien) den Ausdruck für häufiger vorkommende kompliziertere Tatsachen (Sätze) abgeleitet und überall dieselben Elemente erschaut haben, ist der Entwiddungsprozeß der Naturwissenschaft noch nicht abgeschlossen. Es folgt der deduktiven die formelle Entwicklung. Es handelt sich dann darum, die vorkommenden und nachzubildenden Tatsachen in eine übersichtliche Ordnung, in ein System zu bringen, so daß jede einzelne mit dem geringsten A u f w a n d gefunden und nachgebildet werden kann. In diese Anweisungen zur Nachbildung trachtet man die möglichste Gleichförmigkeit zu bringen, so daß dieselben leicht anzueignen sind. M a n bemerkt, daß die Perioden der Beobachtung, Deduktion und der formellen Entwicklung nicht scharf voneinander getrennt sind, sondern daß diese verschiedenen Prozesse häufig nebeneinander hergehen, wenngleich die bezeichnete Aufeinanderfolge im ganzen unverkennbar ist." 1 9 Betrachtet man den Anfangs- und Endpunkt dieser Entwicklung, so ergeben sich methodisch-logisch gesehen zwei grundsätzlich voneinander verschiedene Wissenschaftstypen: der synthetische T y p , repräsentiert durch die Newtonsche Mechanik, Ebenda, S. 3. *· Math, Die Mechanik in ihrer Entwicklung, S. 409.

18

102

5. Theorienbildung und Theorienstabilisierung

und der analytische Typ, repräsentiert durch die Mechanik Lagranges. In diesem Übergang vom synthetischen zum analytischen Typ verliert die erfahrungswissenschaftliche Theorie ihre Fähigkeit zur konstruktiven Erweiterung und damit ihren Charakter der Offenheit. Denn an die Stelle der geometrischen Darstellung, die mit Hilfe von Konstruktionen an einer dem empirischen Phänomen analogen Figur (zum Beispiel Planetenbahn — Ellipse) die erfahrungswissenschaftliche Erkenntnis zu erweitern versucht, tritt die Analysis, das heißt die rechnende Methode, deren Hilfsmittel in der Theorie der reellen Zahlen einschließlich ihrer Funktionen vorgegeben sind. Der Übergang vom synthetischen zum analytischen Typus einer erfahrungswissenschaftlichen Theorie kann sich jedoch nur auf Grund einer neuen Interpretation der Axiome vollziehen: Aus Konstruktionspostulaten werden Rechenvorschriften. Läßt sich die Methode der Konstruktion als eine synthetische Deduktion auffassen, die darin besteht, aus gegebenen Voraussetzungen eine Folgerung zu ziehen, so bedeutet die analytische Deduktion eine Umkehrung dieses Verfahrens, weil es dabei um das Aufsuchen der Bedingungen zu einem Satz oder zu den Eigenschaften einer Figur geht 20 . Auf einer solchen „ Umkehr ung" der Verfahrensweise beruht auch die analytische Geometrie, in der die „alleinige Benutzung gerader Linien und Kreise, die in einer und derselben Ebene gezogen werden", durch die Anwendung algebraischer Methoden ersetzt wird. Der Vorteil dieses Verfahrens besteht nach Descartes in der formalen Reduktion aller möglichen Konstruktionsprobleme der klassischen synthetischen Geometrie auf wenige Grundgleichungen: „Dies scheinen die Alten nicht bemerkt zu haben, da sie sonst die Mühe gescheut hätten, darüber so viele didke Bücher zu schreiben, in denen schon allein die Anordnung ihrer Lehrsätze erkennen läßt, daß sie nicht im Besitze der wahren Methode waren, die allein diese Lehrsätze liefert, sondern daß sie nur diejenigen, die ihnen begegnet sind, aufgelesen haben." 2 1 In ähnlicher Weise hat sich Lagrange über die Anwendung der „Analysis" in der Mechanik ausgesprochen: „Man wird in diesem Werke gar keine Figuren finden. Die Methoden, die ich darin auseinandersetze, bedürfen weder einer Konstruktion, noch geometrischer oder mechanischer Über20 21

Vgl. ebenda, S. 444. Vgl. R. Descartes, Geometrie, deutsch hrsg. von L. Schlesinger, Darmstadt 1969, S. 7 f.

Analytische Theorien

103

legungen, sondern einzig und allein algebraischer Operationen nach einem regelmäßigen und gleichförmigen Vorgehen." 22 Das kartesianische Koordinatensystem ermöglicht es, jeden Punkt der ebenen Geometrie durch ein reines Zahlensymbol darzustellen und jede Beziehung zu anderen Punkten durch eine arithmetische Beziehung wiederzugeben. Damit wird sozusagen ein arithmetisches Modell der Geometrie gewonnen, das in analoger Weise wie die alte, synthetische Geometrie zur Konstruktion eines Modells für die reale Welt benützt werden kann; eines Modells, aus dem sich jeweils ablesen läßt, was in der Wirklichkeit geschieht, indem man die entsprechenden Konstruktionen am Modell ausführt. Nur handelt es sich dann bei diesen Konstruktionen nicht mehr um „Linien und Kreise", die Galilei noch als „Schriftzeichen" des Buches der Natur angesehen hat, sondern um eine „symbolische Konstruktion" 23 mittels algebraischer Zeichen, die sich miteinander nach bestimmten Vorschriften verknüpfen lassen. An die Stelle der geometrischen Konstruktion tritt dann die Berechnung, und die Gesetze der Mechanik werden als arithmetische Gesetze zwischen den Zahlenwerten variabler Größen aufgefaßt, in denen Raumpunkte und Zeitmomente durch deren Zahlenkoordinaten vertreten werden. Da jegliche Art von Berechenbarkeit mit der logischen Ableitbarkeit im strengen Sinn äquivalent ist, wird die erfahrungswissenschaftliche Theorie damit zu einer deduktiven Disziplin. An die Stelle des Systems der Bewegungsaxiome tritt ein System von Differentialgleichungen, das auf eine einzige Formel reduziert werden kann: „Man kann demnach auch die ganze Dynamik auf eine allgemeine Formel zurückführen; denn um die Formel für das Gleichgewicht irgendeines Systems von Körpern auf dessen Bewegung anzuwenden, genügt es, in die Gleichgewichtsformel die Kräfte einzuführen, welche von den Veränderungen der Bewegung jedes Körpers herrühren und welche einander aufheben müssen. Die Entwicklung dieser Formel wird, indem man auf die von der Natur dieses Systems abhängigen Bedingungen Rücksicht nimmt, alle Gleichungen liefern, welche zur Bestimmung a

25

J. L. Lagrange, Mecanique analytique, 3, hrsg. von M. J. Bertrand, Paris 1853, Tom. I, S. III f. Vgl. H. Weyl, Wissenschaft als symbolische Konstruktion, in: Η. H. Holz - J. Schickel (Hrsg.), Vom Geist der Naturwissenschaft, Zürich 1969, S. 94.

104

5. Theorienbildung und Theorienstabilisierung

der Bewegung des Körpers erforderlich sind. Und man braucht dann nur mehr diese Gleichungen zu integrieren, was Sache der Analysis ist." 84 Die deduktive Systematisierung einer erfahrungswissenschaftlichen Theorie zu einem Formelgerüst aus bloßen Symbolen führt zwar einerseits zu einer Präzisierung der Grundlagen und einer Stabilisierung des Systems der algorithmischen Ableitungsmechanismen, andererseits aber auch zu einer starren Abgeschlossenheit, welche die Aufnahme neuer Momente nicht verträgt bzw. ihrer gar nicht fähig ist 25 . Der Grund dafür liegt im Wesen des Algorithmus selbst, der immer nur als das Problemlösungsverfahren für eine bestimmte beschränkte Klasse von Problemen, die in der erfahrungswissenschaftlichen Erkenntnis auftreten, gelten kann. Dadurch wird aber auch der deduktive Charakter des Gesamtsystems der Theorie fragwürdig. Mit der Newtonschen „universalen Mechanik" verbindet sich die Vorstellung, die durch die Lehrbuchdarstellung der Principia noch weiter verstärkt wird, daß die Verknüpfung der einzelnen historisch vorgeordneten Schichten dieser Theorie nachträglich als deduktive Zusammenhänge interpretiert werden können. Zwar hat bereits Whewell erkannt, daß keine der historisch vorgegebenen Teiltheorien unverändert als Schicht in die Gesamttheorie eingeht, der methodische Unterschied zwischen dem eigentlichen Stabilitätsbeweis und dem bloß formallogischen Widerspruchsfreiheits- oder Vollständigkeitsbeweis 26 wird jedoch erst mit dem Auftreten des analytischen Wissenschaftstypus, insbesondere mit dem der Maxwellschen Elektrodynamik, deutlich. Damit ist zum ersten Mal eine analytische Theorie vorhanden, zu der es nie eine synthetische Theorie gegeben hat 27 . Die von Maxwell aufgestellten Grundgleichungen sind trotz größter Bemühungen nicht auf die Mechanik zurüdkführbar. Der formallogische, deduktive Charakter des Zusammenhangs des Gesamtkomplexes des astronomisch-physikalischen Wissens ist somit auch nicht mehr aufrecht zu hal24 55

27

Lagrange, Mecanique analytique, Tom. I, S. 224 f. Vgl. Volkmann, Einführung in das Studium der theoretischen Physik. Vgl. N.R.Hanson, Stability Proofs and Consistency Proofs, in: What I Do Not Believe and Other Essays, Dordrecht 1971, S. 75 S. Vgl. P. Lorenzen, Die Entstehung der exakten Wissenschaften, Berlin-Göttingen-Heidelberg 1960, S. 141.

Analytische Theorien

105

ten. Die Stelle des klassischen deduktiven Wissenschaftsideals, das Laplace mit der Fiktion einer Intelligenz umschreibt28, die das System der Gesetze, aus dem alles ableitbar ist, kennt, nimmt nun die das analytische Wissenschaftsideal repräsentierende Fiktion des Maxwellschen Dämons ein, der die Einzelereignisse voraussagen kann, ohne den Gesamtzusammenhang der Gesetze kennen zu müssen**. Die deduktive Struktur analytischer Theorien der Physik ist, gerade weil sie auf die mathematische Ableitbarkeit im Sinne algorithmischer Berechenbarkeit zurückzuführen ist, immer nur partiell und unvollständig. Der dadurch bedingte Status einer symbolischen Konstruktion mathematisierter erfahrungswissenschaftlicher Theorien erfordert deswegen einen Übersetzungsoder Interpretationsmechanismus, dessen Zuordnungen jedoch keinen eindeutigen Charakter haben. Bereits P. Duhem hat den Unterschied klar erkannt, der zwischen den Anforderungen, die an die formale Seite einer mathematisierten Erfahrungswissenschaft zu stellen sind, und den Bedingungen der empirischen Brauchbarkeit mathematischer Deduktionen besteht: „In der Tat nützt eine mathematische Deduktion dem Physiker nichts, solange er sich auf die Behauptung beschränkt, daß wenn dieser Satz streng richtig ist, die strenge Richtigkeit jenes anderen Satzes folge. Damit sie dem Physiker nützlich sei, muß er auch beweisen, daß der zweite Satz annähernd richtig bleibe, wenn der erste nur annähernd wahr ist. Und das genügt auch noch nicht. Er muß den Umfang dieser beiden Annäherungen abgrenzen. Er muß die Fehlergrenze des Resultates feststellen, die aus der Kenntnis des Grades der Genauigkeit der Methoden, die zur Messung der Angaben gedient haben, hervorgehen. Man muß den Grad der Unsicherheit, die man den Angaben zuschreiben muß, definieren, wenn man das Resultat mit bestimmter Annäherung kennen will." 30 Trotz der formalen Äquivalenz von Ableitbarkeit und Berechenbarkeit machen die partiellen algorithmischen Lösungsprozeduren eine erfahrungswissenschaftliche Theorie, auch wenn 88

P. S. de Laplace, Essai philosophique sur les probabilitis, Paris 1840, S. 4. 2 · Vgl. J. C. Maxwell, Theorie der Wärme, Braunschweig 1878, S. 375. 80 P. Duhem, Ziel und Struktur der physikalischen Theorien, Leipzig 1908, S. 187. Vgl. L. Schäfer, Erfahrung und Konvention. Zum Theorienbegriff der empirischen Wissenschaften, Stuttgart-Bad Cannstatt 1974, S. 134.

106

5. Theorienbildung und Theorienstabilisierung

diese noch so sehr mathematisiert ist, keineswegs zu einem „deduktiven System". Die klassische Vorstellung, daß es sich bei physikalisdien Theorien um „logische Pyramiden" handelt, die im Unterschied zu den „induktiven Pyramiden" Whewells deduktive Systeme sind, in denen die einzelnen Schichten durch deduktive Zusammenhänge verbunden sind, ist daher in der gegenwärtigen Wissenschaftstheorie schon längst aufgegeben worden 31 . Diese Einsicht bedeutet in systematischer Hinsicht, daß die einseitige Anlehnung der Wissenschaftstheorie als einer „Metatheorie" der empirischen Wissenschaften an die Metamathematik eine Fehlorientierung gewesen ist 32 . Die „logische Rekonstruktion" erfahrungswissenschaftlicher Erkenntnis, in der die Formalisten unter den Wissenschaftstheoretikern ihre eigentliche Aufgabe sehen, bildet zwar einen nicht gänzlich eliminierbaren, jedoch nur zweitrangigen Aspekt, dessen Übertreibung zu einer Verfälschung der empirischen Wissenschaft zu einem „Aussagensystem" führen kann. Die statisdie Struktur der Wissenschaft als eines „deduktiven Aussagensystems" ist aber nur das Ergebnis einer Stabilisierungsphase der Wissenschaft, die sich hauptsächlich auf die äußere Struktur der Lehrbuchdarstellung bezieht. Deshalb kommt auch die Priorität bei wissenschaftstheoretisdien Untersuchungen eindeutig der Analyse und Rekonstruktion der dynamischen Aspekte zu, das heißt nicht der Nachweis der logischen Konsistenz wissenschaftlicher Theorien, sondern die Untersuchung methodologischer Probleme der „Veränderung und des Wachstums von Theorien" sowie erkenntnistheoretischer Probleme der „Akzeptierung oder Verwerfung von Theorien" 3 8 auf Grund empirischer Erfahrung hat den Vorrang. Die nachträgliche Stabilisierung von Theorien durch den Aufweis deduktiver Ableitungszusammenhänge stellt jeweils nur die logische Rekonstruktion einer bestimmten Phase der Theoriendynamik dar. Faktisch-historisch gesehen ist diese Phase bei den klassischen erfahrungswissenschaftlichen Theorien stets sehr lang. So ist die Grundkonzeption der Newtonschen Mechanik, abgesehen von formalen Veränderungen, mindestens 200 Jahre 31

32 33

A m eindeutigsten bei S. Toulmin, The Philosophy of Science, 1953, deutsche Übersetzung: Einführung in die Philosophie der Wissenschaft, Göttingen o. J., S. 86. Vgl. Stegmüller, Theorienstrukturen und Theoriendynamik, S. 1 ff. Vgl. Sneed, The Logical Structure of Mathematical Physics, S. 5.

Wissenschaftsentwicklung und Theoriendynamik

107

unangefochten gültig gewesen; die geozentrische Planetentheorie hat sogar eine „Lebensdauer" von fast 2000 Jahren gehabt. Demgegenüber besitzen die meisten Theorien der modernen Naturwissenschaft eine unvergleichlich geringere „Lebensdauer". Die Ursachen liegen einerseits in den externen Bedingungen, das heißt in der Vergrößerung des Potentials der Wissenschaft sowie in der Verbesserung der Kommunikationsmittel, die den Informationsfluß so gesteigert haben, daß er selbst bereits zum Problem geworden ist, andererseits aber in einer grundsätzlichen Veränderung des Charakters der Theorie überhaupt. Erfahrungswissenschaftliche Theorien treten weder mit dem Anspruch absoluter Wahrheit — diesen Anspruch hat schon Galilei als uneinlösbar abgelehnt — noch mit dem Anspruch der Unveränderbarkeit auf. Sie sind vielmehr als großangelegte „Gedankenexperimente" zu betrachten, die teils durch „kontinuierliche Variation" 34 , teils durch „ganz neue, disparate" 85 Methoden den Erfordernissen des Erkenntnisfortschritts angepaßt werden müssen. Im Rahmen des wissenschaftlichen Informationssystems, als das jedes systematisierte Wissensgebiet anzusehen ist, nehmen die Theorien gerade deswegen die zentrale Stelle ein. Denn sie liefern einen Mechanismus zur Ordnung und Verwertung der alten sowie zur Gewinnung von neuen Erkenntnissen.

6. Theoriendynamik: Der interne Mechanismus der Wissenschaftsentwicklung Die methodische Analyse der faktischen Wissenschaftsgeschichte hat seit jeher erkennen lassen, daß Wissenschaft ein Entwicklungsphänomen ist. Den klassischen Theorien des Erkenntnisfortschritts lag jedoch immer nur eine kumulative Konzeption der Wissenschaftsentwicklung zugrunde. Die Rechtfertigung dieser Auffassung beruht auf dem Charakter der klassischen empirischen Wissenschaft selbst. Besonders in prätheoretischen Phasen war das Anhäufen von Fakten das einzige Kennzeichen der Entwicklung. Die Klassifikationssysteme hatten die Wirkung von „Schachtelsystemen", in denen die Stellen oder Räume 34

Vgl. Madi, Erkenntnis und Irrtum, S. 189. *5 Vgl. L. Boltzmann, Entwicklung der Methoden der theoretischen Physik, in: Populäre Schriften, S. 201.

Wissenschaftsentwicklung und Theoriendynamik

107

unangefochten gültig gewesen; die geozentrische Planetentheorie hat sogar eine „Lebensdauer" von fast 2000 Jahren gehabt. Demgegenüber besitzen die meisten Theorien der modernen Naturwissenschaft eine unvergleichlich geringere „Lebensdauer". Die Ursachen liegen einerseits in den externen Bedingungen, das heißt in der Vergrößerung des Potentials der Wissenschaft sowie in der Verbesserung der Kommunikationsmittel, die den Informationsfluß so gesteigert haben, daß er selbst bereits zum Problem geworden ist, andererseits aber in einer grundsätzlichen Veränderung des Charakters der Theorie überhaupt. Erfahrungswissenschaftliche Theorien treten weder mit dem Anspruch absoluter Wahrheit — diesen Anspruch hat schon Galilei als uneinlösbar abgelehnt — noch mit dem Anspruch der Unveränderbarkeit auf. Sie sind vielmehr als großangelegte „Gedankenexperimente" zu betrachten, die teils durch „kontinuierliche Variation" 34 , teils durch „ganz neue, disparate" 85 Methoden den Erfordernissen des Erkenntnisfortschritts angepaßt werden müssen. Im Rahmen des wissenschaftlichen Informationssystems, als das jedes systematisierte Wissensgebiet anzusehen ist, nehmen die Theorien gerade deswegen die zentrale Stelle ein. Denn sie liefern einen Mechanismus zur Ordnung und Verwertung der alten sowie zur Gewinnung von neuen Erkenntnissen.

6. Theoriendynamik: Der interne Mechanismus der Wissenschaftsentwicklung Die methodische Analyse der faktischen Wissenschaftsgeschichte hat seit jeher erkennen lassen, daß Wissenschaft ein Entwicklungsphänomen ist. Den klassischen Theorien des Erkenntnisfortschritts lag jedoch immer nur eine kumulative Konzeption der Wissenschaftsentwicklung zugrunde. Die Rechtfertigung dieser Auffassung beruht auf dem Charakter der klassischen empirischen Wissenschaft selbst. Besonders in prätheoretischen Phasen war das Anhäufen von Fakten das einzige Kennzeichen der Entwicklung. Die Klassifikationssysteme hatten die Wirkung von „Schachtelsystemen", in denen die Stellen oder Räume 34

Vgl. Madi, Erkenntnis und Irrtum, S. 189. *5 Vgl. L. Boltzmann, Entwicklung der Methoden der theoretischen Physik, in: Populäre Schriften, S. 201.

6. Theoriendynamik

108

für zukünftige Entdeckungen bereits festgelegt waren. Auch war die Kapazität klassischer Theorien, wie etwa der Newtonschen Mechanik, so hoch, daß durch den kumulativen Prozeß des empirischen Informationszuwachses keine wesentlichen Veränderungen hervorgerufen wurden. Erst jener grundsätzliche Strukturwandel der modernen Naturwissenschaft, der in einer Verschiebung des Schwergewichts bei ihren Verfahrensweisen, und zwar von den beobachtenden, messenden und experimentellen Verfahren zur theoretischen Berechnung, besteht, kann die reale Basis für Überlegungen bilden, die sich auf die Möglichkeit der Wissenschaftsentwicklung durch Veränderung und Wechsel von Theorien beziehen. Hypothetische Kurve der Wissenschaftsentwicklung Sj

Die Theoriendynamik ist daher deutlich von der Wissenschaftsdynamik als dem Gesamtprozeß der Entwicklung eines Wissensgebietes zu unterscheiden. Der Wissensdiaftsentwicklung bleibt mit Notwendigkeit der kumulative Charakter erhalten. Darüber kann auch die „Saturationstheorie" von de Solla Price nicht hinwegtäuschen. Denn wie Dobrow in einer Verbesserung der Priceschen Exponentialkurve, die sich am hypothetischen Ende der Wissenschaftsentwicklung einer Sättigungsgrenze asymptotisch nähert, gezeigt hat, kann sich aus der sich verflachenden Kurve eines veralteten Wissensgebietes wieder eine neue Theorie erheben, welche die „übersättigte" Wissenschaft zu neuem Leben erweckt. Die gesamte Wissenschaftsgeschichte liefert für derartige Entwicklungsprozesse eindeutige und nicht übersehbare Belege.

Wissenschaftsentwicklung und Theoriendynamik

109

Das eklatanteste Beispiel ist die Entstehung der modernen Physik im 20. Jahrhundert: Max Planck wurde das Studium der Physik mit dem Hinweis abgeraten, daß es in dieser Wissenschaft nichts Neues zu entdecken gäbe. Bekanntlich ist das Gegenteil der Fall gewesen; Quantentheorie und Relativitätstheorie bilden die systematische Grundlage für ein neues physikalisches „Weltbild". Aber audi viele andere entscheidende Veränderungen in der Wissenschaftsgeschichte, die als „revolutionär" bezeichnet werden können, haben diesen Charakter einer „Neubelebung" eines Entwicklungsprozesses im Rahmen eines stagnierenden Wissensgebietes. So brachte Galilei die seit Jahrhunderten stagnierende aristotelisch-scholastische Bewegungslehre durch seine Theorie der Fall- und Wurfbewegungen in ein neues Entwicklungsstadium; und so lenkte Kepler den Kumulationsprozeß von Beobachtungen der Tychonischen Astronomie durch eine physikalische Theorie des Sonnensystems grundlegend in eine neue Entwicklungsrichtung. Um zu beweisen, daß eine derartige Entwicklungsform in der Geschichte der Naturwissenschaften keine Ausnahme bildet, verweist Dobrow selbst auf die Gesdiichte der Chemie, in der die Entdeckung der diemischen Elemente durch ein Diagramm mit einer solchen Verlaufsform darstellbar ist1. Eine Erklärung derartiger Prozesse auf Grund quantitativer „Kennziffern des wissenschaftlichen Fortschritts in Abhängigkeit von der Zeit" ist aber der Scientiometrie bisher unmöglich gewesen, da ihr, wie Dobrow selbst betont, die theoretische Grundlage noch fehlt 8 . Der empirisdien Wissenschaftsforschung eine theoretische Grundlage zu liefern, ist, wie bereits in der Einleitung dargestellt, ex definitione die Aufgabe der Wissenschaftstheorie. Jedoch erst die Einführung der informationstheoretischen Betrachtungsweise in die Wissenschaftstheorie ermöglicht es, den Entwicklungsprozeß der Wissenschaft, der durch Veränderung und Wechsel von Theorien entsteht, zu erklären. Denn es sind nidit die rein kumulativen Prozesse des Anwachsens empirischer Informationen, die durch quantitativ statistische Methoden erfaßbar sind, sondern die strukturellen Informationen, das heißt, die

1

2

Vgl. G. Dobrow, Wissenschaft; ihre Analyse und Prognose, Stuttgart 1974, S. 68 und 278. Vgl. ebenda, S. 279 und 204.

110

6. Theoriendynamik

Strukturen erfahrungswissenschaftlicher Theorien und ihre Problemlösungsverfahren sind es, die den weiteren Entwicklungsprozeß eines Wissensgebietes bestimmen, sobald eine gewisse Sättigungsgrenze erreicht ist, die zur Stagnation führt. Mit der Auffassung von der wissenschaftlichen Theorie als der letzten Stufe der Informationsverdichtung ist bereits ein K r i terium zu ihrer Bewertung gegeben: Es ist der „Informationsgehalt", der die K a p a z i t ä t oder Leistungsfähigkeit einer Theorie bezüglich ihrer erklärenden Funktion und Voraussagekraft festlegt. Dieser Informationsgehalt ist sowohl durch empirisch-deskriptive als auch durch niditempirische, strukturelle Informationen bestimmt. Seit jeher hat man es übrigens intuitiv als ein Kriterium für die Bewertung einer wissenschaftlichen Theorie angesehen, daß diese sowohl die Gesamtheit des vorhandenen empirischen Wissenskomplexes erfassen als auch noch weitere Anwendungen, Folgen und Voraussagen enthalten muß. D a s Ersetzen einer Theorie durch eine andere, die mehr erklärt und ein „gründlicheres" Wissen liefert, geschieht dann mit einer unaufhaltsamen, ja geradezu mechanischen Notwendigkeit, auch wenn externe Faktoren, etwa weltanschauliche Gründe, diesen Prozeß behindern. Die Idee der Informationsverdichtung, die für diese, bereits von Math als eine „Ökonomie des Denkens" charakterisierte, intuitive Vorstellung den Hintergrund bildet, läßt sich jedoch in der über den rein technischen Bereich auf die Wissenschaftstheorie erweiterten informationstheoretisdien Terminologie viel deutlicher explizieren: Eine inhaltsreiche wissenschaftliche Theorie gibt in komprimierter Form die Gesamtheit wirklicher und möglicher Informationen über einen bestimmten Gegenstandsbereich wieder. Handelt es sich bei einer solchen Theorie um die Grundlagentheorie einer Wissenschaft, wie etwa die Newtonsche Mechanik für die klassische Physik oder die Relativitätstheorie und Quantenmechanik für die moderne Physik, dann bildet diese Theorie den Strukturkern des Gesamtsystems. Wie schon durch den Hinweis auf die Ramsay-Darstellung einer Theorie und auf ihre Verbesserung durch Sneed angedeutet worden ist, ist es grundsätzlich formal möglich, die gesamte Theorie, das heißt ihr Axiomensystem, auf einen einzigen Satz oder genauer auf ein begriffsähnliches strukturelles Gebilde zu bringen. Eine derartige Informationsverdichtung steht jedoch entwidklungsgeschichtlich und logisch gesehen am Ende eines sehr langen Prozesses von Analysen und Beweisen, auf

Wissenschaftsentwicklung und Theoriendynamik

111

Grund derer sie historisdi-faktisch entstanden ist. Umgekehrt kann aber auch der Strukturkern eines wissenschaftlichen Systems wieder extensional zu einer langen Kette von Aussagen entfaltet werden, welche die besonderen Erkenntnisse eines erfahrungswissenschaftlichen Systems repräsentieren, wobei es prinzipiell gleichgültig ist, ob es sich bei diesen besonderen Aussagen um Erklärungen oder Prognosen handelt. Entscheidend ist vielmehr der Stellenwert einer wissenschaftlichen Information, die durdi solche Aussagen ausgedrückt wird. Dabei gilt der allgemeine Grundsatz der Informationssystemforschung, daß das, was berechnet werden kann, nicht gespeichert zu werden braucht. Objektiv redundante Informationen gehören demnach nicht in den internen Speicher des wissenschaftlichen Informationssystems, was aber nicht bedeutet, daß sie nicht in externen Speichern — Bibliotheken, Datenbanken usw. — aufbewahrt werden können. Ein externer Speicher enthält grundsätzlich historisch entwertete, jedoch nicht „falsche" Informationen, denn letztere müssen nach dem der biologischen Evolution analogen Selektionsprinzip vernichtet werden. Α. K. Suchotin hat für diese für eine Theorie der Wissenschaftsentwicklung unumgängliche Unterscheidung zwischen internen und externen Speichern eines wissenschaftlichen Informationssystems eine sehr plausible und realistische Darstellung gefunden, die sich auf statistische Untersuchungen der Scientiometrie stützt: „Wissenschaftliche Erkenntnisse eines bestimmten Niveaus kann man gewöhnlich in zwei Teile aufgliedern: in einen aktiven und in einen passiven. Der aktive Fonds der Wissenschaft — das sind jene Thesen und Aussagen, die in den wissenschaftlichen Umlauf einbezogen sind und direkt an der Produktion neuen Wissens teilnehmen, allgemein gesagt, die aktiv angeeignet werden und gegenwärtig sind. Der andere Teil des Wissens dagegen setzt sich entweder sofort bei seiner .Geburt' oder während der Evolution der Wissenschaft in den Bücherbeständen ab Jährlich ,sterben* etwa zehn Prozent der wissenschaftlichen Publikationen früherer Jahre und werden von niemandem mehr zitiert. Somit wird aus der Gesamtmasse der erschienenen Arbeiten lediglich ein bestimmter Teil ausgesondert, der den aktiven Forschungsfonds bildet. Ist von den Faktoren und Umständen die Rede, die die Existenz und das absolute Wachstum des passiven wissenschaftlichen Fonds erklären, dann muß man vor allem daran denken, daß sich eine Entdeckung, selbst wenn sie nicht sehr bedeutend ist, auf

112

6. Theoriendynamik

die vorherige Verallgemeinerung einer Menge von Tatsadien, auf Arbeitshypothesen und auf Vorschläge stützt, die durch diese Entdeckung gewissermaßen .aufgehoben' wurden und in den passiven Fonds übergehen."3 Der aktive Fonds der Wissenschaft besteht aus jener Summe von Kenntnissen, ohne deren Aneignung die Wissenschaft nicht weiterentwickelt werden kann. Dieses aktive Wissen ist jedoch in der Masse des Gesamtwissens eingelagert, die sich aus dem aktiven und dem passiven Fonds der Wissenschaft zusammensetzt. Sudiotin hat bereits angedeutet, daß der aktive wissenschaftlidie Fonds sich nicht einfach isolieren läßt. Genauer gesagt: Es ist nidit das empirische Faktenwissen, das sich einer absoluten Entwertung und Veralterung entzieht, sondern das theoretisdie Wissen, das durdi Wiederentdeckung, wie zum Beispiel der Mendelsdien Vererbungstheorie durdi de Vries, Correns und Tschermak4, oder durch methodische Sudie nach alten Gewährsmännern, wie sie zum Beispiel Copernicus, Kepler und Newton bei den Pythagoräern und alten Ägyptern für die Theorie des Sonnensystems5 zu finden hofften, wieder in den aktiven Fonds eines wissenschaftlichen Informationssystems gehoben werden kann. Die Beseitigung überflüssiger (redundanter) Informationen, die sich auf großes Faktenwissen beziehen, erhöht jedoch die Kapazität einer Theorie. Die Erhöhung der Kapazität einer Theorie wird schließlich dadurch erreicht, daß anstelle besonderer inhaltlicher Informationen ein Algorithmus, das heißt ein allgemein gültiges Problemlösungsverfahren für die gesamte Klasse von Problemen angegeben wird. Damit verschwinden die konkreten Informationen nicht spurlos, sondern werden in einer indirekten Form aufbewahrt, die ihre Wiedererzeugung garantiert. Auf diese Weise gelingt es, den quantitativen Umfang der Informationen zu verringern, ohne diese zu verlieren. Daraus folgt aber audi, daß die Kapazität das entscheidende Kriterium der Qualität einer Theorie ist. Die Kapazität einer erfahrungswissenschaftlichen Theorie ist äußerlich durch ein Minimum des logisch-linguistischen Darstellungsmittels erkennbar. Denn nicht das Zeichen, die Zeidiengestalt oder der Zeichenkomplex selbst, sondern die Möglich* Α. K . Sudiotin, N a u k a : Informacija, deutsche Übersetzung: Wissenschaft. Eine Welt für sidi. Eine Welt für alle, Berlin 1972, S. 76 f. 4 Vgl. Oeser, System, Klassifikation, Evolution, S. 113. s Vgl. Oeser, Copernicus und die ägyptische Hypothese, S. 276 ff.

Wissenschaftsentwicklung und Theoriendynamik

113

keit der Wiedererzeugung des Inhalts wissenschaftlicher Informationen ist kapazitätsbestimmend®. Die Mathematisierung erfahrungswissenschaftlicher Theorien hat, wie schon Mach deutlich ausgeführt hat, methodisch gesehen gar keinen anderen Sinn als den der Entlastung von redundanten Informationen: „Mathematik ist die Methode, neue Zähloperationen soweit als möglich und in der sparsamsten Weise durch bereits früher ausgeführte, also nicht zu wiederholende zu e r s e t z e n . . . Bei mathematischen Operationen kann sogar eine gänzliche Entlastung des Kopfes eintreten, indem man einmal ausgeführte Zähloperationen durch mechanische Operationen mit Zeichen symbolisiert und, statt die Hirnfunktion auf Wiederholung schon ausgeführter Operationen zu verschwenden, sie für wichtigere Fälle spart. Ähnlich sparsam verfährt der Kaufmann, indem er, statt seine Kisten selbst herumzuschieben, mit Anweisungen auf dieselben operiert." 7 In diesem Zusammenhang weist Mach bereits auf die maschinelle Verarbeitung als praktische Konsequenz aus dieser Überlegung hin: „Die Handarbeit des Rechners kann sogar noch durch Rechenmaschinen übernommen werden. Solche Maschinen gibt es bekanntlich schon mehrere. Dem Mathematiker Babbage, der eine derartige Maschine konstruiert hat, waren die hier dargelegten Gedanken schon sehr klar." Wissenschaft wird daher von Mach folgerichtig als eine „Minimumaufgabe" angesehen, die darin besteht, „möglichst vollständig die Tatsachen mit dem geringsten Gedankenaufwand darzustellen" 8 . Die „mathematischen Modelle" dienen dieser Aufgabenstellung. Sie stellen im Grunde nichts anderes dar als jenen höchsten Grad von Informationsverdichtung, der in einer theoretisch begründeten Wissenschaft erreicht werden kann: „Die sogenannten beschreibenden Wissenschaften müssen sich vielfach damit begnügen, einzelne Tatsachen nachzubilden. Wo es angeht, wird das Gemeinsame mehrerer Tatsachen ein für allemal herausgehoben. Bei höher entwickelten Wissenschaften gelingt es, die Nachbildungsanweisung für sehr viele Tatsachen in einen einzigen Ausdruck zu fassen." 9 Als Beispiel bringt Mach das Brechungsgesetz, das am deutlichsten den pragmatischen Sinn mathema-

« Vgl. Suchotin, Wissenschaft, S. 72. Mach, D i e Mechanik in ihrer Entwicklung, S. 462 f. 8 Ebenda, S. 465. » Ebenda, S. 461.

7

8

Oeser, Band 3

114

6. Theoriendynamik

tischer Abstraktionen zur Geltung bringt: „Statt zum Beispiel die verschiedenen vorkommenden Fälle der Lichtbrechung uns einzeln zu merken, können wir alle vorkommenden sofort nachbilden oder vorbilden, wenn wir wissen, daß der einfallende, der gebrochene Strahl und das Lot in der Ebene liegen und

Sm a

= η ist. Wir haben dann statt der unzähligen Bresin β chungsfälle bei verschiedenen Stoffkombinationen und Einfallswinkeln nur diese Anweisung und die Werte der η zu merken, was viel leichter angeht. Die ökonomische Tendenz ist hier unverkennbar. In der N a t u r gibt es audi kein Brechungsgesetz, sondern nur verschiedene Fälle der Brechung. Das Brechungsgesetz ist eine zusammenfassende, konzentrierte Nachbildungsanweisung f ü r uns, und zwar nur bezüglich der geometrischen Seite der Tatsache." 10 Mach war sich also darüber im klaren, daß durch die Verdichtung des Wissens über die reale Welt zu einer Reihe bloßer Nachbildungsanweisungen ein notwendiger Verlust an Exaktheit der Repräsentation der Tatsachen eintritt, und zwar in dem Maße, in dem die empirische Wissenschaft in der Skala der Begriffsbildung von den bloß deskriptiven bis zu den metrischen und rein strukturellen Begriffen aufsteigt. Deshalb bildet f ü r ihn die theoretische Erkenntnisgewinnung und -erweiterung durch mathematisch-logisches Denken nur einen „idealen Grenzfall" der empirischen Wissenschaft, die primär als eine „biologische, organische Erscheinung" zu betrachten ist. Mathematische Operationen sind im Rahmen wissenschaftlicher Erfahrungserkenntnis bedeutungslos, wenn sie nicht stellvertretend f ü r reale Handlungen stehen. Damit ergibt sich eine weitere Präzisierung des objektiven Maßes der Qualität einer Theorie, das bisher in der Wissenschaftstheorie nur durch ein intuitives, subjektivistisches Vokabular, wie „interessant", „kühn" usw., ausgedrückt werden konnte. Es ist die Kapazität der Operationen, durch welche die mathematische Struktur einer erfahrungswissenschaftlichen Theorie ihre Bedeutung gewinnt: „Diejenigen Gedanken, welche auf dem größten Gebiet festgehalten werden können und am ausgiebigsten die Erfahrung ergänzen, sind die wissenschaftlichsten." 11 Eine inhalts14 11

Ebenda. Ebenda, S. 465.

Verifikation und Falsifikation

115

reiche Theorie gibt daher eine maximale Gesamtheit von Informationen über einen maximalen Gegenstandsbereidi in einem minimalen Strukturkomplex wieder. Ihr historisdies Zustandekommen ist zwar von einer sehr langen Kette von Teiloperationen abhängig, das Minimum an Strukturgesetzlichkeit erweist sich jedoch umgekehrt als eine Funktion des in der Theorie enthaltenen Komplexes möglicher und wirklicher Informationen. Ist eine solche inhaltsreiche Theorie einmal erarbeitet, so kann sie trotz ihrer hohen Kapazität in klarer und ökonomischer Weise durch bestimmte Zeichengestalten fixiert werden, während dagegen unbedeutende Theorien zumeist sehr langer und umständlicher Erläuterungen und Kommentare bedürfen und dadurch oft nur schwer verständlich sind. Selbst wenn sie noch so sehr mathematisiert ist, unterscheidet sich die empirische Theorie doch von den operativen Formalwissenschaften, da in ihrem System ein Mindestmaß empirischer Informationen notwendig erhalten bleibt, die diesem System aus der realen (Um) Welt zufließen müssen, wenn es eine empirische Wissenschaft sein soll. Gerade diese ständige Notwendigkeit empirischer Informationsgewinnung, durch die Entscheidungen über die Gültigkeit von Theorien erst möglich werden, verhindert es aber, daß die theoretisch begründete empirische Wissenschaft einen rein kumulativen Charakter hat. Während formale, operative Wissenschaften, wie zum Beispiel die Mathematik, die keinen Informationsgehalt im Sinne „inhaltlicher Substanz"12 besitzen, kumulativ sind, weil neue Theorien oder bessere Beschreibungsmodelle und Problemlösungsverfahren den vorher bestehenden einfach hinzugefügt werden, ist der Entwicklungsprozeß der empirischen Wissenschaft durch ständige Veränderungen bestimmt, die sich entscheidend auf das System der theoretischen Grundlagen auswirken. Selbst beim konstruktiven Aufbau umfassender erfahrungswissenschaftlicher Theorien gehen, wie bereits gezeigt wurde, die historisch vorgegebenen Teiltheorien nicht unverändert in die Gesamttheorie ein. Doch derartige Zustandsveränderungen vollziehen sich zumeist so kontinuierlich, daß sie als solche gar nicht explizit zum Problem werden. Vielmehr wird ein solcher quasi-kumulativer Prozeß, wie ihn etwa die Zusammenfassung der terrestrischen und coelestischen Mechanik u

8*

Vgl. M. Bunge, Scientific Research, I, Berlin-Heidelberg-New York 1967, S. 502 ff.

116

6. Theoriendynamik

Galileis und Keplers durch Newtons „universale" Mechanik darstellt, eher als ein streng linearer Fortschritt aufgefaßt 1 3 ; vor allem dann, wenn durch den Aufweis zumindest partieller deduktiver Ableitungsbeziehungen das Gesamtsystem nachträglich auf einem stabilen, weitgehend unveränderbaren Zustand erhalten werden kann, wie dies bei der klassischen Mechanik der Fall war. Demgegenüber ergibt sich jedoch in der Entwicklungsgeschichte der modernen Grundlagentheorien der Physik und Biologie eine andere Verlaufsstruktur, die nur äußerlich mit der von der Scientiometrie nachgewiesenen Beschleunigung der wissenschaftlichen Informationsgewinnung und -Verarbeitung zusammenhängt, ihrem eigentlichen Wesen nach aber auf jener Verschiebung des Schwergewichts in bezug auf die Methode der Naturwissenschaften, und zwar von der empirisch-experimentellen Verfahrensweise zur theoretischen Berechnung, beruht. Mit anderen Worten: Die Entscheidung zwischen konkurrierenden Theorien wird primär nicht durch direkte Verifikation oder Falsifikation durch die Erfahrung erreicht, sondern durch wahrscheinlichkeitstheoretische Überlegungen innerhalb der Theoriendynamik, die nur sekundär durch eine relativierte Verifikation und Falsifikation bestimmt sind. Es ist aber klar, daß für eine derartige probabilistische Deutung der Bestätigungstheorie die von Popper hervorgehobene Asymmetrie von Verifikation und Falsifikation wegfällt. Denn ein probabilistisch modifizierter Schluß nach dem modus tollens hat auch formallogisch gesehen keinen Vorzug mehr vor dem modus ponens: beide sind nur von relativer oder partieller Gültigkeit. Ein asymmetrisches Konzept von Verifikation und Falsifikation ist, wie bereits T. S. Kuhn im Gegensatz zu Popper mit Recht hervorgehoben hat, zur Erklärung der Theoriendynamik völlig ungeeignet. Nur der „vereinigte Verifikations-FalsifikationsProzeß" im Theorienvergleich der Probabilisten ist dazu fähig. Denn in diesem Fall kann man die Falsifikation, die — freilich nur in ihrer relativierten Form — in der Geschichte der Naturwissenschaft zweifellos vorhanden ist, ebensogut als Verifikation bezeichnen, da dieser Prozeß nicht nur den „Untergang" der alten, sondern zugleich auch den „Triumph" der neuen Theorie über die alte darstellt. Einer derartigen genetischen 15

Vgl. W. Whewell, der die Entwicklung der Astronomie als induktive Pyramide versteht. N o v u m Organon Renovatum, S. 141.

Verifikation und Falsifikation

117

„Zweistufenkonzeption" von Falsifikation und Verifikation ist nach Kuhn der Vorzug zu geben, da sie uns weit besser in die Lage versetzt, die Rolle der Übereinstimmung oder Abweichung zwischen Faktum und Theorie im Entwicklungsprozeß der ErfahrungsWissenschaft, der primär ein Verifikationsprozeß und nicht, wie Popper es sieht, ein Falsifikationsprozeß ist, zu explizieren 14 . Wäre jeder einzelne Fehlschlag bei der Anpassung ein Grund für die Ablehnung einer Theorie, so hätten alle Theorien irgendwann einmal abgelehnt werden müssen. Wenn andererseits nur ein schwerwiegender Fehlschlag eine Theorienablehnung rechtfertigte, so müßten die Anhänger Poppers ein Kriterium der „Unwahrscheinlichkeit" oder des „Grades der Falsifikation" einführen. Bei der Entwicklung eines solchen Kriteriums würden sie jedoch nach Kuhn mit ziemlicher Sicherheit auf das gleiche Netzwerk von Schwierigkeiten treffen, in das sich schon die Verfechter der verschiedenen probabilistischen Verifikationstheorien verstrickt haben 15 . Das probabilistische Konzept der Verifikation oder Bestätigung von erfahrungswissenschaftlichen Theorien muß dagegen nach Kuhn deshalb der Falsifikationstheorie vorgezogen werden, weil es von vornherein nicht auf absolute Verifikation ausgerichtet ist, sondern nur auf Grade der Verifikation, die einen positiven Theorienvergleich ermöglichen: „Für den Historiker zumindest liegt nicht viel Sinn in der Feststellung, daß die

14

15

Vgl. T. S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, Frankfurt/M. 1973, S. 195. In derartige Schwierigkeiten ist Popper selbst durdi seine Theorie der Wahrheitsähnlidikeit geraten, mit der er versucht, den sdion von Kant verworfenen Begriif der verisimilitudo (vgl. Logik, X ) auf das Verhältnis von Wahrheitsgehalt und Falsdiheitsgehalt und letzten Endes auf logische Wahrscheinlichkeit zurückzuführen. Eine solche Theorie der Wahrheitsähnlidikeit hätte im Rahmen der deduktivistischen Wissenschaftstheorie Poppers nur dann einen Sinn, wenn die unerreichbare Zielmenge — Tarskis Klasse der wahren Aussagen — in irgendeiner Weise erfaßbar wäre. Dies ist aber unmöglich, denn in empirischen Theorien ist die Folgerungsmenge aller möglichen wahren Aussagen unendlich. Eine Verringerung einer unendlichen Größe auf eine endliche (mit H i l f e der Klasse der falschen Aussagen) ist, wie bereits am Negentropieprinzip Brillouins dargestellt worden ist, sinnlos. Sie kann deshalb auch kein Kriterium zur Entscheidung zwischen konkurrierenden Theorien sein.

118

6. Theoriendynamik

Verifikation die Übereinstimmung zwischen Faktum und Theorie bestätigt. Alle geschichtlich bedeutsamen Theorien haben mit den Fakten übereingestimmt, aber nur bis zu einem gewissen Grade. Eine genauere Antwort gibt es nicht auf die Frage, ob und wie gut eine einzelne Theorie zu den Fakten paßt. Fragen ähnlicher Art können aber gestellt werden, wenn Theorien kollektiv oder auch nur paarweise betrachtet werden. Es ist durchaus sinnvoll zu fragen, welche von zwei miteinander konkurrierenden Theorien besser zu den Fakten paßt." 1 6 Wenngleich Kuhn diese Frage nicht systematisch beantwortet, ahnt er doch, daß „irgendwo in diesem Irrgarten das Problem der Induktion liegen muß" 1 7 . Tatsächlich ist die empirische, reduktive Überprüfung von theoretisch abgeleiteten Prognosen bezüglich ihres Anpassungsgrads die spiegelbildliche Entsprechung der induktiven Bestätigung f ü r eine konkurrierende Theorie. Denn die sogenannte epistemische Reduktion, das heißt die Zurüdkführung von theoretisch abgeleiteten Einzelbehauptungen auf Informationen über reale Ereignisse, ist sowohl Ende als auch Anfang des erfahrungswissensdiaftlidien Prozesses, der immer zirkulären Charakter hat. Eine wissenschaftliche Theorie funktioniert so lange, wie sie diese ständig wiederholbaren Erkenntnisprozesse leiten kann. Sie verliert ihre Funktion oder muß diese ganz oder teilweise an eine andere Theorie abgeben, wenn sie die aus der Außenwelt zufließenden Informationen nidit mehr bewältigen kann. Dennodi bricht das Informationssystem der Wissenschaft bei einem derartigen Wechsel von Theorien, der eine innere Strukturveränderung bedeutet, nicht zusammen. Es tritt vielmehr nur eine Phase geringerer struktureller Stabilität ein, die sich jedodi durch eine größere funktionelle Effektivität auszeichnet. Denn trotz des instabilen Zustands des Gesamtsystems, in dem nun verschiedene, nicht widerspruchsfrei total aufeinander reduzierbare Strukturen enthalten sind, werden darin doch mehr und neue Informationen über neue Erfahrungsbereiche verarbeitet. Ein systemtheoretisches Funktionsmodell der Wissenschaftsentwidtlung, das die Theorie als den entscheidenden stabilisierenden, strukturellen Faktor enthält, läßt sich durdi folgendes Diagramm darstellen: " Kuhn, Die Struktur wissenschaftlicher Revolutionen, S. 195. 17 Ebenda, S. 224.

Ein systemtheoretisdies Funktionsmodell

119

THEORIE

Erläuterungen zu diesem Modell: 1. In diesem Modell gibt es keinen absoluten Anfang, sondern nur verschiedene gleichwertige Einstiegsmöglichkeiten in den Prozeß der Wissenschaftsentwicklung. Es gibt keine ersten Tatsachen und keine letzten Gründe. Jeder mögliche Anfang hat einen bestimmten Grad von Unsicherheit, der notwendig die Rückkehr zu diesem Ausgangspunkt im Sinne einer überprüfenden Bestätigung erfordert. 2. Der Prozeß der Wissenschaftsentwicklung hat in diesem Modell keinen linearkumulativen Charakter, sondern den der Rückwirkung; das heißt, neue Informationen verändern die bestehenden Theorien, auf Grund derer sie zustande gekommen sind. Die Theorien geraten bei jeder weiteren Information in einen neuen Zustand bezüglich ihrer Stabilität. Je nach der Art der Information ist dieser neue Zustand von höherer oder geringerer Stabilität. 3. In diesem Modell gibt es daher auch keine absolute Verifikation, aber auch keine absolute Falsifikation, sondern nur Zustandsveränderungen, die sich in einer ständigen Umkonstruktion der Theorie äußern, die notwendig auf möglichst hohe Stabilität tendiert. 4. In diesem Modell gibt es keine wertende Aussage über den Fortschrittscharakter der Wissenschaft — genausowenig wie in der Evolutionstheorie Darwins. Trotzdem ist die Richtung

120

6. Theoriendynamik

der Wissenschaftsentwicklung eindeutig festgelegt. Die Evolution der Wissenschaft ist ein irreversibler Prozeß, das heißt, es gibt keine echte, sondern nur eine scheinbare Rückläufigkeit. Die Evolution gibt dem Pfeil der Zeit einen Widerhaken, welcher ihn daran hindert zurückzulaufen. Das aber bedeutet: Keine echte wissenschaftliche Entdeckung geht im Laufe der Wissenschaftsgeschichte wirkungslos zugrunde. Auch wenn sie keine zeitlich unmittelbaren Folgen zeigt, so tritt sie doch notwendig in einem späteren Stadium als Wiederentdeckung auf. 5. In diesem Modell gibt es keine Bevorzugung einer bestimmten Methodologie. Vielmehr sind die angeführten allgemeinen Methoden — Induktion, Konstruktion, Deduktion und Reduktion — gleichwertige Verfahrensweisen zur Sicherung der Wahrheit wissenschaftlicher Erkenntnis. Unterschiedlich sind diese Methoden nur in bezug auf ihren funktionalen Stellenwert im systematischen Rahmen der Wissenschaftsentwicklung. 6. In diesem Modell sind wissenschaftliche Begriffs-, Hypothesen- und Theorienbildung aufs engste miteinander verbunden. Denn sie stellen nichts anderes als verschiedene Grade der Informationsverdichtung dar. Diese Informationsverdichtung beruht in jedem ihrer Grade auf statischen Strukturgesetzlichkeiten, die jedoch nicht unveränderlich sind, sondern im Entwicklungsprozeß der Wissenschaft verändert werden müssen, um den ständig neu zu gewinnenden Informationen gerecht werden zu können. Die gesamte Wissenschaftsentwicklung erweist sich somit als eine geplante, rekursive, das heißt „schrittweise Eroberung des Unbekannten", bei der jeweils im nächsten Schritt die vorher erworbenen Kenntnisse verwertet werden. Wie jede graphische Darstellung eines Modells ist auch dieses Diagramm abstrakt und unvollständig. Denn es berücksichtigt nicht das besonders in der modernen Naturwissenschaft des 20. Jahrhunderts auftretende Phänomen der Parallelverarbeitung von Informationen, auf Grund deren allein die Theoriendynamik als nichtkumulativer Prozeß erklärbar ist. Bereits Max Planck hat das Verhältnis nebeneinander entstehender Theorien ausdrücklich als einen evolutionären, nichtkumulativen Prozeß der gegenseitigen Anpassung aufgefaßt, durch den sich die empirische Wissenschaft selbst organisiert: „Die Entwicklung einer jeden Wissenschaft vollzieht sich bekanntlich

Revolution und Evolution der Wissenschaft

121

nicht systematisch von einem einzigen Punkte aus, nach einheitlich vorbedachtem Plane, sondern sie setzt aus praktischen Gründen, entsprechend der Vielseitigkeit der von ihr umfaßten Probleme, mehr oder weniger gleichzeitig an verschiedenen Punkten an und wird, je nach der Zahl und der Eigenart der an ihr arbeitenden Forscher, an den verschiedenen Stellen in verschiedener Weise und in verschiedenem Tempo gefördert. So entstehen häufig mehrere Theorien nebeneinander, die zunächst sich wesentlich unabhängig voneinander entwickeln und erst später, wenn sie sich weiter ausbreiten und vervollkommnen, in gegenseitige Fühlung geraten und sich zu beeinflussen beginnen, und zwar je nach den Umständen entweder im Bunde oder im Kampfe miteinander. Hier zeigt sich nun ein charakteristischer Unterschied zwischen den mathematischen und den Erfahrungswissenschaften. Bei den ersteren sind zwei verschiedene Theorien, falls sie überhaupt Berechtigung besitzen, niemals im Widerspruch miteinander; man kann daher in der Mathematik nicht von einem Gegensatz der Theorien, sondern höchstens von einem Gegensatz der Methoden reden. So ist es zum Beispiel von vornherein ausgeschlossen, daß eine algebraische Theorie einer geometrischen Theorie widerspricht, wenn sich auch Algebra und Geometrie zunächst ganz unabhängig voneinander entwickelt haben. In der Physik als einer Erfahrungswissenschaft dagegen ist es häufig vorgekommen und kommt auch jetzt noch vor, daß zwei Theorien, die es zu einer gewissen Selbständigkeit gebracht haben, bei ihrer weiteren Ausbreitung aufeinander stoßen und sich gegenseitig modifizieren müssen, um miteinander verträglich zu bleiben. In dieser gegenseitigen Anpassung der verschiedenen Theorien liegt der Hauptkeim ihrer Befruchtung und Fortentwicklung zu einer höheren Einheit." 1 8 Das Hauptziel einer jeden Wissenschaft definiert Planck als „die Verschmelzung sämtlicher in ihr groß gewordenen Theorien zu einer einzigen, in welcher alle Probleme der Wissenschaft ihren eindeutigen Platz und ihre eindeutige Lösung finden"19. Daß dieses hypothetische Endziel jedoch niemals erreichbar ist, liegt in der Natur der erfahrungswissenschaftlichen Erkenntnis begründet, von der nicht erwartet werM. Plandc, Verhältnis der Theorien zueinander, in: E. Warburg (Redaktion), Physik, Leipzig-Berlin 1915, S. 732. " Ebenda. 18

122

6. Theoriendynamik

den kann, daß ihre Begriffe und Gesetze den Charakter absoluter Endgültigkeit besitzen. Nach Heisenberg bedeutet das Wort „endgültig" im Zusammenhang der exakten Naturwissenschaft lediglich, „daß es immer wieder in sich geschlossene, mathematisch darstellbare Systeme von Begriffen und Gesetzen gibt, die auf bestimmte Erfahrungsbereiche passen" 2 0 . Die in mathematischen Formeln fixierte Naturerkenntnis früherer Epochen hat jedoch niemals eine Garantie für die Anwendbarkeit auf weitere Erfahrungsbereiche enthalten. Das Beispiel der klassischen Mechanik beweist, wie schon M. Planck wußte, vielmehr das Gegenteil: „Durch Galilei und Newton begründet, durch Euler und Lagrange in die abschließende Form gebracht, bietet sie ein Bild, welches an Abrundung und Vollendung nichts zu wünschen übrig läßt und mit dem einer mathematischen Theorie ebenbürtig wetteifern kann. Aber gerade in diesem Charakter der fertigen Abgeschlossenheit, welcher der Mechanik eigen ist, liegt auch die Unmöglichkeit, aus sich selber heraus weiter zu wachsen und sich so fortzuentwickeln, wie es die allgemeine Aufgabe der Physik verlangt." 2 1 Der Anstoß zur Weiterentwicklung der Mechanik mußte daher notwendig von außen, von einer anderen Theorie her kommen. Er erfolgte bekanntlich durch die Maxwellsche Elektrodynamik. Das Vehikel der Wissenschaft läuft also, metaphorisch ausgedrückt, auf mehreren „Rädern", die notfalls auch ausgewechselt werden können, wenn sie in die Brüche gehen. Derartige Strukturzusammenbrüche stellen daher für die Wissenschaft, objektiv gesehen, keine echten Krisen dar. Sie sind es lediglich, für die personalen Instanzen, die bestimmte Theorien vertreten, deren Destruktion und Untergang sie miterleben müssen. Aber in der Wissenschaft zählt nicht die Meinung des subjektiven Individuums, sondern nur der allgemeine Fortschritt, der durch einen objektiven Mechanismus garantiert ist, der gegen das Individuum ebenso unbarmherzig wie gerecht ist. Trotz tiefgreifender Veränderungen, die die innere Struktur der Wissenschaft betreffen, hat die Theoriendynamik dennoch keinen „revolutionären" Charakter. Als „revolutionär" sind nur die Auswirkungen einer neuen wissenschaftlichen Theorie auf die Forschungsgemeinschaft zu betrachten. Eine Theorie der wissen-

20

21

W . Heisenberg, Das Naturbild der heutigen Physik, Hamburg 1955, S. 20. Planck, Verhältnis der Theorien zueinander, S. 733.

Revolution und Evolution der Wissenschaft

123

schaftlichen Revolutionen gehört samt ihrem Vokabular (normale Wissenschaft, Krise, Revolution) auch nach Kuhns eigenem Selbstverständnis primär in die „Soziologie oder Sozialpsydiologie der Wissenschaftler"22. Die Wissenschaftssoziologie — wenn man sie überhaupt legitim von der Wissenschaftstheorie trennen kann — versucht nur, die externen Bedingungen der Wissenschaftsentwicklung zu beschreiben und zu erklären. Der interne Mechanismus der Theoriendynamik hat dagegen evolutionären Charakter. Von der gegenwärtigen Wissenschaftstheorie wurden die Begriffe „Evolution" und „Revolution", obwohl sie aus sehr verschiedenen Wissensgebieten — der eine aus der Biologie, der andere aus der Soziologie und Geschichtswissenschaft — stammen, in sehr undifferenzierter Weise übernommen. Den wesentlichen Unterschied, der zwischen diesen beiden Begriffen besteht, hat jedoch kürzlich M. Eigen sehr genau hervorgehoben. Seine Präzisierung läßt sich auf das in der vorliegenden Arbeit propagierte systemtheoretische Modell der Evolution der Wissenschaft ohne weiteres übertragen: „Die Erhaltung der Funktion trotz Zusammenbruchs der Struktur ist ein wesentliches Kennzeichen des evolutionären Prozesses. Bei einer Revolution hingegen wird zuerst einmal das ganze System zerstört und dann ein neues aufgebaut, ohne daß sichergestellt ist, ob dieses sich später auch tatsächlich als funktionsfähig erweisen wird. Beim evolutionären Prozeß ist dagegen der Zusammenbruch einer gegebenen Struktur nur aufgrund der höheren funktionellen Effizienz der neuen Struktur möglich, das heißt, der Vorteil muß zunächst .vorgewiesen' werden, bevor das Bestehende instabil werden kann." 23 Wie bereits gezeigt, vermindern auch jene Strukturzusammenbrüche, durch die ein Wechsel von wissenschaftlichen Theorien negativ charakterisiert ist, keineswegs die Funktionsfähigkeit des gesamten Informationssystems, das jeweils eine nach ihrem Gegenstandsbereich definierbare Wissenschaft darstellt; im Gegenteil: Bei jedem derartigen Wechsel tritt an die Stelle der alten Theorie eine neue Theorie mit höherer funktioneller Effizienz. Mit diesem Ersetzen einer Theorie durch eine andere wird die vorhergehende jedoch keineswegs falsch, sie wird 22 s>

Vgl. Kuhn, Die Struktur wissenschaftlicher Revolutionen, S. 26. M. Eigen - R. Winkler, Das Spiel. Naturgesetze steuern den Zufall, München-Zürich 1975, S. 186.

124

6. Theoriendynamik

vielmehr nur historisch entwertet. Eine solche historische Entwertung ist zwar nicht mehr rückgängig zu machen, weil sie auf irreversiblen Entsdieidungsprozessen beruht, sie ist aber niemals total, da die erklärende und voraussagende Funktion der vorangegangenen Theorie entweder in der neuen Theorie erhalten bleibt oder durdi eine Kombination von alter und neuer Theorie wieder zurückgewonnen wird. Denn erfahrungswissenschaftliche Theorien gewinnen und behalten ihren Sinn nur in ihrer Anwendung. Die Notwendigkeit der praktischen Anwendung erfahrungswissenschaftlicher Theorien führt aber häufig dazu, daß bestimmte entwicklungsgeschichtlich jüngere und dementsprechend auf einer höheren Stufe des Abstraktionsniveaus stehende Theorien der Vermittlung der vorhergehenden Theorie zur Lösung konkreter Probleme bedürfen. So wird bei der Erklärung der Perihelbewegung des Merkurs der größte Teil des beobachtbaren Effektes durch die Newtonsche Theorie und nur ein verhältnismäßig geringer Teil (eine Drehung von zirka 43 Bogensekunden in hundert Jahren) 24 durch die allgemeine Relativitätstheorie Einsteins erfaßt. Der Newtonsche Teil der Berechnung ist zur Erklärung des Gesamtphänomens zwar „absolut notwendig" 25 , er reicht aber nicht aus, um die beobachtete Bewegung des Merkurs mit der der heutigen Beobachtung zugänglichen Exaktheit zu bestimmen 26 . Feyerabend sieht dieses in der Physik nicht gerade seltene Beispiel einer Konfusion zweier „revolutionär" voneinander verschiedenen Theorien vom methodischen Standpunkt aus als einen „wahren Alptraum", als „nahe am Wahnsinn", und nimmt dieses Beispiel zum Anlaß, um sich gegen das methodische Denken überhaupt zu wenden und eine „anarchistische Erkenntnistheorie" zu propagieren. Tatsächlich demonstriert dieses Beispiel aber lediglich, daß die Theoriendynamik nur innerhalb einer evolutionistischen Theorie der Wissenschaftsentwicklung adäquat erfaßt werden kann. Nach Einsteins Selbstverständnis der allgemeinen Relativitätstheorie besteht jede höher ent24

25

28

Vgl. A. Einstein, Ober die spezielle und die allgemeine Relativitätstheorie, 13. Aufl. Braunschweig 1921, S. 86. P. K. Feyerabend, Against Method. An Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the Philosophy of Science 4, 1970, S. 40 f. Einstein, Über die spezielle und die allgemeine Relativitätstheorie, S. 86.

Revolution und Evolution der Wissenschaft

125

wickelte erfahrungswissenschaftliche Theorie aus einer Schichtung von Theorien verschiedener Abstraktionsgrade, denen verschiedene historische Entwicklungsstadien entsprechen27. Die höheren Schichten des Gesamtsystems der Wissenschaft gewinnen ihren empirischen Bezug durch den Anschluß an die niedrigeren Schichten, unbeschadet der Möglichkeit, daß sie diese verändern 28 . Dieser entwicklungsgeschichtliche Zusammenhang läßt sich jedoch nicht als eine Ableitungsbeziehung im Sinne der deduktiven formalen Logik deuten, wie bereits Whewell wußte, der die Schichten der Wissenschaftspyramide durch „induktive Leitern" zu verbinden versuchte29. Auch Einstein leugnet nicht, daß „der Prozeß des Werdens einer Erfahrungswissenschaft bei schematisch erkenntnistheoretischer Betrachtungsweise als ein fortgesetzter Induktionsprozeß" gedacht werden kann. Diese Auffassung, die durch einen simplen, enumerativen Induktionsbegriff die gesamte Wissenschaftsentwicklung als ein bloßes „Katalogisierungswerk" erscheinen läßt, „erschöpft aber den wirklichen Prozeß keineswegs. Sobald nämlich eine Wissenschaft über das primitivste Stadium hinausgekommen ist, entstehen die theoretischen Fortschritte nicht mehr durch eine bloß ordnende Tätigkeit." 30 An die Stelle der einfachen Induktion, der „colligation of facts", tritt eine Art von „Superinduktion" (Whewell), in der durch einen „intuitiven" Sprung eine andere Abstraktionsebene erreicht wird, auf der sich mit Hilfe eines von dem der vorhergehenden Schicht total verschiedenen Begriffsapparats eine grundsätzlich neue, axiomatischdeduktive Theorie aufbauen läßt, die ihre entwicklungsgeschichtlichen Vorstufen in veränderter Form enthält. Diese neue Theorie schöpft ihre Daseinsberechtigung aus der Tatsache, daß sie eine größere Zahl von Einzelerfahrungen verknüpft; das heißt, daß sie einen höheren Grad der Informationskapazität besitzt, und darin liegt nach Einstein die „Wahrheit" einer Theorie 31 . Dieser Begriff der Wahrheit ist nicht der for27

Vgl. Einstein, Aus meinen späten Jahren, S. 67 ff. Vgl. L. Krüger, Wissenschaftliche Revolutionen und Kontinuität der Erfahrung, in: R. Bubner - K. Cramer - R. Wiehl, Tendenzen der Wissenschaftstheorie, Göttingen 1974, S. 17. 2 * Vgl. Whewell, Novum Organon Renovatum, S. IX. 50 Einstein, Über die spezielle und die allgemeine Relativitätstheorie, S. 84. 31 Ebenda.

29

126

6. Theoriendynamik

mal-logisdie, sondern der erkenntnistheoretische, der sidi im klassischen Sinne auf die Anpassung (adaequatio) von Theorie und Erfahrung berieht und auf einer „Logik der Veränderung" beruht. Eine solche Logik der Veränderung geht von dem wissenschaftsgesdiichtlich wie systematisch nachweisbaren Faktum aus, daß es in der Entwicklung der Erfahrungswissenschaft nidit nur eine Anpassung von Theorie und Erfahrung, sondern auch eine „gegenseitige Anpassung von Theorien" 32 gibt. Der innere Mechanismus der Theoriendynamik, der auf beiden Anpassungsprozessen beruht, erzeugt jedoch auf diese Weise keine problemlos homogene Einheit, sondern einen entwicklungsgeschichtlidi bedingten Organismus der Wissenschaft, in dem Irrtümer und Widersprüche ständig austariert werden. Durch eine derartige entwicklungsgeschichtliche Auffassung, die, wie aus den oben angeführten Zitaten von Planck und Einstein ersiditlich ist, auch dem Selbstverständnis der modernen N a t u r wissenschaft entspricht, kann auch jene „aufsdilußreiche logische Lücke" geschlossen werden, in der die gegenwärtige Wissenschaftstheorie das „Wesen der revolutionären Veränderung" als eines logisch nicht rekonstruierbaren Prozesses sieht. Diese „logische Lücke" wurde von den Vertretern der revolutionistischen Auffassung der Wissenschaftsentwicklung zwar mit Recht in der Nicht-Ableitbarkeit der vorangegangenen Theorie aus der nachfolgenden nachgewiesen, dodi stellt, wie bereits ausführlich gezeigt worden ist, die deduktive Logik schließlich nur eines der möglichen formalen Hilfsmittel zur rationalen Rekonstruktion der Wissenschaft dar. Zur Demonstration der logischen Unverträglichkeit zweier konkurrierender Theorien im Sinne der Ableitbarkeit bringt Kuhn das klassische Beispiel Newton-Einstein: „Kann die Newtonsdie Dynamik wirklidi von der relativistischen Dynamik abgeleitet werden? Wie würde eine solche Ableitung aussehen? Denken wir uns eine Reihe von Aussagen, Ει, E2, E n , die zusammen die Gesetze der Relativitätstheorie verkörpern. Diese Aussagen enthalten Variable und Parameter, welche räumliche Lage, Zeit, Ruhemasse etc. darstellen. Aus diesen kann mit H i l f e des Systems der Logik und der Mathematik eine ganze Reihe weiterer Aussagen deduziert werden, einschließlich einiger, die durch Beobachtung überprüfbar sind. Um die Zulänglichkeit der Newtonsdien Dynamik als Spezialfall zu beweisen, müssen wir 32

Vgl. Planck, Verhältnis der Theorien zueinander, S. 732.

Revolution und Evolution der Wissenschaft

127

zu der Ei-Reihe weitere Aussagen hinzufügen, zum Beispiel ( v / c ) 2 « 1, wodurch der Bereich der Parameter und Variablen eingeschränkt wird. Diese erweiterte Reihe von Aussagen wird nun manipuliert, um eine neue Reihe, Ni, N2, . . N n , zu erhalten, die dann in ihrer Form mit Newtons Bewegungsgesetz, Gravitationsgesetz etc. identisch ist. Scheinbar ist die Newtonsdie Dynamik von der Einsteinschen abgeleitet worden, gemäß einigen einschränkenden Bedingungen. Und doch ist die Ableitung falsch, wenigstens bis zu diesem Punkt. Die Nj-Reihe ist zwar ein Spezialfall der Gesetze der relativistischen Mechanik, aber sie ist nicht das Newtonsdie Gesetz."*8 Der Grund für die Nicht-Identität des aus der relativistischen Mechanik abgeleiteten speziellen Gesetzes mit dem Newtonschen Gesetz liegt darin, daß sidi der grundlegende Begriffsapparat, der den Strukturkern einer Theorie bildet, total verändert hat. Beim Übergang von Einsteins Theorie zu derjenigen der klassischen Physik ändert sidi eben nicht nur die Form der Gesetze, sondern es ändern sich auch die Begriffe, auf die jene Gesetze sidi beziehen*4. Auf einer soldien Veränderung der „fundamentalen Strukturelemente" beruht, wie Kuhn mit Recht sagt, die „revolutionäre Wirkung" 35 der Einsteinschen Theorie. Diese revolutionäre Wirkung ist jedoch lediglich von äußerer Natur und betrifft nidit die interne Funktion der Theorie, welche trotz dieses tiefgreifenden Strukturwandels aufrechterhalten bleibt. Der wesentlichste Aspekt der Inkommensurabilität der „revolutionären" Theorie gegenüber ihren Vorgängern ist ja audi nach Kuhn nicht die logische Unverträglichkeit, sondern die Veränderung der Sichtweise einer Wissenschaftler-Gemeinschaft, die auf einer bestimmten, meist nur intuitiven Interpretation des gesamten Weltbildes beruht. Die alte Theorie wird deswegen jedodi nicht falsch, sie verliert auch nidit ihre Problemlösungskompetenz, sondern diese wird vielmehr von der neuen Theorie, die effizienter ist, weil sie mehr erklären kann, übernommen. Die Behauptung vieler Physiker, die Newtonsche Physik sei ein Grenzfall der Relativitätstheorie, der dann vorliegt, wenn es um Geschwindigkeiten geht, die bedeutend unter der Lidit3S 54

ss

Kuhn, Die Struktur wissenschaftlicher Revolutionen, S. 139 f. So audi Κ. Hübner in Anlehnung an T. S. Kuhn. Vgl. Theorie und Erfahrung, in: Phil. Nat., Bd. X, 1968, S. 204 f. Vgl. Kuhn, Die Struktur wissenschaftlicher Revolutionen, S. 141.

128

6. Theoriendynamik

gesdrwindigkeit liegen, kann sich daher grundsätzlich nur auf die pragmatische Problemlösungseffizienz und nidit auf die formal-logische oder mathematische Ableitbarkeit beziehen. Es wird ja auch nicht die historisch früher entstandene Galileitransformation von der später konzipierten Lorentztransformation abgeleitet, sondern die Lorentztransformation wird als „eine Verallgemeinerung der Galileitransformation" angesehen, da sie aus dieser im Grenzfall ν < c hervorgeht 88 . Das heißt, daß der genetisch-faktische Zusammenhang beider Theorien nicht durch die deduktive Logik, sondern durch die „induktive" Logik wissenschaftstheoretisch erklärbar wird, wobei freilich unter der induktiven Logik weder ein reiner, der deduktiven Logik analoger Formalismus noch eine empirische Enumeration, sondern eine Logik der Veränderung auf Grund rationaler Entscheidungen zu verstehen ist. Diese Logik bezieht sich auf die Organisation und Planung eines Wissensgebietes im Hinblick auf ihre zukünftige Entwicklung. Das entscheidende sachliche Kriterium für die Akzeptierung einer Theorie besteht daher in ihrer Fähigkeit, die Wissenschaft, der sie zugeordnet ist, weiterzuentwickeln. Daß dieses Kriterium keineswegs trivial ist, läßt sich an dem faktisch vorhandenen Mechanismus, der die bisherige Entwicklung der Naturwissenschaft bestimmt hat, nachweisen. Jede neue Theorie im Rahmen eines Wissensgebietes beruht auf einer irreversiblen Entscheidung auf Grund empirischer oder struktureller Informationen. Die Entscheidung auf Grund empirischer Informationen, die man audi als Verifikation oder Falsifikation bezeichnet, verbindet audi solche Theorien, die durch die Semantik ihres grundlegenden Begriffsapparates sowie durch ihre formal-logische Unableitbarkeit sonst unverträglich miteinander sind. Denn dadurch, daß zwei konkurrierende Theorien bezüglich ihres empirischen Gehaltes bzw. ihres am Erfolg oder Mißerfolg ihrer erfahrbaren Prognosen zu messenden Wahrheits- oder Falschheitsgehaltes gemessen werden können, werden sie auch vergleichbar 87 , und zwar unabhängig ' Vgl. R . Sexl, Arbeitslehrbuch Relativitätstheorie, Wien-Heidelberg 1973, S. 18. 37 Vgl. K . R . Popper, Truth, Rationality and the Growth of Scientific Knowledge, in: Conjectures and Refutations, London 1963; L. Krüger, Die systematische Bedeutung wissenschaftlicher Revolutionen, pro und contra Thomas Kuhn, in: W. Diederidi (Hrsg.), Theorien der Wissenschaftsgeschichte, Frankfurt/M. 1974, S. 220. 3

Revolution und Evolution der Wissenschaft

129

davon, ob es so etwas wie eine theorieneutrale Beobachtungssprache gibt oder nicht. Denn es handelt sidi bei konkurrierenden Theorien auf jeden Fall um denselben Gegenstandsbereich; andernfalls wären diese Theorien nicht konkurrierend, sondern völlig unabhängig voneinander. Der Gegenstandsbereich einer Erfahrungswissenschaft ist jedoch kein theoretisches Konstrukt, sondern empirisch vorgegeben. Wie weit sich auch die abstrakte wissenschaftliche Begriffsbildung von diesem vorgegebenen Gegenstandsbereich entfernt haben mag, so verlangt jedoch schon die begriffliche Einheit einer erfahrungswissenschaftlichen Theorie einen gemeinsamen Bezug ihrer Formeln und Symbole auf eine Sammlung von Gegenständen. Im Falle einer physikalischen Theorie ist diese Sammlung keine beliebige Menge, sondern eine natürliche Klasse von Gegenständen 88 . Für die astronomisch-physikalischen Theorien am Beginn der Neuzeit war dieser Gegenstandsbezug selbstverständlich. Die natürliche Klasse der Gegenstände waren Körper mit bestimmten Eigenschaften: Kugeln, Wurfgeschosse und Planeten. Audi dann, als man sich die Masse solcher Körper im Sinne der Partikelmechanik zu Punkten zusammengezogen dachte, blieb zumindest in indirekter Weise der Gegenstandsbezug erhalten. Prinzipiell hat sich an diesem Verhältnis auch in den modernen Grundlagentheorien der Physik nichts geändert: Irgendein Bezug auf eine nicht-leere Klasse von natürlichen Gegenständen muß in jeder physikalischen Theorie vorausgesetzt werden, auch dann, wenn diese Beziehung indirekt oder sogar falsch ist. Dieser für eine erfahrungswissenschaftliche Theorie ex deiinitione notwendige Bezug zur empirischen Wirklichkeit ergibt die Möglichkeit, eine objektive Entscheidung zwischen konkurrierenden Theorien zu erzwingen. Ein solcher Fall ist zum Beispiel die Messung der Fixsternparallaxe durch Bessel im Jahre 1838, die eine endgültige Entscheidung zwischen dem Tychonisdien und dem Copernicanischen System gebracht hat 89 . 58

M

Vgl. M.Bunge, Physik und Wirklichkeit, in: L.Krüger (Hrsg.), Erkenntnistheoretisdie Probleme der Naturwissenschaften, KölnBerlin 1970, S. 445, und Scientific Research, Berlin-HeidelbergNew York 1967, Sec. 7. 2. Vgl. Oeser, Copernicus und die ägyptische Hypothese, S. 301. Bereits im Jahre 1728 konnte Bradley die sogenannte Aberration des Lichtes als eine Folge der Erdbewegung deuten und damit einen „indirekten" Beweis für das Copernicanisdie System liefern.

9

Oeser, Band 3

130

6. Theoriendynamik

Gerade dieses Beispiel zeigt aber audi, daß Entscheidungen auf Grund empirischer Informationen keineswegs vollständig und allein die Entwicklung der Wissenschaft bestimmen. Denn die Entscheidung für das Copernicanische System war schon lange vor diesem Zeitpunkt gefallen, und zwar auf Grund struktureller Informationen, die der Copernicanischen Theorie eine größere Entwicklungsfähigkeit zusprachen, während sie die Tychonisdie Theorie zu einer Sackgasse oder blind endenden Verzweigung machten. Empirisch gesehen waren zunächst beide Theorien gleichwertig, wenn nicht sogar vom praktischen Standpunkt des Beobachters aus das geo-heliozentrische System Tycho Brahes den Vorzug besaß. Der strukturelle Unterschied besteht aber, kurz gesagt, darin, daß es sich beim Copernicanischen System um ein streng symmetrisches, beim Tychonisdien System dagegen um ein asymmetrisches Konzept handelt. Im evolutionären Prozeß der Wissenschaftsentwicklung fällt jedoch die Entscheidung zugunsten des symmetrischen Konzepts aus, weil in ihm alle fundamentalen, verändernden Entscheidungen auf alle Untereinheiten übertragbar sind. Konkret ausgedrückt: Das Ergebnis der Untersuchung der Marsbahn durch Kepler, seine Entscheidung für die Ellipsenform der Planetenbewegung, war im symmetrischen Konzept der heliozentrischen Theorie auf alle Planeten, einschließlich der Erde, anwendbar. Nach dem Tychonischen System wäre dies dagegen unmöglich gewesen. Nicht anders verhält es sich in den modernen Grundlagentheorien der Physik. Die Entscheidung durch strukturelle Informationen erweist sich auch in diesem Bereich als das treibende Moment der Theoriendynamik, die den Entwicklungsprozeß eines Wissensgebietes steuert. Einstein hat selbst darauf hingewiesen, daß gerade bei den entwicklungsgeschichtlich jüngeren und somit abstrakteren Theorien Alternativen auftreten, die empirisch kaum entscheidbar sind, da sie trotz größter Verschiedenheit in ihren begrifflichen Unterlagen und in ihren Konsequenzen weitgehend übereinstimmen. Diese Übereinstimmung der Theorien in den der Erfahrung zugänglichen Konsequenzen kann so groß sein, daß es schwerfällt, überhaupt einen Unterschied zwischen ihnen zu finden. Als Beispiel erwähnt Einstein die Darwinsche Theorie der Entwicklung der Arten durch Selektion und die Lamardksche Theorie von der Vererbung erworbener Eigenschaften, wobei die weitgehende Übereinstimmung in den empirischen Konsequenzen seiner Meinung nach dem Verhältnis von New-

Revolution und Evolution der Wissenschaft

131

tonscher Mechanik einerseits und allgemeiner Relativitätstheorie andererseits entspricht40. Betrachtet man nun Einsteins Gesamtkonzept in diesem Zusammenhang, so läßt sich sagen, daß es allen anderen Theorien, selbst derjenigen von Η. A. Lorentz, die als der „Höhepunkt und Absdiluß der Physik des substantiellen Äthers"41 eine Theorie der „Relativität ohne Relativität" 42 darstellt, vorzuziehen ist, da dieses Konzept eine höhere Entwicklungsfähigkeit zur Folge hat. Denn ähnlich wie die Tychonische Planetentheorie ist audi die Lorentzsche Theorie als eine Art von Zwisdienhypothese zwischen klassischer Äthertheorie und Relativitätstheorie ein asymmetrisches Konzept, das keine eindeutige Interpretation und Weiterentwicklung der Maxwellsdien Elektrodynamik in Verbindung mit der Mechanik erlaubt. Sie stellt die „elektromagnetischen Tatsachen richtig dar, ohne es nötig zu haben, den Äther irgendwie an der Bewegung der Materie teilnehmen zu lassen"43. Allgemein formuliert: Gemäß der Theoriendynamik erzeugt eine bestimmte strukturell und empirisch ausgezeichnete Theorie einen „Stammbaum", da sie fähig ist, grundsätzliche Entscheidungsinformationen zu liefern, welche die weitere Entwicklung einer Wissenschaft dadurch bestimmen, daß sie eine nicht mehr rückgängig zu machende Selektion oder Auswahl zwischen den theoretisch möglichen Variationen und Alternativen treffen. Durch einen solchen Stammbaum von Theorien samt deren Verzweigungen ist auch die Gestalt oder der Organismus der gegenwärtigen Naturwissenschaft bestimmt, die in allen ihren Bereichen ständig nach Vereinheitlichung strebt. Nach Planck wird eine Wissenschaft dieser Zielsetzung um so näher sein, „je mehr die Anzahl der in ihr enthaltenen Theorien zusammenschrumpft"44. Ein solcher hypothetischer Endzustand läßt sich jedoch realistisch, und das heißt in diesem Fall entwicklungsgeschichtlich, nur im Sinne einer möglichen Approximation verstehen. Denn das Erreichen dieses hypothetischen Endziels wäre dem Tod der Wissenschaft als eines sich selbst 40

41

42

43 44

9*

Einstein, Uber die spezielle und die allgemeine Relativitätstheorie, S. 85. M. Born, Die Relativitätstheorie Einsteins, 5. Aufl. Berlin-Heidelberg-New York 1965, S. 172. R. Mansouri - R. U. Sexl, A Test Theory of Special Relativity I, Vienna Reports on Gravitation and Cosmology, R 1975/1, S. 11 ff. Born, Die Relativitätstheorie Einsteins, S. 177. Planck, Verhältnis der Theorien zueinander, S. 732.

132

6. Theoriendynamik

regulierenden Organismus gleichzusetzen. Ein solches theoretisches Konzept der Saturation, das im Unterschied zum empirisch-statistischen Konzept von de Solla Price absoluten Charakter hätte, ist aber lediglich eine spekulative Hypothese von derselben Art wie etwa die Vorstellung vom Wärmetod des Weltalls im Entropiekonzept. Denn die faktische Wissenschaftsgeschichte zeigt das Gegenteil: Der „Stammbaum" der physikalischen Grundlagentheorien fächert sich in mehrere Verzweigungen auf, das heißt in weitgehend voneinander unabhängige Begriffssysteme, die sich durch die Differenzierung ihrer Problemstellungen unterscheiden. Sieht man es als die Hauptaufgabe der Physik an zu erklären, „wie Veränderung denkbar ist", dann gibt es nach F. Hund drei grundsätzlich verschiedene Antworten: „Veränderung ist denkbar als Bewegung von Partikeln im leeren Raum; damit sind die Fragen nach Raum und Zeit aufgeworfen, und sie bekommen in diesem Schema eine bestimmte Antwort. In der ausgestalteten Form dieses Schemas gibt es Kräfte zwischen den Partikeln, momentane Wirkung in die Ferne, starre Körper und absolute Gleichzeitigkeit. Veränderung ist aber auch denkbar als Änderung von Zustandsgrößen eines Kontinuums, als Änderung von Feldgrößen, die Funktionen des Ortes und der Zeit sind. Dem entspricht die ,Nahewirkung'; der Begriff der absoluten Gleichzeitigkeit ist (mindestens von vornherein) nicht gegeben, die Begriffe von Raum und Zeit werden dadurch etwas andere. Veränderung wird aber in einem modernen Gebiet der Physik auch gedacht als Umwandlung von Elementarteilchen." 45 Von diesen Problemstellungen her lassen sich dann mehr oder weniger differenzierte Einteilungen der Physik vornehmen, in denen der nicht zu beseitigende entwicklungsgeschichtliche Aspekt zumindest durch die Unterscheidung zwischen „klassischen" und „nicht-klassischen" Theorien zur Geltung kommt. So lassen sich die klassischen Theorien der Mechanik, der Elektrodynamik und der Wärmelehre (Thermodynamik) von den nicht mehr klassischen der Quantentheorie und der Elementarteilchentheorie unterscheiden. Ob man die Relativitätstheorie und die Gravitationstheorie zur klassischen oder zur nachklassischen Physik rechnet, ist dabei eine Frage des „vorherrschenden Gesichtspunktes"4®. 45

F. Hund, Grundbegriffe der Physik, Mannheim-Zürich-Wien 1969, 48 S. 12. Ebenda, S. 13.

Revolution und Evolution der Wissenschaft

133

Die ursprünglich von Planck, später von Heisenberg und unter Berufung auf Heisenberg auch von Weizsäcker47 vertretene entwicklungsgeschichtliche These, daß die Physik sich in aufeinanderfolgenden „abgeschlossenen Systemen" vollzieht, von denen jeweils die späteren die früheren als Grenzfälle enthalten, fordert jedoch eine einheitliche Theorie. Denn das entwicklungsgeschichtlich spätere und somit umfassendere System soll Phänomene verknüpfen, „die im engeren unverbunden nebeneinander standen; das umfassendere System ist so dem Ideal der Einheit der Physik näher". Nach Weizsäcker ist das umfassendere System oft aus den Schwierigkeiten hervorgegangen, die sich im engeren System zeigten, wollte man die Einheit der Physik in ihm konsequent ausdrücken. Aber auch er betont, daß ein solcher Übergang vom engeren zum weiteren System „fast immer erst durch neue konkrete Erfahrungen", das heißt nicht nur durch strukturelle, sondern notwendig auch durch empirisdie Informationen, die aus der „Umgebung" des wissenschaftlichen Informationssystems, aus der realen Außenwelt, zufließen, möglich wird. Fügt man nun den drei physikalischen Grundproblemen der Veränderung noch jenes komplexe Problem der Veränderung hinzu, das durch den Begriff des „Lebens" gekennzeidinet ist, so zeigt sich der Charakter der Wissenschaft als eines entwicklungsgeschichtlichen Systems noch deutlicher. Mit dem Erklärungssystem der Molekulargenetik ist zwar eine mathematisdi-statistisch präzisierte Grundlagentheorie von den Bedingungen der molekularen Ereignisse gegeben, die den Mechanismus der Vererbung darzustellen vermag, sie kann jedoch die vergleichende Systematik und Anatomie keineswegs ersetzen oder diese zu wissenschaftstheoretisch nicht ebenbürtigen „Kunstformen" vorwissenschaftlich-intuitiver Art deklassieren. Wie R. Riedl mit seiner Theorie der Systembedingungen der Evolution gezeigt hat, ist im Gegenteil die „Homologieforschung der Schlüssel zur Erkenntnis von Gestalts-Gesetzlichkeit schlechthin und diese ist von eindeutiger Kausalität, die Herrschaft der Notwendigkeit über den Zufall, die Voraussetzung unserer Erkenntnis überhaupt" 48 . Die theoretische Rekonstruktion der

47

48

C. F. v. Weizsäcker, Die Einheit der Natur, Hamburg 1971, S. 193 f. u. ö. R. Riedl, Die Ordnung des Lebendigen, Systembedingungen der Evolution, Hamburg und Berlin 1975, S. 305.

134

6. Theoriendynamik

molekularen Entscheidungen hat somit eine spiegelbildliche Entsprechung in dem morphologisch, anatomisch-systematischen Denken mehrerer Jahrhunderte. Die wechselseitige Begründung von Ähnlichkeit (Systematik, Morphologie) und Verwandtschaft (Genetik) erweist sich damit nicht als ein Zirkelschluß, sondern vielmehr als der „legitime Kreislauf gegenseitiger Verifikation", durch den erst die „vernetzte Kausalität" komplexer Systeme sichtbar wird 49 . Von den Biologen wird gegenwärtig mit Recht die Übertragbarkeit der Gesetze der biologischen Evolution auf die Entwicklung des menschlichen Denkens propagiert50. Wie bereits an anderer Stelle ausführlicher dargestellt51, ermöglicht die wissenschaftstheoretische Analyse und Rekonstruktion der Evolutionstheorie auch eine Rückanwendung, die in der entwicklungsgeschichtlichen Betrachtungsweise der Wissenschaft besteht: „Die gegenwärtigen wissenschaftlichen Theorien und Erklärungssysteme wachsen und entfalten sich auf dem Boden der Wissenschaftsgeschichte, in welchem die vergangenen, abgestorbenen Theorien als Fossilien in fragmentarischem oder vollständigem Zustand erhalten sind. Der unmittelbaren, ahistorischen Betrachtung erscheint dieser Friedhof begrabener Ideen wie ein unentwirrbares Trümmerfeld von Wahrheit und Irrtum, das Zeugnis ablegt von dem zähen und erbitterten Kampf, den der Wissenschaftler mit allen Mitteln um das Entstehen und Überleben seiner Theorie führt. Eine genaue historische Analyse läßt jedoch abgrenzbare Schichten oder Epochen der wissenschaftlichen Theorienbildung erkennen, in denen trotz aller Gegensätzlichkeit die Verwandtschaft eines zugrunde liegenden Erkenntnisideals hervortritt, das sich in abstrakter Form in den jeweils zeitgenössischen philosophischen Erkenntnistheorien darstellt. Wie in der Entwicklung der biologischen Evolutionstheorie ist jedoch die Erklärung dieser Trennungslinien zwischen den Epochen als katastrophaler Revolutionen (Cuvier), in welchen die bisherigen Theorien vollständig vernichtet werden und jeden Anspruch auf Wahrheit und Wissenschaftlichkeit verlieren, als eine niedrigere Stufe der Erklärung zu betrach4

* Vgl. ebenda. Von K. Lorenz (1973), R. Riedl (1975) und zuletzt von M. Eigen (1975). 51 E. Oeser - R. Sdiubert-Soldern, Die Evolutionstheorie, Wien-Stuttgart 1974, S. XIII f.

50

Revolution und Evolution der Wissenschaft

135

ten. Eine Archäologie oder Paläontologie des wissenschaftlichen Denkens vermag in Detailuntersuchungen jene Zwischenglieder aufzudecken, durch welche die einzelnen von verschiedenen theoretischen Erkenntnisidealen und praktischen Erkenntnisinteressen bestimmten Epochen zusammenhängen. Für diese Detailuntersuchungen gilt dasselbe Argument, das Lyell in Ubereinstimmung mit Darwin gegen das Fehlen fossiler Bindeglieder in der biologischen Evolution angeführt hat, daß nämlich alles, was wir davon wissen, nichts ist im Vergleich zu dem, was wir noch zu lernen haben. In diesem Sinne bietet auch die Verbesserung und Präzisierung der Mutationstheorie durch die experimentelle Molekularbiologie ein weiteres Analogon zur kausalen Analyse des wissenschaftlichen Erkenntnisprozesses. Weder die Natur noch das die Natur zu begreifen suchende menschliche Denken macht jene spektakulären Sprünge, die de Vries an dem äußeren Erscheinungsbild seiner Oenotheraversuche festzustellen glaubte. Vielmehr zeigt sich auch in den Mikroanalysen des evolutiven Faktorengefüges der Wissenschaftsgeschichte, daß es sich beim Wechsel von wissenschaftlichen Theorien nicht um plötzlich und grundlos auftretende Veränderungen handelt — hervorgerufen durch die Phantasie und Erfindungskraft einer einzelnen exzeptionellen Forscherpersönlichkeit, wie die heroisierende biographische Wissenschaftsgeschichtsschreibung des 19. Jahrhunderts annahm —, sondern um eine allmähliche Steigerung des Erkenntnisprozesses, an dem eine ganze Generation von Wissenschaftlern beteiligt ist. Wie die Geschichte der biologischen Evolutionstheorie jedoch zeigt, ist mit einer evolutionistischen Umwandlungstheorie keineswegs eine Fortschrittstheorie verbunden. Schon Lyell hat darauf hingewiesen, daß die eifrigsten Vertreter der Fortschrittstheorie oft die heftigsten Bekämpfer der Umwandlungstheorie der Arten waren, während sich die Vertreter der Umwandlungstheorie, wie zum Beispiel Darwin selbst, ,am meisten vorsichtig' und ,furchtsam' in bezug auf eine Annahme der Fortschrittstheorie gezeigt haben. Ebensowenig ist auch ein evolutionstheoretisches Konzept der Wissenschaftsgeschichte von vornherein mit einer Ideologie des kumulativen Fortschritts behaftet, da sich der historische Prozeß wissenschaftlichen Denkens als viel zu komplex erweist, als daß er im Sinne einer einfachen Addition ohne jegliche Subtraktion gedacht werden könnte. Die Geschichte der Wissenschaft weist deswegen eine derartig komplexe Struktur auf, weil sidi dieser

136

6. Theoriendynamik

Entwicklungsprozeß nicht nur nach rational erfaßbaren wissenschaftsinternen Bedingungen vollzieht, sondern von externen Bedingungen überlagert wird, die einer rationalen Rekonstruktion beträchtliche Hindernisse entgegensetzen. Die Betrachtung jener externen Faktoren der Wissenschaftsentwicklung mag die Zielsetzung einer historisierenden Psychologie des Wissenschaftlers und einer Soziologie der Forschungsgemeinschaft sein. Die Forschungslogik hat jedoch die entgegengesetzte Aufgabe, nämlich scheinbare Rationalitätslücken durch Rekonstruktion der von der Logik der Sache her bestimmten internen Bedingungen der Wissenschaftsentwicklung zu schließen." Eine Theorie der Systembedingungen der Wissenschaftsentwicklung vermag daher, in analoger Weise wie die biologische Evolutionstheorie, das rätselhafte Faktum zu erklären, wie nämlich die Wissenschaft trotz der in ihr wirkenden „dissipativen", das heißt zerstreuenden Kräfte ständig zu neuen und immer umfassenderen Ordnungen kommt. Denn die exakte Erfahrungswissenschaft ist trotz ihrer apriorisch-mathematischen Strukturen kein System von prästabilierter, sondern von poststabilisierter Harmonie. Die symmetrischen Konzepte erfahrungswissenschaftlicher Theorien, die sowohl die stabilsten als auch entwicklungsfähigsten Strukturen besitzen, erhalten ihre Symmetrie aposteriori im Verlaufe ihres Entwicklungsprozesses, so wie auch in der Natur Symmetrie nicht als vorausgegebene Ursache a priori, sondern als das Ergebnis eines evolutionären Prozesses auftritt. Deswegen sind jedoch die aprioristischen Symmetriekonzepte, die von Keplers mathematischem Piatonismus 52 bis zu den Symmetrieüberlegungen der Princeton-Ära der modernen Physik reichen, die am radikalsten von H . Weyl 58 ausgesprochen worden sind, keineswegs abzulehnen. Denn die in der Natur erfahrbaren Symmetriebrüche lassen sich jeweils auf übergeordneten Ebenen der theoretischen Betrachtungsweise nur dann wieder zusammenfügen, wenn in einer formalen Strukturtheorie der Symmetrie die Bedingungen der Möglichkeit solcher vereinheitlichenden Operationen von vornherein aufgezeigt werden. Wie in der Natur, die gewisse Abweichungen von einer perfekten Symmetrie duldet, solange diese nicht der Funktionalität zuwiderlaufen, so sind auch in der die Natur „abbildenden" Wissenschaft derartige Brüche nicht 48 55

Vgl. Oeser, Kepler. H. Weyl, Symmetrie, Basel 1955.

Revolution und Evolution der Wissenschaft

137

das Ende, sondern vielmehr der Anfang einer Weiterentwicklung. Veränderung und Bewegung, die immer auf irgendeine Aktivität zurückgeführt werden müssen, entstehen nur infolge eines Asymmetriezentrums 54 , aus dem sich wieder eine neue Einheit entwickeln kann. So waren audi alle Vertreter einer physikalischen Einheitstheorie, zu denen neben Einstein und Weyl auch Eddington und Schrödinger zu zählen sind, in dem Punkt einig, daß es sich bei dieser Einheit um eine entwicklungsgeschichtliche Einheit handelt, die wie ein lebendiger Organismus die Spuren der Vergangenheit in sich trägt. Der Organismus der Wissenschaft ist eine gegliederte Einheit, deren Glieder in Wechselbeziehung zueinander stehen, wie bereits Duhem wußte. Deshalb hat auch die sogenannte „DuhemQuine-These" 55 nur im Rahmen einer Theorie der Wissenschaftsentwicklung ihren Sinn. In ihrer schwachen Form, wie sie Duhem vertreten hat, leugnet sie nur die Möglichkeit der Widerlegung einer getrennten Komponente eines theoretischen Systems. Die Formulierung Quines bedeutet jedoch bereits eine entscheidende Verschärfung dieser These: „Jede Behauptung kann für wahr gehalten werden, was auch kommen mag, wenn wir hinreichend drastische Adjustierungen anderswo im System d u r c h f ü h r e n . . . Umgekehrt ist eben darum keine Behauptung vor einer Revision gesichert."56 Lakatos hat zu dieser bereits durch Quine verschärften Grundthese des pragmatistischen Konventionalismus eine weitere Möglichkeit der Interpretation aufgezeigt, die jede rationale Auswahlregel zwischen den Alternativen ausschließt. In dieser Fassung läßt sie sich nicht nur mit keiner Form des methodologischen Falsifikationalismus vereinigen, sondern auch mit keiner Form von Wissenschaftstheorie. Sie bildet dann viel eher jene fragwürdige Basis zu einer radikal irrationalistisch-revolutionistischen Auffassung der Wissenschaftsentwicklung, die lediglich die externen Bedingungen sozio-psychologisdier Art gelten läßt; eine Auffassung, die jedoch selbst von Kuhn nicht vertreten worden ist, der sich gegen die Deutung seiner Theorie als „Irrationalismus" streng verwahrt hat 57 . 54 55 56

57

Eigen - Winkler, Das Spiel, S. 151. Quine, From a Logical Point of View, 2. Aufl., S. 43. Zit. nach: I. Lakatos, Falsifikation und die Methodologie wissenschaftlicher Forschungsprogramme, in: Lakatos - Musgrave (Hrsg.), Kritik und Erkenntnisfortschritt, Braunschweig 1974, S. 178. T. S. Kuhn, Bemerkungen zu meinen Kritikern, ebenda, S. 251 ff.

138

6. Theoriendynamik

In einer Theorie der internen Systembedingungen der Wissenschaftsentwicklung, die auf dem Mechanismus der Wechselwirkung von struktureller und empirischer Information beruht, bedarf diese ursprünglich auch von Duhem selbst entwicklungstheoretisch konzipierte These von der ständigen Umkonstruktion einer Theorie als organische Einheit keiner eigenen Rechtfertigung. Sie ist aber deswegen keineswegs als trivial wahr anzusehen. Denn die Duhem-Quine-These, die ihre eigentliche Grundlage in einem organismisch-holistischen Systemdenken hat, läßt zwar das Experimentum crucis als absolut falsifizierende Instanz nicht zu, kann aber keineswegs generell die Möglichkeit negativer Entscheidungsexperimente eliminieren. Denn Umkonstruktionen oder Adjustierungen sind in einem System immer nur dann nötig, wenn tatsächlich Strukturbrüche auftreten. Das heißt aber, wie Grünbaum unter Verwendung des Bayesschen Theorems gezeigt hat, daß „wir zumindest in einigen Fällen die Falschheit einer Teilhypothese in wissenschaftlich befriedigender Weise feststellen können, obwohl wir sie nicht über alle Möglichkeiten nachträglicher Rehabilitation hinaus falsifizieren können" 58 . Nach dem bisher Gesagten ist es jedoch klar, daß ein derartig relativierter Begriff der Falsifikation zu nichts anderem führen kann als zu einer Theorie der strukturellen Veränderung, die über alle Strukturbrüche hinweg die funktionelle Effizienz und das empirische Wachstum der ErfahrungsWissenschaft zu erklären vermag. Allerdings ist dazu auch eine totale Umkehr der üblichen Blickrichtung der gegenwärtigen Wissenschaftstheorie nötig. Gleichgültig ob man von der Aussagenkonzeption oder von einer modelltheoretischen Vorstellung der erfahrungswissenschaftlichen Theorie als eines axiomatisch-deduktiven Systems ausgeht, handelt es sich nicht darum, formale metatheoretische Methoden zu finden, um normativ vorausgesetzte oder auch tatsächlich in mehr oder weniger guter Annäherung an das Ideal eines logisch geschlossenen Systems vorfindbare Strukturen zu dynamisieren 59 , sondern es ist vielmehr umgekehrt die gesamte 58

A. Grünbaum, Can We Ascertain the Falsity of a Scientific Hypothesis, in: Studium Generale 22, S. 1092. Vgl. Lakatos, Falsifikation und die Methodologie wissenschaftlicher Forschungsprogramme, S. 180. *· Vgl. Sneed, The Logical Structure of Mathematical Physics, S. 249 ff., und im Ansdiluß an Sneed: Stegmüller, Theorienstrukturen und Theoriendynamik, S. 27 ff.

Revolution und Evolution der Wissenschaft

139

Wissenschaftsentwicklung als ein dynamischer Prozeß aufzufassen, in dem statische Strukturen nur als Stabilisierungsphasen auftreten. Erst auf Grund dieser Auffassung, die, wie bereits ausführlich an den Beispielen Whewells, Machs, Duhems usw. gezeigt worden ist, den ursprünglichen Hintergrund einer an der faktischen Geschichte der Naturwissenschaft orientierten Wissenschaftstheorie bildet, ist es möglich, den eigentlichen Sinn und die Zielsetzung einer „Logik der Veränderung", von der bisher immer die Rede war, zu verstehen. Diese Logik ist eine empirische, der internen Entwicklungsstruktur der Erfahrungswissenschaften adäquate Logik, die nicht beansprucht festzulegen, was formal wahr sein kann in allen möglichen Welten, sondern nur, was wahr ist in der wirklichen Welt. Die Realität ist kompliziert und vielfältig genug, um ein ganzes Repertoire von formalen Methoden zuzulassen. In diesem Repertoire ist in elementarer Form auch die klassische deduktive Logik als stabilisierender Faktor enthalten. Sie ist aber weder die einzige Form der Logik überhaupt, noch ist sie vor allen anderen Versionen rationalen Argumentierens ausgezeichnet, sondern bildet nur — soweit sie anwendbar ist — einen Teil des Gesamtrepertoires der empirischen Logik, in der partielle deduktive Lösungsprozeduren und Algorithmen ihren eindeutigen, aber streng begrenzten Sinn und Platz haben. Die begrenzte Bedeutung der formalen deduktiven Logik rührt daher, daß sie von jenem Faktor abstrahieren muß, der durchgängig alle Wirklichkeit bestimmt: nämlich von der Zeit. Weil die deduktive Logik von der Zeit abstrahiert, haben zwar ihre Gesetze von vornherein den Charakter ewiger Gültigkeit, aber mit Hilfe dieser Gesetze ist es nicht möglich das zu erklären, was sich in den exakten Erfahrungswissenschaften als das eigentliche Grundproblem herausgestellt hat: die Regelmäßigkeit der Veränderung. Die empirische Erkenntnislogik, die den Erfahrungswissenschaften zugrunde liegt, abstrahiert dagegen nicht von der Zeit. Sie ist deshalb auch eine Logik der Veränderung. Als empirische Logik braucht sie auch nicht erst erfunden zu werden, sondern nur aus der faktischen Wissenschaftsentwicklung rekonstruiert und systematisch weiterentwickelt zu werden. Denn sie war seit jeher dort vorhanden, wo es organisierte Veränderung auf Grund von Lernen aus Erfahrung gegeben hat. Sie reicht von den ratiomorphen Handlungsschemata vorweltlicher primitiver Lebewesen bis zu jenen komplizierten Gesetzmäßigkeiten, nach denen sich jenes abstrakte und doch

140

6. Theoriendynamik

so reale „Monster" der modernen Wissenschaft bewegt und entwickelt, das nicht nur die Veränderungen der realen Welt in einem Input-Output-System registriert, sondern auch selbst in seiner Anwendung zahllose praktische Entscheidungen involviert, die diese Welt in irreversiblen und irreparablen Prozessen von Grund auf verändern. Trotz der Vielfalt ihres Repertoires an formalen Methoden — von der mit der formalen induktiven Wahrscheinlichkeitslogik verflochtenen pragmatischen Entsdieidungstheorie über die formalen Methoden der Systemtheorie und Informationstheorie bis hin zu den damit eng verknüpften Konzepten der Quantenlogik — ist der grundlegende Begriffsapparat dieser empirischen, zeitlich bedingten Logik der Veränderung denkbar einfach und konsistent. Er ist nicht das Ergebnis einer konventionellen Festsetzung, sondern das einer systematischen Entwicklung, in der alle Grundlagentheorien der modernen Naturwissenschaft konvergieren. Die Liste dieses Begriffsapparates läßt sich in folgender Weise angeben: 1. Information über a) strukturelle Bedingungen, b) empirische Ereignisse; 2. System als System der Wechselwirkung von Bedingung und Ereignis, wodurch das System als dynamisches, das heißt entwicklungsfähiges Expansionssystem gekennzeichnet ist; 3. Struktur, die den invarianten Aspekt des Systems ausmacht, der immer auf 4. Symmetrien zurückzuführen ist. Da jedoch neben diesen Symmetrien immer auch Symmetrieverletzungen vorkommen, tritt notwendig das Problem der Veränderung auf, das wiederum durch das Netzwerk von Bedingung und Ereignis erfaßt werden kann. Eddington 60 und Whitehead 61 waren wohl die ersten, die durch die Einsteinsche Relativitätstheorie veranlaßt eine wissenschaftstheoretische Konstruktion jener Wechselbeziehungen von strukturellen Bedingungen und empirischen, das heißt beobachtbaren und meßbaren Ereignissen versucht haben, die den extre-

41

A. Eddington, The Philosophy of Physical Science, Cambridge 1939, deutsche Übersetzung: Bern 1949, S. 187. Α. N. Whitehead, Process and Reality, New York 1929, und A. Einsteins Theorie, in: Essay in Science and Philosophy, New York 1947, deutsche Übersetzung: Wien 1959, S. I l l ff.

Revolution und Evolution der Wissenschaft

141

men Abstraktionen der modernen physikalischen Grundlagentheorien gerecht wird. Der logische Ausgangspunkt der Physik ist nach Eddington lediglich ein Wissen von der Gruppenstruktur einer Reihe von Informationen über Ereignisse. Oder, wie E. Wigner es ausgedrückt hat: Die Physik beschreibt nicht die Natur, sondern nur das Regelmäßige der Ereignisse (regularities among events) und nichts anderes 62 . Das Netzwerk von Ereignissen bildet dann den letzten, von allen Nebenund Störbedingungen befreiten invarianten und einheitlichen Hintergrund, vor dem der „harte Kern der Wirklichkeit" 83 sichtbar wird. Denn alle strukturellen Transformationen verändern diese Logik zwischen Bedingung und Ereignis nicht, soweit sie nur symmetrisch erfolgen. Mit diesem erkenntnistheoretischen Grundkonzept ist auch die „Logik des Lebendigen" vereinbar, in der es nicht nur um Strukturen von hoher Stabilität, Reversibilität und Supponierbarkeit, sondern um Wechselwirkungen geht, die von den Randbedingungen, den Begrenzungen und der Umgebung der zu untersuchenden Systeme weitgehend bestimmt sind, von denen die Physik jedoch zu abstrahieren versucht. Wenn jedoch Weizsäcker in seinem Versuch einer Darstellung „der Grundpostulate der letzten abgeschlossenen Theorie der Physik" behauptet, daß, „wer mit hinreichendem Denkvermögen analysieren könnte, unter welchen Bedingungen die Erfahrung überhaupt möglich ist, der müßte zeigen können, daß aus diesen Bedingungen bereits alle allgemeinen Gesetze der Physik folgen" 64 , dann ist er bereits einen Schritt zu weit gegangen. Denn damit ist jeder Gegenstandsbezug, der für eine Erfahrungswissenschaft unabdingbar notwendig ist, aufgehoben und die letzte Grundlagentheorie der Physik zu einer abstrakten Erkenntnistheorie geworden, in der nichts anderes als nur die „Bedingungen der Möglichkeit der Erfahrung" überhaupt formuliert werden können. Andererseits ist damit jedoch auch mehr als je zuvor deutlich geworden, daß das konsequente Streben nach einer physikalischen Endtheorie als Garantie für die Einheit der Naturerkenntnis mit den grundlegenden methodologisch-systematischen Postulaten der Erkenntnis- und Wissenschaftstheorie widerspruchsfrei vereinbar ist. Der exakten Erfahrungswissenschaft liegt dem• 2 Zitiert nach Eigen - Winkler, Das Spiel, S. 162. · ' Vgl. Weyl, Wissenschaft als symbolische Konstruktion, S. 103. *4 Weizsäcker, Die Einheit der Natur, S. 217 f.

142

6. Theoriendynamik

nadi nicht nur ein interner Medianismus der Entwicklung zugrunde, sondern audi ein eigenes Bewertungsprinzip, nadi dem jede der in ihr auftretenden Theorien beurteilt werden kann. Dieses dem System immanente Bewertungsprinzip ist die Fähigkeit einer Theorie, sich trotz der zerstreuenden und sprengenden Wirkung ständig neu auftretender empirischer Informationen, die ihr aus der Welt zufließen, strukturell in einem Zustand des „Fließgleichgewichts" zu erhalten, in dem sie sidi selbst umorganisiert. Die Verzweigungen und Sackgassen, die sich in diesem fortwährenden Prozeß der Neuorganisation als „abgeschlossene Theorien" ergeben, sind jedoch ein wesentlicher, nicht eliminierbarer Bestandteil des gesamten Informationssystems, weil in ihnen ein Problemlösungsweg konsequent zu Ende geführt wird. Durch diesen Selektionsmedianismus wird der Weg zur Weiterentwicklung einer bestimmten, strukturell ausgezeichneten Theorie frei. Die faktische Wissenschaftsgeschichte selbst ist somit jener Ort der Gerechtigkeit, an dem die objektive Entscheidung über die Wahrheit einer Theorie fällt.

Literatur Ε. F. Apelt, Die Theorie der Induktion, Leipzig 1854. L. v. Bertalanffy, General Systems Theory, New York 1968. L. Boltzmann, Populäre Schriften, Leipzig 1905. B. Bolzano, Wissensdiaftslehre I—IV, Leipzig 1930. M.Born, Die Relativitätstheorie Einsteins, Berlin-Heidelberg-New York 1965. L. Brillouin, Science and Information Theory, New York-London 1962. L. Brillouin, Scientific Uncertainty and Information, New YorkLondon 1964. R. Bubner - K. Cramer - R. Wiehl, Tendenzen der Wissenschaftstheorie, Göttingen 1974. R. Carnap, Physikalische Begriffsbildung, Karlsruhe 1926. R. Carnap, The Continuum of Inductive Methods, Chicago 1952. R. Carnap, Induktive Logik und Wahrscheinlichkeit, bearbeitet von W. Stegmüller, Wien 1959. R. Carnap, Einführung in die Philosophie der Naturwissenschaft, München 1969. E. Cassirer, Substanzbegriff und Funktionsbegriff, Berlin 1910. W. Diederich (Hrsg.), Theorien der Wissenschaftsgeschichte, Frankfurt/M. 1974. A. Diemer (Hrsg.), System und Klassifikation in Wissenschaft und Dokumentation, Meisenheim a. Gl. 1968. H. Dingler, Das Experiment, Sein Wesen und seine Geschichte, München 1928. G. Dobrow, Wissenschaft: ihre Analyse und Prognose, Stuttgart 1974. P. Duhem, The Aim and Structure of Physical Theory, PrincetonNew York 1954; deutsche Ubersetzung: Ziel und Struktur der physikalischen Theorien, Leipzig 1908. A. Eddington, Philosophie der Naturwissenschaft, Bern-Wien 1949. M. Eigen - H. Winkler, Das Spiel, München-Zürich 1975. A. Einstein, Uber die spezielle und allgemeine Relativitätstheorie, 13. Aufl., Braunschweig 1921. A. Einstein, Mein Weltbild, Frankfurt/M. 1955. A. Einstein, Aus meinen späten Jahren, Stuttgart 1952. P. K. Feyerabend, Against Method. An Outline of an Anarchistic Theory of Knowledge, in: Minnesota Studies in the Philosophy of Science 4, Minneapolis 1970.

144

Literatur

Ν . R. Hanson, Patterns of Discovery, London-New York 1958. N. R. Hanson, What I Do N o t Believe and Other Essays, ed. by S. Toulmin - H . Wolf, Dordrecht 1971. N . R. Hanson, Perception and Discovery, San Francisco 1969. N . R. Hanson, Observation and Explanation, New York-San Francisco-London 1971. W. Heisenberg, Das Naturbild der heutigen Physik, Hamburg 1955. C. G. Hempel, Philosophie der Naturwissenschaften, München 1974. F. Hillebrand, Zur Lehre von der Hypothesenbildung, Wien 1896. K. Hübner, Duhems historisdie Wissensdiaftstheorie und ihre gegenwärtige Entwicklung, in: Phil. Nat., Bd. 12, 1971. K. Hübner, Was zeigt Keplers „Astronomia Nova" der modernen Wissensdiaftstheorie?, in: Phil. Nat., Bd. 11, 1969. K. Hübner, Theorie und Erfahrung, in: Phil. Nat., Bd. 10, 1968. F. Hund, Grundbegriffe der Physik, Mannheim-Wien-Zürich 1969. H . Kordi, Die wissenschaftliche Hypothese, Berlin 1972. V. Kraft, Erkenntnislehre, Wien 1960. V. Kraft, Die Grundformen der wissenschaftlichen Methoden, 2. Aufl., Wien 1973. L. Krüger (Hrsg.), Erkenntnisprobleme der Naturwissenschaften, Köln-Berlin 1970. T. S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, Frankfurt/M. 1973. I. Lakatos - A. Musgrave (Hrsg.), Kritik und Erkenntnisfortsdiritt, Braunschweig 1974. E. Laszlo, Α General Systems Model of the Evolution of Science, in: Scientia, Vol. 107, Milano 1972. K. Lorenz, Die Rückseite des Spiegels. Versuch einer Naturgeschichte des menschlichen Erkennens, München-Zürich 1973. P. Lorenzen, Die Entstehung der exakten Wissenschaft, Berlin-Heidelberg 1960. P. Lorenzen, Konstruktive Wissensdiaftstheorie, Frankfurt/M. 1974. E. Mach, Erkenntnis und Irrtum, Leipzig 1905. E. Mach, Die Mechanik in ihrer Entwicklung, 8. Aufl., Leipzig 1921. J. St. Mill, System der deduktiven und induktiven Logik, Leipzig 1872. E. Nagel, The Structure of Science, New York 1961. E. Oeser, Begriff und Systematik der Abstraktion, Wien-München 1969. E. Oeser, Kepler. Die Entstehung der neuzeitlichen Wissenschaft, Göttingen 1971. E. Oeser, Die philosophische Bedeutung der Weltharmonik Keplers, in: Phil. Nat., Bd. 12, 1971. E. Oeser, Copernicus und die ägyptische Hypothese, in: Phil. Nat., Bd. 14, 1973. E. Oeser, System, Klassifikation, Evolution, Wien-Stuttgart 1974.

Literatur

145

Ε. Oeser - R. Sdiubert-Soldern, Die Evolutionstheorie, Wien-Stuttgart 1974. M.Planck, Verhältnis der Theorien zueinander, in: E. Warburg (Red.), Physik, Leipzig-Berlin 1915. G. P01ya, Vom Lösen mathematischer Aufgaben, Basel-Stuttgart 1966. K. R. Popper, Logik der Forschung, 4. Aufl., Tübingen 1971. K. R. Popper, Conjectures and Refutations, London 1963. K. R. Popper, Objektive Erkenntnis, Hamburg 1973. D. J. de Solla Price, Little Science, Big Science, Frankfurt 1974. W. v. O. Quine, From a Logical Point of View, New York 1953, 2. Aufl., New York 1961. H. Reichenbach, Experience and Prediction, Chicago 1938. R. Riedl, Die Ordnung des Lebendigen. Systembedingungen der Evolution, Hamburg-Berlin 1975. L. Schäfer, Erfahrung und Konvention, Stuttgart-Bad Cannstatt 1974. I. Sdieffler, Science and Subjectivity, Indianapolis-NewYork 1967. J. D. Sneed, The Logical Structure of Mathematical Physics, Dordredbt 1971. W. Stegmüller, Theorie und Erfahrung, l.Halbbd., Berlin-Heidelberg-New York 1970. W. Stegmüller, Theorie und Erfahrung, 2. Halbbd., Theorienstrukturen und Theoriendynamik, Berlin-Heidelberg-New York 1974. R. H. Stuewer (Hrsg.), Historical and Philosophical Perspectives of Science, Minnesota Studies in the Philosophy of Science, Vol. V, Minneapolis 1970. S. Toulmin, Einführung in die Philosophie der Wissenschaft, Göttingen ο. J. P. Volkmann, Einführung in das Studium der theoretischen Physik, Leipzig-Berlin 1913. C. F. v. Weizsäcker, Die Einheit der Natur, Hamburg 1971. H. Weyl, Philosophie der Mathematik und Naturwissenschaft, München-Berlin 1927, 3., wesentlich erweiterte Aufl., München-Wien 1966. H. Weyl, Symmetrie, Basel 1955. W. Whewell, The Philosophy of Inductive Science, London 1847. W. Whewell, History of Scientific Ideas, London 1858. W. Whewell, Novum Organon Renovatum, London 1858. W. Whewell, On the Philosophy of Discovery, London 1860. A. N. Whitehead, Process and Reality, New York 1929. A. N. Whitehead, Einsteins Theorie, in: Philosophie und Mathematik. Vorträge und Essays, Wien 1949.

10

Oeser, Band 3

Personenregister

Apelt, Ε. F. 66 Aristoteles 20 f., 37, 51 ff., 70 f., 75, 83, 93 Babbage, Ch. 113 Bacon, F. 70, 94 Bar-Hillel, Y. 33 ff. Bayes, T. 82 Berkeley, G. 31 f. Bertalanffy, L. von 14 f. Bessel, F. W. 129 Beth, E.W. 52 Biot, J . P . 54 Boethius 51 Bolzmann, L. 15, 19, 83, 93, 107 Bolzano, Β. 20, 73, 75 f. Born, Μ. 131 Bradley, J. 129 Braithwaite, R. Β. 12 Brillouin, L. 17, 34, 38, 89 Bronowski, J. 18 Brunswik, E. 30 Bunge, M. 115,129 Campbell, D. T. 27 Carnap, R. 9 f., 12 f., 33, 35, 57 f., 63, 67, 77 ff., 84 f. Cassirer, E. 27, 37, 47, 50 Cicero 75 Copernicus, N. 112, 129 f. Cotes, R. 65,92 Cuvier, G. 56, 61, 134 Darwin, Ch. 15 f., 119, 130, 135 Descartes, R. 20, 75, 83, 86 f., 93, 95, 102 Dobrow, G. 108 f. Dobzhansky, Th. 17 Duhem, P. 19, 54, 88, 105, 137 ff.

Eddington, A. 33, 137, 140 f. Ehrenfels, Chr. v. 29 Eigen, M. 123, 134, 137, 141 Einstein, A. 89 ff., 124—127, 130 f., 137, 140 Euklid 83 f., 98 Faraday, M. 82 f. Feyerabend, P. 124 Frege, G. 7, 40 f., 47, 49 Fritz, K. von 52 Galilei, G. 20, 45 f., 51, 66, 70, 77, 92 ff., 96 f., 103, 107, 109, 1 1 6 , 1 2 2 , 128

Gibson, J. J. 42 Greiling, K. 72 Grünbaum, A. 138 Hanson, N . R . 27, 76, 83, 104 Hassenstein, B. 55 ff. Heisenberg, W. 122, 133 Helmholtz, H. von 25, 82 Hintikka, J. 79 Holst, E. von 26 ff. Hooke, R. 82 Hübner, K. 31, 83, 127 Humboldt, A. von 94 Hume, D. 45, 67 ff. Hund, F. 132 Husserl, E. 24 Janidi, P. 58 Kambartel, F. 58 Kant, I. 25, 28, 35, 37, 68 ff., 117 Kapp, E. 52

147

Personenregister Kepler, J. 31, 70, 72, 74, 82 f., 86, 90, 94, 96 f., 109, 112, 116, 136 Klaus, G. 75 Köhler, W. 29 Kolmogorow, Α. N. 12 Kraft, V. 27, 79 f. Krüger, L. 125, 128 f. Kuhn, T.S. 15, 116 ff., 123, 126 ff., 137 Kunz, W. 22 f. Lagrange, J. L. 102 ff., 122 Lakatos, I. 137 f. Lamardr, J. 16, 130 Laplace, P. S. de 105 Laszlo, E. 8, 15 ff. Leibniz, G.W. 74 Locke, J. 44 f., 52 Longomontanus, Chr. 97 Lorentz, Η. A. 131 Lorenz, K. 27 ff., 134 Lorenzen, P. 50,104 Lukasiewicz, J. 72 Lull(us), R. 75 Lyell, Ch. 135 Madi, E. 15, 19, 33, 66, 82 ff., 88, 101, 107, 110, 113 f., 139 MacKay, D. M. 33 ff., 37 f., 41 Mansouri, R. 131 Maxwell, J. C. 82 f., 104 f., 122, 131 Mendel, G. 112 Mersenne, M. 93 Metzger, W. 29 Mill, J. St. 66 f., 69, 72, 95 Mittelstaedt, H. 26 ff. Monod, J. 16 f. Nagel, E. 9 Newell, A. 86 Newton, I. 62, 65, 70, 74, 82, 92, 94 f., 98 ff., 104, 106, 108, 110, 112, 116, 122, 124, 126 f., 130 f.

10*

Petri, C. A. 23, 36 Planck, M. 109, 120 ff., 126, 131, 133 Piaton 20 ff., 45, 53, 83 Poincar£, H. 90 P61ya, G. 75,86 Popper, K. R. 15 f., 44, 67 f., 71, 73, 80, 84, 116 f., 128 Price, D. J. de Solla 33, 108, 132

Quine, W. v. O. 22, 137 f.

Radnitzky, G. 8 Ramsay, F. P. 12 f., 110 Reidienbach, H. 67, 77, 84 Riedl, R. 133 f. Rittel, H. 22 f. Rosenberger, F. 55 Ross, W.D. 52 Russell, B. 50, 67 f.

Sdielling, F. W. J. 51 f. Schlick, M. 26 Schneider, H. J. 52 f. Scholz, H. 52 Sdirödinger, E. 137 Schubert-Soldern, R. 134 Schweitzer, H. 52 Scriven, M. 10 Sexl, R.U. 128,131 Simon, H. 86 Sneed, J. D. 8 ff., 19 f., 106, 110, 138 Stegmüller, W. 8, 11, 13, 59, 106, 138 Stenzel, J. 21 Sudiotin, Α. K. 111 ff.

Tarski, A. 68, 117 Thomas v. Aquin 32, 51 ff. Toulmin, S. 15,106 Tydio Brahe 109,129 ff.

148 Vaihinger, Η. 31 f. Volkmann, P. 99, 104 Weisskopf, V. 54 Weizsäcker, C. F .von 133, 141 Wertheimer, M. 29

Personenregister Weyl, H. 21 f., 103, 136 f., 141 Whewell, W. 19, 65 ff., 69, 71, 73, 82, 84 f., 94 f., 104, 106, 116, 125, 139 Whitehead, Α. Ν. 50, 140 Wiener, Ν. 44 f. Wigner, Ε. 141

Sachregister

Abbildtheorie 46 Abbildung 41, 43, 47, 54 Abbildungsfunktion 58, 64 Abbildungsverhältnis 45 Abgeschlossenheit 104 Ableitung, Ableitbarkeit 34, 103, 105 Ableitungsalgorithmus 72 Ableitungsbeziehung 125 —, deduktive 16 Ableitungsmechanismus, algorithmischer 104 Ableitungsprozeß 21, 89 Abstraktion 13, 31, 38 f., 43 ff., 47, 51, 53 ff., 66, 70, 84 f., 88, 92, 114 — durch Definition 59, 72 — durch Repräsentation 59 Abstraktionsleistung 38 Abstraktionstheorie 29, 32, 51 f., 58, 91 —, aristotelisch-scholastische 43 f., 51 —, klassische 45, 52, 59 —, Lockesche 43 Abweichung 117 Adäquatheit 19 Adäquatheitsbedingung 58 Adäquation 21 Afferenz 28 f. Ähnlichkeit 43 ff., 60 f., 80, 83, 134 Ähnlidhkeitsbeziehung 39, 43 Akzeptieren (-ung) 19, 128 Akzeptierung und Verwerfung von Theorien 106 Algorithmus (algorithmisdi) 70, 89, 104, 112,139 Allgemeinheit, integrative 19, 21 Alltagsspradie 9

Alternative 131 analog 17 Analogie 82 f. —, physikalische 82 f. Analogiemodell 25 Analogiesdiluß 80 Analyse (analytisch) 106 —, empirische 92 —, formale 92 Annäherung 105 Anpassung 16,120,126 Anpassungsgrad 118 Anpassungsprozeß 126 Antizipation 73 Anweisung 40, 99, 101 Anwendbarkeit 40 Anwendung 79 Anzahlgleichheit 48 Aphairesis 50, 52 Approximation 131 Approximationstheorie der Wahrheit 68 Apriori 27, 36, 51 —, historische Relativierung des 70 apriorisch 35 Äquivalenz 47, 49, 55, 105 —, extensionale 48 —, intensionale 48, 50 Äquivalenzrelation 49, 91 —, extensionale 50 Arbeitshypothese 112 Aristotelismus 43 ars inveniendi 75 —, iudicandi 75 Artbegriff 52 f., 57 Asymmetrie von Verifikation und Falsifikation 116 Asymmetriezentrum 137 Äthertheorie 131

Sadiregister

150 Aufbau, konstruktiver 9 6 , 1 1 5 —, konstruktiv-synthetischer 98, 100 Auffindung 74 Aufgabenstellung, praktisdie 99 Aufmerksamkeit 42 f. Aufzählung, zureichende (enumeratio sufficiens) 87 Aussage 11, 111 Aussagenkonzeption 13, 138 Aussagenlogik 13, 68, 70 f. Aussagensystem 7 f., 20, 37, 106 Außenbegriff 71 Außenwelt 30 Auswahlfunktion 87 Automat 28 Axiom (axiomatisch) 11, 64, 73, 98 ff., 102 Axiomatik, formale 11 Axiomensystem 111 Basis 24 ff., 39 Basisproblem 24 Bauplan 61 Bayessches Theorem 81, 138 Bedeutung 37 Bedingung 49, 6 9 , 1 4 0 f. —, strukturelle 140 Begriff 38, 46, 57, 60, 69, 87, 91, 98 f. —, abbildender 38, 55 ff., 58, 60, 62 —, deskriptiver 10, 57 f., 60, 62 —, empirischer 9, 52 f., 58 —, extensionaler 89 —, intensionaler 89 —, komperativer 61 f. —, mathematischer 53 —, metrischer 51, 62 f., 64 —, qualitativ-deskriptiver 55 —, qualitativer 38 —, quantitativer 63 —, quantitativ-metrischer 55 —, struktureller 62 —, theoretischer 9, 12, 14, 85, 88

Begriffsapparat 97, 125, 128, 140 Begriffsbestimmung, qualitative 63 —, quantitative 63 Begriffsbildung 31, 38 ff., 45 f., 48, 52 f., 56, 66, 70, 85, 92, 120 Begriffsbildungstheorie 29, 58 Begriffsbildungsverfahren 62 Begriffsfeld 57 Begriffsfolge 91 Begriffsformen 60 Begriffshypothese 57, 61 f., 72, 85 Begriffsnetz 21 f. Begriffspyramide 22 Begriffsschema 72 Begriffssystem 37, 56, 132 Begründung 71, 84 Begründungstheorie 73 Benutzer 23, 32 Beobachtung 10, 24, 66, 99, 101 Beobachtungsbegriff 12, 39 Beobachtungssprache 9 f., 13, 39, 58 —, theorieneutrale 129 Berechenbarkeit 34, 46, 103, 105 Berechnung 108, 116 Berührung 45 Beschreibung, adäquate 56 Beschreibungsbegriff 64 Beschreibungsmodell 115 Bestätigungsfunktion 78 Bestätigungstheorie 73, 116 Bewährung 72 Beweis 67 f. Beweistheorie 11, 73 ff. Brechungsgesetz 113 Cheopspyramide 62 colligation of facts 72, 125 comprehension 89 conjectures 71 context of discovery 76 — of justification 76 Darwinismus 15 f.

Sachregister Daten, Datenmaterial 31 f., 35, 81, 85 Deduktion (deduktiv) 77, 85, 87 ff., 120 Definition 9, 21, 55, 61, 98 — durch Abstraktion 55 Definitionslehre 58 Demonstration 69 Diairesis 21 f. dialogisch 20 Dialogverkehr 20 Disposition 62 Dispositionsbegriii 61 f. Dispositionsprädikat 10 dissipativ 136 Dualsystem 21 Duhem-Quine-These 137 f. Dynamik 19 f. dynamisch 106 Effektor 28 Efferenz. 28 Effizienz, funktionelle 123, 138 Eigenschaft, erworbene 130 Einfachheitsüberlegung 89 f. Einheit 47, 90 f. — der Naturerkenntnis 141 Einheitstheorie, physikalische 137 Element 14, 61 Elementarinformation 24 ff., 40, 66 Empfindungstheorie 27 Empirismus, konstruktiver 27 Endtheorie, physikalische 141 Endzustand 131 Entdeckung 68, 71 f., 74 f., 81, 97, 111 f., 120 —, Doppel- und Mehrfach- 74 Entdeckungsprozeß 69 Entdeckungszusammenhang 84 Entropie (entropy) 17, 33 Entropiekonzept 132 Entscheidung 21, 32, 36, 42, 78, 81 f., 97, 128 ff., 142 —, rationale 19 Entscheidungselement 36

151 Entscheidungsexperiment 138 Entscheidungsnetz 21 Entscheidungsprozeß 40 —, irreversibler 124 Entsdieidungstheorie, pragmatische 140 Entwertung, historische 124 Entwicklung 142 Entwicklungsfaktor 17 Entwicklungsphase 101 Entwicklungsprozeß 130 Entwicklungsstruktur 139 —, interne 139 Epagoge 52 Ereignis 69, 140 f. Erfahrung 14 f., 24, 36, 66, 126 Erfahrungsbeweis 69 Erfahrungssdiluß 68 Erfindung (Erfinden) 67 f., 74 f. Erfindungskunst 75 f. Erkenntnis 42, 48 —, erfahrungswissenschaftliche 24 ff. —, wissenschaftliche 7, 17 Erkenntnisfortsdiritt 107 Erkenntnislogik, empirische 139 Erkenntnissubjekt 25, 27 f., 42 Erkenntnistheorie 26 ff., 39, 59, 141 —, anarchistische 124 —, empiristische 25 Erkenntniswert 41 Erklärung 15 f., 32 Ersetzbarkeit 49 Erweiterung des Wissens 21 —, konstruktive 102 Evolution 15 ff., 111, 120, 133 ff. — und Revolution 123 Evolutionstheorie 56, 60, 119 Exaktheit 55 Expansionssystem 140 Experiment 24, 35, 99 Explikation, extensionale 88 extensional 111 extern 110 Extrapolation 16

152 Faktenwissen 12 Faktor, stabilisierender 19, 40, 118 Faktum 117 f. Falsdiheitsgehalt 128 Falsifikation 77, 116 f., 119, 128, 138 Falsifikationismus, deduktivistisdier 76 —, methodologischer 137 Falsifikationsprozeß 117 Fassungsvermögen 91 Fehler 31 f. Fehlergrenze 105 Figur 50 Fiktion, heuristische 31 Fließgleichgewicht 142 Fluxionsrechnung 31 Folgerung 69 Fonds der Wissenschaft, aktiver lllf. —, passiver 111 f. Form, logische 55 formal-analytisdi 92 Forsdiungslogik 71, 84, 136 Forschungsprozeß 20 Fortschrittscharakter 119 Fortschrittstheorie 135 Funktion 48 f., 63 —, kognitive 25 —, numerische 63 — und Struktur 123 Funktionsmodell 118 Galileitransformation 128 Gedankenexperiment 107 Gegensatz der Methoden 121 — der Theorien 121 Geometrie, analytische 102 —, euklidische 11 —, klassische synthetische 102 Gesamtdatum (requirement of total evidence) 80 Gesamttheorie 104 Gesetz 16, 88, 127 Gesetzeshypothese 72, 85, 96

Sachregister Gesetzmäßigkeit 93 Gestaltwahrnehmung 30 Gewißheit 11,78 Gleichgewicht 18,21 Gleichgewichtszustand 18 f. Gleichheit 4 0 , 4 9 , 5 5 Gleichheitsrelation 49 Gleidisetzung 41, 62 Gleichwahrscheinlichkeit 17 Gleichwertigkeit 47, 49 Grad der Abstraktion 91 — der Falsifikation (Verifikation)) 116 Gravitationstheorie 95 Grenze 22, 55 Grenzfall 128,133 Grund, Gesetz (Prinzip) vom zureichenden 36, 78 Grundbegriff 9, 64, 73 Gründe, erste 37 Grundelement 97 Grundgesamtheit 79 Grundlagentheorie 64, 116, 129 f., 140 f. —, axiomatisdie 23, 36 Grundpostulat 141 Grundsatz 98 Gruppenstruktur 141 Handlung 37, 114 Handlungslogik 59 Handlungsschema, ratiomorphes 139 Handlungsweise 45 f., 59 Harmonie, poststabilisierte 136 —, prästabilierte 136 Heuristik (heuristisch) 70, 74 f. —, positive und negative 73 ff. Hintergrundwissen, metaphysisches 76 Humesches Problem 67 f. Hypothese 19, 65, 72 ff., 76, 78, 81, 85, 87 f., 91, 96, 119 — als Entwicklungsform 100 —, erfahrungswissenschaftliche 80, 83

Sachregister —, isolierte 97 —, stellvertretende (hypothesis vicaria) 31 — und Theorie 8 8 , 9 2 Hypothesenbewertung 76 ff. Hypothesenbildung 31, 65 ff., 92, 95,120 Hypothesenfolge 72, 91 Hypothesenkette 87 Hypothesenüberprüfung 84

Ideal der Wissenschaft 18 f. Idee 21 f., 45 Identifikation 40, 44 — und Rekonstruktion 41 Identifizierung 40 f. Identität 40 —, Satz von der 40 Implikation 77 —, partielle logische 34, 77, 79, 85 —, totale logische 34, 77, 85 —, unvollständige logische 78 Indifferenzprinzip 78 Induktion 52, 65 ff., 87, 92, 94, 101, 118 f., 120, 125 — und Abstraktion 53 Induktionsbegriff 66, 125 Induktionslogik 78, 84 Induktionsprinzip 84, 87 Induktionsproblem 67 ff. induktiv 24, 96, 125, 128 Information 17, 23 ff., 30, 32, 34 ff., 42 f., 47, 57, 65, 112, 119, 140 —, deskriptiv-metrische 81, 97 —, elementare 31, 42 —, empirisch-deskriptive 110 —, empirische 33, 82, 89, 96, 142 —, —, —, —, —,

invariante 46 metrische 33, 37 objektive 82 redundante 36, 111 ff. repräsentierende 57

153 —, semantisdie 34 f., 57 —, strukturelle 33, 64, 82, 96 f., 109 f., 128, 130, 133, 138 —, strukturelle-apriorisdie 36 f. —, totale 35 Informationsbegriff, statistischer 33 Informationsfluß 25, 35 f., 107 Informationsgehalt 24, 38, 60 f., 64, 80, 110 —, aposteriorischer 37 —, apriorischer 37 —, metrischer 35 —, semantisdier 34 —, semantisch-pragmatischer 60 —, struktureller 35 Informationsgewinnung 24, 116 Informationskapazität 41, 61, 89,125 Informationsmuster 39 Informationsprozeß 17, 25, 34 Informationsquelle 24 Informationssystem 7, 20, 23, 32 f., 36 f., 59, 64, 88, 90, 107, 111, 118, 123, 142 Informationssystemforschung 20, 111 Informationstheorie 59, 140 Informationsübertragung 24 Informationsverarbeitung 21, 46 Informationsverdiditung 38, 60 f., 63 ff., 87 f., 110, 113, 120 Informationswert 61 Informationszuwachs, empirischer 108 Inkommensurabilität 127 Innovation 36, 97 Input 18 Input-Output-System 140 Instruktion 40 intellectus agens 43 f., 53 — passivus 43 — possibilis 44 Intelligenz, maschinelle (artificial intelligence) 86

Sachregister

154 Interpretation 11 Intuition 74 intuitiv 98, 127 invariant 26, 140 f. Invariante 24, 42 Invariantenbildung 25 Invarianz 49 f. Irreversibilität (irreversibel) 120, 140

37,

Kalkül 11 Kalkülisierung 11 Kanal 2 5 , 3 5 Kapazität 110, 112, 114 f. Kennziffern des wissenschaftlichen Fortschritts 109 Kern 23, 36 Klasse 47 f., 58 f., 61, 129 — von Individuen 79 Klassenabstraktion 50, 58 —, extensionale 60 Klassifikationssystem 7, 107 Koexistenz 45 Kommunikation 38 Kommunikationsmittel 107 Kommunikationssystem 23, 88 Kommunikationstheorie 24 —, Shannonsche 33 Kommunikationsverbindung 24 Komparativität 50, 62 Konfiguration 39 f. Konfusion 124 Konklusion 93 Konsequenz 98, 130 Konsistenz, logisdie 106 Konstante 87 —, empirische 33 Konstanz 25 Konstanzerfahrung 39 Konstanzleistung 26, 29, 38 Konstanzmechanismus 26 f. Konstanzphänomen 40, 62 Konstanzwahrnehmung 30 Konstruktion 21, 42, 87 ff., 120 Konstruktionspostulat 102

konstruktiv 96 kontinuierlich 115 Kontinuum von induktiven Methoden 79 Kontrollbereich 27 Kontrolle 15 Konventionalismus 137 Konzept, asymmetrisches 130 f. —, symmetrisches 130, 136 Koordinatensystem 103 Koordination 47 Korollarium 99 kumulativ 95, 108 f., 115 Kybernetik 44, 75 Labyrinthkonstruktion 87 Laplacescher Dämon 105 Lehnsatz (Lemma) 100 Lehrsatz 99 Lernen aus Erfahrung 78 logic of discovery 76 Logik 13 —, deduktive 69, 73 f., 77, 85, 139 —, demonstrative 68 f. — der Veränderung 59, 62, 126, 128, 139 f. —, empirische 139 —, formale 125 —, induktive 34, 57 f., 67, 77, 79 f., 84, 95 —, peripathetische 71 —, statische 61 —, stoische 71 — von Erfahrungsprozessen 69 —, zeitwertige 77 — zwischen Bedingung und Ereignis 141 Lorentztransformation 128 Lösungsprozedur 139 —, partielle algorithmische 105 Maßstab 62 f. Maßsystem 62, 64 Matrix 20, 89

Sachregister Maxwellscher Dämon 105 Mechanik 101 ff. —, analytische 102 ff. — des Himmels (coelestische) 94, 96,115 —, Newtonsche 130 —, relativistische 127 —, statistische 14 —, terrestrische 94, 96, 115 Mechanismus 107 —, interner 107 ff. —, neutraler 44 f. Meldung 28 f. Menge 48 Meßprozeß 63 Messung 10, 63 Metamathematik 106 Metasprache 59 Metatheorie 7, 71, 106 — der Theorienbildung 96 Meteorologie 56 Methode, deduktive 92, 100 —, formale 139 —, hypothetisch-deduktive 77 —, induktive 65 ff. —, konstruktive 92 —, konstruktiv-synthetische 92 —, metatheoretische 138 —, quantitative 63 —, quantitativ-statistische 109 Methodologie 13, 120 metodo compositivo 92 —, risolutivo 93 Minimumaufgabe 113 Mittelbegriff 71 f. Modell 14, 23, 103, 113, 119 f. —, darwinistisches 15, 17 —, systemtheoretisches 8, 15, 17, 19,123 modelltheoretisch 8, 13 f., 19, 138 modus ponens und modus tollens 77,116 Monolog, algorithmischer 20 monologisch 20 f. Muster 47

155 Mutation 15 f. Mutationstheorie 16 Nachbildung 88, 101 Nachbildungsanweisung 113 f. Nachprüfung 15 Nachrichtentechnik 24 Namenlogik 72 N a t u r 17 f. Naturgeschichte des menschlichen Erkennens 29 Nervennetzwerk 21 N e t z 23, 89 Netzdarstellung 20, 22 f. Netztheorie 20 Netzwerk 22 f., 140 f. Nicht-Ableitbarkeit 126 Nicht-Identität 127 normativ 138 Notwendigkeit 16 Oberbegriff 71 f. objektiv 29 Objektivationsleistung 30 Objektivierung 26 Objektivität 26, 28 observatio 99 Ökonomie des Denkens 110 Ökonomieprinzip 33, 88 ökonomisch 114 f. Operation 114 —, algebraische 103 —, entgegengesetzte 31 f. —, logische 37, 40, 48 f., 54, 62 —, mathematische 54, 112, 114 —, mechanische 112 Operationalismus 59 Operieren, logisches 64 Ordnungsmechanismus 27 f., 40 Ordnungsschema 61 Organisation 20 ff., 128 Orthosprache 59 Parallel Verarbeitung 120 Partikelmechanik 129 pattern 35 f.

156 philosophy of discovery 96 Plan 35 f., 121 Planung 128 Piatonismus, mathematischer 51 Postulat 99 Potential der Wissenschaft 107 Prädikat, mengentheoretisches 11, 13, 89 Prädikatenkalkül 70, 72 Prädikatenlogik 70, 72 pragmatisch 81, 85 Prämisse 69, 71, 93 prätheoretisdi 7, 38 Primärspradie, natürliche 97 Prioritätsstreit 74 Probabilist (probabilistisch) 116 Problem 14, 99, 104, 121 Problemanalyse 87 Problemlösung 86 f. Problemlösungseffizienz 128 Problemlösungsverfahren 99„ 110, 112, 115 Prognose 15, 118 f. Protokollsätze 26 f. Prozeß, dynamischer 139 Pyramide 95 —, induktive 106 —, logische 106

quaestio 100 Qualität einer Theorie 114 Quantorenlogik 140 quasi-kumulativ 115

Rahmenwerk 20 Ramsey-Darstellung 12 Ramsey-Satz 13 ratiomorph 30, 38 Reafferenz 28 Reafferenzprinzip 26 ff., 38 Rechenmaschine 113 Rechenvorschrift 102 Redinen 49 Rechner 47, 113

Sachregister Reduktion 88, 120 —, epistemische 118 reduktiv 24, 70 Reflex 28 Reflexivität 50, 62 Reflextheorie 26, 28 refutation 71 Reihenbildung 62 Rekonstruktion 41 f , 106, 133 —, logische 10 —, rationale 126 Rekonstruktionsprozeß 71 Rekonstruktionsschema 42 Rekursionsverfahren 87 rekursiv 93, 120 Relation (siehe auch Beziehung) 14, 47, 61 Relationsbegriff 78 Relativierung 27, 51 Relativitätstheorie 90, 131, 140 Repräsentation 41, 55 f., 58, 114 Repräsentationsfunktion 58 revolutionär 122, 124, 127 Rezeptor 28 Rückwirkung 119 Sachverhalt 43 Sackgasse 130 Sättigungsgrenze 108 ff. Saturation 132 Saturationstheorie 108 Schema 39 f., 43, 94 Schicht 91 f., 104, 125 Sdiluß 71 —, erkenntniserweiternder 68 —, induktiver 67, 69 —, inverser 79 Schnittstelle 23 Sdiolium 100 Scientiometrie 33, 109, 111, 116 Selbstorganisation 18, 23 Selektion 15, 130 f. Selektionsdruck 39 Selektionsmechanismus 142 Selektionsprinzip 111 Selektionstheorie 16

Sachregister Semantik (semantisch) 59, 128 —, deskriptive 34, 37 —, formale 57 —, reine 33 semantisdi-pragmatisch 50 Sinnesphysiologie 25 Soziologie (Sozialpsychologie) der Wissenschaften 123 Speidier, externer 111 —, interner 111 Spielraum, logischer 78 f. Sprache 59 —, formale 11 ff. —, formalisierte 79 —, mathematische 45 —, natürliche 11, 13 —, symbolische 12 —, theoretische 9 Sprachlogik 59 Sprachsystem, künstliches 34 Sprung, intuitiver 125 Stabilisierung 36, 100, 104, 106, 139 Stabilisierungsphase 106, 139 Stabilität 18, 23, 118 f. Stagnation 110 Stammbaum von Theorien 131 f. Statement view 8, 13 statisch 10, 20, 36 Stichprobe 79 f. Störbedingung 141 Struktur (strukturell) 12, 16, 20, 36, 43, 45 ff., 98, 110, 123, 136, 138, 140 ff. —, deduktive 105 —, mathematische 82 —, modellhafte 89 —, statische 13, 106, 139 Strukturbruch 138 Strukturelement 127 Strukturgesetze 37 Strukturgesetzlichkeit 41 Strukturkern 13, 110 f., 127 Strukturkomplex 115 Strukturmodell 8 Strukturrahmen 13

157 Struktursystem 35 Strukturtheorie der Symmetrie 136 Strukturveränderung 36 Strukturwandel 108 Strukturzusammenbrudi 123 Strukturzusammenhang, statischer 8 Suchraum 87 Suchregel 75 f. Superinduktion 125 Syllogismus 69, 71, 93 Syllogistik 75, 92 Symmetrie 50, 62 f., 136,140 —, aposteriorische 136 Symmetriebrudi 136 Symmetriekonzept 136 Symmetrie Verletzung 140 Syntaktik 59, 101 synthetisch 92, 96, 101 System 17 f., 20, 22, 34, 59, 63, 70, 91, 101, 103, 133, 140 —, axiomatisch-deduktives 7, 73, 84, 101,138 —, axiomatisches 11 f., 14, 64 —, deduktives 73, 106 —, diagnostisches 60 —, erfahrungswissenschaftliches 64 —, geschlossenes 17 f., 133 —, logisch-geschlossenes 138 —, offenes 17 f., 100 —, physikalisches 14 —, sich selbst organisierendes 17, 23, 100 —, statisches 25 Systemanalyse 23 Systematisierung 96 —, deduktive 104 Systembedingung 133 —, interne 138 Systemcharakter der Wissenschaft 20 Systemdenken, intuitives 8 Systemgebundenheit 33 systemrelativ 24 ff., 60

Sachregister

158 Systemrelativität 33 f. systemtheoretisch 13 f., 17, 23, 30 Systemtheorie 14, 22,140

Tafel, induktive 94 Tatsache 101,112 Tautologie 22, 41 Teilhypothese 138 Teilinformation 39 Teilklasse 79 Teiltheorie 93 f., 96, 98, 104, 115 Teilungsnetz 21 Theorem 90, 99 f. Theorie 7, 12, 14 f., 18 ff., 23, 89, 91, 94, 98, 106, 108, 117 ff., 124, 126 f., 130 f., 133, 138, 142 —, abgeschlossene 142 —, axiomatisdi-deduktive 89, 125 —, axiomatische 88 — der organisatorischen Veränderung 96 —, erfahrungswissenschaftliche 9 ff., 76, 81, 90, 92 f., 95, 99, 101 ff., 104 f., 106 f, 110, 112, 114,124 f., 129 —, inkommensurable 95 —, klassische synthetische 98 —, konkurrierende 116, 118, 128 f. —, Shannonsche 24 Theorienbeladenheit (theorienbelastet) 57 Theorienbildung 31, 41, 87 ff., 120 Theoriendynamik 8, 14, 23, 107 ff. —, Phasen der 106 — und Wissenschaftsdynamik 108 Theorienvergleich 116 Theorienwechsel 15, 118

Thermodynamik 17 f. Transformation 34, 47 —, strukturelle 141 Transivität 50, 62 f. trial-and-error-Prinzip 87 Typ(-us) 61 —, analytischer 102 —, synthetischer 102 Typensprung 85 f., 96 typologisdi 56 f., 60

Übereinstimmung 117 überinduziert 72 Uberprüfung 76 f., 118 Oberprüfungstheorie, deduktive 81

Übersättigung an Informationen 33 Übertragbarkeit 38 Übertragung 34 Umfangslogik 89 Umgebung 17, 22, 35 f. Umgebungsfaktor 16 Umkonstruktion 119, 138 Umwelt 29 Unbegrenztes 22 Unsicherheit 34, 78, 105, 119 Unterbegriff 71 f. Unterschied 41 Unverträglichkeit, logische 127 Unwahrscheinlichkeit 34, 117 —, logische 80 Ursache 45, 68 f.

Variante 16, 87 Variation 131 —, kontinuierliche 107 Veränderung 23 ff., 32, 36, 43, 94, 106, 115, 132 f., 137, 139 f. — der Wissenschaft 14 —, revolutionäre 126 —, strukturelle 138 — von Theorien 8, 13 Verdichtung 39

Sachregister Verfestigung, rückwirkende 100 Vergleichung 66 Verhaltensmuster 27 Verifikation 77, 116 ff., 128 Verifikationsprozeß 117 Verifikationstheorie, probabilistisdie 117 Verlaufsstruktur 116 Vermutung (conjecture) 73, 80 Verrechnung 32 Verrechnungsapparat 28, 31 Verredinungsmedianismus 38 Verständigung 40 Versuch 99 Verwerfung 106 Verzweigung 130 Vollständigkeit 11 Vollständigkeitsbeweis 104 Voraussageschluß 79 Voraussetzung 98 Vorbedingung 97 Vorbildung 88 Vorgang 43

Wachstum 106 —, empirisches 138 Wahrheit 22, 27, 40, 53, 107, 125, 142 —, formale 75 Wahrheitsgehalt 128 Wahrheitswert 50 Wahrnehmung 9, 25 ff., 29 f., 42, 46 f. Wahrnehmungskonstanz 25 Wahrscheinlichkeit (wahrscheinlich) 34, 67, 69, 73, 78 ff. Wahrscheinlichkeitsgrad 76 f., 80 f., 85 Wahrscheinlichkeitslogik, induktive 140 Wahrscheinlichkeitstheorie (-theoretisch) 1 2 , 6 7 , 7 8 , 8 2 Wärmetod 132 Wedisel von Theorien 11, 13, 123 Wechselbeziehung 16

159 Wechselwirkung 17, 26, 140 — von Theorien 7 Wenn-Dann-Beziehung 11 Widerspruch, Satz vom verbotenen 40 Widersprudisfreiheit (-losigkeit) 11,75,99 Widerspruchsfreiheitsbeweis 104 Wiederentdeckung 120 Wiedererkennung 42 Wiedererzeugung 113 Wirbeltheorie 95 Wirkung 45, 68 f. Wissenschaft 7, 17 ff., 37, 88, 90, 108, 112 f., 118, 122 f., 136 f. Wissenschaftsentwicklung 14 ff., 19, 64, 107 ff. Wissenschaftsforschung, empirische 109 Wissenschaftsgeschichte 65, 74 f., 97, 107, 134 f., 142 Wissenschaftslogik 11, 19 Wissenschaftspyramide 125 Wissenschaftssoziologie 123 Wissenschaftssprache 9, 20, 37 Wissenschaftssystematik 94 Wissensdbaftstheorie 7, 13 f., 20, 59, 67 f., 70, 72 f., 76 f., 95, 106, 109, 114, 123, 137 ff. —, analytische 58 —, konstruktive 59 Wissenschaftstypus, analytischer 104 Wissensgebiete, computerisierte 20

Zahl 47 f., 63 Zahlbegriff 47 f. Zahlenreihe 48 Zeichen 112 Zeichenkomplex 112 Zeit 139 Zeitpfeil 18, 120 Zentralnervensystem 26, 28, 31 Zentrum 23

160 zirkulär 118 Zufall 16, 73 f., 133 Zuordnung 47 f. Zuordnungsregel 9,12, 48 Zurückweisung von Theorien 11, 19 Zusammenhang, deduktiver 104

Sadiregister Zustand 118 f. Zustandsveränderung 119 Zweistufenkonzeption der Wissensdiaftsspradie 9 f. — von Verifikation und Falsifikation 117 Zwisdienhypothese 131