Vom Spiegel des Universums: Eine Geistesgeschichte der Mathematik [2. Aufl.] 9783662620656, 9783662620663

«Alle Formeln und Resultate sind fertig, nur den Weg muss ich noch finden, auf dem ich zu ihnen gelangen werde», soll Ga

456 115 1MB

German Pages V, 119 [122] Year 2021

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Vom Spiegel des Universums: Eine Geistesgeschichte der Mathematik [2. Aufl.]
 9783662620656, 9783662620663

Table of contents :
Front Matter ....Pages i-v
Von den Zahlen (Wolfgang Tschirk)....Pages 1-14
Von den Figuren (Wolfgang Tschirk)....Pages 15-31
Von den Gleichungen (Wolfgang Tschirk)....Pages 33-48
Von Differential und Integral (Wolfgang Tschirk)....Pages 49-64
Von den Räumen (Wolfgang Tschirk)....Pages 65-78
Vom Zufall (Wolfgang Tschirk)....Pages 79-90
Von den Mengen (Wolfgang Tschirk)....Pages 91-101
Von der Logik (Wolfgang Tschirk)....Pages 103-114
Back Matter ....Pages 115-119

Citation preview

Vom Spiegel des Universums

Wolfgang Tschirk

Eine Geistesgeschichte der Mathematik

Vom Spiegel des Universums

Wolfgang Tschirk

Vom Spiegel des Universums Eine Geistesgeschichte der Mathematik 2. Auflage

Wolfgang Tschirk Wien, Österreich

ISBN 978-3-662-62065-6 ISBN 978-3-662-62066-3  (eBook) https://doi.org/10.1007/978-3-662-62066-3 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http:// dnb.d-nb.de abrufbar. Ursprünglich erschienen bei Edition Va Bene, Wien, Klosterneuburg, 2007 © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Einbandabbildung: © Vitaly/stock.adobe.com Planung/Lektorat: Iris Ruhmann Springer ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Inhaltsverzeichnis

1 Von den Zahlen 1 2 Von den Figuren 15 3 Von den Gleichungen 33 4 Von Differential und Integral 49 5 Von den Räumen 65 6 Vom Zufall 79 7 Von den Mengen 91 8 Von der Logik 103 Namenregister 115

V

1 Von den Zahlen

Vor zweitausend Jahren stand die Erde im Mittelpunkt der Welt; um sie drehten sich die Sterne, gebettet in Kugelschalen aus Äther. Was Licht war, wusste niemand so recht. Heron von Alexandria hatte aber herausgefunden, dass die Augen Sehstrahlen entsenden und sie, reflektiert von den Gegenständen, wieder auffangen. Krankheiten waren Störungen im Gleichgewicht der Körpersäfte. Die Götter wohnten im Olymp; sie aßen und tranken, lachten, stritten und benahmen sich auch sonst recht gewöhnlich. Es gab keine größte Primzahl – zu jeder noch so großen musste es eine geben, die sie übertraf, das hatte Euklid gezeigt. Tausend Jahre später sah der Kosmos im Großen nicht viel anders aus, im Kleinen schon: Die Sehstrahlen waren verschwunden, Licht sandte Gott den Menschen als Gnade, Krankheiten als Strafe. Er selber war allmächtig und gütig geworden und in den Himmel umgezogen. Aber noch immer gab es keine größte Primzahl, noch immer konnte man durch zwei Punkte eine Gerade ziehen und einen Winkel mit Zirkel und Lineal halbieren, und noch immer aus © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_1

1

2

W. Tschirk

denselben Gründen: jenen, die Euklid um 300 vor Christus in seinen Elementen festgehalten hatte. Heute hat das Universum gar kein Zentrum, und sein Medium ist nicht der Äther, sondern das Licht: ein rätselhaftes Etwas, das sich einmal als Teilchen, ein andermal als Welle zeigt. Krank machen Viren, Stress und fettes Essen. Den Göttern reicht es: Sie packen, und es könnte durchaus sein, dass sie diesmal keine Anschrift hinterlassen. Wo man hinsieht, glauben wir heute etwas anderes als früher und haben dafür andere Gründe. Aber in Stein gemeißelt stehen Euklids Primzahlsatz und seine Geometrie, geschaffen in einer fernen Epoche, die uns eher als Traumbild erscheint denn als historisches Faktum. Die Elemente umfassen dreizehn Bücher, zusammen ein Kleinformat mittlerer Dicke in heutigem Druck. Sie enthalten fast fünfhundert Behauptungen und ebenso viele Beweise über Zahlen, Verhältnisse, Figuren und Körper – und alle stimmen noch heute! Naturwissenschaftliche Theorien kommen und gehen. Nur wenigen war das Glück beschieden, in einer umfassenderen als Sonderfall weiterzuleben, wie Newtons Mechanik in den Relativitätstheorien; die meisten sind sang- und klanglos dahin: Sterne werden nicht mehr vom Äther auf ihre Bahnen gezwungen, wie noch Ptolemäus glaubte, auch nicht von magnetischen Kräften, wie Kepler annahm, oder durch Wirbel eines feinen Stoffes, wovon Descartes überzeugt war. Herons Sehstrahlen stehen nur mehr als Kuriosum in den Büchern, und ob die Seele aus den Feueratomen des Demokrit gemacht ist, sei dahingestellt. Und wenn nicht kürzlich ein Wunder geschehen ist, dann wird man einst von Freuds Traumdeutung und Skinners Behaviorismus ebenso viel halten wie vom Urknall und der Stringtheorie: nämlich gar nichts. Ganz anders ergeht es da der Mathematik: „Ein mathematischer Satz, korrekt bewiesen nach den strengen Regeln der Logik, ist ein Satz für immer“, sagt der Historiker William Dunham, und wir fühlen, dass das im Grunde

1 Von den Zahlen

3

stimmt, selbst wenn, wie wir noch sehen werden, auch die Logik ein paar saftige Überraschungen auf Lager hat. Für uns begann die Mathematik mit den Griechen. Nicht, dass sie das Rechnen erfunden hätten – dieses gab es schon lange vor ihnen in Ägypten und Babylonien, wo praktische Probleme der Landvermessung, des Handels und der Astronomie zur Lösung anstanden. In den Büchern der Ägypter: dem Rhind-Papyrus, dem Moskau-Papyrus und der Lederrolle finden sich Hinweise auf ein Dezimalsystem und die vier Grundrechenarten, auf Bruchrechnungen und die Bestimmung der Flächeninhalte von Dreiecken, Rechtecken und Trapezen. Bezeichnenderweise konnten die Ägypter das Volumen einer Pyramide ermitteln. Sie lösten einfache lineare und quadratische Gleichungen mit einer Unbekannten, formulierten sie aber in normaler Sprache, weil ihnen die Gleichungsnotation noch fremd war. Als Näherung für π nahmen sie (16/9)2 , was nur wenig höher liegt als der richtige Wert, der etwa 3,14 beträgt. Die Basiszahl der Babylonier hingegen war 60; ihr Sexagesimalsystem hat sich zur Unterteilung der Zeit von der Stunde abwärts sowie der Winkel erhalten. Sie fanden ein Verfahren zum Ziehen der Quadratwurzel und verfügten über Tabellen der Quadrate, Kuben, Quadrat- und Kubikwurzeln sowie der Kehrwerte. Die Babylonier lösten quadratische Gleichungen, die komplizierter sein durften als die der Ägypter, und einfache kubische. Ihre geometrischen Berechnungen waren häufig ungenau; meist verwendeten sie einfach 3 anstelle von π, möglicherweise auch 3 + 1/8, was wiederum beinahe korrekt ist. Die bekannten ägyptischen und babylonischen Texte beschränken sich auf Aufgaben und deren rezeptartig angeführte Lösungen, lassen keine Theorie erkennen und vor allem nirgends einen Beweis. Diese Elemente haben erst die Griechen, beginnend mit Thales von Milet, eingeführt und damit die Mathematik im heutigen Sinn begründet. Das sture Rechnen übergaben sie den Logistikern: den Rech-

4

W. Tschirk

nern, die nicht selten Sklaven waren, und im Übrigen zählte die Logistik gar nicht zur Mathematik; denn in der Mathematik ging es den Griechen nur um die Freude am Wissen und nicht um praktische Vorteile. In diesem Kapitel sprechen wir von den Zahlen, und damit zuallererst von Pythagoras, der im sechsten Jahrhundert vor Christus lebte. Ihm wird der Satz „Alles ist Zahl“ zugeschrieben; er spiegelt einen geradezu religiösen Glauben an die Macht der Arithmetik wider. Ausschlaggebend dafür soll Pythagoras’ Entdeckung gewesen sein, dass die Längenverhältnisse der Saiten, auf denen die Intervalle der Tonleiter entstehen, mittels ganzer Zahlen ausgedrückt werden können: bei der Quarte durch das Verhältnis 4 : 3, bei der Quinte durch 3 : 2 und bei der Oktave, die aus einer Quarte und einer Quinte besteht, durch 2 : 1. Die Zahlen 1, 2, 3 und 4 bildeten die heilige Vierzahl, die Tetraktys. In rechtwinkeligen Dreiecken fanden die Pythagoräer das Verhältnis 3 : 4 : 5 der Seitenlängen, und überhaupt schien ihnen alles in der Natur den Zahlen nachgebildet, auch dort, wo wir heute keine mehr erblicken. Sie stießen auf Zahlen, die nicht weiter teilbar sind: die Primzahlen, und fassten sie als Strecken auf; eine Zahl, die in zwei Faktoren zerfällt, galt als flächig, entsprechend einem Rechteck, dessen Fläche das Produkt zweier Größen ist, und eine Zahl, die drei Faktoren besitzt, demnach als räumlich. Hier grenzt die Mathematik der Pythagoräer schon ans Mystische, und da ihre Lehre auch die Verbote enthielt, Bohnen zu essen, Brot zu brechen oder einen weißen Hahn anzurühren, weiß man heute nicht, ob bei ihnen eher die Vernunft regierte oder der Aberglaube. Auf Pythagoras und seine Schüler geht das Quadrivium zurück, die Einteilung des Studiums in die Gegenstände Arithmetik, Geometrie, Musik und Astronomie, die zusammen mit dem Trivium: Grammatik, Rhetorik und Dialektik die sieben freien Künste bildeten, die bis in die Neuzeit den Unterricht bestimmten.

1 Von den Zahlen

5

Die Pythagoräer dachten, alle Verhältnisse in der Natur ließen sich durch ganze Zahlen beschreiben. So bestand für sie eine Strecke aus einer bestimmten Anzahl von Punkten, und daher mussten die Längen zweier Strecken im Verhältnis ganzer Zahlen zueinander stehen. Doch eines Tages war es mit diesem Glauben vorbei, und die Schuld daran trug ausgerechnet der berühmte Satz des Pythagoras. Dieser besagt, dass in einem rechtwinkeligen Dreieck das Quadrat jener Seite, die dem rechten Winkel gegenüberliegt, so groß ist wie die Quadrate der beiden anderen Seiten zusammen. Nun bestimmen zwei Seiten eines Quadrates gemeinsam mit einer Diagonalen ein rechtwinkeliges Dreieck. Daher steht nach dem √ Satz von Pythagoras die Diagonale zur Seite im Verhältnis 2, einem Verhältnis von so grundlegender Bedeutung, dass es sich durch ganze Zahlen ausdrücken lassen musste, dass es√also ganze Zahlen m und n geben musste mit m : n = 2. Doch genau diese gibt es nicht, wie der Pythagoräer Hippasos zum Entsetzen seiner Glaubensbrüder – und vermutlich auch zu seinem eigenen – erkannte. Der Sachverhalt lässt sich auch so aussprechen: Seite und Diagonale eines Quadrates haben kein gemeinsames Maß; es gibt keine Länge, von der sowohl Seite als auch Diagonale ein ganzzahliges Vielfaches wären. Nun kannte man aber keine Zahlen außer den natürlichen: 1, 2, 3, · · · und den Verhältnissen zwischen ihnen. Deshalb bedeutete Hippasos’ Entdeckung nicht weniger, als dass man die Natur überhaupt nicht in Zahlen fassen könne. Als einziger√Ausweg blieb ein ganz unpythagoräischer: Konnte man die 2 schon nicht in Zahlen schreiben, so konnte man sie immerhin mit Zirkel und Lineal konstruieren, nämlich als Diagonale eines Quadrates mit der Seitenlänge 1. Die Geometrie schien also der Arithmetik überlegen, und so wurde sie zur dominierenden Disziplin der Antike. Allerdings galt es aufzuräumen: Nicht wenige Sätze der Geometrie waren bewiesen worden unter

6

W. Tschirk

der pythagoräischen Annahme, je zwei beliebige Strecken besäßen ein gemeinsames Maß. Nun hingen diese Beweise in der Luft, und ein Jahrhundert sollte vergehen, ehe Eudoxos die Proportionenlehre auf den Fall von Strecken ohne gemeinsames Maß übertrug und dem „logischen Skandal der griechischen Geometrie“ ein Ende setzte. In der Folge fand√ man noch weitere unausdrückbare Größen, denn auch die 3 erwies sich als solche und, wie Theaitetos zeigte, ist jede Quadratwurzel unausdrückbar, sofern sie nicht aus einer Quadratzahl gezogen wird, ebenso wie jede Kubikwurzel, die nicht von einer Kubikzahl stammt. Diese Größen interpretierte man ausschließlich geometrisch, denn das Reich der Zahlen beschränkte sich weiterhin auf die natürlichen, also die positiven ganzen. Eine Null gab es nicht, und an negative Zahlen war schon gar nicht zu denken. ∗∗∗∗∗ Unter den natürlichen Zahlen stachen die Primzahlen hervor: Gleich den Atomen, in denen Demokrit die Grundbausteine alles Seienden erblickte, waren sie die Grundbausteine aller Zahlen. Denn jede Zahl außer der Einheit ist entweder selbst eine Primzahl: 2, 3, 5, · · · oder ein Produkt von Primzahlen: 4 = 2 · 2, 6 = 2 · 3 usw., und die Zerlegung ist bis auf die Reihenfolge der Faktoren eindeutig. Das bezeichnen wir als Fundamentalsatz der Arithmetik. Von den Atomen gab es vier Sorten: jene des Feuers, des Gesteins, der Luft und des Wassers. Aber wie viele Primzahlen gibt es? Mit der Antwort auf diese Frage tauchte zum ersten Mal der Begriff des Unendlichen anders auf als in der Form radikaler Verneinung. Aristoteles hatte festgestellt, dass es ein Unendliches nicht gibt. Der Kosmos der Griechen war endlich, er reichte bis zur Sphäre der Fixsterne. Die Materie war endlich; sie zerfiel in Atome, und diese konnten nicht weiter unterteilt werden. Schreibt man hingegen die Primzahlen in eine Liste,

1 Von den Zahlen

7

kommt man nie zu einem Ende – es gibt also keine letzte und damit keine größte Primzahl. Sehen wir einmal, wie Euklid diesen Satz bewiesen hat, und beachten wir dabei den Rückgriff auf ein in der Mathematik gern verwendetes Prinzip, das der indirekten Beweisführung. Dabei nimmt man an, die Aussage, die man beweisen will, wäre falsch, und zeigt, dass das nicht sein kann. Kann sie aber nicht falsch sein, so muss sie, nach Aristoteles’ Satz vom ausgeschlossenen Dritten, richtig sein und ist damit bewiesen. Euklid nahm also an, es gäbe eine größte Primzahl, und zeigte, dass das nicht sein kann. Gibt es eine größte Primzahl p, so kann man eine Liste aller Primzahlen aufstellen: 2, 3, 5, · · · , p. Nun bildet man eine Zahl q, indem man die Primzahlen miteinander multipliziert und dann 1 addiert: q = 2 · 3 · 5 · · · · · p + 1. Da q größer als die größte Primzahl ist, kann es selbst keine sein; man muss es durch mindestens eine Primzahl teilen können. Versucht man aber, q durch 2 zu teilen, bleibt ein Rest von 1. Dasselbe geschieht, wenn man q durch 3 zu teilen versucht, und so geht es immer weiter: Keine einzige Primzahl von 2 bis p ist imstande, q zu teilen. Unter der Annahme, es gäbe eine größte Primzahl, hätte man also mit q eine Zahl gefunden, die weder eine Primzahl ist noch durch eine solche teilbar. Da aber nach dem Fundamentalsatz der Arithmetik jede Zahl entweder selbst prim ist oder in Primfaktoren zerfällt, ist die Annahme ad absurdum geführt und ihr Gegenteil bewiesen: Es gibt keine größte Primzahl. Lassen wir den Beweis Revue passieren, dann stellen wir fest, dass er auf einer Reihe von Annahmen ruht: So hat Euklid vorausgesetzt, Zahlen könnten miteinander multipliziert werden und das Resultat wäre wieder eine Zahl; weiters, man könnte 1 addieren und erhielte wieder eine Zahl; er hat sich auf den Fundamentalsatz der Arithmetik berufen und dadurch, dass er den Beweis indirekt geführt hat, auf den Satz vom ausgeschlossenen Dritten. Von diesen

8

W. Tschirk

Voraussetzungen war nur der Fundamentalsatz zuvor bewiesen worden, die anderen hat Euklid ohne Bestätigung angenommen. Da kein Beweis ohne Bedingungen auskommt und man irgendwo anfangen muss, bleibt stets ein Rest von Unsicherheit über die allerersten Annahmen. Ist auch nur eine Prämisse falsch, fällt der gesamte Schluss in sich zusammen. Hinter dieser scheinbaren Fragilität der Mathematik versteckt sich in Wirklichkeit ihre Stärke, denn es gilt umgekehrt: Wenn die Voraussetzungen richtig sind, ist das Bewiesene über jeden Zweifel erhaben. Mathematische Beweise fügen nämlich ihren Voraussetzungen nichts hinzu, sie drücken sie nur anders aus. Sie sind zudem unabhängig von Beobachtung, sinnlicher Wahrnehmung und der Qualität von Messgeräten. Ihre Objekte sind nicht unermesslich fern wie die Sterne oder ausgestorben wie die Dinosaurier, nicht klein und flüchtig wie die Positronen, und sie weigern sich auch nicht partout, zu erscheinen, sobald ein Skeptiker im Raum ist. Der Mathematiker genießt also das Privileg, seinen Gegenstand jederzeit bei sich zu haben – er muss sich nur hinsetzen und nachdenken. Mit Euklid nähern wir uns der Spätzeit der griechischen Mathematik. Zentrum der Wissenschaften war Alexandria am Nildelta mit seiner Akademie, dem Museion, an dem Euklid lehrte, und der sagenhaften Bibliothek, die in ihrer Blütezeit mehr als eine halbe Million Papyri umfasst haben soll. Einer ihrer Direktoren, Eratosthenes, erfand das nach ihm benannte „Sieb“, eine Methode zum Auffinden von Primzahlen. Seine größte Leistung aber war die bis auf 600 Kilometer genaue Berechnung des Erdumfanges aus dem Einfallswinkel der Sonnenstrahlen. Alexandria versammelte die bedeutendsten Gelehrten der Periode, die nach dem Stadtgründer die alexandrinische heißt, und selbst jene, die wie Archimedes andernorts wirkten, hatten den Großteil ihres Wissens in der ägyptischen Metropole erworben. An Grundlagen entstand nicht mehr allzu viel. Archimedes, der man-

1 Von den Zahlen

9

chen als der Mathematiker der Antike gilt, verdankt diesen Ruf seinen praktischen Erfolgen beim Berechnen von Längen, Flächen und Rauminhalten. Die Zahlentheorie fand ein halbes Jahrtausend nach Euklid noch einen späten Vertreter in Diophant, der eine Sammlung von Aufgaben und Lösungen vorlegte und dessen Name noch heute eine spezielle Art von Gleichungen bezeichnet, nämlich solche, bei denen alle Koeffizienten und Lösungen ganzzahlig sind. Zu dieser Zeit jedoch war die Mathematik längst dem Nützlichkeitsdenken der Römer zum Opfer gefallen und fristete in Form von Enzyklopädiekapiteln und Zahlenmystik ein tristes Dasein. ∗∗∗∗∗ Die Null verdanken wir den Indern. Sie schrieben als Erste die Zahlen in der uns vertrauten Weise, wo die Stellung einer Ziffer ihren Wert bestimmt. Zuvor hatte man Zahlen aus Symbolen so zusammengesetzt, wie man Geldbeträge aus Scheinen und Münzen zusammensetzt. Dazu braucht man keine Null: Die Zahl 30 kann beispielsweise aus drei Symbolen vom Wert 10 bestehen; in Rom schrieb man „XXX“. Schreibt man sie jedoch nach indischer Art, so müsste ohne die Null eine Stelle leer bleiben, und deshalb erfanden die Inder ein Zeichen für „nichts“. Auch unsere Schreibweise der Brüche dürfte indischen Urspungs sein. Wenn wir ihre Notation die arabische nennen, dann deshalb, weil sie uns auf dem Umweg über die Araber erreicht hat, und zwar durch ein Buch von Mohammed al-Khwarizmi, das im zwölften Jahrhundert unter dem Titel Algoritmi de numero Indorum ins Lateinische übersetzt erschien, dessen Original aber verloren ist. Die Grundrechenarten waren begrifflich seit geraumer Zeit festgelegt, ihre Technik entwickelte sich nur langsam. Zum Beispiel war in Ägypten die Multiplikation ein fortgesetztes Verdoppeln und Addieren; die heutige Methode

10

W. Tschirk

tauchte erst im Italien des fünfzehnten Jahrhunderts auf, zusammen mit der Division. Das Sexagesimalsystem wurde im sechzehnten Jahrhundert endgültig vom Dezimalsystem verdrängt, was hauptsächlich auf den Canon mathematicus von François Viète zurückzuführen ist, der sogar Winkel im Dezimalsystem ausdrückte, und auf die Schrift De Thiende des Holländers Stevin. Die Kommadarstellung erfand der Schotte Napier um 1600. In der Frage, was eine Zahl sei und was nicht, wurde man toleranter. Aristoteles und Euklid hatten in der Eins keine Zahl erblickt und sich mit der Null gar nicht beschäftigt. Stevin ließ die Eins bereits als Zahl zu, nicht aber die Null. Die negativen Zahlen wiederum waren noch Mitte des siebzehnten Jahrhunderts für Pascal „vollkommener Unsinn“. Die Unausdrückbarkeit der Quadrat- und Kubikwurzeln hatte die Griechen bewogen, solche Größen gar nicht mit Zahlen in Verbindung zu bringen, und noch heute steckt in ihrer Bezeichnung „irrational“ für manche das Urteil, Zahlen dieser Art hätten weniger mit Vernunft zu tun als die rationalen, die sich als Proportionen formulieren lassen. Zumindest aber verlieh man ihnen in der Neuzeit den Status der Zahl und erfand den Begriff „reell“, unter dem seither rationale und irrationale Zahlen zusammengefasst sind. Anschaulich identifiziert man die reellen Zahlen mit der Zahlengeraden, die wir aus der Schule kennen: per Konvention einer Horizontalen, auf der zwei Punkte ausgezeichnet sind, der Nullpunkt und rechts davon ein Punkt, der die Eins markiert. Jeder Punkt der Zahlengeraden entspricht einer reellen Zahl und umgekehrt. Rechts vom Nullpunkt liegen die positiven, links die negativen. Auf jedem noch so kleinen Abschnitt der Geraden gibt es rationale und irrationale Zahlen, und zwar von jeder Sorte unendlich viele; man sagt hier: Die rationalen und auch die irrationalen Zahlen liegen dicht auf der Zahlengeraden.

1 Von den Zahlen

11

Bis weit ins neunzehnte Jahrhundert gaben sich die Mathematiker mit diesem Modell zufrieden. Auf Basis der reellen Zahlen hatten sie weitere Objekte gefunden: komplexe Zahlen, Vektoren und Matrizen, die wir alle noch kennenlernen werden. Je vielfältiger die Welt der Zahlen aber wurde, desto lauter rief sie nach einer exakten Grundlage. Es kam darauf an, aus möglichst wenigen, einfachen und plausiblen Annahmen sämtliche Zahlenarten abzuleiten. Dabei wählte man wieder die natürlichen Zahlen zum Ausgangspunkt, für die Giuseppe Peano 1889 das folgende, noch heute gültige System von Grundannahmen schuf: Erstens: Eins ist eine Zahl. Zweitens: Der Nachfolger einer Zahl ist auch eine Zahl. Drittens: Zwei Zahlen mit demselben Nachfolger sind gleich. Viertens: Eins ist nicht der Nachfolger irgendeiner Zahl. Und fünftens: Wenn eine Klasse die Eins enthält und mit jeder Zahl auch deren Nachfolger, dann enthält sie alle Zahlen. Das waren, wohlgemerkt, keine nachgewiesenen Tatsachen, sondern Annahmen ohne Begründung: Axiome. Aus ihnen folgen die Zahlen 1, 2, 3, · · · mit den uns geläufigen Eigenschaften. Hat man diese einmal, so kann man durch Einführen der Subtraktion die Null und die negativen Zahlen −1, −2, −3, · · · gewinnen, die zusammen mit den natürlichen Zahlen die ganzen Zahlen ergeben. Durch Einführen der Division folgen die rationalen: die Verhältnisse m : n, wo m ganz und n natürlich ist. Man kombiniert also Zahlen bekannter Sorten so, dass Zahlen einer neuen Sorte entstehen, und erweitert damit schrittweise den Bereich. Prinzipiell gleich, jedoch technisch komplizierter war der Übergang von den rationalen zu den reellen Zahlen; dieser verlangt ja das Hinzufügen der irrationalen. Von Hippasos bis ins späte neunzehnte Jahrhundert wusste man lediglich, dass es irrationale Zahlen gibt, und kannte einige, wie die Quadrat-, Kubik- und höheren Wurzeln oder π, dessen Irrationalität der Schweizer Lambert 1760 gezeigt hatte. Es bot sich aber kein Weg an, durch einfaches Kombinieren

12

W. Tschirk

rationaler Zahlen die irrationalen zu erzeugen. Stattdessen musste man unendlich lange Folgen rationaler Zahlen konstruieren, von deren Grenzwert man zeigen konnte, dass er nicht rational ist. Die irrationalen Zahlen sind also keine endlichen Konstrukte ihrer Vorgänger, sondern aus diesen nur durch Grenzwertbildung zu erschließen. Man kann sich daher auf den Standpunkt stellen, sie existieren gar nicht wirklich. Die Konstruktion der irrationalen Zahlen durch unendliche Folgen, auf verschiedenen Wegen von Bolzano, Weierstraß, Dedekind, Cantor und Bachmann vorgeschlagen, führte auch prompt zum Streit. Kronecker empörte sich über die Bedenkenlosigkeit, mit der Unendliches als Realität gehandelt würde. Er spaltete damit die Mathematiker in zwei Lager, und noch heute teilt eine Minderheit seine Ansicht. 1899 legte der Deutsche David Hilbert, in dieser Sache anderer Meinung als Kronecker, ein Axiomensystem vor, das die reellen Zahlen, unabhängig davon, wie man zu ihnen kommt, definiert. Da die komplexen Zahlen auf den reellen basieren und Vektoren und Matrizen als Kollektionen von Zahlen aufgefasst werden können, war nun alles Numerische auf die natürlichen Zahlen zurückgeführt. Diese wiederum fußen auf den Peano-Axiomen. Nach mehr als zweitausend Jahren war die Herrschaft der natürlichen Zahlen erneut bestätigt, wenn schon nicht durch die Natur selbst wie zu Pythagoras’ Zeiten, so doch wenigstens durch den Menschen. Dennoch blieb die Frage, woher sie „kommen“. Dem Ausspruch Kroneckers, die natürlichen Zahlen habe der liebe Gott gemacht, alles andere sei Menschenwerk, hielt Dedekind entgegen, auch die natürlichen Zahlen seien Schöpfungen des menschlichen Geistes. Erstmals in Erscheinung getreten sind Zahlen vermutlich als Wörter beim Zählen. Damit wären, sofern die Sprache vom Menschen gemacht ist, auch die natürlichen Zahlen Menschenwerk; sie erscheinen uns ja nur deshalb natürlich, weil wir überall Einzeldinge finden,

1 Von den Zahlen

13

die man trennen und zählen kann. Wer weiß, wie unsere Zahlen aussähen, würden wir die Welt in schrödingerschen Wellen erleben und die Dinge, uns selbst eingeschlossen, als ein einziges großes Wellenfeld? Einstein hielt die ganzen Zahlen für „eine Erfindung des menschlichen Geistes, ein selbstgeschaffenes Werkzeug, das es erleichtert, sensorische Erfahrungen zu ordnen“. Menschen, bei denen ein bestimmter Teil der Hirnrinde beschädigt ist, können nicht sagen, welche Zahl in der Mitte zwischen zwei gegebenen liegt. Zahlen werden also allem Anschein nach vom Gehirn erzeugt; der Psychologe Stanislas Dehaene vergleicht sie mit Farben – auch die gibt es nur im Kopf. ∗∗∗∗∗ Für Gauß war die Zahlentheorie die Königin der Mathematik. Das ist zwar bloß ein Geschmacksurteil, eine Parallele zur Wirklichkeit lässt sich aber nicht bestreiten: Die Königin kennt jeder – aus der Ferne; Zugang zu ihr haben wenige. So ist es auch mit der Zahlentheorie: Deren Probleme kann man oft in einfachen Worten mitteilen, lösen aber nur schwer oder gar nicht. So hat Christian Goldbach 1742 entdeckt, dass jede von ihm untersuchte gerade Zahl über der Zwei als Summe zweier Primzahlen geschrieben werden kann: 4 = 2 + 2, 6 = 3 + 3, 8 = 3 + 5 usw., und den Verdacht geäußert, dass jede gerade Zahl über der Zwei diese Eigenschaft habe. Er konnte seine Vermutung weder beweisen noch widerlegen, und auch Euler, mit dem er dazu korrespondierte, vermochte es nicht. Indes hätten beide wohl kaum gedacht, dass die goldbachsche Vermutung allen Versuchen, sie zu beweisen oder zu widerlegen, standhalten würde. Und doch ist bis heute unentschieden, ob sie stimmt. Ein weiteres ungelöstes Problem betrifft die Primzahlzwillinge: je zwei aufeinander folgende ungerade Zahlen, die beide Primzahlen sind, wie 3 und 5 oder 17 und 19. Dass es

14

W. Tschirk

unendlich viele Primzahlen gibt, wissen wir seit Euklid; ob es unendlich viele Primzahlzwillinge gibt, wissen wir nicht. Ein drittes Problem der Zahlentheorie, vielleicht das berühmteste von allen, ist der große Satz von Fermat. Seit der Antike kennt man natürliche Zahlen a, b, c mit a 2 + b2 = c2 . Beispielsweise ist 32 + 42 = 52 oder 52 + 122 = 132 . Als Pierre de Fermat um 1637 die Arithmetika von Diophant studierte, notierte er an den Rand des Buches die Bemerkung, es gebe keine natürlichen Zahlen a, b, c, n mit a n + bn = cn , wenn n größer als 2 ist; er habe dafür „einen wirklich wunderbaren Beweis“ entdeckt, den aber der schmale Rand nicht fassen könne. Fermats Beweis wurde nie gefunden, und heute glaubt man, dass es ihn nie gegeben hat oder er fehlerhaft war. Denn die Klärung der fermatschen Vermutung ließ über drei Jahrhunderte auf sich warten, und als sie endlich vorlag, war sie gespickt mit modernster Mathematik. In der Zwischenzeit hatte Fermat Generationen von Tüftlern beschäftigt. Er selbst lieferte eine schlüssige Beweisskizze für n = 4, Euler um 1770 eine für n = 3; die Lücke in Eulers Gedankengang schloss Legendre 1830. Auch die Fälle n = 5 und n = 7 wurden im neunzehnten Jahrhundert bewiesen, doch der allgemeine Fall blieb offen. Als die Königliche Gesellschaft der Wissenschaften zu Göttingen im Jahr 1908 ein Preisgeld von hunderttausend Mark aussetzte, trafen allein innerhalb des ersten Jahres 621 Arbeiten ein – allesamt falsch. Erst 1993 legte der Engländer Andrew Wiles einen Beweis für den allgemeinen Fall vor, und den letzten Fehler, den auch dieser noch enthielt, konnte Wiles umgehend beheben. Die abschließende Arbeit ist 109 Seiten lang. Sie gibt Fermat in zweierlei Hinsicht recht: Seine Vermutung stimmt und ihr Beweis passt nicht auf den Rand.

2 Von den Figuren

Im Altertum galt die Mathematik als Naturwissenschaft. Als Thales bewies, dass die Winkelsumme im Dreieck zwei rechten Winkeln gleicht, die Basiswinkel eines gleichschenkeligen Dreiecks gleich groß sind und jeder einem Halbkreis eingeschriebene Winkel ein rechter ist, so waren dies Feststellungen über die Wirklichkeit. Zwar hatte noch niemand einen vollkommenen rechten Winkel gesehen und ebenso wenig einen vollkommenen Halbkreis, doch lag das nur an der Beschränktheit unserer Sinne, die uns anstatt der Wirklichkeit immer nur die Einzeldinge zeigen; die Schatten, um mit Platon zu sprechen. Die Wahrheit hinter den Dingen, die Welt der platonischen Ideen, erkennen wir aber in Gedanken, und diese Welt hat gar nichts Unwirkliches an sich: „idein“ heißt „sehen“ und „idea“ heißt „Gestalt“ – es geht hier also um etwas durchaus Anschauliches. Unter dem Einfluss dieser Lehre schrieb Euklid die Elemente. Sein Verdienst lag nicht so sehr darin, dass er zu neuen Erkenntnissen gelangt wäre, obwohl er vermutlich auch auf © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_2

15

16

W. Tschirk

diesem Gebiet Hervorragendes geleistet hat. Hauptsächlich jedoch trug er die Resultate seiner Vorgänger zusammen: Thales’ Geometrie, die Zahlentheorie der Pythagoräer, Demokrits Bestimmung der Rauminhalte von Pyramide und Kugel, Eudoxos’ Proportionenlehre, beinahe die gesamte Mathematik der Zeit. Die Unvergänglichkeit der Elemente beruht auf Euklids Kunst, alle Ergebnisse aus einem einzigen Satz von Begriffsbestimmungen und Grundannahmen abzuleiten: dreiundzwanzig Definitionen, betreffend die Geometrie; fünf Postulaten – Forderungen – gleichfalls geometrischen Inhalts; neun allgemeinen Grundsätzen; und schließlich zweiundzwanzig weiteren Definitionen, die die natürlichen Zahlen zum Gegenstand haben. Wir können ohne Schaden vorwegnehmen, dass man es heute anders machen würde. In logischen Systemen kann niemals jeder Begriff definiert werden, denn dann gäbe es keinen Anfang. Euklid hingegen versuchte sogar, das einfachste und grundlegendste Objekt der Geometrie, den Punkt, zu bestimmen als etwas, das keine Teile hat, und kam dabei nicht umhin, den Begriff des Teils vorauszusetzen. Wir unterscheiden auch nicht mehr Postulate von Grundsätzen; das eine wie das andere sind ohne Beweis angenommene Aussagen, also Axiome im heutigen Sinn. Den wahren Unterschied zwischen Euklids Auffassung und unserer sieht man jedoch seinen Axiomen gar nicht an, nämlich: dass er in ihnen Tatsachen erblickte. Das erste Postulat, man könne von jedem Punkt zu jedem anderen eine gerade Linie ziehen, war ebenso evident wie alle weiteren, und zwar deshalb, weil es jeder sehen konnte; weil die mathematischen Gegenstände die Spiegelbilder der Ideen sind. Der Standpunkt hat sich also verändert; die Resultate sind geblieben. Werfen wir einen kritischen Blick auf Euklids Beweise, dann sehen wir, dass er hin und wieder, ohne es zu erwähnen, die Anschauung zu Hilfe nahm. Zumeist jedoch bediente er sich der Logik, mit der er, ausgehend von seinen

2 Von den Figuren

17

Grundlagen, Satz um Satz bewies, wobei eine einmal bewiesene Behauptung in der Folge als Voraussetzung zugelassen war. So gelangte er vom Offenkundigen über das Einfache zum Schwierigen. Seinen Beweis der Unerschöpflichkeit der Primzahlen kennen wir schon, er stammt aus einem der drei Bücher über Zahlentheorie. Die anderen zehn Bücher widmen sich vorwiegend der Geometrie: Sätzen über Polygone und Kreise, über die Ähnlichkeit von Figuren, über einander schneidende Ebenen, über Würfel, Zylinder, Kegel und Kugel. Der allerletzte Satz ist den platonischen Körpern gewidmet und ein reizvolles Beispiel dafür, wie leicht das scheinbar Unmögliche sein kann. Ein platonischer Körper ist einer, dessen Oberfläche sich aus lauter gleichen regelmäßigen Vielecken zusammensetzt. Zur Zeit Euklids kannte man fünf: das Tetraeder, bestehend aus vier Dreiecken wie die Schulmilchpackung der 1960erJahre; den Würfel; das Oktaeder aus acht Dreiecken; das Ikosaeder aus zwanzig Dreiecken; und das Dodekaeder aus zwölf Fünfecken. Die ersten vier identifizierte Platon der Reihe nach mit den Elementen Feuer, Gestein, Luft und Wasser, den fünften mit dem Bauplan des Himmels. Für Philosophie und Religion der Griechen war es daher von entscheidender Bedeutung, ob es weitere platonische Körper gibt oder nicht. Wie aber sollte man herausbekommen, ob sich unter den Abermillionen von möglichen Polyedern noch ein regelmäßiger, also platonischer, befindet? Euklid bekam es heraus, und zwar so: Erstens: Es müssen mindestens drei Flächen zusammenstoßen, um eine Ecke zu bilden; zweitens: Die Winkelsumme an jeder Ecke muss weniger als vier rechte Winkel – 360 Grad in heutiger Sprache – betragen; drittens: Ein Polygon hat mindestens drei Ecken. Nun braucht man nur mehr ein wenig zu rechnen. Stoßen gleichseitige Dreiecke zusammen, deren Winkel ja 60 Grad beträgt, so sind das entweder drei, vier oder fünf, denn weniger als drei erzeugen keine Ecke, mehr als fünf überschreiten

18

W. Tschirk

die zulässige Winkelsumme. Es kann also nur drei platonische Körper aus Dreiecken geben, und wir kennen sie: Tetraeder mit drei Dreiecken an jeder Ecke, Oktaeder mit vier und Ikosaeder mit fünf. Stoßen Quadrate zusammen, so können es aus demselben Grund nicht weniger als drei sein, aber auch nicht mehr. Diese Beschreibung passt nur auf den Würfel. Stoßen regelmäßige Fünfecke mit ihren 108-GradWinkeln zusammen, gilt dasselbe, womit man das Dodekaeder erhält. Regelmäßige Sechsecke haben Winkel von 120 Grad und höhere Vielecke noch größere, womit bereits drei zusammenstoßende Winkel die Winkelsumme sprengen würden und solche Polygone keinen platonischen Körper bilden können. Daher kann es außer den aufgezählten keinen geben. Die Elemente blieben bis ins zwanzigste Jahrhundert das Standardlehrbuch der Geometrie. Darüber hinaus galten sie nicht nur innerhalb der Mathematik als methodisches Vorbild, sondern auch für Naturwissenschaft und Philosophie und sogar für die christliche Religion. Im zwölften Jahrhundert entwarfen Alain de Lille die Regulae de sacra theologia und Nicolas de Amiens die Ars catholicae fidei, beides axiomatische Theologien. Fünfhundert Jahre später begab sich René Descartes auf die Suche nach sicherer Wahrheit in den Naturwissenschaften, die er, dem mathematischen Beispiel folgend, auf deduktivem Wege zu finden hoffte. Zur gleichen Zeit legte Spinoza seine Ethik, in geometrischer Weise dargestellt vor, deren Lehrsätze er nach dem Muster Euklids aus einleitenden Begriffsbestimmungen und Grundsätzen entwickelte. So sehr man diese Versuche strenger Klarheit begrüßen mag, so sehr muss man sie als gescheitert betrachten; die Begriffe der Natur, der Ethik und des Glaubens entziehen sich, zumindest vorläufig, dem Kalkül – sie sind viel zu komplex. Vergleichen wir nur die allererste Definition Euklids mit der Spinozas. Bei Euklid heißt es: „Ein Punkt ist, was keine Teile hat.“ Spinozas Ethik dagegen beginnt mit:

2 Von den Figuren

19

„Unter Ursache seiner selbst verstehe ich dasjenige, dessen Wesen die Existenz notwendig einschließt, oder dasjenige, dessen Natur nicht anders als existierend gedacht werden kann.“ Besonderen Einfluss nahm Euklids Geometrie auf Kant und seine Lehre von den Urteilen: jenen Sätzen, mit denen einem Subjekt ein Prädikat zugesprochen wird. In der Kritik der reinen Vernunft von 1781 unterschied er erstens zwischen analytischen und synthetischen Urteilen und zweitens zwischen Urteilen a priori und solchen der Erfahrung. Ein analytisches Urteil liegt vor, wenn das Prädikat schon im Subjekt enthalten ist. Das Urteil besagt dann nichts Neues und geht über die Definition des Gegenstandes nicht hinaus: Dass Rot eine Farbe ist, gehört schon zu seinem Begriff, darin liegt keine weitere Erkenntnis. Sagt man jedoch über eine Sache etwas aus, das nicht in ihr enthalten ist, dann fällt man ein synthetisches Urteil; und das kann man meist nur nach Erfahrung: Dass Rot eine Farbe von Rosen ist, wissen wir nicht von vornherein. Die Frage war nun, ob auch synthetische Urteile a priori möglich sind, und Kant bejahte das für all jene Fälle, wo das Schema der Erfahrung in der erkennenden Person liegt, wo diese also gar nicht anders erkennen könnte. Und Gewissheit solcher Art, vor aller Erfahrung und aller Erfahrung zugrunde liegend, bietet uns, wenn Kant recht hat, die Mathematik, und in ihr speziell die euklidische Geometrie. Denn deren Gesetze sind nicht Aussagen über Dinge, sondern Anschauungsformen unseres Denkens. ∗∗∗∗∗ Drei Aufgaben bezeichnen wir heute als die klassischen Probleme der Antike: die Dreiteilung des Winkels, die Verdoppelung des Würfels und die Quadratur des Kreises. Es war immer klar, dass jeder Winkel drei Drittel hat, dass es zu jedem Würfel einen zweiten mit doppeltem Rauminhalt gibt

20

W. Tschirk

und zu jedem Kreis ein flächengleiches Quadrat. Das Problem bestand darin, die Objekte mit Zirkel und Lineal zu konstruieren. Diese Beschränkung war beileibe keine technische, sondern tief in den Grundbegriffen der griechischen Geometrie verwurzelt: Euklids Postulate eins bis drei besagen, es sei möglich, von jedem Punkt zu jedem anderen eine gerade Linie zu ziehen, eine solche Linie nach beiden Seiten unbegrenzt zu verlängern und um jeden Mittelpunkt einen Kreis mit beliebigem Radius zu zeichnen – das sind genau die mit Zirkel und Lineal ausführbaren Konstruktionen. So einfach die Aufgaben schienen, so schwierig erwiesen sie sich bei näherer Betrachtung. Die Quadratur des Kreises wurde im Lauf der Zeit zum Inbegriff des Aussichtslosen, und wer sie „meisterte“, zum Synonym für den Phantasten; kein Wunder: Bissen sich doch, von Anaxagoras bis Huygens, Generationen von Mathematikern an ihr die Zähne aus, während die Laien einander mit Lösungen überboten und noch immer überbieten, obgleich wir seit 1882 wissen, dass es keine Lösung geben kann. Ähnliches gilt für die Dreiteilung des Winkels und die Verdoppelung des Würfels: Auch diese gelangen den Griechen nicht, und auch hier sollte erst unser Zeitalter Klarheit schaffen. Das dritte Jahrhundert vor Christus war die Zeit des Archimedes. Er fand heraus, dass die Zahl π, die ja das Verhältnis von Umfang zu Durchmesser eines Kreises wiedergibt, auch in der Formel für die Kreisfläche steckt und zudem in den Berechnungen von Oberfläche und Volumen einer Kugel. Es gibt also für Kreis und Kugel nicht vier magische Konstante, sondern nur eine einzige. In seiner Kreismessung bestimmte Archimedes π auf zwei Dezimalstellen genau und gab Grenzen an, zwischen denen der wahre Wert liegen muss. Dazu berechnete er den Umfang eines Kreises vom Durchmesser 1, denn dieser Umfang ist gleich π. Archimedes begann damit, dem Kreis ein gleichseitiges Sechseck einzuschreiben und ein ebensolches zu umschreiben. Der

2 Von den Figuren

21

Umfang des eingeschriebenen Hexagons ist kleiner als der des Kreises, jener des umschriebenen größer, und beide sind leicht zu ermitteln. So gewann er zwei Zahlen – 3 und ungefähr 3,46 –, zwischen denen der Kreisumfang und damit auch π liegen musste. Nun verdoppelte er mehrmals die Seitenanzahlen und kam zum eingeschriebenen und umschriebenen 12-, 24-, 48- und 96-Eck, mit dem er sich schließlich zufriedengab. Jede Figur lieferte ihm neue Grenzen für π, die immer enger wurden, weil die Vielecke mit steigender Seitenanzahl den Kreis immer genauer approximieren. Am Ende war gezeigt, dass π zwischen 3,14 und 3,143 liegen muss. Archimedes stellen wir uns nicht als reinen Theoretiker vor, sondern als Universalgenie mit Hang zur Technik. Die ältesten physikalischen Prinzipien, die auch heute noch gelten, sind seine Entdeckungen: der Auftrieb in Flüssigkeiten, das Hebelgesetz und der Begriff des Schwerpunktes. Seinen Namen tragen so verschiedene Dinge wie das archimedische Axiom, demzufolge es zu jeder beliebig großen Zahl eine noch größere natürliche gibt, und die archimedische Schraube, eine Vorrichtung zur Bewässerung von Feldern. In seinen letzten Lebensjahren konstruierte er Anlagen zur Verteidigung der griechischen Stadt Syrakus gegen die Römer. Als sein größtes Werk betrachtete Archimedes aber ein mathematisches: den Beweis dafür, dass die Oberfläche eines Zylinders genau um die Hälfte größer ist als die Oberfläche der in ihn eingeschriebenen Kugel und Gleiches für die Rauminhalte gilt. Der Sage nach hat er verfügt, sein Grabstein solle die Figur des Zylinders mit der eingeschriebenen Kugel tragen, und Cicero berichtet, er habe Archimedes’ Grab, hundert Jahre lang vergessen und von Unkraut überwachsen, an ebendieser Skulptur erkannt. Apollonios von Perge studierte die Kegelschnitte: die Formen, die sich beim Durchschneiden eines Kreiskegels ergeben – Kreis, Ellipse, Parabel und Hyperbel. Wie so vieles in

22

W. Tschirk

der Wissenschaft der Griechen waren auch seine Untersuchungen von purer Neugier getrieben; denn dass ein Johannes Kepler einst in den Ellipsen die Planetenbahnen erblicken würde und ein Isaac Newton in den Kegelschnitten insgesamt die Bahnen der Körper im Schwerefeld, das konnte beim besten Willen niemand vorhersehen. Wie schon in der Arithmetik, so brachten auch in der Geometrie die folgenden Jahrhunderte wenig Neues. Um 150 vor Christus schrieb Hipparchos die vermutlich ersten Sehnentafeln nieder: Er ordnete den Winkeln die entsprechenden Längen der Kreissehnen zu und schuf damit einen Vorläufer unserer heutigen Winkelfunktionen. Heron gab eine Gesamtdarstellung der angewandten Geometrie und Mechanik und kam auf eine erstaunliche Formel für die Dreiecksfläche, die nur die Seitenlängen benutzt. Im zweiten Jahrhundert nach Christus verfeinerte Ptolemäus die Sehnentabellen des Hipparchos und beschäftigte sich mit Projektionen der Kugeloberfläche in die Ebene, einer Technik zur Herstellung von Landkarten. Die alexandrinische Periode schließt im vierten Jahrhundert mit Pappos, dem letzten bedeutenden Mathematiker der Antike. In sein Hauptwerk, die Sammlungen, packte er alles, was ihm an den Gedanken seiner Vorgänger gefiel. So manche Arbeit, deren Original verloren ist, hat uns auf dem Umweg über Pappos’ Kompendium erreicht. Seine eigene Forschung aber weist den Weg in eine völlig andere Art von Geometrie, der wir uns nun zuwenden. In den vorangegangenen Betrachtungen spielen Längen, Flächen, Rauminhalte und Winkel eine zentrale Rolle, also Größen, die man messen kann. Eine solche Geometrie nennt man daher metrisch. Stellen wir uns nun den Sonnenschatten eines Dreiecks vor. Auch er formt ein Dreieck, aber Längen, Winkel und Fläche werden nur dann die gleichen wie im ursprünglichen sein, wenn dieses in bestimmten Winkeln zur Sonne und zum Boden steht; andernfalls ändern

2 Von den Figuren

23

sie sich, und sobald das Dreieck bis zum Einfallswinkel der Sonnenstrahlen kippt, bleibt als Schatten nur mehr eine Strecke. Der Schatten eines Kreises wiederum ist manchmal ein Kreis, manchmal eine Ellipse, und im Extremfall gerät auch er zur Strecke. Metrische Eigenschaften einer Parallelprojektion ändern sich also mit den Winkeln zwischen der Figur, den Strahlen und der Projektionsebene. Andere bleiben erhalten: Gerades bleibt gerade, Paralleles bleibt parallel, geschlossene Kurven bleiben geschlossen, Tangenten gehen in Tangenten über, halbierte Strecken bleiben halbiert und gleiche Flächen bleiben gleich. Mit solchen Merkmalen beschäftigt sich die affine Geometrie. Sie alle gibt es auch in der metrischen; die affine Geometrie geht also aus der metrischen dadurch hervor, dass man jene Qualitäten ignoriert, die sich bei der Parallelprojektion ändern, und die anderen behält. Ist die Lichtquelle so nahe, dass man ihre Strahlen nicht mehr als parallel ansehen kann, ergibt sich ein neues Bild. Zwar kann auch hier der Schatten eines Kreises ein Kreis sein oder eine Ellipse, er kann aber auch zu einer offenen Kurve werden, einer Parabel oder einer Hyperbel; denken wir nur an den Schatten eines Lampenschirmes an der Wand. Diese Geometrie nennt man die projektive; sie entsteht aus der affinen dadurch, dass man erneut auf einige Eigenschaften verzichtet: Geschlossene Kurven müssen nicht geschlossen bleiben, halbierte Strecken nicht halbiert und gleiche Flächen nicht gleich, weil nun Objekte umso größer abgebildet werden, je näher sie der Lichtquelle sind und je ferner der Ebene, auf die sie projiziert werden. Nun gibt es bei dieser Projektion Punkte, die überhaupt kein reelles Bild haben, weil der sie passierende Lichtstrahl parallel zur Projektionsebene läuft und diese nie trifft; man nennt die virtuellen Bilder solcher Punkte Fernpunkte und die von ihnen gebildete Gerade Ferngerade. Was zunächst wie eine lästige Ausnahme aussieht, wird durch einen Trick zum Vorteil. Fügt

24

W. Tschirk

man nämlich die Ferngerade gedanklich zur Projektionsebene hinzu, erhält man die projektive Ebene, die eine wunderbare Symmetrie aufweist: In ihr gibt es keine Geraden mehr, die einander nicht schneiden würden, wie dies in der euklidischen und der affinen Ebene noch der Fall ist; denn nun schneiden einander zwei Gerade entweder im Endlichen oder in einem Fernpunkt, mit dem man rechnen kann wie mit jedem normalen Punkt auch. Man kann also zum ersten Mal ohne Ausnahme sagen: Zwei Gerade schneiden einander stets in einem Punkt. Damit gilt in der projektiven Ebene ein Dualitätsprinzip: Vertauscht man in einem Satz die Ausdrücke „Gerade“ und „Punkt“, „Verbindung“ und „Schnitt“, „liegen auf“ und „schneiden einander“ und einige mehr, so erhält man den dualen Satz, der ebenso stimmt oder nicht stimmt wie der ursprüngliche. Zum Satz: „Zwei Punkte liegen stets auf einer Geraden“ gibt es nun den dualen: „Zwei Gerade schneiden einander stets in einem Punkt“. Ist ein Satz bewiesen, gilt der Beweis auch für den dualen. Man kann sich also aussuchen, ob man eine Behauptung in ihrer Originalform überprüfen will oder in der dualen, und die einfachere wählen. Zum Beispiel lässt sich nicht ohne Weiteres sagen, ob drei Punkte, die auf einer Geraden liegen, das auch nach der Projektion tun. Stellt man hingegen die duale Frage, ob drei Gerade, die einander in einem Punkt schneiden, das auch nach der Projektion tun, ist die Antwort klar. Diese aparte Wissenschaft hat eine konkrete Entsprechung in der perspektivischen Malerei: Deren Fluchtpunkt und Fluchtgerade sind nämlich nichts anderes als der Fernpunkt und die Ferngerade der projektiven Geometrie. Hier wie dort gibt es Eigenschaften, die erhalten bleiben: Kreuzen einander zwei Straßen, so tun sie das, einerlei, aus welcher Perspektive der Künstler sie betrachtet. Analog dazu bewahrt die projektive Geometrie Berührung und Schnitt. Und wie der Maler Standort und Blickrichtung – und damit

2 Von den Figuren

25

die Fluchtpunkte – so wählen kann, dass er sein Motiv bestmöglich einfängt, kann man auch in der projektiven Geometrie Standort und Blickrichtung dem Objekt der Untersuchung anpassen, und zwar durch geeignetes Festlegen der Ferngeraden. Die Anfänge der projektiven Geometrie finden wir bei Pappos am Ausgang der Antike. In der Neuzeit war es der Architekt Desargues, der sie um 1640 wiederentdeckte. Das neunzehnte Jahrhundert brachte ihre Blüte und ihren Abschluss, als Poncelet die Begriffe des Fernpunktes und der Ferngeraden prägte und Plücker das Dualitätsprinzip bewies. Etwa zur Zeit Desargues’ wuchs unter der Obhut von Fermat und Descartes ein neuer Zweig der Mathematik heran, der reiche Früchte tragen sollte: die analytische Geometrie. Wählt man in der Ebene einen Nullpunkt und zwei Richtungen, die x- und die y-Richtung, so kann man jeden Punkt durch zwei Zahlen festlegen: seine Abstände vom Nullpunkt in der x- und in der y-Richtung, die man als x-Koordinate und y-Koordinate bezeichnet. Um im Raum einen Punkt festzulegen, ist noch eine dritte Richtung nötig, die zur zKoordinate führt. Nun stehen die Koordinaten der Punkte einer Geraden in bestimmter Beziehung zueinander, und diese Beziehung kann durch eine Gleichung beschrieben werden. Ebenso erfüllen die Koordinaten der Punkte eines Kreises, einer Ellipse usw. jeweils eine für die Figur charakteristische Gleichung. So lässt sich mit geometrischen Objekten rechnen, was ihr Studium in mancher Weise bereichert. Es zeigt sich zum Beispiel, dass alle Kegelschnitte aus quadratischen Gleichungen hervorgehen und oft nur der Wert oder das Vorzeichen einer einzigen Zahl bestimmt, ob es sich um einen Kreis, eine Ellipse, eine Parabel oder eine Hyperbel handelt. Die Verwandtschaft der Ebene mit der Geraden – beide besitzen keine Krümmung – oder der Kugel mit dem Kreis spiegelt sich ebenso in den Formeln wie die Lagebezie-

26

W. Tschirk

hungen von Figuren, beispielsweise das Parallelsein zweier Geraden. In Fermats Abhandlung, der Isagoge von 1635, taucht zum ersten Mal der Begriff des geometrischen Ortes auf: der Gesamtheit aller Punkte, die eine gegebene Bedingung erfüllen. Ebenso wie Descartes in seiner Géométrie von 1637 begnügte sich Fermat damit, die Gleichungen von Objekten aufzustellen. Weiter reichende Untersuchungen, wie das Schneiden zweier Figuren durch Lösen ihres Gleichungssystems, überließen sie der Nachwelt. Auch das rechtwinkelige Koordinatensystem, später nach Descartes als kartesisches bezeichnet, fehlte anfangs noch und wurde erst von Newton in modernem Stil verwendet. Im späten achtzehnten Jahrhundert erfand Gaspard Monge, der Begründer der École Polytechnique in Paris, die darstellende Geometrie: die zeichnerische Projektion von Objekten auf zwei oder drei zueinander senkrechte Bildebenen. Damit war die Geometrie, Jahrtausende zuvor aus Problemen der Landvermessung hervorgegangen, später betrieben als Art pour l’art, wieder in den Schoß der Technik zurückgekehrt. ∗∗∗∗∗ Die ersten drei Postulate Euklids kennen wir schon: Es sei möglich, von jedem Punkt zu jedem anderen eine gerade Linie zu ziehen, eine solche Linie nach beiden Seiten unbegrenzt zu verlängern und um jeden Mittelpunkt einen Kreis mit beliebigem Radius zu zeichnen. Das vierte verlangt einfach, dass alle rechten Winkel einander gleich seien. Im Gegensatz zu diesen knappen und einleuchtenden Forderungen ist das fünfte und letzte Postulat auf Anhieb kaum zu verstehen: Zwei gerade Linien, die von einer dritten so geschnitten werden, dass die beiden inneren auf derselben Seite liegenden Winkel zusammen kleiner als zwei rechte sind, treffen, genügend verlängert, an ebender Seite zusam-

2 Von den Figuren

27

men. Meist spricht man diesen Satz in einer anderen, gleichwertigen Form aus, als das sogenannte Parallelenpostulat: Zu jeder Geraden gebe es durch jeden nicht auf ihr liegenden Punkt genau eine Parallele. Nicht nur, dass die Komplexität dieses Postulats, verglichen mit der Einfachheit der anderen, ein Stilbruch war: Es sah von Anfang an so aus, als wäre es keine selbständige Forderung, sondern aus den restlichen Axiomen ableitbar und somit überflüssig. Doch wer immer versuchte, es abzuleiten – und es waren nicht wenige –, scheiterte. Nun kann man diesem Problem auf zweierlei Art zu Leibe rücken: Entweder man versucht, das Parallelenpostulat aus den anderen Grundsätzen zu folgern, oder man versucht zu zeigen, dass das Gegenteil des Postulats falsch sein muss. Der erste Weg hatte zweitausend Jahre lang zu nichts geführt. Den zweiten beschritt Girolamo Saccheri aus Pisa. Das Gegenteil des Parallelenpostulats ist, dass es zu einer Geraden durch einen nicht auf ihr liegenden Punkt entweder keine Parallele gibt oder mehrere. Kann man diese beiden Fälle ausschließen, so muss das Postulat, als letzte verbleibende Möglichkeit, richtig sein. Das ist wieder das Prinzip des indirekten Beweises und, nebenbei bemerkt, die Schlussweise des Sherlock Holmes. So glücklich Saccheri aber in der Wahl seiner Methode war, so unglücklich war er in ihrer Durchführung; er glaubte nämlich nach einigem Rechnen, beide Fälle widerlegt zu haben, und hielt das 1733 in seinem Buch Euklid ohne Fehler fest. Ein Jahrhundert später jedoch ersann Nikolai Lobatschewski eine widerspruchsfreie Geometrie, in der jede Gerade durch jeden neben ihr liegenden Punkt mehr als eine Parallele hat. Sein 1829 veröffentlichter Artikel blieb ohne Widerhall, denn Lobatschewski war ein völlig Unbekannter und hatte seine Schrift noch dazu auf Russisch verfasst. 1832 erschien eine Arbeit des Ungarn János Bolyai, der zum selben Ergebnis gekommen war wie Lobatschewski. Nun stellte sich heraus, dass bereits 1815 Carl Friedrich Gauß,

28

W. Tschirk

der größte Mathematiker seiner Zeit, das Gleiche gefunden hatte, aber aufgrund der Ungeheuerlichkeit des Resultats vor einer Veröffentlichung, die seinen Ruf ruinieren hätte können, zurückgeschreckt war. Der andere Fall, dass es nämlich keine Parallele gebe, widersetzte sich seiner Klärung länger. Man musste noch ein weiteres Postulat Euklids aufgeben, und zwar das zweite: Jede Gerade könne beliebig verlängert werden. Lässt man nur endlich lange Gerade zu, wird eine Geometrie ohne Parallele möglich, und eine solche entwickelte Bernhard Riemann 1854. Diese Ergebnisse besagen nicht, dass die euklidische Geometrie falsch wäre, sondern nur, dass sie nicht die einzige ist. Es gibt zwei weitere, erstens die von Lobatschewski, Bolyai und Gauß, die mehr als eine Parallele kennt, und zweitens die von Riemann, die keine kennt. Beschränken wir uns zur Veranschaulichung der drei Geometrien zunächst auf Flächen. Dann ist die euklidische Geometrie diejenige, die in der Ebene gilt; dort gibt es zu einer Geraden durch einen Punkt außerhalb ihrer tatsächlich genau eine Parallele. Riemanns Geometrie gilt auf der Kugel; hier spielen die Großkreise die Rolle der Geraden als kürzeste Verbindung zweier Punkte, und da zwei Großkreise einander immer schneiden, gibt es keine Parallelen. Die Geometrie von Lobatschewski, Bolyai und Gauß beschreibt die Verhältnisse auf einer Fläche, die gekrümmt ist wie eine Trompete; dort gibt es zu jeder Geraden mehrere, die sie nicht schneiden und durch denselben Punkt gehen, also mehr als eine Parallele im Sinne des Postulats. Bald erhob sich die Frage, was denn nun „stimme“, welche Geometrie also unsere Welt tatsächlich habe. Bisher war man davon ausgegangen, Euklids Gesetze wären die Gesetze der Wirklichkeit, und Kant zufolge konnte man gar nicht anders als euklidisch denken. Gauß aber hielt es für eine sinnvolle Frage, welche Geometrie den wirklichen Raum beschreibe; und zwar nicht für eine mathematische oder phi-

2 Von den Figuren

29

losophische, sondern für eine empirische. Sie läuft darauf hinaus, ob der wirkliche Raum eben sei oder gekrümmt, und wenn gekrümmt, dann in welche Richtung. Mit den Mitteln, die Gauß und seinen Zeitgenossen zur Verfügung standen, war das nicht herauszufinden. Erst die allgemeine Relativitätstheorie hat – hundert Jahre nach Gauß’ Entdeckung – gezeigt, dass ein gekrümmter Raum keine mathematische Fiktion sein muss, sondern im Einklang mit der Erfahrung steht. Für die logische Entwicklung der Geometrie war Gauß’ empirisches Problem belanglos; das zeigt, wie weit sich die anfängliche „Erdmessung“ von ihrem Ursprung entfernt hatte. 1872 legte Felix Klein sein Erlanger Programm vor, eine Klassifikation der Geometrien nach den Eigenschaften, die sich bei bestimmten Transformationen nicht ändern. Hilbert schuf 1899 eine axiomatische Grundlegung der euklidischen Geometrie, die Euklids Schwächen vermeidet und bis heute als unanfechtbar gilt. Damit war die klassische Geometrie vollendet. Aus der analytischen von Fermat und Descartes hatten sich in der Zwischenzeit die Infinitesimalrechnung und die Theorie der Vektorräume entwickelt, auf die wir in späteren Kapiteln treffen werden. ∗∗∗∗∗ „Kein der Geometrie Unkundiger möge hier eintreten“, forderte die Inschrift über dem Tor zu Platons Akademie. Der Philosoph, selbst kein Mathematiker, achtete diese Wissenschaft gleichwohl als Grundlage jeder höheren Bildung. Sein Schüler Dionysios, der Tyrann von Syrakus, musste Geometrie lernen, um als Regent zu taugen. Platons Erziehungsplan sah außerdem das Studium der Arithmetik, Astronomie und Harmonie vor, und zwar ausdrücklich nicht mit dem Ziel praktischen Nutzens, sondern zur Vorbereitung des Geistes. Theaitetos und Eudoxos gehörten zu seinen Freunden, und

30

W. Tschirk

Euklid, zwei Generationen jünger als Platon, hat möglicherweise an der Akademie studiert. Die Wirkung des zweiten epochemachenden Denkers des Altertums, Aristoteles, auf die Geometrie reicht weiter, als es zunächst scheinen mag. Aristoteles gilt als Begründer der Logik, in erster Linie durch seine Lehre vom Syllogismus. Darunter versteht man einen logischen Schluss, bestehend aus zwei Prämissen, die einen Begriff gemeinsam haben, und einer Konklusion. Das gängige Beispiel lautet wie folgt. Erste Prämisse: Alle Menschen sind sterblich; zweite Prämisse: Sokrates ist ein Mensch; Konklusion: Also ist Sokrates sterblich. Zu den Varianten dieses Prinzips zählen: Alle Äpfel kann man essen, manche Pflanzen sind Äpfel, also kann man manche Pflanzen essen; oder: Im Sommer schneit es nie, manchmal schneit es, also ist nicht immer Sommer. Der britische Philosoph Bertrand Russell bemerkte dazu, dass Aristoteles den Wert des Syllogismus überschätzte, der nur eine Art des deduktiven Beweisens sei und keineswegs, wie Aristoteles zu glauben schien, die einzige; in der Mathematik kämen Syllogismen kaum vor. Richtiger wäre es aber, zu sagen: werden Syllogismen kaum ausdrücklich erwähnt. Denn in Wahrheit kommt kein mathematisches Argument ohne sie aus: Wenn Euklid die Fläche eines bestimmten Rechtecks ermittelt, indem er Länge mit Breite multipliziert, so deshalb, weil er weiß, dass man bei jedem Rechteck so vorgehen darf und nach Aristoteles also auch bei diesem. Und wenn er Breite mal Länge nimmt statt Länge mal Breite, so weiß er, dass man in jedem Produkt von Zahlen die Reihenfolge der Faktoren ändern darf und somit auch hier. Keine Wissenschaft war je enger mit einem Volk verknüpft als die Geometrie mit den Griechen, und keine genoss jemals ein solches Ansehen, geschweige denn über so lange Zeit. Die platonische Akademie wurde beinahe tausend Jahre alt; doch 529 ließ sie Kaiser Justinian I. als letzte

2 Von den Figuren

31

Bastion des Heidentums schließen. Auch die Bibliothek von Alexandria fand ein trauriges Ende, als die Araber sie 641 in Brand steckten. Damit waren die letzten Heimstätten der einst blühenden antiken Philosophie ausgelöscht.

3 Von den Gleichungen

Die Gleichung x + x/3 = 8 besagt, dass 8 herauskommt, wenn man zu einer Zahl x ihr Drittel addiert. Fassen wir sie einmal als Rätsel auf und fragen: Wie groß muss x dann sein? Des Rätsels Lösung und damit Lösung der Gleichung ist jenes x, für das die Gleichung stimmt. Wie aber findet man es? Die Ägypter gingen vor wie folgt: Sie wählten probeweise ein x, zum Beispiel x = 3. Addiert man zu 3 ein Drittel von 3, erhält man 4. Da man 8 erhalten will, also doppelt so viel, ist es vernünftig anzunehmen, das gesuchte x wäre doppelt so groß wie das probeweise gewählte, und tatsächlich lautet die Lösung x = 6 . Das ist die Methode des falschen Ansatzes. Bei ihr kommt es nicht darauf an, welches x man probeweise gewählt hat; es hätte genauso gut eine andere Zahl sein können. Allerdings führt der falsche Ansatz nur bei linearen Gleichungen zum Ziel: solchen, in denen die Unbekannte in der ersten Potenz erscheint. An die Lösung quadratischer Gleichungen mussten sich die Ägypter durch mehrfaches Probieren herantasten. Aus Babylonien © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_3

33

34

W. Tschirk

sind Aufgaben überliefert, wo die Unbekannte in erster und zweiter Potenz auftritt: als x und x 2 . Die Griechen betrachteten x 2 = 25 als das Problem, die Seite eines Quadrates mit der Fläche 25 zu finden, und lösten es durch geometrische Konstruktion. Erst Diophant schrieb Gleichungen in algebraischer Symbolik, mit Schriftzeichen für Zahlen, ihre Potenzen und Kehrwerte sowie für Addition, Subtraktion und Multiplikation, und kämpfte sich zu den Grundoperationen des Gleichunglösens durch. Diese basieren auf den Axiomen Euklids: Was demselben gleicht, ist einander gleich; Gleiches Gleichem zugesetzt oder von Gleichem weggenommen, gibt Gleiches; Gleiches verdoppelt oder halbiert, ebenso. Wir lösen also mit Grund x + x/3 = 8 nicht durch Probieren, sondern dadurch, dass wir zuerst beide Seiten mit 3 multiplizieren: 3x + x = 24 , und dann durch 4 teilen: x = 6 , denn solche Vorgänge ändern nichts an der Gleichheit von linker und rechter Seite. Die Urheberschaft an der Algebra spricht man den Arabern zu. Das Wort selbst geht angeblich auf den Titel des Buches Al-jabr w’al-muqabala des al-Khwarizmi aus dem neunten Jahrhundert zurück. Darin bedeutet al-jabr das Umformen einer Gleichung so, dass keine negativen Ausdrücke mehr vorkommen, und al-muqabala das Entfernen von Termen, die auf beiden Seiten erscheinen. Al-Khwarizmi führte die linearen und quadratischen Gleichungen auf insgesamt sechs Grundformen zurück und beschrieb für jede von ihnen einen Lösungsweg. Aus heutiger Sicht ist diese Kategorisierung unnötig kompliziert; wir kommen mit zwei Grundformen aus – eine für die linearen Gleichungen, eine für die quadratischen. Doch einem Zeitalter, das keine Null und keine negativen Zahlen kannte, galten x 2 + 4x = 5 und x 2 = 4x + 5 nicht nur als verschiedene Gleichungen – das sind sie heute auch –, sondern sogar als verschiedene Formen; denn hätte man zum Beispiel die zweite Gleichung in der Form der ersten geschrieben, also die Potenzen von x auf

3 Von den Gleichungen

35

einer Seite zusammengefasst, wäre der Koeffizient 4 zu −4 geworden, und das hätte keinen Sinn gehabt. Im elften Jahrhundert erweiterte Omar al-Khayyam die Algebra um Gleichungen dritten Grades. Ebenfalls ohne Null und negative Zahlen, gab er für sie neunzehn Formen an, wo wir heute nur eine benötigen. Nicht nur die Koeffizienten, auch die Lösungen mussten positiv sein. Denn die Araber ließen mit Vorliebe dem algebraischen Auflösen einer Gleichung ein geometrisch motiviertes Beispiel folgen, in dem naturgemäß negative Größen keinen Platz haben; abgesehen davon konnte al-Khayyam die meisten kubischen Gleichungen gar nicht algebraisch lösen, sondern nahm Kegelschnitte zu Hilfe und bewegte sich dadurch von Anfang an in der Domäne der Figuren. Eine Gleichung algebraisch auflösen heißt ihre Lösung in der Gestalt von Radikalen – arithmetischen Ausdrücken und Wurzeln – darstellen und weder Näherungen noch die Geometrie zu Hilfe nehmen. Für lineare und quadratische Gleichungen war das im fünfzehnten Jahrhundert getan: Die Lösung der linearen Gleichung, also jener der allgemeinen Form x + a = 0 , ist einfach −a , die Lösung der quadratischen Gleichung x 2 + ax + b = 0 ein Radikal aus den Koeffizienten a und b. Die kubische Gleichung x 3 + ax 2 + bx + c = 0 hingegen erwies sich als überaus widerspenstig. Noch 1494 vertrat Pacioli die Meinung, ihre Auflösung wäre ein ebensolches Wunder wie die Quadratur des Kreises. Vielleicht lag es gerade an Paciolis Pessimismus, vielleicht am Zufall, vielleicht war einfach die Zeit reif; jedenfalls setzte mit Beginn des sechzehnten Jahrhunderts ein wahres Wettrennen ein. Zuerst löste Scipione del Ferro die reduzierte Kubische x 3 + bx = c , in der der quadratische Term fehlt. Nicolo Tartaglia beherrschte dem Vernehmen nach die Gleichung x 3 + ax 2 = c , also jene dritten Grades ohne lineares Glied. Monatelang beschossen einander er und del Ferros Schüler Fior – del Ferro selbst war ver-

36

W. Tschirk

storben – mit Rechenaufgaben. Im Zuge dieses Duells bezwang auch Tartaglia die reduzierte Gleichung, zur Lösung der allgemeinen gelangten aber weder Fior noch er. Um 1540 fand dann Girolamo Cardano heraus, wie man jede kubische Gleichung reduzieren kann; zusammen mit del Ferros und Tartaglias Behandlung der reduzierten Form ergab dies den lang gesuchten Lösungsweg. Er besteht aus drei Schritten: Erstens: Reduzieren, also Eliminieren des quadratischen Terms; zweitens: Überführen der reduzierten Gleichung in eine quadratische; und drittens: Auflösen der quadratischen mit bekannten Mitteln. Was sofort ins Auge springt, ist die Analogie zum Lösen quadratischer Gleichungen, wo man dieselben drei Schritte vollzieht an Potenzen, die um einen Grad niedriger sind: Zuerst reduziert man die quadratische Gleichung, indem man den linearen Term eliminiert; dann führt man die reduzierte quadratische Gleichung in eine lineare über, und mit dieser verfährt man wie gewohnt. Hier zeichnete sich ein Schema für algebraische Gleichungen beliebigen Grades ab: Wenn man jede um einen Grad erniedrigen kann, dann kann man aus jeder in endlich vielen Schritten eine lineare machen – und damit jede lösen. Tatsächlich gelang bereits Cardanos Assistenten Ferrari das Überführen der Gleichung vierten Grades in eine kubische; aus der kubischen konnte man eine quadratische gewinnen, aus dieser eine lineare, und dort steckte die Lösung. Das Verfahren versagte aber bei der Gleichung fünften Grades, denn diese ließ sich nicht um einen Grad niedriger machen. Damit widerstand sie allen Angriffen, und bis ins neunzehnte Jahrhundert sollte die Frage ihrer Lösbarkeit offenbleiben. Sicher war nur, dass nun ein Bindeglied fehlte. Denn solange die Gleichung fünften Grades unlösbar war, nützte es nichts, jene sechsten Grades auf sie zurückzuführen; den Gleichungen ab dem fünften Grad war der Weg zur Lösung versperrt.

3 Von den Gleichungen

37

Die kubische Gleichung bescherte der Welt eine neue Art von Zahlen. Schauen wir einmal nach, wie die Zahlenarten eine nach der anderen aufgetaucht waren, ehe man sie im neunzehnten Jahrhundert in Axiome goss: als Lösungen von Gleichungen. x + 1 = 2 hat eine natürliche Zahl als Lösung; um x + 1 = 1 zu lösen, braucht man die Null, für x + 2 = 1 eine negative Zahl, für 2x = 1 eine rationale und für x 2 = 2 eine irrationale. Nun hätte man schon zu Zeiten der Pharaonen schreiben können: x 2 + 2 = 1 , und auch hier eine Lösung fordern. Die Begriffe dazu waren vorhanden; es fehlte einzig und allein die passende Zahl x, denn diese müsste, mit sich selbst multipliziert, −1 ergeben, und das war unmöglich. Deshalb blieben Gleichungen wie diese einfach ungelöst. So lagen die Dinge bis 1572, als die Algebra von Rafael Bombelli erschien. In dieser Schrift wird die kubische Gleichung x 3 = 15x + 4 behandelt, deren Lösung, wie man leicht prüfen kann, 4 ist. Bei der Suche nach ihr stieß Bombelli auf ein Zwischenresultat, in dem der Ausdruck √ −1 vorkommt, also das geheimnisvolle Etwas, das, mit sich selbst multipliziert, −1 ergibt. Zwar verschwand es nach einigen Umformungen aus der Rechnung, aber √ um dies zu erreichen, musste Bombelli so tun, als sei die −1 eine Zahl, mit der man rechnen könne. Das Ganze war ein glücklicher Zufall; denn als Lösung hätte auch Bombelli die √ −1 nicht akzeptiert. Als Zwischenergebnis aber, das zu einem vernünftigen und richtigen x führte, konnte er sie nicht einfach ignorieren. Er gab ihr den klingenden Namen „più di meno“ und ergründete ihre Rechenregeln. Die waren schnell gefunden: Wie zwei Äpfel und drei Äpfel zusammen fünf Äpfel ergeben, ist zweimal più di meno und dreimal più di meno gleich fünfmal più di meno. Hier wird die Geheimnisvolle einfach als zählbares Objekt betrachtet. Ihre Multiplikation mit sich selbst ist aber schon in ihrer Definition enthalten: Das Resultat ist −1 , und daraus folgt

38

W. Tschirk

als √ letzte fehlende Regel die der Division. Damit hatte die −1 ein erstes Lebenszeichen gegeben. Dass sie einst zur Königin der Zahlen werden würde, das hätte sie wohl selber nicht gedacht. ∗∗∗∗∗ Die Mathematik des Altertums war griechisch, die des Mittelalters arabisch, die der Renaissance italienisch. Die Schulen der Antike: Platons Akademie und das geistige Zentrum der Spätzeit, Alexandria, haben wir kennengelernt. Von den Arabern wissen wir diesbezüglich wenig. In der Neuzeit war die Mathematik zunächst selbständiges Fach an der Artistenfakultät, jener Abteilung der Universitäten, die die Artes liberales lehrte. Häufig erschien sie im Gewand ihrer prominentesten Anwendung, der Astronomie. Eine der Hochburgen dieser Disziplin war im fünfzehnten Jahrhundert Wien mit Johannes von Gmunden, Georg von Peuerbach und Johannes Müller, den man besser unter seinem Gelehrtennamen Regiomontanus kennt. Die antike Teilung der Mathematik in höhere: Arithmetik und Geometrie sowie angewandte: Rechenkunst, Feldmessung, Optik, Musik, Mechanik und Astronomie hatte kaum Veränderungen erfahren. Selbst die Musik war geblieben, und nicht nur dem Namen nach: Es handelte sich wie eh und je um die Harmonielehre der Pythagoräer. Nur die Astronomie zerfiel nun in drei Fächer: Planetentheorie, die Lehre des Ptolemäus und das Kalendermachen. Die erste wissenschaftliche Gesellschaft der Neuzeit, die Academia Platonica, entstand in Florenz um 1470. Es folgten die Academia antiquaria 1498 in Rom, die Academia Secretorum Naturae 1560 in Neapel und die Accademia dei Lincei 1603 wieder in Rom. Wie uns das Scharmützel zwischen Fior und Tartaglia gezeigt hat, stand weniger die Zusammenarbeit im Vordergrund als vielmehr der Konkurrenzkampf, der vom völligen Fehlen eines Urheberrechts ge-

3 Von den Gleichungen

39

prägt war und nicht zur Mitteilsamkeit einlud, geschweige denn zum freien Publizieren. Neben den Mathematikern im engen Sinn, also den Forschenden, hatte die Renaissance auch ihre Rechenmeister. Einer von ihnen war um 1520 der sprichwörtliche Adam Riese, der eigentlich Ries hieß und sein „e“ nur deshalb abbekam, weil man damals „vom Riese“ sagte, wie man „vom Manne“ gesagt hätte. Ein anderer, Johannes Widmann, gab das erste gedruckte Buch heraus, das die Zeichen „+“ und „−“ für Addition und Subtraktion enthält. Weitere Schritte in Richtung einer algebraischen Notation setzte 1590 Viète, von dem schon als Vorreiter des Dezimalsystems die Rede war. Zwar verwendete er noch die Worte „in“ für die Multiplikation und „aequabitur“ anstatt des Gleichheitszeichens, doch ansonsten ähnelte seine Darstellung bereits der unsrigen. Die modernen Symbole für gleich, kleiner und größer, das Malkreuz, der Divisionsdoppelpunkt sowie die Schreibweisen für Potenz und Wurzel entwickelten sich im Barock. Ihre heutige Form erhielten auch die Winkelfunktionen. An die Stelle der Sehnentafeln des Hipparchos war schon Mitte des ersten Jahrtausends in Indien die Vermessung der Halbsehne getreten, die wir als Sinus kennen. Vom Sinus abgeleitet werden Kosinus, Tangens und Kotangens. Um 1550 definierte der Astronom Georg von Lauchen, bekannt als Rhaeticus, diese Funktionen als Seitenverhältnisse im rechtwinkeligen Dreieck: Hat ein solches die Seiten a, b und c, wobei c dem rechten Winkel gegenüberliegt, dann ist das Verhältnis a/c der Sinus des Winkels, der a gegenüberliegt, b/c dessen Kosinus, a/b sein Tangens und b/a sein Kotangens. Für das numerische Rechnen überaus wertvoll wurden Verfahren zum Ersetzen der umständlichen Multiplikation durch eine oder wenige Additionen. 1514 erdachte Johannes Werner die prostaphairetische Methode, die ausnützt, dass man Produkte von Winkelfunktionen in Summen sol-

40

W. Tschirk

cher umwandeln kann und umgekehrt. Von dieser Idee profitierten vor allem die Astronomen mit ihren meterlangen Formeln; der Vorteil gegenüber dem herkömmlichen Multiplizieren hielt sich aber in Grenzen. Kepler musste zehn Jahre lang arbeiten, um die Planetenbahnen als Ellipsen zu erkennen, und sicher entfiel kein geringer Teil davon auf das reine Rechnen. Deshalb ging ein Aufatmen durch die Reihen der Himmelsforscher, als John Napier 1614 den Logarithmus fand, der eine ähnliche Idee verkörpert wie Werners Methode, aber viel einfacher ist – Laplace befand noch hundertfünfzig Jahre später, er verdoppele das Leben der Astronomen. Der Logarithmus eines Produktes ist die Summe der Logarithmen seiner Faktoren; um Zahlen miteinander zu multiplizieren, schlug man daher in Napiers Tabelle deren Logarithmen nach, addierte sie, erhielt damit den Logarithmus des Produktes und fand dieses wiederum in der Tabelle. Schon beim Multiplizieren zweier fünfstelliger Zahlen verringerte diese Prozedur den Rechenaufwand auf ein Sechstel. Napiers Logarithmus war noch das Resultat einer geometrischen Überlegung; die moderne Definition gab Euler 1728: Die Beziehung b y = x bestimmt den Logarithmus y der Zahl x zur Basis b. Die Basis ist eine frei wählbare Zahl, sie muss nur ungleich 1 und, wie auch x, positiv sein. Es gibt aber eine spezielle Basis, die eulersche Zahl e – rund 2,72 . Der Logarithmus zur Basis e heißt natürlicher Logarithmus und hat besondere Eigenschaften; beispielsweise beträgt der natürliche Logarithmus einer Zahl x, die ungefähr 1 ist, ungefähr x −1 , und wenn sich dieses x um einen kleinen Wert ändert, dann ändert sich sein natürlicher Logarithmus um nahezu denselben. Der Logarithmus ermöglichte die Kreation eines bemerkenswerten Rechengerätes, das mehr als dreihundert Jahre lang unerreicht blieb und erst um 1975 von den elektronischen Taschenrechnern verdrängt wurde: des Rechenschiebers. Sein einfachstes Modell besteht aus zwei gegeneinander

3 Von den Gleichungen

41

verschiebbaren Skalen, auf denen Zahlen so eingezeichnet sind, dass sich für ihre Logarithmen eine lineare Teilung ergibt und diese durch Hintereinanderlegen addiert werden. Verschiebt man die Skalen so, dass über der Zahl a der ersten Skala die 1 der zweiten liegt, dann liegt unter der Zahl b der zweiten Skala das Produkt ab. Die logarithmischen Skalen erfand 1620 der englische Theologe Gunter. Bald darauf gaben seine Landsleute Oughtred, Wingate und Partridge dem Rechenschieber, dessen Vermögen weit über die Grundrechenarten hinausreicht, sein bekanntes Aussehen. Um die gleiche Zeit baute Wilhelm Schickhardt eine Rechenmaschine mit drehbaren Zylindern zum Addieren, Subtrahieren, Multiplizieren und Dividieren. Eine einfachere Vorrichtung, die mittels drehbarer Scheiben achtstellige Zahlen addierte und subtrahierte, stellte der achtzehnjährige Pascal 1641 her und verkaufte davon fünfzig Exemplare. Leibniz entwarf 1673 die sogenannte Staffelwalzenmaschine für die vier Grundrechenarten, und im Technischen Museum Wiens findet man einen Apparat von 1727, der auf das Sprossenradprinzip des Italieners Poleni zurückgeht, ebenfalls eine Vierspeziesmaschine. Heute lächeln wir über diese Wunderwerke der Räder, Skalen und Zylinder; als Relikte einer antiquierten Technik verstauben sie im Kuriositätenkabinett. Was die Mathematik derselben Epoche aber an rein Geistigem hervorbrachte, ist heute so aktuell wie damals. Denn das achtzehnte Jahrhundert beantwortete die grundlegende Frage der Gleichungslehre, nämlich wie viele Lösungen eine algebraische Gleichung hat. Rekapitulieren wir, was das bedeutet. Eine Gleichung ersten Grades lautet x + a = 0 , wobei x die Unbekannte und a eine Konstante ist. Wir haben sie auch als lineare Gleichung bezeichnet. Eine Gleichung zweiten Grades, eine quadratische, hat die Form x 2 +ax +b = 0 . Auch die Gleichung dritten Grades, die kubische, kennen wir schon, und die Gleichungen höheren Grades folgen demselben Muster:

42

W. Tschirk

P = 0 , worin P ganz allgemein für ein Polynom steht. Die Lösungen einer solchen Gleichung sind also jene x, für die P den Wert null annimmt, und heißen daher auch Nullstellen des Polynoms. Das lineare Polynom x + a hat die Nullstelle x = −a und nur diese; daher hat jede lineare Gleichung genau eine Lösung. Bei quadratischen Polynomen liegt die Sache komplizierter, denn einige von ihnen haben zwei Nullstellen, andere eine, manche jedoch scheinen gar keine zu√ besitzen, wie das Polynom x 2 + 1 . Lässt man allerdings −1 als Zahl zu, dieses Polynom zwei Nullstellen: √ dann hat auch √ x = −1 und x = − −1 , denn in beiden Fällen gilt x 2 + 1 = 0 . Es hat dann jedes Polynom ersten Grades eine Nullstelle und jedes Polynom zweiten Grades deren zwei. Schon 1629 vermutete Albert Girard, dass überhaupt jedes Polynom so viele Nullstellen habe, wie sein Grad angibt, vorausgesetzt, man erlaubt komplexe Zahlen: Zahlen, in denen Bombellis più di meno vorkommt. Schreibt man nach heutiger Gewohnheit den Buchstaben i als Abkürzung für √ −1 , dann haben komplexe Zahlen die Gestalt a + ib , wo a und b reelle Zahlen sind; a nennt man den Realteil der komplexen Zahl und b ihren Imaginärteil. Die Bezeichnung „imaginär“ geht auf Descartes zurück und drückt aus, dass man sich solche Dinge zwar vorstellen kann, es aber nichts gibt, das ihnen entspräche. Für Leibniz waren die imaginären Größen „eine Zuflucht des menschlichen Geistes“, „fast ein Amphibium zwischen Sein und Nichtsein“ und „an sich etwas Unmögliches“. Am Beweis von Girards Vermutung scheiterten beinahe zweihundert Jahre lang die besten Mathematiker, unter ihnen d’Alembert, Euler und Lagrange. Auch waren die Meinungen geteilt; Goldbach hielt sie für falsch. Im Jahr 1797 setzte der zwanzigjährige Gauß allen Zweifeln ein Ende und bewies den Fundamentalsatz der Algebra: Jedes Polynom n-ten Grades besitzt genau n komplexe Nullstellen. Das

3 Von den Gleichungen

43

schließt auch reelle Nullstellen ein, denn eine reelle Zahl kann aufgefasst werden als eine komplexe, deren Imaginärteil null ist. Der Satz besagt auch, dass jedes Polynom n-ten Grades als Produkt von n linearen Polynomen dargestellt werden kann: P = (x − x1 )(x − x2 ) · · · (x − xn ) , wo x1 bis xn seine Nullstellen sind. Bis auf die Reihenfolge der Faktoren ist die Darstellung eindeutig. Damit steckt im Fundamentalsatz der Algebra die gleiche Aussage für Polynome, wie sie der Fundamentalsatz der Arithmetik für natürliche Zahlen enthält, nämlich die eindeutige Zerlegbarkeit in Grundbausteine. Dem praktischen Auffinden der Nullstellen ist diese Eigenschaft überaus dienlich. Denn hat man einmal eine Nullstelle x1 gefunden, kann man das Polynom durch den Faktor (x − x1 ) dividieren und erhält ein neues, um einen Grad vermindertes, das meist leichter zu behandeln ist als das ursprüngliche. Über Nacht hatten sich so die komplexen Zahlen als Schlüssel zu einer eleganten Gleichungstheorie erwiesen, bei der es keine √ Ausnahmen mehr gibt. Die imaginäre Einheit aber, die −1 , ist in gewissem Sinne grundlegender als selbst√die natürliche √ √Zahl 1;√denn diese geht aus ihr hervor: −1 · −1 · −1 · −1 = 1 . Wie man komplexe Zahlen geometrisiert, fand 1797 der norwegische Landvermesser Caspar Wessel. Da Real- und Imaginärteil stets getrennt geführt werden, interpretierte er sie als x- und yKoordinaten eines Punktes in der Ebene, wo er Addition, Subtraktion, Multiplikation und Division geometrisch definierte. Die Auffassung einer komplexen Zahl als Strecke bestimmter Länge und Richtung steckte schon davor in der berühmten Formel von Euler: eiπ + 1 = 0 , welche die „Grundgrößen“ der Mathematik verknüpft: 0, 1, e, π und √ die −1 . ∗∗∗∗∗

44

W. Tschirk

Der Fundamentalsatz der Algebra ist ein reiner Existenzsatz: Er lehrt, dass zu jedem Polynom n-ten Grades n Lösungen existieren, aber nicht, wie diese Lösungen aussehen oder wie man sie findet. Nach wie vor offen war das Problem, Gleichungen ab dem fünften Grad zu lösen, das heißt ein Verfahren anzugeben, das alle Nullstellen des Polynoms in Form von Radikalen, also arithmetischen Ausdrücken und Wurzeln, darstellt. Seit Cardano und Ferrari das für die Gleichungen dritten und vierten Grades geleistet hatten, waren beinahe dreihundert Jahre vergangen. 1824 kam der Norweger Niels Abel und verkündete, womit niemand gerechnet hatte, nämlich dass allgemeine Gleichungen – solche mit beliebigen Koeffizienten – ab dem fünften Grad nicht durch Radikale auflösbar sind. War schon Abels Beweis ein Geniestreich ersten Ranges, so wurde er wenig später in den Schatten gestellt durch die Arbeit des neunzehnjährigen Franzosen Évariste Galois. Abel hatte die Unlösbarkeit der allgemeinen Gleichungen gezeigt; spezielle Gleichungen, also solche, in denen die Koeffizienten bestimmte, günstige Werte haben, können aber durchaus lösbar sein. Zum Beispiel findet man für x 5 − 1 = 0 sofort die Lösung x = 1 , kann nun, nach dem Fundamentalsatz der Algebra, durch den Faktor (x −1) dividieren und erhält eine Gleichung vierten Grades, die zu den restlichen vier Lösungen führt. Galois stellte sich nun die Frage, wie man aus den Koeffizienten einer Gleichung auf ihre Lösbarkeit schließen kann, und beantwortete sie auf derart revolutionäre Weise, dass ihm der Begutachter der Académie des sciences seine Arbeit zurückschickte, weil er sie nicht verstand. Bei Letzterem handelte es sich immerhin um den berühmten Poisson, was ahnen lässt, wie weit Galois seiner Zeit voraus war. Sein hauptsächliches Resultat ist, dass man die Lösbarkeit einer Gleichung anhand von Hilfsgrößen beurteilen kann, die zwar mit den Lösungen zusammenhängen, aber deren Kenntnis nicht erfordern; sie bilden die nach ihrem Ent-

3 Von den Gleichungen

45

decker benannte Galois-Gruppe. Als Nebenprodukt wies er nach, dass es unter den Gleichungen jeden Grades ab dem fünften stets unlösbare geben muss, und bestätigte damit Abels Satz. Die Galois-Theorie, erst vierzehn Jahre nach ihrer Abfassung publiziert, setzte einen Schlusspunkt hinter die traditionelle Algebra, die Lehre von den Gleichungen. Zugleich begründete sie die moderne: die Theorie der Verknüpfungen auf einer Menge. Ihr zentraler Begriff ist die Gruppe; darunter versteht man eine Menge von Elementen a, b, c, · · · zusammen mit einer Verknüpfung ab zwischen je zwei von ihnen, mit folgenden vier Eigenschaften: Erstens: Das Ergebnis einer Verknüpfung ist wiederum Element der Menge. Zweitens: Bei der Verknüpfung abc dreier Elemente spielt es keine Rolle, ob man ab mit c verknüpft oder a mit bc , denn (ab)c = a(bc) . Drittens: Es gibt ein neutrales Element e, das bei Verknüpfung keine Änderung bewirkt: ea = a . Viertens: Jedes Element hat ein inverses; verknüpft man die beiden, erhält man das neutrale. Die ganzen Zahlen bilden zusammen mit der Addition eine Gruppe. Denn die Summe zweier ganzer Zahlen ist wieder eine ganze Zahl, bei der Addition kann man die Summanden beliebig zusammenfassen, das neutrale Element ist die Null, und das inverse Element zu jedem a ist −a . Gruppen bestehen aber bei weitem nicht immer aus Zahlen und Rechenoperationen. Zum Beispiel bilden die Drehungen von Figuren in der Ebene um einen festen Punkt eine Gruppe, wenn man als Verknüpfung ihre Nacheinanderausführung festlegt. Denn das Resultat zweier nacheinander ausgeführter Drehungen ist wieder eine, Drehungen kann man beliebig zusammenfassen, das neutrale Element ist die Drehung um null Grad, die alles unverändert lässt, und zu jeder Drehung gibt es eine inverse, nämlich die im Gegensinn um den gleichen Winkel. Physiker wiederum kennen die Lorentz-Gruppe der speziellen Relativitätstheorie: die Grup-

46

W. Tschirk

pe von Transformationen, die den raumzeitlichen Abstand zwischen zwei Ereignissen nicht ändern. Darunter fallen die Drehungen des dreidimensionalen Raumes, die Verschiebung des Koordinatenursprungs in der vierdimensionalen Raumzeit und der Übergang in ein relativ zu den Ausgangskoordinaten gleichförmig bewegtes System. Aus der Gruppenstruktur der Lorentz-Transformationen folgt unter anderem, dass die Nacheinanderausführung von zwei von ihnen wieder eine ist und dass jede Lorentz-Transformation durch eine andere rückgängig gemacht werden kann. Das zeigt, welche Erklärungskraft in geglückten Verallgemeinerungen steckt; ohne sie wären manche Schlüsse der Relativitätstheorie schwerer zu ziehen. Die Abstraktheit des Gruppenbegriffes, den 1883 von Dyck in seine heutige Form brachte, ist in zweierlei Hinsicht interessant. Zunächst als Zeichen dafür, dass die Algebra sich mit Strukturen beschäftigt, unabhängig von konkreten Objekten, in denen diese Strukturen realisiert sind; sogar Zahlen wären ihr zu konkret. Darüber hinaus erkennen wir hier eine Analogie zur Geometrie: Wie die projektive Geometrie aus der euklidischen durch Ignorieren aller metrischen und affinen Eigenschaften hervorgeht, so entsteht die Gruppentheorie durch Reduktion reichhaltigerer Formen auf einen kargen Kern. Die projektive Geometrie weiß von einem Dreieck nur mehr, dass es drei Ecken hat; alles andere – Längen, Winkel, Schwerpunkt, Fläche – ist gegenstandslos geworden. Ebenso kennt die Gruppentheorie an den Zahlen kein Gerade oder Ungerade, kein Rational oder Irrational und kein Größer oder Kleiner. Und wie die Geometrie Stufen des Konkreten emporsteigt, so auch die Algebra: Kommen Eigenschaften hinzu, insbesondere eine zweite Verknüpfung, wird die Gruppe zum Ring; erweitert man auch diesen, landet man beim Körper, um nur die wichtigsten anzuführen, denn die Vielfalt der algebraischen Konstrukte ist unüberblickbar. Mit der Algebra als Struk-

3 Von den Gleichungen

47

turtheorie hat die Wissenschaft wohl ihren größten Schritt in Richtung Abstraktheit gesetzt. Dunham vergleicht die Mathematik des späten neunzehnten Jahrhunderts mit der Malerei desselben Zeitalters, dem Impressionismus, der wie sie die Fesseln des Gegenständlichen lockerte; Mathematik und Malerei waren im Begriff, ihre angestammte Rolle als Fenster zur Wirklichkeit abzulegen. Der Algebra verdanken wir die Entscheidung der drei klassischen Probleme der Antike: Dreiteilung des Winkels, Verdoppelung des Würfels und Quadratur des Kreises mit Zirkel und Lineal. Nachdem es gelungen war, jede dieser Konstruktionen in Gleichungen zu übersetzen, blieb nur mehr die Frage nach deren Lösbarkeit. Wenn π als Nullstelle eines Polynoms mit rationalen Koeffizienten auftritt, dann kann man den Kreis quadrieren, andernfalls nicht. 1882 zeigte Ferdinand von Lindemann, dass kein rationales Polynom π als Nullstelle haben kann. Damit war die Quadratur des Kreises vom Tisch, und nicht besser erging es den beiden anderen Problemen. Lindemann hatte zwar keine neue Art von Zahlen gefunden, wohl aber eine erst kurz zuvor entdeckte Eigenschaft nun an π festgestellt, die Transzendenz: Zahlen, die als Nullstellen rationaler Polynome auftreten, nennt man algebraisch, die anderen, wie eben π, transzendent. Das ist ein weiteres Beispiel verwirrender Namensgebung: Ebenso wenig, wie natürliche Zahlen in der Natur vorkommen, sind irrationale unvernünftiger als rationale, imaginäre unwirklicher als reelle, und transzendente übersinnlicher als algebraische. So manche esoterische Spekulation wäre uns erspart geblieben, hätte man die transzendenten Zahlen einfach als nichtalgebraische bezeichnet und auch die anderen Benennungen zugunsten unverfänglicherer verworfen. Wir haben in diesem Abschnitt ausschließlich Fälle einer Gleichung mit einer Unbekannten behandelt. In vielen praktischen Problemen treten jedoch mehrere Unbekann-

48

W. Tschirk

te auf, deren Zusammenhang durch mehrere Gleichungen gegeben ist. Das Lösen eines solchen Gleichungssystems besteht darin, passende Werte für sämtliche Unbekannte zu finden, so dass alle Gleichungen simultan erfüllt sind. Wie man das praktisch macht, überlassen wir den Rechenmeistern; welche Ausblicke aber solche Aufgaben eröffnen, das wird das Thema des Kapitels von den Räumen sein.

4 Von Differential und Integral

Um 1630 belegte Bonaventura Cavalieri die altbekannte Tatsache, dass zwei Dreiecke mit gleichen Grundlinien und Höhen auch gleich große Flächen haben, auf neue Art: Schneidet man die beiden Dreiecke im gleichen Abstand von den Grundlinien und parallel zu diesen, so sind, wie man leicht sieht, die Schnittlinien gleich lang. Da die Dreiecke auch gleich hoch sind, setzt sich die Fläche des einen aus gleich vielen Schnitten zusammen wie die des anderen, wobei jeder Schnitt des einen gleich lang ist wie der in derselben Höhe angebrachte Schnitt des anderen. Also müssen die Flächen gleich groß sein. Dieses Prinzip bewährte sich nicht nur am Dreieck, sondern an jeder Figur einschließlich der Körper, wo die Schnitte nicht gleich lange Linien sind, sondern gleich große Flächen, die sich zu gleich großen Rauminhalten summieren. Allerdings lassen sich mit dem Argument auch Behauptungen „beweisen“, die falsch sind, wie jene, dass zwei gleich breite Kreisringe verschiedenen Durchmessers flächengleich wären: Beide Ringe besitzen gleich viele und gleich lange radiale Schnitte. © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_4

49

50

W. Tschirk

Cavalieris Methode ist also falsch, und der Fehler liegt auf der Hand: Niemals addieren sich Linien, und seien es noch so viele, zu einer Fläche, denn Flächen sind nicht einfach größer als Linien, sondern von diesen grundlegend verschieden. Im Altertum hatte Archimedes Längen, Flächen und Rauminhalte berechnet, indem er die zu messende Größe durch bekannte immer weiter annäherte – erinnern wir uns an seine Bestimmung des Kreisumfanges und damit der Zahl π. Dabei hatte er Längen stets zu einer Länge summiert, Flächen zu einer Fläche und Volumina zu einem Volumen, und so die Schwäche von Cavalieris Gedankengang vermieden. Der Nachteil von Archimedes’ Verfahren war, dass die Formen der zur Approximation herangezogenen Objekte sich nach der Form des jeweils zu approximierenden richteten, was keine universelle Lösung zuließ. Diese Unschönheit behoben Fermat, Giles de Roberval und John Wallis Mitte des siebzehnten Jahrhunderts. Seit der noch jungen Erfindung des kartesischen Koordinatensystems mit x- und y-Achse konnte man sinnvoll von der Fläche unter einer Kurve sprechen: dem zwischen der Kurve, der x-Achse und zwei senkrechten Begrenzungen eingeschlossenen Flächenstück. Fermat, Roberval und Wallis näherten diesen Bereich durch vertikale Rechtecke von gleicher Breite x an. Jedes Rechteck reicht von der x-Achse bis zur Kurve, hat also die Höhe y und daher die Fläche y x. Je schmaler und zahlreicher die Rechtecke werden, umso genauer trifft die Summe ihrer Flächen die zu bestimmende Fläche unter der Kurve. Um diese aber ganz genau zu treffen, sind unendlich viele unendlich schmale Rechtecke nötig – ein Fall, für den es keine Zahlen gab. Daher konnte man die Fläche nicht exakt ermitteln, und das analoge Problem stellte sich auch der Berechnung von Rauminhalten in den Weg. Um die gleiche Zeit widmeten sich Fermat, Descartes und der Engländer Isaac Barrow einem Problem, das zunächst mit der Inhaltsberechnung gar nichts zu tun hatte,

4 Von Differential und Integral

51

nämlich dem Bestimmen der Steigung einer Tangente an eine gegebene Kurve. Auch diese Aufgabe konnte in kartesischen Koordinaten leicht formuliert werden, denn die Steigung einer Geraden ist einfach das Verhältnis vom vertikalen zum horizontalen Abstand zweier beliebiger Punkte auf ihr – also der Quotient y/x aus der Differenz der yKoordinaten der beiden Punkte, y, und der Differenz ihrer x-Koordinaten, x. Meist kennt man aber von der Tangente nur den einen Punkt, an dem sie die Kurve berührt. Wählt man in dessen Nähe einen zweiten auf der Kurve und zieht durch die beiden eine Sehne, so kommt diese der Tangente ziemlich nahe. Rückt man den zweiten Punkt allmählich an den ersten heran, wird die Sehne der Tangente immer ähnlicher; stets bleibt ihre Steigung das Verhältnis einer immer kleiner werdenden y-Differenz zu einer immer kleiner werdenden x-Differenz. Doch gerade das, was Fermat, Descartes und Barrow interessierte, nämlich der Wert von y/x, sobald der zweite Punkt den ersten erreicht hatte, ließ sich nicht ermitteln; denn dort waren beide Differenzen null und ihre Division ergab kein Resultat. So wiesen die Berechnungen von Fläche und Rauminhalt einerseits und Tangente andererseits ein gemeinsames Merkmal auf: Man konnte dem wahren Wert beliebig nahe kommen, ihn aber nicht erreichen – außer in wenigen Sonderfällen, beispielsweise wenn die Kurve nicht gekrümmt, sondern eine Gerade war. Den Anstoß zur Behandlung des Tangentenproblems hatte die Physik gegeben. Die Steigung der Tangente ist ein Maß für die Änderung einer Größe y aufgrund der Änderung einer Größe x. Seit Galilei war bekannt, dass die Geschwindigkeit eines frei fallenden Körpers in gleichen Zeitspannen um den gleichen Betrag zunimmt. Ist v die Geschwindigkeit und t die Zeit, dann besagt Galileis Gesetz, dass v/t konstant ist; diese Konstante nennen wir Beschleunigung. Die Geschwindigkeit ist wiederum selbst eine Änderung,

52

W. Tschirk

nämlich die Änderung des Ortes mit der Zeit. Aus Gründen wie diesen beschäftigte die Tangente nicht nur Mathematiker. Neben ihrer Lage im Allgemeinen interessierte Fermat eine spezielle: die horizontale. Maxima und Minima einer Kurve zeichnen sich durch horizontale Tangenten aus; die Steigung ist dort null. Nun hatte Fermat erkannt, dass ein Lichtstrahl immer jenen Weg nimmt, den er in der kürzesten Zeit durchlaufen kann. Daraus ergibt sich das Reflexionsgesetz, demzufolge Ein- und Ausfallswinkel gleich sind, und das Gesetz der Brechung, der Richtungsänderung des Lichtes beim Übergang von einem Medium in ein anderes. Drückt man die Laufzeit des Strahls als Funktion der Richtung aus und zeichnet ein Diagramm dieses Zusammenhanges, dann findet man die Richtung, die der Strahl tatsächlich einschlägt, am Minimum der Kurve: dort, wo deren Tangente die Steigung null hat. Es war also höchste Zeit für eine Rechenmethode zum Tangentenproblem, umso mehr, als Newton komplizierte Bewegungen zu untersuchen begann, nämlich solche unter dem Einfluss veränderlicher Kräfte – Galileis Fallkraft war noch die konstante Anziehungskraft der Erde gewesen. Newton stellte die Hypothese auf, die wechselseitige Anziehung zweier Massen sei umgekehrt proportional zum Quadrat ihres Abstandes, und fand heraus, dass dieses Gesetz schnurstracks zu Keplers Planetenbahnen führt: zu Ellipsen. Solche Resultate waren mit elementarer Mathematik nicht zu gewinnen, und so entwickelte er die Fluxionsrechnung, die auf einer ungewöhnlichen Vorstellung von der Geometrie basiert: „Gerade entstehen nicht durch das Nebeneinandersetzen von Punkten, sondern durch eine fortlaufende Bewegung von Punkten; Flächen durch Bewegung von Geraden, Körper durch Bewegung von Flächen, Winkel durch Drehung ihrer Schenkel, Zeit durch ein gleichförmiges Fließen.“ Die fließenden Größen nannte er Fluenten, ihre Änderungen Fluxionen. Die Fluxionsrechnung liefert die Beziehung

4 Von Differential und Integral

53

zwischen den Fluxionen, wenn die Beziehung zwischen den Fluenten gegeben ist, und umgekehrt. Weiters enthält sie Lösungswege für Gleichungen, in denen Fluenten und Fluxionen zusammen auftreten. Betrachten wir als Beispiel einen waagrecht geschossenen Pfeil. Seine horizontale Entfernung vom Abschussort heiße x und seine vertikale y; beide sind Fluenten. Horizontale und vertikale Geschwindigkeit, in Newtons Schreibweise x˙ und y˙ , sind Fluxionen. Lassen wir der Einfachheit halber den Luftwiderstand beiseite. Dann ist nach Galilei die Horizontalgeschwindigkeit konstant: x˙ = v, und der Zusammenhang zwischen x, x˙ und y˙ gegeben durch y˙ = −gx/x, ˙ wo g für die Erdbeschleunigung steht. Diese Gleichungen verknüpfen Fluxionen und Fluenten; sie können mit den newtonschen Regeln in eine Verknüpfung zweier Fluenten umgewandelt werden, und zwar in die Bahngleichung des Pfeiles, die Parabel y = −gx 2 /2v 2 . Um Maximum oder Minimum einer Größe zu finden, musste Newton nur deren Fluxion berechnen und dann annehmen, diese sei null; denn „wo eine Größe ihren größten oder kleinsten Wert annimmt, fließt sie weder vor noch zurück“. Will man also den höchsten Punkt der Pfeilbahn finden, muss man die Fluxion der Höhe bestimmen und annehmen, sie sei null. Die Fluxion der Höhe kennen wir aber schon: y˙ = −gx/x. ˙ Sie ist dort null, wo auch x null ist, was bedeutet, dass der waagrecht geschossene Pfeil seine größte Höhe am Abschussort hat. Newton wäre nicht Newton gewesen, hätte er nicht auch das tiefste Geheimnis zutage gefördert, nämlich dass die Ermittlung der Tangentensteigung und die Ermittlung der Fläche zueinander inverse Vorgänge sind. Wie wir soeben gesehen haben, sind Steigung und Fluxion verwandt; sie beschreiben die Änderung einer Größe. Ebenso sind Fläche und Fluente verwandt, und zwar als Akkumulation von Änderungen. Daher entspricht die Ermittlung der Tangenten-

54

W. Tschirk

steigung dem Bestimmen der Fluxion aus der Fluente und die Ermittlung der Fläche dem Bestimmen der Fluente aus der Fluxion. Als Newton das alles niedergeschrieben hatte, war er kaum älter als dreißig. Als er begann, es zu publizieren, war er zweiundsechzig: 1704 erschien De quadratura curvarum, 1711 Methodus differentialis. Die umfassende Abhandlung Methodus fluxionum et serium infinitorum wartete gar fünfundsechzig Jahre auf ihren Druck und wurde erst nach dem Tod des Autors bekannt. Vor der Quadratura hatten nur Personen aus Newtons engstem Kreis Zugang zu seinem Wissen gehabt. Ob es Geheimniskrämerei war oder einfach Nachlässigkeit – diese dreißig Jahre kosteten Newton die Priorität an der Erfindung des Calculus. Denn in der Zwischenzeit war Leibniz mit ähnlichen Gedanken auf den Plan getreten. Sein Novus methodus pro maximis et minimis, itemque tangentibus verzichtet auf das Konzept der Bewegung und stellt die statische Kurve in den Mittelpunkt. Leibniz führte die unendlich kleinen Differenzen, die Differentiale, ein; an die Stelle des Differenzenquotienten y/x, der immer nur eine Näherung für die tatsächliche Steigung der Tangente war, trat nun der Differentialquotient dy/d x, der sie exakt wiedergab. Das begriffliche Problem der unendlich kleinen Größen löste Leibniz pragmatisch, indem er vorschlug, sie einfach hinzunehmen als die kleinsten vorstellbaren Dinge, gerade noch nicht null; als Werkzeug, mit dem sich arbeiten lässt. Leibniz gab elementare Rechenregeln für Differentiale an und entwickelte aus ihnen den Calculus differentialis, den er 1684 veröffentlichte und der es erlaubt, zu jeder Funktion, die eine Kurve beschreibt, eine Funktion zu finden, die die Steigung der Tangente beschreibt. Unter einer Funktion verstand man den gesetzmäßigen Zusammenhang zweier Größen: y ist eine Funktion von x, wenn es sich durch eine Formel ausdrücken lässt, in der x vorkommt, beispielsweise durch ein

4 Von Differential und Integral

55

Polynom: y = x 3 + 1, durch den Sinus: y = sin x, den Logarithmus: y = log x oder eine Kombination solcher Elemente. Zu jedem Wert des Argumentes x gibt es dann einen Funktionswert y, und jedes Wertepaar (x, y) bestimmt einen Punkt im kartesischen Koordinatensystem. Die Punkte zeichnen eine Kurve; und diese hat in jedem Punkt – und daher für jedes x – eine Tangente, deren Steigung von x abhängt und, Leibniz zufolge, als Funktion von x betrachtet werden kann. Durch das Zulassen unendlich kleiner Differenzen konnte man erstmals von der Steigung der Kurve selbst sprechen, die sich trotz Kurvenkrümmung in der unendlich kleinen Umgebung eines Punktes nicht ändert. Die Funktion, die die Steigung einer Kurve angibt, nennen wir heute erste Ableitung der Kurve. Fasst man sie selbst wieder als Kurve auf, so kann man auch ihr eine Steigungsfunktion zuordnen, die zweite Ableitung, usw. Für die zweiten Differentiale schrieb Leibniz „dd x“ und „ddy“; und er hielt fest, dass am Wendepunkt einer Kurve, also dort, wo sich der Krümmungssinn ändert, ihre zweite Ableitung den Wert null annimmt. Wie Newton erkannte auch Leibniz, dass die Bestimmung der Fläche „darauf reduziert werden kann, eine Kurve zu finden, die ein gegebenes Gesetz für die Tangenten besitzt“, dass also die Berechnungen von Steigung und Fläche invers zueinander sind. Über die Quadratur berichtet sein Calculus summatorius von 1686. Wenn die Ableitung einer Funktion wieder eine Funktion sein kann, dann sollte das auch für die Umkehrung der Ableitung gelten, die Leibniz später als Integral bezeichnete. Neben der zahlenmäßigen Bestimmung der Fläche zwischen zwei festen Grenzen, dem bestimmten Integral, gibt es also auch das unbestimmte, nämlich die Fläche als Funktion der Kurve und der Grenzen selbst. Unbestimmte Integrale tauchten zum ersten Mal in einer Schrift von Leibniz aus dem Jahr 1694 auf.

56

W. Tschirk

Die Differential- und Integralrechnung unserer Tage geht auf die leibnizsche zurück, während Newtons Fluxionen auf sie keinen Einfluss hatten. Das liegt zuerst daran, dass Leibniz’ Ansatz der allgemeinere, rein mathematische ist, während in Newtons Methode die Physik durchschimmert, und dass Leibniz für einen klaren formalen Aufbau sorgte, während Newtons Beispiele ein wenig nach Kochbuch klingen. Es ist aber auch eine Folge des Zorns, den Leibniz’ Aufsätze in England hervorriefen, wo doch alle Welt wusste, dass der Calculus auf der Insel erfunden worden war und Leibniz und Newton zur fraglichen Zeit Briefe gewechselt hatten. In ihrem Trotz weigerten sich die Briten, mit dem Kontinent in Gedankenaustausch zu treten, und Newton schwieg, von Seitenhieben auf den Deutschen abgesehen, erst recht, so dass seine Ideen jahrzehntelang isoliert blieben. Leibniz nahm die Sache gelassen – schließlich war er Philosoph – und hütete sich davor, den Streit anzuheizen – schließlich war er von Beruf Diplomat. Er gab bereitwillig zu, aus seiner Korrespondenz mit Newton Anregungen empfangen zu haben, der Rest sei sein eigenes Werk gewesen; was angesichts der Verschiedenheit seiner Methode von der newtonschen auch kaum jemand bezweifeln kann. ∗∗∗∗∗ Der Calculus hatte zu einer vollkommen neuen Art von Gleichungen geführt, den Differentialgleichungen. Sie drücken die Beziehungen zwischen Größen und deren Ableitungen aus; zwischen Fluenten und Fluxionen, wie Newton sagen würde. Der entscheidende Unterschied zu gewöhnlichen Gleichungen liegt aber in der Form der Lösungen: Während die Lösung einer gewöhnlichen Gleichung eine Zahl ist, ist die Lösung einer Differentialgleichung eine Funktion. Aus Galileis Gesetzen für den Flug des Pfeiles folgt die Differentialgleichung dy/d x = −gx/v 2 ; als deren Lösung

4 Von Differential und Integral

57

haben wir die Formel y = −gx 2 /2v 2 erhalten, die die Bahn beschreibt. Hier erscheint y, die Flughöhe, als Funktion von x, der horizontalen Entfernung vom Ort des Abschusses. Differentialgleichungen finden wir überall: Wenn Tee abkühlt, wird die Änderung seiner Temperatur von der Temperatur selbst beeinflusst; ist er viel heißer als die Umgebung, kühlt er schnell ab, ist er nur wenig wärmer, dann langsamer. Schreibt man das als Differentialgleichung, so gibt deren Lösung den zeitlichen Verlauf der Temperatur an. Die Kraft, die ein Pendel treibt, hängt mit dessen Auslenkung zusammen; die Lösung der entsprechenden Differentialgleichung ist eine Schwingungsfunktion. Wie rasch die Erdbevölkerung wächst, hängt von ihrer Größe ab; die Lösung ist eine Wachstumskurve. Wird ein knappes Gut stark nachgefragt, dann wird es teurer werden, was wiederum die Nachfrage senkt; die Lösung ist eine Preiskurve. Eine besondere Art von Problemen verbirgt sich hinter der scheinbar einfachsten aller geometrischen Aufgaben: Finde die kürzeste Verbindung zweier Punkte. Natürlich kennt jeder die Lösung, aber sie zu beweisen ist eine andere Sache. Da man nicht der Reihe nach für jede denkbare Kurve, die durch die beiden Punkte geht, zeigen kann, dass sie länger ist als die gerade Strecke, muss man sich etwas Schlaueres einfallen lassen, wie Leibniz’ Schüler Johann Bernoulli aus Basel. Er drückte die zu minimierende Länge L durch die Koordinaten und ihre Differentiale aus sowie durch einen weiteren Parameter, der am Minimalpunkt von L einen bestimmten Wert annimmt und dessen geringe Variation an dieser Stelle L nicht ändert. So erhielt er eine Differentialgleichung mit der gesuchten Funktion, im gegenständlichen Beispiel der Funktion einer Geraden, als Lösung. Das ist die Technik der Variationsrechnung, die später JosephLouis Lagrange vervollkommnen und die in der Physik eine tragende Rolle spielen sollte. Als Kind der Zeit konnte es sich Bernoulli nicht verkneifen, seine Erfindung dadurch

58

W. Tschirk

unter die Kollegen zu bringen, dass er diese – die „scharfsinnigsten Mathematiker, die auf dem ganzen Erdkreis blühen“ – mit einem Rechenbeispiel herausforderte: Man verbinde einen höher und einen tiefer gelegenen Punkt derart, dass ein Körper so wenig Zeit wie möglich braucht, um entlang der Verbindung vom einen zum anderen zu gleiten. Zu Ostern 1697 waren vier richtige Antworten eingelangt: von Leibniz, Johanns Bruder Jakob, seinem Schüler Guillaume François Antoine de l’Hospital und eine vierte, anonyme, mit einem englischen Stempel auf dem Umschlag. Der Legende nach musste Bernoulli nur einen Blick auf den Inhalt werfen, um zu wissen, woran er war: „Ich erkenne den Löwen an seiner Pranke!“ Gemeinsam mit de l’Hospital gab Bernoulli das erste Lehrbuch des Calculus unter dem programmatischen Titel Analyse des infiniment petits heraus, lange Zeit das Standardwerk und erst 1748 abgelöst durch die Introductio in analysin infinitorum von Leonhard Euler, einem Schüler Bernoullis. Euler war wohl der fleißigste Gelehrte aller Zeiten, was das Schreiben betrifft: Seine Abhandlungen umfassen beinahe neunhundert Titel, darunter viele dicke Bücher, betreffend Zahlentheorie, Algebra und Analysis, Mechanik der Massepunkte und der Körper, Himmelsmechanik, Hydraulik, Optik, Musiktheorie, Schiffskonstruktionen, Lebenserwartung und die Chance, im Lotto zu gewinnen. Die Introductio enthielt für die Analysis, wie Euklids Elemente für Zahlentheorie und Geometrie, eine Zusammenschau der bisherigen Resultate in neuer Ordnung und aus einem durchgehenden Gedankengang entwickelt. Mit einer Fülle an Schriften allein zur Mathematik hat Euler nicht nur deren Substanz, sondern auch ihr Erscheinungsbild geprägt, denn seine Notation, zweckmäßig und überall präsent, drang ins Bewusstsein  zweier Generationen. Er übernahm das Integralsymbol „ “ von Leibniz, √ führte das Summenzeichen „“ ein, das „i“ für die −1, das „π“ für die Kreiszahl und die Funkti-

4 Von Differential und Integral

59

onsschreibweise „ f (x)“. Von den vielen mit seinem Namen verbundenen Begriffen am bekanntesten ist die eulersche Zahl e, die uns schon als Basis des natürlichen Logarithmus begegnet ist und in den verschiedensten Zusammenhängen eine fast magische Rolle spielt: Beispielsweise ist die Ableitung der Funktion e x selbst wieder e x , und die geometrische Darstellung komplexer Zahlen durch Betrag und Winkel basiert ebenso auf Eulers Zahl wie die Normalverteilung der Wahrscheinlichkeitsrechnung. Anders als Leibniz betrachtete Euler die unendlich kleinen Größen wirklich als null, was das Rechnen mit ihnen aber nicht behindern sollte, solange man sich auf ihre gegenseitigen Beziehungen beschränkt. Mit Euler ging die Gründerepoche der Analysis zu Ende, in deren Verlauf die Differential- und Integralrechnung zu einem mächtigen Werkzeug geworden war. Zum ersten Mal hatte man die Planetenbahnen exakt berechnen und sogar mit einer universellen Kraft, der Gravitation, begründen können; das Drehen von Kreiseln, das Schwingen von Saiten, die Zustände von Flüssigkeiten und Gasen auf mathematischem Wege beschreiben und die Gesetze der Strahlenoptik aus dem Prinzip der kleinsten Laufzeit gewinnen. Noch erstaunlicher wird die Leistungsfähigkeit der Differential- und Integralrechnung im Licht der Tatsache, dass weder die, die sie entwickelten, noch die, die sie anwandten, klar sagen konnten, was sie hier eigentlich taten. Beim Differenzieren arbeiteten sie mit unendlich kleinen Größen, von denen manche glaubten, sie wären null, manche nicht. Beim Integrieren summierten sie unendlich viele Terme und gelangten dennoch zu einem endlichen Resultat. Die Methoden konnten so falsch nicht sein, dazu waren sie zu gut – nur wusste keiner, was an ihnen richtig war. Es hatte sich aber ein Weg aufgetan, der über Folgen, Reihen und ihre Grenzwerte führte. Die Steigung einer Kurve kann man ansehen als Grenzwert einer Folge von Quotienten y/x, deren x gegen null geht, und die Fläche

60

W. Tschirk

unter einer Kurve als Grenzwert von Summen über Produkte y x, deren Anzahl gegen unendlich und deren x gegen null strebt. Ableitung und Integral sind dann nicht Funktionen unendlich kleiner Größen, sondern Grenzwerte von Folgen, wobei eine Folge von Summen, wie sie dem Integral zugrunde liegt, auch Reihe genannt wird. Der Erste, der den Grenzwert als Schlüssel zu einer widerspruchsfreien Differential- und Integralrechnung erkannte, war Jean le Rond d’Alembert um 1750. Ein halbes Jahrhundert später gingen Gauß und Bolzano der Frage nach, wann eine unendliche Folge oder Reihe einen Grenzwert hat und wann nicht. Die Folge 1/2, 1/3, 1/4, · · · hat den Grenzwert null, hingegen wächst die Folge 1, 2, 3, · · · unbeschränkt und hat keinen Grenzwert. Folgen und Reihen mit Grenzwert heißen konvergent, solche ohne Grenzwert heißen divergent. Die Reihe 1/2 + 1/4 + 1/8 + · · · konvergiert gegen eins, die Reihe 1 − 1 + 1 − · · · divergiert. 1821 gab Augustin Louis Cauchy in seinem Cours d’analyse erste Konvergenzkriterien an: Regeln, mit denen man feststellen kann, ob eine Folge oder Reihe konvergiert. Schärfer als der Begriff der Konvergenz ist jener der absoluten Konvergenz: Eine Reihe a1 + a2 + a3 + · · · heißt absolut konvergent, wenn die Reihe der Absolutwerte |a1 |+|a2 |+|a3 |+· · · konvergiert. Nun kamen Gründe für manches falsche Resultat der Vergangenheit ans Tageslicht: Nur bei konvergenten Reihen kann man die Summanden beliebig durch Klammern zusammenfassen, ohne damit die Summe zu verändern, und nur absolut konvergente Reihen behalten sicher ihren Grenzwert, wenn man die Reihenfolge der Glieder ändert. Der Grenzwertbegriff löste auch das Rätsel um Achilles, der die Schildkröte nicht einholen kann, weil diese jedesmal, sobald er ihren Ausgangspunkt erreicht hat, schon wieder ein Stück weiter ist. Mit diesem Beispiel hatte Zenon von Elea den Widerspruch zeigen wollen, der sich aus der Annahme einer unendlichen Teilbarkeit des Raumes ergibt. Das Para-

4 Von Differential und Integral

61

doxon verschwindet aber, wenn man weiß, dass eine unendliche Anzahl von Strecken, deren jede um denselben Faktor kürzer ist als die vorhergegangene, sich zu einer endlichen Gesamtstrecke addieren: jener, nach deren Durchlaufen die Schildkröte erreicht ist. Der Begriff der Funktion wurde neu und weit gefasst: Dirichlet zufolge liegt eine Funktion vor, wenn jeweils einem Wert x ein wohlbestimmter Wert y entspricht. Diese Definition umschließt nicht nur alles, was bis dahin als Funktion angesehen wurde, sondern auch Zusammenhänge wie: y ist eins, wenn x rational ist, und andernfalls null, was einen Graphen ergibt, der ständig zwischen null und eins hinund herspringt. Dass ein solcher keine Tangente hat, leuchtet ebenso ein, wie dass unter ihm keine Fläche zu finden ist. Denn wo sich der Funktionswert plötzlich ändert, also einen Sprung macht, gibt es keine Tangente – die Funktion ist dort nicht differenzierbar. Und besteht sie, wie die soeben beschriebene, aus nichts als Sprungstellen, so hat sie keine Fläche – und ist nicht integrierbar. Das wichtigste Resultat dieser Aufarbeitung der Analysis war der Beweis der seit Newton und Leibniz bekannten Tatsache, dass das Integrieren die Umkehrung des Differenzierens ist und vice versa: Das Integral der Ableitung einer Funktion ergibt wieder die Funktion, und Gleiches gilt für die Ableitung ihres Integrals. Nun hatte auch die Analysis ihren Fundamentalsatz. Zudem erfuhr sie drei wertvolle Verallgemeinerungen. Erstens nahmen Cauchy, Riemann und Weierstraß die komplexen Zahlen hinzu, was nicht nur neue Resultate erschloss, sondern auch ähnlich reinigend wirkte wie in der Algebra: Die Ausnahmen verschwanden. Erinnern wir uns an den Fundamentalsatz der Algebra, dass jedes Polynom n-ten Grades n Nullstellen hat; das gilt nicht in der reellen Algebra, sondern erst nach Einschluss der komplexen Zahlen. In der reellen Analysis wiederum kann es vorkommen, dass eine

62

W. Tschirk

Funktion differenzierbar ist, ihre Ableitung aber nicht mehr; man sagt dann, die Funktion sei einmal differenzierbar. Ist auch die Ableitung differenzierbar, deren Ableitung jedoch nicht mehr, dann heißt die Funktion zweimal differenzierbar usw. Wie oft eine Funktion differenzierbar ist, kann man nicht von vornherein wissen. In der komplexen Analysis aber ist jede Funktion entweder gar nicht differenzierbar oder beliebig oft. Zweitens kamen zum althergebrachten Integralbegriff, der Approximation von Flächen durch Rechtecke, abstraktere hinzu, mit denen auch solche Funktionen integrierbar werden, bei denen die herkömmliche Methode versagt. Zum Beispiel kann die vorhin erwähnte Funktion, die für rationale x den Wert eins und für irrationale den Wert null liefert, nicht auf konventionelle Weise integriert werden, wohl aber nach einer Definition von Henri Lebesgue aus dem Jahr 1901. Drittens übertrug man die neu gewonnene Strenge von Funktionen einer Variablen auf Funktionen mehrerer. Wie der Druck eines Gases von Menge, Volumen und Temperatur abhängt, ist beinahe jede in der Natur beobachtbare Größe eine Funktion mehrerer anderer. Lassen wir Menge und Volumen des Gases konstant und erhöhen die Temperatur um T , wird der Druck um p steigen: Die Änderung des Druckes mit der Temperatur ist p/T . Lässt man hier T gegen null gehen, erhält man die partielle Ableitung des Druckes nach der Temperatur, ∂ p/∂ T . Diese Schreibweise drückt aus, dass p nicht nur von T abhängt, die Änderung von p jedoch als Folge der alleinigen Änderung von T betrachtet wird, während die anderen Einflussgrößen konstant bleiben. Ebenso kann man mittels partieller Ableitungen angeben, was passiert, wenn sich Menge allein oder Volumen allein oder mehrere Größen zusammen ändern. Mechanismen, in denen partielle Differentiale eine Rolle spielen, finden ihren Ausdruck in partiellen Differentialgleichungen;

4 Von Differential und Integral

63

diese regieren beispielsweise die Physik alles dessen, was sich, sieht man von der Feinstruktur ab, kontinuierlich im Raum verteilt: Materie, Strahlung, Feld, und hatten nun eine gleich solide Begründung erhalten wie ihre eindimensionalen Gegenstücke. ∗∗∗∗∗ Kaum war man die unendlich kleinen Größen losgeworden, kam Abraham Robinson und führte sie wieder ein. In seiner Nichtstandard-Analysis von 1966 gibt es infinitesimale Zahlen: nicht null, aber kleiner als jede reelle Zahl, also unendlich klein wie Leibniz’ Differentiale. Mit ihrer Hilfe kann man hyperreelle Zahlen definieren. Eine hyperreelle Zahl besteht aus zwei Teilen, einem reellen Standardteil und einem infinitesimalen Nichtstandardteil, wobei die Rechenregeln der reellen Zahlen auch auf die hyperreellen übertragbar sind. Nun braucht man für die Ableitung einer Funktion keinen Grenzwert mehr: Man bildet einfach y/x mit einem infinitesimalen x; der Quotient ist hyperreell, und sofern sein Standardteil endlich ist, gibt dieser die Steigung der Tangente an. Auch das Integral ist hier kein Grenzwert, sondern der Standardteil einer Summe über Rechteckflächen infinitesimaler Breite. Neben den unendlich kleinen Zahlen gibt es in der Nichtstandard-Analysis auch unendlich große: infinite; solche, die größer sind als jede reelle Zahl. Spätestens hier kommen wir um die Frage nicht herum, was es heißt: „Es gibt“ diese Zahlen. Erinnern wir uns daran, dass man gegen Ende des neunzehnten Jahrhunderts die natürlichen Zahlen axiomatisch eingeführt hat. Sämtliche anderen Zahlen wurden aus ihnen gewonnen, und zwar durch schrittweise Konstruktion: erst die ganzen, dann die rationalen und schließlich die reellen. Von diesen führt nun ein weiterer Schritt zu den Zahlen der Nichtstandard-Analysis, die es im selben Sinne gibt

64

W. Tschirk

wie ihre Vorgänger: Man kann ohne Widerspruch mit ihnen operieren. Allerdings muss man dazu auf das archimedische Axiom verzichten, demzufolge zu jeder beliebig großen Zahl eine noch größere natürliche Zahl existiert; denn dieses wird von den infiniten und indirekt auch von den infinitesimalen Zahlen verletzt. Das archimedische Axiom ist uns aber so in Fleisch und Blut übergegangen, dass wir es für eine Denknotwendigkeit halten, während es in Wirklichkeit eine bloße Festlegung ist. Reelle Zahlen sind archimedisch, hyperreelle eben nicht. Wir haben die reellen Zahlen mit der Zahlengeraden identifiziert und dabei angenommen, jedem Punkt auf ihr entspreche eine reelle Zahl und umgekehrt. Man nennt dies das Standardmodell der Zahlengeraden. Ihr Nichtstandardmodell erhält man, wenn man jedem Punkt eine hyperreelle Zahl zuordnet und umgekehrt. Dabei kommen die reellen Zahlen wieder vor, denn eine reelle Zahl kann man ansehen als eine hyperreelle, deren Nichtstandardteil null ist. Doch zwischen ihnen liegen nun die anderen hyperreellen, und das zeigt, dass ein eindimensionales Kontinuum von Punkten nicht zwangsläufig genau die reellen Zahlen abbildet. Mit Robinsons Theorie ist die Mathematik wieder zu Leibniz’ Ideen zurückgekehrt. Die Nichtstandard-Analysis bringt das, zufällig oder absichtlich, in einer besonderen Bezeichnung zum Ausdruck: Die infinitesimale Umgebung einer reellen Zahl heißt nämlich ihre „Monade“, nach dem zentralen Begriff der leibnizschen Welterklärung: der einfachen, ausdehnungslosen und unteilbaren Substanz, dem „lebendigen, immerwährenden Spiegel des Universums“.

5 Von den Räumen

Blicken wir an dieser Stelle zurück auf die Hauptpersonen, so finden wir unter ihnen wenige, die man kennen würde, weil sie Mathematiker waren. Nur Pythagoras, Euklid und vielleicht noch Euler, Fermat und Gauß können das für sich beanspruchen. Die anderen sind entweder unbekannt oder man hat sie aufgrund ihrer sonstigen Verdienste in Erinnerung: Aristoteles, Platon, Descartes und Leibniz als Philosophen, Archimedes und Newton als Physiker. Die Physik hat Galilei, Newton und Faraday; Boltzmann, Planck und Curie; Rutherford, Bohr, Schrödinger und Heisenberg, von Einstein ganz zu schweigen; und zählt man noch die Astronomie hinzu, dann auch Ptolemäus, Kopernikus und Kepler sowie Halley und Hubble, Namenspatrone eines Kometen und eines Weltraumteleskops. In Simmons’ Who is Who der Wissenschaften finden sich unter hundert Porträtierten dreißig Physiker, zwanzig Chemiker und zehn Ärzte, aber nur zwei reine Mathematiker. Kein Wort über Abel und Galois, die die moderne Algebra begründeten, keines über die © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_5

65

66

W. Tschirk

Entdecker der nichteuklidischen Geometrien, Lobatschewski, Bolyai und Riemann; keine Spur von Cantor, dem Pionier der Mengenlehre, keine von Russell, der im zwanzigsten Jahrhundert die Mathematik auf die Logik gründete, keine von Gödel, der wenig später die Grenzen dieses Fundamentes aufzeigte. Von Anfang an war die Mathematik nicht eine Domäne der Spezialisten, und als sie es im neunzehnten Jahrhundert wurde, verstand sie sonst keiner mehr. Daher rühren die Häufung der Philosophen und Naturwissenschaftler unter den Mathematikern der Frühzeit und die Namenlosigkeit ihrer modernen Vertreter. An dieser späten Emanzipation der Mathematik als unabhängige Wissenschaft liegt es auch, dass sie in der Ära von Newton und Leibniz noch lange keine eigene Zeitschrift besaß und ihre Resultate meist im Zusammenhang mit deren Anwendungen präsentierte. Leibniz veröffentlichte seinen Calculus in der 1682 gegründeten Acta Eruditorum, Deutschlands erster wissenschaftlicher Zeitschrift, die nach dem Vorbild der Philosophical Transactions und des Journal des Sçavans Beiträge zu verschiedenen Wissenschaften enthielt. Die Sprache der Gelehrten war Latein, weswegen viele Wissenszweige der Neuzeit Namen lateinischen Ursprungs tragen: die Differential- und Integralrechnung, später zusammengefasst als Infinitesimalrechnung; der Kalkül, der sich vom Calculus ableitet und heute allgemeiner für systematisches Schließen steht; die Analysis, welche die Infinitesimalrechnung und verwandte Gebiete umfasst. Im Gegensatz dazu stammen die alten Wörter „Arithmetik“ und „Geometrie“ aus dem Griechischen und „Algebra“ aus dem Arabischen. Die Namen der Protagonisten sagen uns, dass ab dem siebzehnten Jahrhundert Franzosen, Deutsche und Briten die Szene beherrschten. Im achtzehnten Jahrhundert gewann die Mathematik im Lehrplan der Gymnasien an Gewicht, wobei man die Theorie hervorhob. Auf den drei

5 Von den Räumen

67

Säulen Griechisch, Latein und Mathematik ruhte das Bildungsideal der Zeit. Die Industrialisierung des neunzehnten Jahrhunderts brachte einen neuen Typus von Lehranstalten mit sich: Nach dem Vorbild der 1794 in Paris gegründeten École Polytechnique entstanden die technischen Hochschulen; eine der ersten öffnete 1815 in Wien ihre Pforten. Naturwissenschaft und Technik bedienten sich der Mathematik zunehmend als Werkzeug, ohne sie weiterzuentwickeln, und so löste sich die reine Mathematik, deren Pflege den Grundlagenfakultäten überlassen blieb, von ihren Anwendungen. Der Titel der vielleicht ersten Mathematik-Zeitschrift überhaupt offenbart diese Zweiteilung: Journal für die reine und angewandte Mathematik, ab 1826 von August Crelle in Berlin herausgegeben. 1868 folgten die Mathematischen Annalen und im selben Jahr das Jahrbuch über die Fortschritte der Mathematik. Während Differential- und Integralrechnung stets mit naturwissenschaftlichen Fragen verknüpft waren, gehört der Gegenstand dieses Kapitels zu großen Teilen der reinen Mathematik an. In seiner Einführung in die lineare Algebra und Geometrie von 1976 schlägt der Österreicher Johann Cigler einen intuitiven Zugang zur Mathematik vor und führt diesen am Beispiel der Geometrie durch: Zuerst stellen wir uns auf den empirischen Standpunkt, der dreidimensionale Raum sei gegeben, und man müsse geometrische Objekte nicht definieren, sondern bloß beschreiben. Dabei stoßen wir auf ein für die Mathematik typisches Phänomen: Entfernt man vom mathematischen Modell der anschaulichen Situation das „überflüssige Beiwerk“, also die Einschränkungen des speziellen Falles, so weist es über diesen hinaus. Wir wissen seit Descartes, dass jeder Punkt der Ebene durch zwei Koordinaten bestimmt wird und jeder Punkt des Raumes durch drei. In dieser Darstellung lassen sich geometrische Objekte durch Gleichungen beschreiben. So beschreibt x 2 + y 2 = r 2 einen Kreis mit Radius r um den Nullpunkt

68

W. Tschirk

des zweidimensionalen ebenen Koordinatensystems. Nimmt man die dritte Dimension dazu, gelangt man zur Kugel, die durch x 2 + y 2 + z 2 = r 2 gegeben ist. Nun können wir die Einschränkung auf eine bestimmte Dimension fallenlassen, stattdessen eine unbestimmte Anzahl n von Koordinaten x1 , x2 , · · · , xn annehmen und x12 + x22 +· · ·+ xn2 = r 2 als Gleichung einer n-dimensionalen Kugel sehen. Der Vorteil einer solchen Sprechweise ist, dass sie Assoziationen weckt, durch die sich viele Probleme mühelos durchschauen und lösen lassen. Der Nachteil ist, dass man sich als ihr Verfechter eine blaue Nase holen kann, wenn man an einen Nichtmathematiker gerät. Noch 1874 sah der Philosoph Rudolph Lotze in vier- oder fünfdimensionalen Räumen „Grimassen der Wissenschaft“, gegen die man sich wehren müsse, wobei er sich vor allem daran stieß, dass man solche Objekte Räume nannte. Natürlich wird das Wort „Raum“ hier nicht im Sinne der Physik verwendet und ist daher ungefährlich. Abgesehen davon hat der Verhaltensforscher Konrad Lorenz erkannt, dass die dreidimensionale Raumerfahrung des Menschen seiner Evolution entstammt und mit der Wirklichkeit so viel zu tun hat wie die eindimensionale des Pantoffeltierchens. Seit Einstein sind Beschreibungen der Wirklichkeit in vier Dimensionen möglich, und die moderne Physik ist weiteren auf der Spur. Wir haben im vorigen Absatz einen Kreis mit einer Gleichung zweier Variabler, x und y, identifiziert. Nehmen wir eine zweite Gleichung hinzu, beispielsweise die einer Geraden. Nun haben wir zwei Gleichungen, und die Lösung dieses Systems sind alle Paare (x, y), für die beide Gleichungen stimmen. Als reines Rechenbeispiel hat das wenig Reiz; geometrisch interpretiert aber sind die Lösungen all jene Punkte, die sowohl auf dem Kreis als auch auf der Geraden liegen – die Schnittpunkte der beiden Figuren. Hier sieht man sofort, welche Möglichkeiten es gibt: Entweder geht die Gerade am Kreis vorbei, dann gibt es keine Lösung;

5 Von den Räumen

69

oder sie berührt ihn, dann gibt es genau eine, bestehend aus einem Wert x und einem Wert y, den Koordinaten des Berührungspunktes; oder sie schneidet ihn in zwei Punkten. Haben wir nicht zwei Variable, sondern viele und dementsprechend einen höherdimensionalen Raum, eventuell auch viele Gleichungen, gilt dieselbe Überlegung: Immer besteht die Lösung eines Gleichungssystems aus den gemeinsamen Punkten aller durch die Gleichungen beschriebenen Figuren, ihrem Schnitt. Klarerweise ändert sich am Schnitt von Figuren nichts, wenn diese gemeinsam gedreht oder verschoben werden. Man kann daher ein Gleichungssystem unbeschadet in eine Form bringen, in der es sich leicht lösen lässt, sofern die dazu nötigen Umformungen die relative Lage der Figuren bewahren. Die Geometrisierung der Algebra, verbunden mit der Einführung beliebigdimensionaler Räume, ist also einerseits Abstraktion, erlaubt aber andererseits das bildhafte Erfassen von Problemen, die als Rechenaufgabe weit undurchsichtiger wären. Der erste, der über n-dimensionale Räume schrieb, war der Philologe Hermann Graßmann. Sein 1844 erschienenes Buch über die „Ausdehnungslehre“, in nichtmathematischem Stil verfasst und schwer lesbar, blieb unbeachtet, und auch die überarbeitete Version von 1862 fand wenig Resonanz. Erst 1888 formalisierte Peano die Theorie der Vektorräume durch ein noch heute gültiges System von Axiomen. Darin werden Vektoren definiert als Größen, die sich addieren und mit gewöhnlichen Zahlen multiplizieren lassen. Diese Operationen sind so allgemein, dass sie auch auf Objekte angewandt werden können, die wir mit Vektoren nicht in Verbindung bringen würden; beispielsweise bilden auch die komplexen Zahlen, die Polynome und große Klassen von Funktionen Vektorräume. Zentraler Begriff der Theorie der Vektorräume – der linearen Algebra – ist die lineare Abbildung: die Umwandlung eines Vektors in einen anderen, sein Bild, bei der die

70

W. Tschirk

Summe zweier Vektoren in die Summe ihrer Bilder übergeführt wird und das Vielfache eines Vektors in das Ebensovielfache seines Bildes. Gewisse lineare Abbildungen können als Drehungen oder Maßstabänderungen des Koordinatensystems verstanden werden; sie ändern die Raumdimension nicht und lassen sich durch eine inverse Abbildung rückgängig machen. Andere sind Projektionen von einem Raum in einen anderen, niedrigerdimensionalen, analog zum Schattenwurf eines Gegenstandes an die Wand; und wie man aus einem Schatten allein nicht den Gegenstand rekonstruieren kann, der ihn geworfen hat, kann man lineare Abbildungen, die die Dimension reduzieren, nicht umkehren. Rechnerisch entspricht jede lineare Abbildung der Multiplikation mit einer Matrix, einem Schema von Koeffizienten, für dessen Eigenschaften sich Arthur Cayley und James Joseph Sylvester um 1850 zu interessieren begannen. Da nicht nur jeder linearen Abbildung, sondern auch jedem System linearer Gleichungen eine Matrix zugeordnet werden kann, begegnen uns Matrizen an allen Ecken und Enden. In der angewandten Mathematik dienen sie so verschiedenen Zwecken wie der Zerlegung eines Klanges in seine Frequenzkomponenten, dem Errechnen von Populationsgleichgewichten in biologischen Systemen oder dem Auffinden statistischer Zusammenhänge in beliebigen Daten. Lineare Abbildungen konstituieren selbst wieder Vektorräume. Von spezieller Bedeutung sind jene Abbildungen, deren Werte im Eindimensionalen liegen, die also einen Vektor in eine Zahl umrechnen; man nennt sie Linearformen. Die Linearformen über einem Vektorraum V , also jene mit einem Vektor von V als Argument, bilden den Dualraum V ∗ : einen Vektorraum von derselben Dimension wie V , bestehend aus Linearformen. Zu jedem Vektor in V gibt es eine Linearform in V ∗ und umgekehrt, wobei die Entsprechung von Vektoren und Linearformen eine Verallgemeinerung der Dualität von Punkten und Geraden ist, die wir schon aus der

5 Von den Räumen

71

Geometrie kennen. Noch allgemeiner als Linearformen sind Multilinearformen, die als Argumente nicht einen Vektor haben, sondern mehrere Vektoren aus möglicherweise verschiedenen Vektorräumen, und deren Funktionswerte wiederum einfache Zahlen sind. Solche Abbildungen heißen Tensoren. Unter Physikern hat es sich eingebürgert, nicht die Abbildung selbst, sondern ihr Koeffizientenschema als Tensor zu bezeichnen, und damit nähern wir uns der Antwort auf die Frage, wozu man das alles braucht. Wie wir wissen, kam man durch Verzicht auf Euklids Parallelenpostulat zum gekrümmten Raum. Die Krümmung beeinflusst den Abstand zweier Punkte im Raum, und in der Berechnung dieses Abstandes kommt ein Tensor vor. Das veranlasste Gregorio Ricci-Curbastro und Tullio Levi-Civita zur Entwicklung des Tensorkalküls, der um 1900 vorlag – gerade zur rechten Zeit, denn bald darauf begann in Einsteins Kopf die allgemeine Relativitätstheorie zu reifen, deren Feldgleichungen Masseverteilung und Raumzeitgeometrie über eine Tensorbeziehung verknüpfen. ∗∗∗∗∗ Den Begriff der Dimension haben wir bisher, ohne viel nachzudenken, in seiner anschaulichen Bedeutung verwendet. Bei Euklid gehörte die Dimension zum geometrischen Objekt: Ein Punkt hat keine Ausdehnung, also keine Dimension; eine Strecke hat eine Dimension oder die Dimension eins, was dasselbe besagt; eine Fläche hat zwei, ein Körper drei. Bei Descartes gehörte die Dimension zum Raum: Sie gibt die Anzahl der Koordinaten an, die man braucht, um einen Punkt in ihm zu beschreiben. An diese Auffassung knüpft die Theorie der n-dimensionalen Räume: Ein Sachverhalt, der durch Angabe von n Zahlen präzisiert ist, kann mit einem Punkt im n-dimensionalen Raum gleichgesetzt werden.

72

W. Tschirk

1877 fand der Deutsche Georg Cantor einen Weg, mehrere Zahlen in eine zu verwandeln, aus der man die ursprünglichen wieder herstellen kann. Machen wir das als Beispiel mit den Zahlen 0,23 und 0,594: Wir schreiben die jeweils erste Dezimalstelle, 2 und 5, der Reihe nach hinter das Komma und erhalten 0,25; dann fügen wir die jeweils zweite Stelle an: 0,2539; zuletzt folgt die jeweils dritte: 0,253904. Aus diesem Ergebnis – einer einzigen Zahl – lassen sich durch Umkehrung des Vorganges die ursprünglichen Zahlen wiedergewinnen, und wären es nicht zwei gewesen, sondern beliebig viele, würde dasselbe gelten. Man kann also jeden Punkt durch eine einzige Koordinate darstellen, unabhängig von der Dimension des Raumes, in dem er liegt. Daher kann die Dimension nicht einfach die Anzahl notwendiger Koordinaten sein. Neben Euklids und Descartes’ Definitionen führt noch ein weiterer Weg zur Dimension: Misst man die Länge einer Strecke, so muss man den Maßstab eine gewisse Anzahl von Malen anlegen; verkürzt man den Maßstab um den Faktor k, dann muss man ihn k-mal so oft anlegen. Misst man eine Fläche mit einem Quadrat als Normal, dann passt dieses soundso oft hinein; verkürzt man aber die Seite des Quadrates um den Faktor k, dann passt es nicht k-mal, sondern k 2 -mal so oft in die Fläche. Analog dazu passt ein Würfel mit k-fach verkleinerter Seitenlänge k 3 -mal so oft in ein gegebenes Volumen wie der ursprüngliche. Allgemein passt also ein in der Länge um den Faktor k verkleinerter Maßstab k n -mal so oft in ein n-dimensionales Objekt wie der ursprüngliche. Das ist nichts Neues; doch sehen wir, was daraus für die Küstenlinie von Großbritannien folgt: An ihr kann man einen 100 Kilometer langen Maßstab 38-mal anlegen; einen halb so langen jedoch nicht zweimal, sondern zweieinhalbmal so oft, weil der kleinere Maßstab den Unregelmäßigkeiten der Küste besser folgt als der größere. Verkleinert man den Maßstab um den Faktor k, so passt er nicht k-mal, sondern

5 Von den Räumen

73

rund k 1,36 -mal so oft in die Küstenlinie. Die Küste von Großbritannien scheint also nicht, wie eine normale Linie, die Dimension eins zu haben, sondern eine Dimension, die zwischen eins und zwei liegt: eine gebrochene oder fraktale Dimension. Ausgehend vom gewöhnlichen Potenzgesetz für Länge, Fläche und Rauminhalt sind wir zu einem merkwürdigen Ergebnis gelangt. Noch merkwürdiger ist aber der Umstand, dass beinahe alle Objekte der Natur: Küstenlinien, Bäume, Wolken, Berge oder Galaxienhaufen ebenso wie sämtliche Lebewesen fraktale Dimensionen haben. Das ist kein Zufall, sondern viel eher ein notwendiges Konstruktionsprinzip. Bedenken wir beispielsweise, dass Warmblüter einen beträchtlichen Teil ihrer Nahrung zum Aufrechterhalten der Körpertemperatur verwenden. Der Wärmeverlust eines solchen Lebewesens ist proportional zu seiner Hautoberfläche, also bei gleichem Körperbau proportional zum Quadrat seiner Länge. Verglichen mit einem Hasen verliert eine Maus, wenn sie ein Zehntel seiner Länge hat, ein Hundertstel seiner Wärme über die Haut. Wäre die Stoffwechselrate proportional zum Volumen der beteiligten Organe, könnte die Maus nur ein Tausendstel der Nahrung des Hasen verwerten und müsste erfrieren. Die Organe gleichen aber nicht massiven Körpern, sondern viele Male gefalteten Flächen; sie besitzen eine fraktale Dimension von rund 2,22 und verändern sich daher mit der Körpergröße etwa im gleichen Maße wie die Hautoberfläche, so dass kleine Tiere genauso warm bleiben wie große. Die Geburt der fraktalen Geometrie fiel in das Jahr 1918: Felix Hausdorff definierte die Dimension in einer Weise, die sich auf beliebige Strukturen anwenden lässt und den klassischen Figuren und Körpern ihre gewohnten ganzzahligen Dimensionen zuschreibt. Die Hausdorff-Dimension eines Objektes basiert auf den Abmessungen von Formen, die geeignet sind, es zur Gänze zu überdecken. Da sie schwer in ein praktisches Messverfahren umzusetzen ist, erfand man leich-

74

W. Tschirk

ter zugängliche Begriffe, von denen die meisten gleichfalls auf Überdeckung beruhen. Darunter die häufig verwendete Boxdimension: Eine auf kariertes Papier gezeichnete Figur trifft dort eine bestimmte Anzahl von Quadraten. Die Boxdimension der Figur gewinnt man aus der Abhängigkeit dieser Anzahl von der Größe der Quadrate, wobei man in Räumen mit drei oder mehr Dimensionen die Quadrate durch Würfel oder deren höherdimensionale Äquivalente ersetzt. 1982 erschien Benoît Mandelbrots The Fractal Geometry of Nature und brachte eine Popularisierung der fraktalen Geometrie, die von eindrucksvollen Bildern fraktaler Objekte in hunderten Büchern und Zeitschriften am Leben gehalten wird. Beinahe ebenso beliebt wie die fraktale Geometrie ist die Topologie. Seit ein Spaßvogel auf die Idee kam, sie eine Gummigeometrie zu nennen, berichtet ein Wissensmagazin nach dem anderen, dass Schwimmreifen und Kaffeetassen „irgendwie dasselbe“ seien, weil beide ein Loch haben. Die Topologie kümmert sich um Eigenschaften, die trotz Verzerrungen und Spiegelungen erhalten bleiben, wie „offen“ und „geschlossen“ als Eigenschaften von Kurven oder „innen“ und „außen“ als Lagemöglichkeiten eines Punktes in bezug auf eine geschlossene Kurve. Andere Invariante sind die Dimension, die Anzahl der Ränder und die Anzahl der Seiten eines zusammenhängenden Objektes sowie sein Geschlecht, die maximale Anzahl von Schnitten, nach denen das Objekt noch zusammenhängt. Ein Problem, das man der Topologie zurechnen kann, stellt sich beim Kolorieren von Landkarten. 1852 vermutete Francis Guthrie, man könne jede Landkarte mit nur vier Farben so bemalen, dass aneinandergrenzende Länder stets verschiedene Farben tragen. Doch weder er noch seine Kollegen konnten sagen, ob das stimmt. Die Frage harrte über ein Jahrhundert lang ihrer Antwort, und diese wiederum stieß eine Debatte über den Einsatz von Computern in der Mathematik an. Als nämlich nach unzähligen gescheiter-

5 Von den Räumen

75

ten Versuchen, die Vierfarbenvermutung zu bestätigen oder zu widerlegen, Kenneth Appel und Wolfgang Haken 1976 einen Beweis für sie präsentierten, war das kein gewöhnlicher Beweis. Bis dahin war jeder mathematische Beweis ein formaler gewesen: eine Kette logischer Überlegungen, die von Axiomen und bewiesenen Sätzen ausgeht und das neu zu Beweisende erschließt. Appel und Haken zerlegten stattdessen die Vermutung in mehr als tausend Einzelfälle und ließen diese der Reihe nach von einem Computer prüfen. Viele Mathematiker erkennen so etwas nicht als Nachweis an – letztendlich muss man der Maschine vertrauen, ohne die Korrektheit ihrer Abläufe je verifizieren zu können. Da half es wenig, dass 2005 ein formaler Beweis gefunden wurde, denn auch dieser bedurfte der Unterstützung durch einen Computer. Deshalb betrachten die meisten zwar das Vierfarbenproblem als entschieden, den Satz jedoch nicht als bewiesen im strengen Sinn. Aus der Topologie stammen zwei Resultate, die Naturwissenschaftlern zu denken geben. Das erste betrifft die Differential- und Integralrechnung: Sie kann man in Räumen beliebiger Dimension betreiben, und zwar überall auf eindeutige Weise – mit einer Ausnahme: dem vierdimensionalen Raum, in dem die Differential- und Integralrechnung unendlich viele Spielarten besitzt. Dieses Phänomen brachte seinem Entdecker Michael Freedman 1986 die FieldsMedaille, das Pendant der Mathematiker zum Nobelpreis, den es ja in ihrer Disziplin nicht gibt. Den Physikern bringt es schlaflose Nächte – denn gerade in der vierdimensionalen Raumzeit können sie Unsicherheiten über die passende Mathematik am allerwenigsten brauchen. Das zweite hat eine Vermutung von Henri Poincaré aus dem Jahr 1904 zum Gegenstand. Man nennt zwei topologische Räume X und Y homöomorph, falls es zwischen ihnen eine Abbildung gibt derart, dass jeder Punkt in X auf einen Punkt in Y abgebildet wird, verschiedene Punkte

76

W. Tschirk

in X auf verschiedene Punkte in Y , benachbarte Punkte in X auf benachbarte in Y , und die Abbildung eine Umkehrung mit denselben Eigenschaften hat. Anschaulich gesprochen: wenn man X durch Biegen, Dehnen und Stauchen in Y überführen kann. Stellen wir uns nun die Oberfläche einer Kugel vor; in ihr lässt sich jede geschlossene Kurve auf einen Punkt zusammenziehen. Gleiches gilt für die Oberfläche eines Ellipsoids, die eines Würfels und viele andere; nicht aber zum Beispiel für die Oberfläche eines Schwimmreifens oder die einer Brillenfassung. Oberflächen, in denen sich jede geschlossene Kurve auf einen Punkt zusammenziehen lässt, sind stets homöomorph zur Kugeloberfläche. Die PoincaréVermutung sagt nun, dass das nicht nur für zweidimensionale Oberflächen im dreidimensionalen Raum gilt, sondern auch für dreidimensionale Oberflächen im vierdimensionalen Raum. Darin steckt eine enge Beziehung zur Kosmologie unserer Tage; denn diese schließt nicht aus, dass das Universum, geometrisch betrachtet, gerade eine dreidimensionale Kugeloberfläche ist. Bewiesen hat die Poincaré-Vermutung 2002 der Russe Grigori Perelman. Über ihre Geschichte und die ihres Beweises wurden Bücher geschrieben, vor allem wegen der Ungewöhnlichkeit dessen, was nach dem Beweis geschah. Nicht nur, dass Perelman ihn gar nicht detailliert ausarbeitete – das erledigten andere und produzierten dabei ein Konvolut von fünfhundert Seiten. Entscheidend für das Interesse der Öffentlichkeit war, dass Perelman sämtliche Ehrungen und Preise ablehnte, darunter die Fields-Medaille und eine kurz zuvor auf den Beweis ausgesetzte Dollarmillion. ∗∗∗∗∗ Mathematik, Physik, Kosmologie: Fragen wir einmal, warum wir überhaupt glauben, die Natur in Formeln fassen zu können. Schon mit Pythagoras ist uns diese Zuversicht begeg-

5 Von den Räumen

77

net, und heute herrscht sie unumschränkt. Für Galilei war das Buch der Natur in mathematischer Sprache geschrieben: Die Welt wird von mathematischen Gesetzen regiert, und der Wissenschaftler ist berufen, diese zu finden. Einen geringeren Anspruch erhob der Physiker Ernst Mach, der die Aufgabe des Wissenschaftlers lediglich darin sah, brauchbare Denkmuster zur Beschreibung der Sinneseindrücke zu entwickeln. Da wie dort ist die Mathematik eine Erweiterung der Alltagssprache. Damit muss man aber auch erwarten, dass sie, wie jede Sprache, Grenzen hat. Ob ein mathematischer Begriff auf die Wirklichkeit passt, ist ebenso sicher oder unsicher wie bei einem natürlichsprachlichen: Vielleicht sind Kräfte Vektoren, vielleicht nicht. Sind sie welche, dann unterliegen sie den Regeln der Vektorrechnung, und diese bieten, im Gegensatz zu jenen der Alltagssprache, keinerlei Auslegungsspielraum – die Mathematik ist eine ziemlich unelastische Form des Nachdenkens. Wir sind aber nicht dagegen gefeit, Kräfte für Vektoren zu halten und eines Tages feststellen zu müssen, dass sie doch keine sind; denn „insofern die Sätze der Mathematik sich auf die Wirklichkeit beziehen, sind sie nicht sicher, und insofern sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit“, wie Einstein es ausdrückte. Schrödinger hat darauf hingewiesen, dass wir der Physik ohne empirische Rechtfertigung eine Kontinuumsmathematik zugrunde legen: Beschreiben wir die Bewegung eines Körpers, dann tun wir so, als hätte er zu jedem Zeitpunkt einen bestimmten Ort; weiters, als wäre der Zusammenhang zwischen Zeit und Ort stetig und als machte weder das eine noch das andere Sprünge. Die Gleichungen der Wärmelehre lassen Tee beim Abkühlen alle Temperaturen durchlaufen und eine Glühbirne beim Einschalten nicht sprungartig, sondern kontinuierlich hell werden. Mathematisch drückt sich das im Zwischenwertsatz der Analysis aus, demzufolge eine stetige Funktion mit zwei Werten auch alle

78

W. Tschirk

dazwischen liegenden annimmt und ohne den kein Physiker zurechtkäme. Aus der Quantenphysik folgt aber, dass jedes Experiment von vornherein eine bestimmte endliche und daher diskrete Menge von möglichen Resultaten festlegt: „Wir lokalisieren das Wirkliche innerhalb eines endlichen Diskontinuums von Möglichem“, sagt Schrödinger. Um leichter rechnen zu können, ergänzen wir in Gedanken das Beobachtete zum Kontinuum, in dem es alle Zwischenwerte gibt. Der Erfolg dieses Vorgehens hat uns dazu verführt, das Stetige für das Wirkliche zu halten; in Wahrheit ist es nur eine Idealisierung. Die heutige Mathematik entspricht also oft grundsätzlich nicht dem, was sie beschreibt. David Hilbert, von Bescheidenheit nicht übermäßig geplagt, hat die Präsenz der Mathematiker in der Physik damit begründet, die Physik sei für die Physiker viel zu schwer. Vielleicht stimmt das; vielleicht ist sie es aber erst recht für die Mathematiker.

6 Vom Zufall

Von Hilbert sagt man, er sei der Letzte gewesen, der die gesamte Mathematik überblickte. Auf dem zweiten internationalen Mathematikerkongress, am 8. August 1900 in Paris, legte er eine Liste von dreiundzwanzig ungelösten Problemen vor, in denen er die Schlüsselfragen seines Faches sah. Einige zielten offen auf Grundlagen wie die Widerspruchsfreiheit der arithmetischen Axiome; andere führten über scheinbare Details, wie die Volumengleichheit zweier Tetraeder gleicher Grundfläche und Höhe, dorthin; wieder andere befassten sich mit Teilgebieten: den Primzahlen, der Topologie, der Variationsrechnung oder dem Aufbau der physikalischen Axiome nach mathematischem Muster. Selbst dort, wo niemand eine Frage sah, fiel Hilbert noch eine ein, wie im Problem von der Geraden als kürzester Verbindung zweier Punkte. Bewusst hatte er mit seiner Liste bis zum Anbruch des neuen Jahrhunderts gewartet; sie sollte in jeder Hinsicht ein Markstein sein. In ihr kam Hilberts Überzeugung von der ungebrochenen Vitalität der Mathematik © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_6

79

80

W. Tschirk

zum Ausdruck; denn anders als die Physik, die man zu dieser Zeit als abgeschlossen betrachtete, bot sie noch immer jede Menge Stoff zum Grübeln: „Solange ein Wissenszweig Überfluß an Problemen bietet, ist er lebenskräftig. Mangel an Problemen bedeutet Absterben oder Aufhören der selbständigen Entwicklung.“ Die hilbertschen Probleme umfassen in der Tat die gesamte Mathematik seiner Zeit – mit einer Beinahe-Ausnahme: Die Wahrscheinlichkeitsrechnung kommt als eigenständiges Thema nicht vor. Hilbert erwähnte sie nur nebenbei als „physikalische Disziplin“, deren logische Grundlegung wünschenswert sei, in Anerkennung ihrer Rolle in der statistischen Mechanik. Als mathematisches Fach schien sie vollendet. Wie es dazu kam und was das zwanzigste Jahrhundert doch noch bringen sollte, werden wir nun besprechen. Als erster Wahrscheinlichkeitstheoretiker wird meist Cardano angesehen, der im sechzehnten Jahrhundert lebte und den wir schon im Zusammenhang mit der kubischen Gleichung kennengelernt haben. In seinem Traktat über das Würfelspiel untersuchte er die Gewinnchancen beim Wetten auf mehrere Würfel und erfand damit eine neue, offenbar attraktive Wissenschaft; denn länger als ein Jahrhundert beschäftigte sich die Wahrscheinlichkeitsrechnung mit nichts anderem als dem Glücksspiel. Es ging darum, gerechte Einsätze zu finden, also zu klären, wie hoch jeder Spieler wetten musste, so dass alle die gleiche Gewinnaussicht hätten, unabhängig davon, auf welche Augenzahl sie setzen würden. Pacioli schrieb eine Abhandlung darüber, wie das Preisgeld bei vorzeitig abgebrochenem Spiel angemessen zu teilen sei; Cardano kritisierte Paciolis Lösung und ersetzte sie durch eine ebenso falsche, und Tartaglia mischte sich mit einer dritten ein. Ihre Ansätze machen von dem, was wir Wahrscheinlichkeit nennen, nicht konsequent Gebrauch, sondern orientieren sich nur an einfachen Proportionen der gewonnenen und noch ausstehenden Punkte. Erst als Pascal und

6 Vom Zufall

81

Fermat über vorzeitig abgebrochenene Spiele korrespondierten, schlug Ersterer vor, das Preisgeld im Verhältnis der Gewinnwahrscheinlichkeiten bei Weiterführung der Partie aufzuteilen. Das erste Lehrbuch der Wahrscheinlichkeitsrechnung gab 1657 Huygens heraus: Von der Vernunft in Würfelspielen. Galilei ging nach seiner bewährten Methode vor, indem er Versuche anstellte. Er kam dahinter, dass drei Würfel eine bestimmte Augenzahl, berechnet als Summe über die Augenzahlen der einzelnen Würfel, um so häufiger erbringen, je mehr Kombinationen zu ihr führen. Die 18 kann nur auf eine einzige Art realisiert werden, und zwar als 6, 6, 6; die 17 auf drei Arten: als 6, 6, 5, als 6, 5, 6 und als 5, 6, 6; und für die 16 gibt es bereits sechs Möglichkeiten. Wenn beim Spiel mit drei Würfeln die Augenzahl 17 durch dreimal so viele Kombinationen verwirklicht wird wie die 18, dann sollte sie auch dreimal so oft geworfen werden. Im Experiment tritt sie jedoch nur ungefähr dreimal so oft auf. Licht in diese Angelegenheit brachte Jakob Bernoullis Ars conjectandi, die Kunst des Vermutens. Bernoulli führte den Begriff des günstigen Falles ein: Für die Augenzahl 18 gibt es, wie wir soeben gesehen haben, genau einen günstigen Fall, für die 17 gibt es deren drei, und insgesamt unterscheidet der Wurf mit drei Würfeln 216 Fälle. Die Gewinnwahrscheinlichkeit ergibt sich als Verhältnis der Anzahl günstiger Fälle zur Anzahl aller Fälle. Für die Augenzahl 18 beträgt sie also 1/216, für die 17 schon 3/216. Was das Experiment tatsächlich zeigt, ist eine Gewinnhäufigkeit, die sich der errechneten Wahrscheinlichkeit nähert, wenn man mehr Versuche anstellt. Bernoullis „goldenes Theorem“, heute bekannt als Gesetz der großen Zahlen, besagt nun, dass die beobachtete Gewinnhäufigkeit der errechneten Wahrscheinlichkeit beliebig nahe kommen wird, wenn man nur oft genug spielt. Bernoullis günstiger Fall führte zum klassischen Wahrscheinlichkeitsbegriff: In der Théorie analytique des probabi-

82

W. Tschirk

lités von 1812 bezeichnete Laplace als Wahrscheinlichkeit eines Ereignisses die Anzahl der für das Ereignis günstigen Fälle, dividiert durch die Anzahl möglicher Fälle, vorausgesetzt, Letztere ist endlich. Daraus lassen sich drei Schlüsse ziehen: Erstens: Die Wahrscheinlichkeit ist eine Zahl von null bis eins, wobei null für ein unmögliches Ereignis steht und eins für ein sicheres – für eine 4 beim Würfeln beträgt sie 1/6, da von sechs möglichen Fällen einer günstig ist. Zweitens: Die Wahrscheinlichkeit dafür, dass eines von zwei einander ausschließenden Ereignissen eintritt, ist gleich der Summe ihrer Einzelwahrscheinlichkeiten – für 4 oder 5 im selben Wurf beträgt sie 1/6 + 1/6, da von sechs möglichen Fällen nun zwei günstig sind. Drittens: Die Wahrscheinlichkeit dafür, dass in zwei voneinander unabhängigen Versuchen zwei bestimmte Ereignisse eintreten, ist gleich dem Produkt von deren Einzelwahrscheinlichkeiten – für eine 4, gefolgt von einer 5 im nächsten Wurf, beträgt sie 1/6 · 1/6, denn von einem Sechstel aller ersten Würfe erwarten wir eine 4, und von einem Sechstel dieser Fälle im zweiten Wurf eine 5. Laplaces Definition enthält eine Voraussetzung, die noch heute ein Problem darstellt. Berechnen wir die Wahrscheinlichkeit für eine gerade Augenzahl beim Wurf mit einem gewöhnlichen Würfel. Von den sechs möglichen Fällen sind drei günstig, so dass wir 3/6, also 1/2, erhalten. Nehmen wir nun an, ein Würfel sei so konstruiert, dass er ungerade Augenzahlen bevorzugt. Noch immer gibt es unter sechs Fällen drei günstige, doch diese werden nun seltener auftreten als die ungünstigen, womit die Wahrscheinlichkeit einer geraden Augenzahl kleiner als 1/2 ist, im Widerspruch zur Formel von Laplace. Diese ist also nur dann anwendbar, wenn keiner der möglichen Fälle bevorzugt oder benachteiligt ist, mit anderen Worten: wenn jeder von ihnen mit gleicher Wahrscheinlichkeit vorkommt. Man kann aber nicht den Begriff der Wahrscheinlichkeit benutzen, um ihn selber

6 Vom Zufall

83

zu definieren. Leider ist auch nicht erkennbar, wie Laplace ohne ihn hätte auskommen können, und die Geschichte der Wahrscheinlichkeitstheorie steckt voller Versuche, den Zirkelschluss zu vermeiden. In Paul Lorenzens Buch Konstruktive Wissenschaftstheorie, einer 1974 erschienenen Sammlung von Aufsätzen, wird anstatt der Gleichwahrscheinlichkeit die Ununterscheidbarkeit gefordert: dass sich mit keinem Kausalwissen ein Grund angeben ließe, einen der Fälle vor einem anderen auszuzeichnen. Völlig unbelastet von jeglichen Interpretationsproblemen ist die Theorie von Andrej Kolmogorow aus dem Jahr 1933. Er stellte an den Anfang das Konzept des Ereignisraumes: der Menge aller in einem präzisen Kontext möglichen Ereignisse. Dann folgen drei Axiome: Jedem Ereignis wird als Wahrscheinlichkeit eine nichtnegative reelle Zahl zugeordnet; dem Ereignisraum als Ganzem wird die Eins zugeordnet; und sind A und B zwei einander ausschließende Ereignisse mit den Wahrscheinlichkeiten p(A) und p(B), dann wird dem Ereignis A oder B die Wahrscheinlichkeit p(A)+ p(B) zugeordnet. Alles Weitere ergibt sich aus diesen Voraussetzungen. Kolmogorows Ereignisse sind Abstrakta; auf reales Geschehen nahm er keinen Bezug und trennte damit die mathematischen Aspekte der Wahrscheinlichkeit von ihren empirischen. Wie man mit Wahrscheinlichkeiten rechnet, war nun geklärt – übrig blieb die Frage, was sie tatsächlich seien. Die meistverbreitete Antwort lautet: relative Häufigkeiten. Wenn unter 100 Neugeborenen 51 Mädchen sind, dann ist die Wahrscheinlichkeit für ein zufällig herausgegriffenes Neugeborenes, ein Mädchen zu sein, 51 Prozent. Die relative Häufigkeit ist zunächst Eigenschaft einer Folge, im vorliegenden Beispiel einer Folge von Geburten, und wird dann als Wahrscheinlichkeit dem Einzelereignis – der einzelnen Geburt – zugeschrieben. Diese Sicht ist die Basis der Statistik und bewährt sich überall, wo man es mit Massen-

84

W. Tschirk

erscheinungen, also langen Versuchsfolgen, zu tun hat. Zu Schwierigkeiten führt sie bei Einzelereignissen, wo weit und breit keine Folge in Sicht ist. Wenn ein Bergsteiger zum ersten Mal versucht, eine Wand zu erklettern: Was ist die Wahrscheinlichkeit dafür, dass es ihm gelingen wird? Gibt es eine solche überhaupt? Auf Fragen wie diese gab der Philosoph Karl Popper eine originelle Antwort: Er erfand die Propensität, die Neigung einer experimentellen Anordnung, bestimmte Ergebnisse hervorzubringen. Was auf den ersten Blick wie der Versuch aussieht, einen diffusen Begriff durch einen noch diffuseren zu ersetzen, ist in Wahrheit ein genialer Streich: Denn die Propensität ist nichts Fiktives wie relative Häufigkeiten in nichtexistenten Folgen, sondern eine Eigenschaft physikalischer Objekte, die sich zeigt, sobald die Objekte – die experimentellen Anordnungen – in Aktion treten. Man kann sie mit dem Feld in der Physik vergleichen, von dem man auch erst dann etwas merkt, wenn ein Körper in ihm eine Kraft erfährt, dem man aber, unabhängig vom Probekörper, eindeutige, messbare Eigenschaften zuschreiben kann. In Poppers Interpretation spielt es keine Rolle, ob die Würfel fair sind oder nicht, denn sie hat mit dem Anteil günstiger Fälle nichts zu tun. Sind die Würfel unfair, so liegt eine andere Anordnung vor, als wenn sie fair wären, mit einer ihr eigenen Propensität. Was aber ist die Wahrscheinlichkeit für ein vergangenes Ereignis? Ob am 8. August 1900 in Paris die Sonne geschienen hat, steht fest; dennoch könnte man darüber eine Wette abschließen und dann in den archives météorologiques nachsehen. Will man in dieser Wette gerechte Einsätze und Gewinne, läuft das auf die Frage nach Wahrscheinlichkeiten hinaus. Wir fühlen aber sofort, dass es hier nicht um das Wetter geht, sondern um unser Wissen darüber. Und schon gar nicht geht es um Zufall im herkömmlichen Sinn des Wortes. Überhaupt ist, was wir „Zufall“ nennen, lediglich Mangel an Wissen. Selbst die Lottozahlen werden nicht zufällig

6 Vom Zufall

85

gezogen; man kann sich durchaus ein Wissen vorstellen, das die Ergebnisse der nächsten Ziehung vorherzusagen erlaubt. Das ist der Grundgedanke der Subjektivisten. Im Gegensatz zu den Objektivisten, die in der Wahrscheinlichkeit eine Eigenschaft des Ereignisses, der Folge von Ereignissen oder der experimentellen Anordnung sehen, betrachten die Subjektivisten sie als Ausdruck des Wissens über die Situation. Nach Vorarbeiten von Harold Jeffreys und Richard Cox um 1940 gründete der Amerikaner Edwin Jaynes in den 1950er-Jahren die Wahrscheinlichkeitstheorie auf eine Lehre vom plausiblen Schließen aus gegebenem Wissen. Jaynes’ Probability theory, erst 2003 – fünf Jahre nach dem Tod des Autors – erschienen, beginnt mit einer technischen Festlegung: Der Plausibilitätsgrad einer Behauptung wird als reelle Zahl ausgedrückt. Dann folgen vier Regeln: Die Bemessung des Plausibilitätsgrades entspricht dem gesunden Menschenverstand; wenn eine Behauptung auf verschiedene Weisen erschlossen werden kann, stimmen die resultierenden Plausibilitätsgrade überein; jeder Schluss basiert auf dem gesamten verfügbaren Wissen; wenn dieses Wissen von zwei Behauptungen keine bevorzugt, sind beide gleich plausibel. Am Beispiel des schwachen Syllogismus zeigt Jaynes, was von plausiblem Schließen gefordert ist: Wenn aus einer Aussage A eine Aussage B folgt und A richtig ist, dann ist auch B richtig; ist aber A falsch, folgt für B gar nichts. Finden wir beispielsweise die Fingerabdrücke eines Verdächtigen am Tatort, dann war er dort. Finden wir sie nicht, dann ist alles möglich; vielleicht war er dort, vielleicht nicht. Wir müssen aber eingestehen, dass unsere Vermutung, er wäre dort gewesen, auf schwächeren Beinen steht, als wenn seine Fingerabdrücke sichergestellt worden wären. Wenn also A falsch ist, wird B zwar nicht sicher falsch, aber weniger plausibel, und die Mathematik muss dies ausdrücken können. Das alles klingt nicht besonders geistreich und scheint zunächst nur eine weitere Wahrscheinlichkeitsinterpretati-

86

W. Tschirk

on zu sein. Was aber Jaynes’ Grundsätze einzigartig macht, ist die Tatsache, dass man aus ihnen Kolmogorows Axiome ableiten kann; denn damit ist die exakte Wahrscheinlichkeitsrechnung auf Plausibilitätsüberlegungen zurückgeführt. Ausgangsgröße ist zwar der Plausibilitätsgrad und nicht die Wahrscheinlichkeit; doch diese ergibt sich aus ihm in eindeutiger Weise. Jaynes’ Theorie liefert alle bekannten Rechenregeln und beherrscht auch Fälle, für die die anderen Theorien keine Lösung anbieten, speziell solche fehlender oder unvollständiger Daten. Die Forderung, zwei auf verschiedenen Wegen erschlossene Plausibilitätsgrade derselben Behauptung seien gleich, führt zum Beweis eines Theorems von Thomas Bayes aus der Mitte des achtzehnten Jahrhunderts: Die Wahrscheinlichkeit für ein Ereignis A unter der Bedingung, ein Ereignis B sei eingetreten, erhält man aus den Wahrscheinlichkeiten für A und B selbst sowie jener für B unter der Bedingung, A sei eingetreten. So hängt die Wahrscheinlichkeit p(S|F) für die Schuld S des Verdächtigen unter der Bedingung, dass seine Fingerabdrücke F am Tatort gefunden wurden, von drei Dingen ab: Erstens von der Wahrscheinlichkeit p(S) seiner Schuld, wenn man von den Fingerabdrücken absieht – ist diese gering, weil er vielleicht kein Motiv hat, entlastet ihn das; ist sie gar null, wie bei einem sicheren Alibi, scheidet er trotz der Abdrücke als Täter aus. Zweitens von der Wahrscheinlichkeit p(F) der Fingerabdrücke am Tatort unabhängig von seiner Schuld – ist der Tatort die Wohnung des Verdächtigen, sagen die Abdrücke nichts, andernfalls vielleicht schon. Drittens von der Wahrscheinlichkeit p(F|S) der Fingerabdrücke unter der Bedingung, er wäre schuldig – sind sie gerade dann sehr wahrscheinlich, belasten sie ihn; hätte ein vernünftiger Täter Handschuhe getragen, sprechen sie für ihn. Im Gerichtssaal lautet Bayes’ Formel: p(S|F) = p(F|S) p(S)/ p(F). ∗∗∗∗∗

6 Vom Zufall

87

Bisher haben wir uns mit der Wahrscheinlichkeit einzelner Ereignisse beschäftigt. Wir können aber auch fragen, wie sich bei einem Zufallsexperiment die Wahrscheinlichkeiten auf die möglichen Ereignisse verteilen. Betrachten wir folgendes Beispiel: Wir zeigen auf einen Namen im Telefonbuch, ermitteln die Körpergröße der zugehörigen Person und wiederholen diesen Vorgang viele Male. Hier ist die Körpergröße eine Zufallsvariable. Jedem ihrer möglichen Werte ordnen wir nun die Anzahl der entsprechend großen Personen zu und erhalten eine Verteilung, die in der Gegend von 170 Zentimetern ihre höchsten Amplituden aufweist. Aus ihr lassen sich Durchschnitt, Streuung und weitere statistische Parameter errechnen. Allgemein gesprochen, geht es darum, die Häufigkeiten der möglichen Werte einer Größe zu bestimmen; diese Fragestellung tritt unter anderem in der statistischen Physik auf, zu deren Gegenständen die Geschwindigkeitsverteilung von Teilchen zählt. Ein anders gelagertes Zufallsexperiment besteht darin, dieselbe Größe mehrmals zu messen: Ein Thermometer zeigt Werte nahe der tatsächlichen Temperatur, aber immer ein wenig verschieden von ihr. Liest man mehrere Thermometer ab, deren Fehler voneinander unabhängig sind, so erhält man eine Verteilung mit Schwerpunkt im Bereich des richtigen Wertes. Probleme dieser Art nahm sich Gauß um 1794 vor; sie brachten ihn auf das nach ihm benannte Verteilungsgesetz, das, graphisch dargestellt, wie eine Glocke aussieht. Die gaußsche Normalverteilung ist aber auch abseits der Fehlerrechnung von herausragender Bedeutung für die Statistik; 1901 bewies Alexander Ljapunow den zentralen Grenzwertsatz, demzufolge die Summe vieler identisch verteilter Zufallsvariabler annähernd normalverteilt ist. Auch dieses Gesetz zeigt sich beim Würfeln: Die Augenzahl beim Spiel mit einem Würfel ist eine gleichverteilte Zufallsvariable – jeder Wert von 1 bis 6 kommt etwa gleich oft vor. Schon beim Spiel mit zwei Würfeln aber erscheint die mittlere Au-

88

W. Tschirk

genzahl, die 7, rund doppelt so oft wie die 4 oder die 10, weil doppelt so viele Kombinationen zu ihr führen; und je mehr Würfel man nimmt, desto ähnlicher wird die Verteilung der Augenzahlsumme der Normalverteilung. Bei jeder fehlerbehafteten Messung kommt man dem richtigen Wert näher, wenn man mehrmals misst und den Mittelwert der Einzelmessungen nimmt, vorausgesetzt, deren Fehler sind voneinander unabhängig. Viermal messen halbiert im Schnitt den Fehler, neunmal messen reduziert ihn auf ein Drittel usw. Das benutzt man unter anderem beim Aufnehmen und Wiedergeben von Musik zur Klangverbesserung, indem man die zufälligen Fehler der Apparatur durch höhere Messraten, das sogenannte Oversampling, verringert. Damit sind wir bei den technischen Anwendungen der Wahrscheinlichkeitsrechnung gelandet. Werfen wir einen Blick auf die vielleicht folgenreichste unter ihnen, die Informationstheorie. Im Juli und Oktober 1948 brachte das Bell System Technical Journal zwei Artikel des Amerikaners Claude Shannon. Er hatte es sich zur Aufgabe gemacht, die Menge an Information zu berechnen, die eine Nachrichtenquelle erzeugt, und aus ihr die Anforderungen an den Übertragungskanal abzuleiten, der diese Information unversehrt vom Sender zum Empfänger bringen könnte. Betrachten wir das vorliegende Buch als Quelle, die ein Schriftzeichen nach dem anderen hervorbringt, rund 200.000 Zeichen aus einem Vorrat von etwa 100 verschiedenen: Groß- und Kleinbuchstaben, Ziffern, Satzzeichen, mathematischen Symbolen und dem Leerraum zwischen den Wörtern. Das allein sagt noch nicht alles über die Informationsmenge; manche Zeichen kommen häufiger vor als andere, manche, die möglich wären, kommen gar nicht vor, und zudem hängt die Wahrscheinlichkeit für ein Zeichen von den davor und dahinter stehenden ab, hauptsächlich nach den Regeln der deutschen Sprache. Je wahrscheinlicher ein Zeichen an ei-

6 Vom Zufall

89

ner bestimmten Stelle ist, umso weniger Information bringt sein tatsächliches Erscheinen – viele hätte man sogar ohne Informationsverlust weglassen können, weil sie aus dem Zusammenhang erschließbar sind. Man könnte das Buch so transkribieren, dass es mit einem Drittel an Zeichen auskäme und sich dennoch der Inhalt ohne Fehler wiederherstellen ließe. Diesen Nettogehalt an Information brachte Shannon mit einer Größe in Zusammenhang, die der deutsche Physiker Clausius um 1860 in die Wärmelehre eingeführt hatte: der Entropie. Noch im neunzehnten Jahrhundert hatte Boltzmann gezeigt, dass die Entropie eines Systems aus seiner thermodynamischen Wahrscheinlichkeit hervorgeht, der Anzahl seiner möglichen Mikrozustände, und dass Systeme, sich selbst überlassen, ihre Entropie stets erhöhen, bis sie ein Maximum erreicht hat. Shannons Entdeckung zeigt nun sehr anschaulich, was das bedeutet: Die Entropie eines Systems ist nämlich umso größer, je wahrscheinlicher sein Zustand ist. Die Zeichen in diesem Buch sind aber äußerst unwahrscheinlich angeordnet: Jede Zeichenkette ergibt ein Wort oder eine andere Einheit der deutschen Sprache, gelegentlich einen anderssprachigen oder einen mathematischen Ausdruck. Wären die Zeichen beweglich und überließe man sie sich selbst, so fände man im Lauf der Zeit alles Mögliche, nur so gut wie sicher keinen sinnvollen Text. So bescheren die Würfelspiele des Barock auch uns Gewinne, obwohl wir gar nicht mitgewettet haben. Denn ohne die Wahrscheinlichkeitstheorie gäbe es kein Fernsehen, kein Handy und kein Internet. Klinische Studien wären aufwendiger, Verkehrswege falsch dimensioniert, Lebensversicherungen maßlos überteuert. Niemand wüsste, wie man Carusos Stimme unzerstörbar aufbewahrt und in Sekundenschnelle von einem Ort der Welt an einen anderen bringt. Auf allen diesen Gebieten – und unzähligen anderen – gilt, was Werner von Siemens, der Erfinder des Dynamos, um

90

W. Tschirk

1850 sagte: dass man ohne Mathematik nur im Dunkeln tappt. Die Nützlichkeit der Mathematik in Wirtschaft und Technik ist es auch, die ihr noch einen Platz in den Lehrplänen sichert. Ihre Bedeutung als Kulturleistung oder gar ihr platonischer Wert als Schule des Geistes hätten dies nicht vermocht in einer Gesellschaft, in der mathematische Ignoranz als schick gilt und Logik als unverbindlich. Als Bildungsziel an sich ist die Mathematik verschwunden. Da sogar die meisten Studierten nichts mehr von ihr wissen, hat sich zu allem Überfluss der Glaube breitgemacht, sie wäre schwierig; wo es doch in Wahrheit keinen zweiten Bereich gibt, in dem so klare Verhältnisse herrschen und so sparsame Fakten so viel erzählen.

7 Von den Mengen

Muss man die natürlichen Zahlen als existent hinnehmen oder kann man sie aus noch Grundlegenderem erklären? Diese Frage führte im neunzehnten Jahrhundert zu einem neuen Zweig der Mathematik: zur Mengenlehre. Bereits Mitte des Jahrhunderts hatte Bolzano eine Menge beschrieben als „Inbegriff, dem wir einen Begriff unterstellen, bei dem die Anordnung seiner Teile gleichgültig ist“. Die klassische Definition gab Cantor 1895: „Unter einer Menge verstehen wir jede Zusammenfassung bestimmter, wohlunterschiedener Objekte unserer Anschauung oder unseres Denkens zu einem Ganzen.“ Man kann also von der Menge der Bäume sprechen, von der Menge der dreistrophigen Gedichte oder von der Menge der weißen Raben, auch wenn Letztere keine Elemente enthält, sondern leer ist. Allgemein kann man sich zu jeder Eigenschaft eine – schlimmstenfalls leere – Menge von Objekten denken, die diese Eigenschaft besitzen, wie es der Logiker Gottlob Frege ausdrückte. Dass ausgerechnet diese unscheinbare Behauptung schon bald für Aufregung sorgen würde, ahnte niemand. © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_7

91

92

W. Tschirk

Cantor wandte sich den Mengen um 1870 zu; nicht um ihrer selbst willen, sondern weil sie auf natürliche Weise zu einem Zahlbegriff führen. Man kann ohne zu zählen sagen, ob zwei Mengen gleich viele Elemente haben: Das ist dann der Fall, wenn man zwischen ihnen eine Eins-zu-EinsBeziehung finden kann, das heißt, wenn man ihre Elemente paarweise anordnen kann und keines übrig bleibt. Legen wir die Finger der beiden Hände aneinander: Daumen an Daumen, Zeigefinger an Zeigefinger usw., so stellen wir ohne Zählen fest, dass die linke Hand gleich viele Finger hat wie die rechte. Zwei Mengen, die sich solcherart decken, nannte Cantor gleichmächtig; die Mächtigkeit einer Menge bezeichnete er auch als ihre Kardinalzahl. Die Kardinalzahl einer endlichen Menge – einer Menge mit endlich vielen Elementen – ist die Anzahl ihrer Elemente; das hätten wir einfacher haben können. Die Bedeutung von Cantors Idee wird aber klar, wenn wir sie auf unendliche Mengen anwenden. Denn die Elemente einer solchen kann man nicht zählen, und daher ist man zum Bestimmen ihrer Kardinalzahl auf andere Methoden angewiesen. Versucht man, die Gleichmächtigkeit unendlicher Mengen durch Paaren ihrer Elemente zu überprüfen, verwickelt man sich zunächst in Widersprüche, wie folgendes Beispiel zeigt: Zwischen den natürlichen Zahlen 1, 2, 3, · · · und den positiven geraden 2, 4, 6, · · · kann man eine Eins-zu-EinsBeziehung herstellen, indem man jeder natürlichen Zahl ihr Doppeltes unter den geraden Zahlen zuordnet: der natürlichen Zahl 1 die gerade Zahl 2, der natürlichen Zahl 2 die gerade Zahl 4 usw.; so erscheinen die beiden Mengen gleichmächtig. Andererseits kann man jeder positiven geraden Zahl die ihr entsprechende natürliche zuordnen: der 2 die 2, der 4 die 4 usw., womit auf der Seite der natürlichen Zahlen die ungeraden übrig blieben und die Mengen nicht gleichmächtig wären. Um ein widerspruchsfreies Verfahren zu erhalten, führte Cantor den Begriff „höchs-

7 Von den Mengen

93

tens gleichmächtig“ ein. Eine Menge A ist höchstens gleichmächtig einer Menge B, wenn es zwischen A und einem Teil von B eine Eins-zu-Eins-Beziehung gibt. Daraus konnte er zwei Dinge folgern: Erstens: Ist A höchstens gleichmächtig B und gibt es keine Eins-zu-Eins-Beziehung zwischen A und B, dann ist B mächtiger als A. Zweitens: Ist A höchstens gleichmächtig B und B höchstens gleichmächtig A, dann sind A und B gleichmächtig. Diese zweite Folgerung wurde erst später bewiesen und heißt heute nach den Beteiligten Cantor-Schröder-Bernstein-Theorem. Der Mächtigkeitsbegriff führte geradewegs in ein Reich nie geahnter Größen. Ausgangspunkt war die Frage, ob alle unendlichen Mengen gleichmächtig seien oder nicht. Vergleichen wir die Menge der natürlichen Zahlen mit jener der rationalen. Dass die natürlichen Zahlen höchstens gleichmächtig den rationalen sind, ist klar, da sie von diesen eine Teilmenge bilden. Es überrascht aber, dass man zwischen den beiden Mengen eine Eins-zu-Eins-Beziehung finden und damit ihre Gleichmächtigkeit nachweisen kann, liegen doch in jedem Intervall der Zahlengeraden unendlich viele rationale Zahlen, während nur hin und wieder eine natürliche auftaucht. Dennoch gibt es eine solche Beziehung; sie wird durch das nun folgende Abzählverfahren hergestellt, welches jeder rationalen Zahl eine Nummer gibt, ihr also eine natürliche Zahl zuordnet. Die positiven rationalen Zahlen m/n, wo m und n natürliche Zahlen sind, kann man wie folgt nummerieren: Die Zahl, bei der die Summe aus Zähler und Nenner 2 ergibt, das ist die Zahl 1/1, erhält die Nummer 1; dann kommen die Zahlen mit m + n = 3: 1/2 erhält die Nummer 2 und 2/1 die Nummer 3; dann geht es zu den Zahlen mit m + n = 4: 1/3, 2/2 (das wir überspringen, weil es schon als 1/1 dran war) und 3/1; dann zu jenen mit m + n = 5 usw. Auf diese Weise erhält jede positive rationale Zahl eine Nummer. Vergibt man an jeder Stelle eine zweite Nummer für die betragsgleiche negative Zahl und

94

W. Tschirk

spendiert noch eine für die Null, dann erhält nach und nach jede rationale Zahl ihr Gegenstück in Form einer natürlichen. Die rationalen Zahlen sind daher gleichmächtig den natürlichen; man sagt hier, sie sind abzählbar, was aber nur bedeutet, dass man sie nummerieren kann, und nicht, dass man bis zum Ende zählen könnte. Die Frage war nun, ob jede unendliche Menge abzählbar sei. 1874 zeigte Cantor, dass es überabzählbare Mengen gibt und insbesondere die reellen Zahlen eine solche sind. Wären sie abzählbar, dann könnte man sie in eine Liste schreiben, die zwar unendlich lang wäre, in der aber jede reelle Zahl einmal vorkäme. Stattdessen kann man aber zu jeder Liste reeller Zahlen r1 , r2 , r3 , · · · eine weitere reelle Zahl konstruieren, die nicht in ihr aufscheint, und zwar mittels der Vorschrift, dass sich diese Zahl in der ersten Dezimalstelle von r1 unterscheide, in der zweiten von r2 usw. Daher kann es keine Liste der reellen Zahlen geben. Zusammen mit der Tatsache, dass die natürlichen Zahlen in den reellen enthalten sind, zeigt dies, dass die reellen Zahlen mächtiger sind als die natürlichen. Es gibt also mindestens zwei Stufen des Unendlichen, und der Verdacht auf weitere lag nahe, denn die reellen Zahlen entsprechen nur den Punkten der Zahlengeraden; die Punkte einer Fläche oder eines Raumes mussten aber noch viel zahlreicher sein. Drei Jahre lang suchte Cantor nach einem Beweis für diese Selbstverständlichkeit, dann hatte er einen gefunden – für ihr Gegenteil: Jeder reelle Raum, egal welcher Dimension, ist gleichmächtig der Zahlengeraden. Denn wie wir im Kapitel von den Räumen gesehen haben, konnte Cantor jeden Punkt, unabhängig von der Dimension des Raumes, in dem er liegt, durch eine einzige Koordinate beschreiben, und das lieferte eine Eins-zu-Eins-Beziehung zwischen Räumen beliebiger Dimension und der Zahlengeraden. Hier verschlug es sogar ihm die Sprache; an Dedekind schrieb er: „Ich sehe es, aber ich glaube es nicht.“

7 Von den Mengen

95

Der Weg zu den unendlich vielen Stufen des Unendlichen führte über den Begriff der Potenzmenge. Wenn M eine Menge ist, dann ist die Menge aller Teilmengen von M die Potenzmenge P(M). Jede Menge ist höchstens gleichmächtig ihrer Potenzmenge; denn ordnet man jedem Element von M die Teilmenge von M zu, die nur dieses Element enthält, so schafft das eine Eins-zu-Eins-Beziehung zwischen M und einemTeil von P(M), nämlich den einelementigenTeilmengen von M. Offen war, ob eine Eins-zu-Eins-Beziehung auch zwischen M und P(M) als Ganzem existiert. Wenn ja, sind beide gleichmächtig; wenn nein, ist P(M) mächtiger als M. Was schließlich herauskam, war Zweiteres; denn nimmt man an, es gäbe eine Eins-zu-Eins-Beziehung zwischen M und P(M), stößt man auf einen Widerspruch. Im nächsten Absatz folgt der Beweis. Wir nehmen an, es gäbe eine Eins-zu-Eins-Beziehung zwischen M und P(M) – jedem Element von M wäre genau ein Element von P(M), also eine Teilmenge von M, zugeordnet und umgekehrt. Betrachten wir unter dieser Voraussetzung ein beliebiges Element a von M und die ihm zugeordnete Teilmenge A von M, so ist a in A enthalten oder nicht. Jene a, die nicht in den ihnen zugeordneten A enthalten sind, bilden eine Teilmenge B von M, also ein Element von P(M). Diesem B ist, wie jedem Element von P(M), ein Element von M zugeordnet; nennen wir es b. Nun fragen wir, ob b in B enthalten ist. B besteht aus all jenen Elementen von M, die nicht in den ihnen zugeordneten Mengen enthalten sind. Wäre b in B enthalten, so enthielte B damit ein Element, das diese Bedingung verletzt, weil ja b und B einander zugeordnet sind; also ist b nicht in B enthalten. Dann erfüllt b aber gerade die Bedingung, die es zu einem Element von B macht, und ist in B enthalten. Unter der Annahme, es gäbe eine Eins-zu-Eins-Beziehung zwischen M und P(M), haben wir eine Menge und ein Element gefunden derart, dass die Menge das Element nicht enthält und

96

W. Tschirk

doch enthält. Das widerspricht sich selbst; also ist die Prämisse dieses Schlusses falsch und ihr Gegenteil richtig: Es gibt keine Eins-zu-Eins-Beziehung zwischen M und P(M) . Damit war bewiesen, dass jede Potenzmenge mächtiger ist als die Menge, von der sie stammt, also eine größere Kardinalzahl besitzt. Und da jede Potenzmenge selbst wieder eine Potenzmenge hat, endet die Folge der Kardinalzahlen nie. Cantor benannte die unendlichen – die transfiniten – Kardinalzahlen mit dem hebräischen Buchstaben Aleph und einer Nummer; die erste ist ℵ0 , die zweite ℵ1 usw. Rasch stellten sich zwei Dinge heraus: dass es keine kleinere unendliche Menge gibt als die natürlichen Zahlen – deren Mächtigkeit ist also ℵ0 –, und dass die reellen Zahlen gleichmächtig der Potenzmenge der natürlichen Zahlen sind. Unklar war jedoch, ob es zwischen der Mächtigkeit einer Menge und jener ihrer Potenzmenge noch weitere transfinite Zahlen gibt. Wenn nicht, dann ist ℵ1 die Mächtigkeit der Potenzmenge der natürlichen Zahlen, ℵ2 die Mächtigkeit von deren Potenzmenge usw. Außerdem ist dann ℵ1 die Mächtigkeit der reellen Zahlen, was bedeutet, dass es keine kleinere überabzählbare Menge gibt als sie. Genau das vermutete Cantor: Es gibt keine überabzählbare Menge, die weniger mächtig wäre als die reellen Zahlen. Das ist die Kontinuumshypothese, so benannt, weil die reellen Zahlen lückenlos die Zahlengerade füllen. Die Kontinuumshypothese ließ sich jahrzehntelang weder beweisen noch widerlegen und stand auf Hilberts Liste der dreiundzwanzig Probleme an erster Stelle. 1940 wies der Österreicher Kurt Gödel nach, dass sie den Axiomen der Mengenlehre nicht widerspricht; und seit Paul Cohen 1963 gezeigt hat, dass auch ihr Gegenteil zu diesen Axiomen passt, gibt es eine Mengenlehre, in der die Kontinuumshypothese richtig ist, und eine andere, in der sie falsch ist, analog zu den Geometrien mit und ohne Parallelenpostulat. Nach fast dreißig Jahren Arbeit, 1897, lag Cantors Mengenlehre in den wesentlichen Zügen vollendet vor, zusam-

7 Von den Mengen

97

men mit einer Reihe von Folgerungen, betreffend die gewohnten Zahlen, und einer transfiniten Arithmetik. Nirgends hatte sich ein Widerspruch zur etablierten Mathematik ergeben, im Gegenteil: Wo die beiden einander berühren, herrscht völlige Übereinstimmung. Dass Cantors Werk dennoch zum Ziel boshafter Angriffe wurde, lag nicht an seinem mathematischen Gehalt, sondern daran, dass es mit einem Tabu brach, indem es das aktual Unendliche akzeptierte. Von Euklids Primzahlsatz bis zu den Reihen der Analysis war das Unendliche stets als Prozess begriffen worden, der kein Ende hat, weil es immer noch ein Element gibt, und der im besten Fall zu einem Grenzwert führt wie der Summe einer unendlichen Reihe. Nie aber hatte man mit einer unendlichen Gesamtheit manipuliert, als läge sie vollständig vor. Cantor jedoch sah Mengen als gedanklich fertige Objekte, einerlei, ob sie endlich sind oder nicht, und zog sich damit den Zorn mancher Kollegen zu. Poincaré war überzeugt, spätere Generationen würden die Mengenlehre als „eine Krankheit betrachten, von der man sich erholt hat“, und der im zwanzigsten Jahrhundert begründete Konstruktivismus, eine Richtung der Mathematik, die nur konstruierbare Objekte zulässt, kann geradezu als Reaktion auf sie bezeichnet werden. Den Vogel aber schoss Cantors Lehrer Kronecker ab, der schon gegen die irrationalen Zahlen polemisiert hatte. Ihm reichte es nicht, die Mengenlehre zu attackieren, er hatte es auf ihren Urheber abgesehen und vereitelte dessen Berufung an die Berliner Universität, wodurch sich Cantor zeitlebens in die Provinz verbannt sah. Die meisten allerdings wussten zu schätzen, was ihnen mit der Mengenlehre geschenkt worden war. 1888 schuf Richard Dedekind den ersten mengentheoretischen Aufbau des Zahlensystems von den natürlichen bis zu den reellen Zahlen. An die Adresse der Skeptiker richtete Hilbert die Botschaft: „Aus dem Paradies, das Cantor uns geschaffen hat, soll uns niemand vertreiben können“, und Russell bemerkt

98

W. Tschirk

in seiner Philosophie des Abendlandes, Cantor habe mit der Theorie der unendlichen Zahlen „einen ganzen Bezirk, in dem zuvor Unklarheit und mystisches Dunkel geherrscht hatten, in den Bereich der exakten Logik einbezogen“. ∗∗∗∗∗ Der Rückschlag kam aus heiterem Himmel und hatte mit dem Unendlichen nichts zu tun. Im Juni 1902 stand Frege nach zehnjähriger Arbeit vor dem Fertigstellen seiner Grundgesetze der Arithmetik, als Russell im druckreifen Manuskript des zweiten Bandes auf einen Fehler stieß, der Freges Arbeit den Boden unter den Füßen wegzog: Cantor und Frege zufolge kann man sich zu jeder Eigenschaft eine Menge von Objekten denken, die diese Eigenschaft besitzen. Damit gibt es auch die Menge aller Mengen, die sich nicht selbst enthalten. Enthält sich diese Menge selbst oder nicht? Angenommen, sie enthält sich selbst – dann hat sie nicht die Eigenschaft, die ihre Elemente charakterisiert, womit sie als Element ihrer selbst ausscheidet; enthält sie sich aber nicht, dann hat sie genau die Eigenschaft ihrer Elemente und ist selber eines. In seinen populären Büchern kleidete Russell diese Antinomie in die Frage nach dem Barbier, der genau die Männer im Dorf rasiert, die sich nicht selbst rasieren. Rasiert er sich? Wenn ja, dann nein; wenn nein, dann ja. Die Lösung ist, dass es so einen Barbier nicht geben kann und – weit schlimmer – auch nicht die oben definierte Menge. Diese ist nicht in demselben Sinn unmöglich wie die Menge der weißen Raben; Letztere existiert und ist lediglich leer, weil es keine weißen Raben gibt. Doch die Menge aller Mengen, die sich nicht selbst enthalten, existiert nicht einmal als Begriff. Wenn es aber eine Eigenschaft gibt, zu der man sich keine Menge denken kann, dann ist Cantors Definition der Menge falsch und die Mengenlehre auf Sand gebaut. Da diese in der Zwischenzeit unentbehrlich geworden war, löste Russells

7 Von den Mengen

99

Urteil ziemliche Bestürzung aus. Dem Dilemma entkam man erst durch eine Verfeinerung des Mengenbegriffes, die fordert, dass die zu einer Menge zusammengefassten Elemente bereits vorher existiert haben und nicht erst mit der Menge geschaffen werden. Damit lässt sich der logische Irrweg umgehen, den Russell das Zirkelfehlerprinzip nannte und in dem er die gemeinsame Ursache seiner Antinomie und einer Reihe anderer Ungereimtheiten erkannt hatte. 1922 präsentierten die Deutschen Ernst Zermelo und Abraham Fraenkel die heute gültige axiomatische Mengenlehre, die den Fehler der cantorschen nicht mehr enthält. Einen anderen Weg zur Vermeidung der Zirkelfehler gingen Russell und Whitehead mit ihrer Typentheorie: einer Hierarchie, in der Funktionen eines Typs lediglich Funktionen niedrigeren Typs als Argumente haben können, womit Selbstbezüge von vornherein ausgeschlossen sind. Wir haben im ersten Kapitel die Peano-Axiome der natürlichen Zahlen kennengelernt und auf den vergangenen Seiten die Entwicklung der Mengenlehre zu einer axiomatischen Theorie. Andererseits haben wir eingangs dieses Kapitels festgestellt, die Mengenlehre sei erfunden worden, um die natürlichen Zahlen zu erklären. Es muss also möglich sein, die Peano-Axiome aus der Mengenlehre abzuleiten, und wir werden nun skizzieren, wie man das anpackt. Sollte den Leser dabei ein leicht unangenehmes Gefühl befallen, so ist das, wie der Ungar Paul Halmos in seinem Lehrbuch der Mengenlehre 1960 schrieb, „nichts Besonderes und in den meisten Fällen vorübergehend“. Wir definieren die natürlichen Zahlen, aus praktischen Gründen beginnend bei Null anstatt bei Eins, durch zwei Regeln: Erstens: Null ist die leere Menge. Zweitens: Jede Zahl ist gleich der Menge ihrer Vorgänger. In diesem Modell ist also jede natürliche Zahl eine Menge: Sei {a, b, c} die Menge mit den Elementen a, b und c sowie {} die leere Menge. Dann sehen die natürlichen Zahlen so aus: 0 = {}, 1 = {0}, 2 = {0,1}, 3 = {0, 1, 2}

100

W. Tschirk

usw. Sogar passionierte Mathematiker fragen sich hin und wieder, ob das notwendig ist. Man muss sich diese Definition aber gar nicht merken; beim praktischen Umgang mit Zahlen ignoriert man sie ohnehin. Ihr Wert liegt darin, dass sie das Herleiten der Peano-Axiome gestattet, wenn man die natürlichen Zahlen mit Null beginnen lässt. Denn die ersten beiden Axiome – Null ist eine Zahl und der Nachfolger einer Zahl ebenso – folgen unmittelbar aus der Definition. Das dritte – zwei Zahlen mit demselben Nachfolger sind gleich – beruht darauf, dass jede Zahl in ihrem Nachfolger enthalten ist; zwei verschiedene Zahlen mit demselben Nachfolger müssten sich gegenseitig enthalten, was aber durch die Definition ausgeschlossen wird. Das vierte Axiom – Null ist nicht der Nachfolger einer Zahl – gilt, weil jeder Nachfolger mindestens ein Element enthalten muss, aber Null die leere Menge ist. Und das fünfte – eine Klasse, die die Null enthält und mit jeder Zahl auch deren Nachfolger, enthält alle Zahlen – ist erfüllt, weil jede solche Klasse definitionsgemäß jede nach obigem Muster konstruierte Zahl umfasst. Die natürlichen Zahlen, als Mengen definiert, haben also genau die Eigenschaften, die Peano von ihnen forderte; und so braucht man anstelle zweier Axiomensysteme nur mehr ein einziges, das der Mengenlehre. Welche Macht in mengentheoretischen Beweisen steckt, erkennen wir an einem Resultat von Cantor. Im Kapitel von den Gleichungen haben wir die Einteilung der reellen Zahlen in algebraische und transzendente kennengelernt: Erstere treten als Nullstellen rationaler Polynome auf, Letztere nicht. Zu den algebraischen Zahlen gehören die rationalen und alle Wurzeln aus ihnen sowie unendlich viele weitere irrationale, also mit Ausnahme von π und e so gut wie alles, womit man es normalerweise zu tun hat. Bis Joseph Liouville 1844 die Transzendenz nachwies, war nicht einmal klar gewesen, ob es überhaupt transzendente Zahlen gibt oder ob nicht vielmehr alle Zahlen algebraisch sind. Und nun

7 Von den Mengen

101

zeigte Cantor, ohne auch nur eine einzige transzendente Zahl zu nennen, dass beinahe alle Zahlen transzendent sind. Sein Beweis geht so: Für ein rationales Polynom von gegebenem Grad gibt es abzählbar viele Möglichkeiten; denn ein rationales Polynom n-ten Grades ist durch n + 1 Koeffizienten festgelegt und jeder Koeffizient ist eine von abzählbar vielen rationalen Zahlen. Also gibt es von jedem Grad abzählbar viele rationale Polynome. Der Grad selbst ist eine natürliche Zahl; somit gibt es abzählbar viele Grade und insgesamt – über alle Grade summiert – abzählbar viele rationale Polynome. Jedes Polynom hat nach dem Fundamentalsatz der Algebra endlich viele Nullstellen. Daher sind die Nullstellen aller rationalen Polynome zusammen, also die algebraischen Zahlen, abzählbar. Die reellen Zahlen sind überabzählbar; und wenn nur abzählbar viele von ihnen algebraisch sind, bleiben überabzählbar viele transzendente übrig. Obgleich also jedes Schulkind Tag und Nacht algebraische Zahlen hersagen könnte, ohne sich je zu wiederholen – es nehme nur die ganzen Zahlen oder die Brüche –, während kaum jemand mehr als zwei, drei transzendente kennt, spricht der Mathematikhistoriker Eric Temple Bell zu Recht von den algebraischen Zahlen als „Sternen, verstreut am Firmament der transzendenten“. Poincaré dürfte sich geirrt haben, als er die Mengenlehre zu den Krankheiten zählte; auch nach über hundert Jahren sieht es nicht so aus, als müssten sich eines Tages die Ärzte mit ihr befassen. Im Gegenteil: Mathematik ist heute Mengenlehre; wenn man den Lehrbüchern glauben darf, folgt aus Cantors gewaltiger Schöpfung alles. Ihre Ideen, ihre Begriffe, ihre Ausdrucksweise, ihre Schriftzeichen durchdringen die mathematische Literatur – nicht einfach in dem Sinn, dass man auf Schritt und Tritt über sie stolpern würde; sondern so, dass man sie gar nicht mehr wahrnimmt.

8 Von der Logik

Bis ins neunzehnte Jahrhundert blieb Aristoteles in der Logik das Maß aller Dinge. In seinem Organon, einer Sammlung von Schriften zur Logik, hatte er die Aussage definiert als bejahende oder verneinende Verbindung von Kategorien, die wahr oder falsch ist. Was von einer Sache ausgesagt werden kann, zerfällt in Kategorien: Es gibt Aussagen über das Wesen einer Sache, beispielsweise, eine Blume zu sein, über ihre Größe, ihre Farbe, ihren Ort usw. Daraus entwickelte Aristoteles eine Lehre von den logischen Schlüssen und führte insbesondere vor, wie man zwei Aussagen deduktiv zu einer dritten kombiniert. Auf die faktische Wahrheit der einzelnen Aussage kam es Aristoteles nicht an. Vielmehr ging es ihm um gültige Regeln des Schließens, wie das Gesetz der Identität: Jede Sache ist sich selbst gleich, das Gesetz vom ausgeschlossenen Widerspruch: Nichts ist zugleich wahr und falsch, oder das Gesetz vom ausgeschlossenen Dritten: Jede Aussage ist entweder wahr oder falsch, eine dritte Möglichkeit gibt es nicht. Diese Regeln und alle, die sich aus ihnen © Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3_8

103

104

W. Tschirk

ableiten, sind von den Inhalten der einzelnen Aussagen unabhängig; ein logischer Schluss gilt nicht aufgrund des Inhalts seiner Bestandteile, sondern durch die Gültigkeit von deren Verknüpfung, also kraft seiner Form: Wir sprechen daher von der formalen Logik. Ihre Formeln sind das Gegenstück der Logik zu den Formeln der Mathematik. In der Mathematik gilt beispielsweise (a + b)(a − b) = a 2 − b2 , und zwar unabhängig von den Werten der Zahlen a und b. Die Formel dient als Abkürzung und Präzisierung des Satzes: „Multipliziert man die Summe zweier Zahlen mit ihrer Differenz, erhält man die Differenz ihrer Quadrate“, und dieser Satz ist immer richtig – er stellt eine Rechenregel dar. Analog dazu stellen die Formeln der Logik Denkregeln dar. Seien p und q beliebige Aussagen. Dann behauptet p ∧ q, dass die Aussage p und q stimmt, weiters p ∨ q, dass p oder q stimmt, und p = q, dass p gleichbedeutend ist mit q. Nun gilt beispielsweise p ∨ q = q ∨ p, was besagt, dass ( p oder q) gleichbedeutend ist mit (q oder p). Der Satz drückt einen gültigen Schluss aus, ungeachtet der Inhalte von p und q. Die Aussicht auf sichere und beweisbare Aussagen war zu verlockend, als dass man die Logik nicht für alles Mögliche herangezogen hätte. Mit dem Mittelalter begann die Ära der Gottesbeweise, und da Aristoteles’ Naturlehre ohnehin die weltliche Seite des christlichen Glaubens repräsentierte, war es nur ein kleiner Schritt zur Übernahme seiner Denkmethode in die Religion. Im dreizehnten Jahrhundert konstruierte der Katalonier Ramon Llull eine aus mehreren Scheiben bestehende „logische Maschine“, die imstande war, Vertreter aristotelischer Kategorien wie Güte, Größe oder Ewigkeit in syllogistischer Weise zu verknüpfen; diese unfehlbare Sprache sollte den christlichen Glauben durch Einsicht ergänzen. Descartes lehnte zwar die „Vorschriften der Logiker, durch die sie die menschliche Vernunft zu regieren glauben“ ab, sah aber andererseits den einzigen Weg zu sicherer Erkenntnis in der Deduktion und bemühte sich emsig, diese auch in

8 Von der Logik

105

der Naturwissenschaft zu etablieren. Leibniz wiederum war von der Bedeutung der Logik für alle Lebensbereiche fest überzeugt. Er nannte Aristoteles’ Grundsätze „die schönste Entdeckung des menschlichen Geistes“ und war insbesondere davon fasziniert, dass logische Wahrheiten, anders als faktische, nicht nur in unserer Welt wahr sind, sondern in allen möglichen Welten wahr wären. Seine mathematische Logik blieb unvollendet. Ebenso sein grandioser Plan einer neuen Sprache, der Characteristica universalis; in ihr sollte jeder Grundbegriff durch eine Primzahl vertreten werden und zusammengesetzte Begriffe durch das Produkt der charakteristischen Zahlen ihrer Bestandteile, so dass man das unscharfe Denken durch Rechnen ersetzen könnte und jegliche Streitfrage, sei sie wissenschaftlicher, moralischer oder politischer Natur, mit Papier und Bleistift entscheiden. Einen Calculus of reasoning, eine mathematische Analyse der Logik und des Schlussfolgerns, gab der Engländer George Boole 1847 heraus. Für Boole war die Sprache nicht einfach eine Kollektion von Zeichen, sondern eine Ausdrucksform, deren Elemente den Gesetzen des Denkens unterliegen, die ebenso rigoros sind wie jene der Naturwissenschaften und der Mathematik. Anders als seine Vorgänger attestierte er diese Strenge bereits dem natürlichen Denken, das er in seiner Abhandlung lediglich darzustellen trachtete. Er schrieb „ pq“ für den Ausdruck „ p und q“ sowie „ p + q“ für „ p oder q“, was nicht nur aussieht wie die gewöhnliche Multiplikation und Addition, sondern auch ähnliche Umformungsregeln verlangt. Der Satz p ∧ (q ∨ r ) = ( p ∧ q) ∨ ( p ∧ r ) lautet nach Boole: p(q + r ) = pq + pr ; die logische Umformung entspricht, algebraisch betrachtet, dem Ausmultiplizieren der Klammer. Praktische Bedeutung, unter anderem zum Entwurf elektronischer Schaltungen, sollte eine Variante der booleschen Algebra erlangen, in der ein Ausdruck nur die Werte 0 und 1 annehmen kann und p + 1 = 1 gilt. Im selben Jahr ver-

106

W. Tschirk

öffentlichte Augustus De Morgan das einflussreiche Buch Formal logic, in dem er, ähnlich seinem Landsmann Boole, logische Beziehungen in algebraische übertrug, und das die nach ihm benannten Gesetze der Verneinung enthält. Neue Dimensionen erschloss Freges Begriffsschrift von 1879. Vielleicht hatte Frege sich als Erster die Verbindung von Sprache, Logik und Mathematik zum Ziel gesetzt; jedenfalls eignete sich seine „Formelsprache des reinen Denkens“ dazu besser als jede vor ihr. Boole und De Morgan hatten sich auf die Verknüpfung von Aussagen ohne Beachtung von deren innerer Struktur beschränkt. Systeme dieser Art werden als aussagenlogisch bezeichnet. Im Satz „Wenn es Tag ist und der Himmel wolkenlos, dann scheint die Sonne“ werden die Aussagen „Es ist Tag“, „Der Himmel ist wolkenlos“ und „Die Sonne scheint“ verknüpft. Neben der Aussagenlogik gibt es die Prädikatenlogik. Sie zerlegt jede Aussage in ein Subjekt – „Sonne“ – und sein Prädikat – „scheinen“ – und gibt an, auf wie viele oder welche Subjekte das Prädikat zutrifft. Frege verband Aussagen- und Prädikatenlogik zu einer Einheit, die alle für den Aufbau der Mathematik nötigen Deduktionen leistete. Dennoch blieb die Begriffsschrift bei ihrem Erscheinen nahezu unbeachtet, was unter anderem auf Freges eigenwillige, bildhafte Notation zurückzuführen war, ungemütlich nicht nur für die Druckerei, sondern auch für den Leser. Dann griff Russell das Werk auf – und heute gilt Frege als zweiter Aristoteles und steht im Ruf, Leibniz’ Utopie der Gedankenrechnung, wenn auch nur für den vergleichsweise armseligen Sprachschatz der Mathematik, verwirklicht zu haben. Im Rückblick sieht es zunächst so aus, als hätten sich die Mathematiker ungebührlich spät um einheitliche Grundlagen bemüht, nachdem sich ihre Disziplinen zweitausend Jahre lang nebeneinander entwickelt hatten und einander methodisch nur zögernd nähergekommen waren. Andererseits ist die Mathematik die einzige Wissenschaft, in der ein

8 Von der Logik

107

solches Bemühen je Erfolg hatte, und zusammen mit ihrem Alter lässt dies vermuten, dass das Aufspüren der eigenen Grundlagen ein Zeichen von Reife ist. Immerhin war Ende des neunzehnten Jahrhunderts die erste Etappe zurückgelegt. Die nächste nahmen Russell und Whitehead mit ihren Principia Mathematica in Angriff: die Entwicklung der Mathematik aus der Logik. Wie beispiellos dieses Vorhaben war, erkennt man schon daran, dass die vorangestellte Erklärung der Begriffe und Symbole über fünfzig Seiten geht, weil trotz der Arbeiten von Cantor, Frege und Peano, auf die sich das Werk erklärtermaßen stützt, viele von ihnen neu geschaffen werden mussten. Auf zweitausend Seiten bereiteten Russell und Whitehead zunächst die Logik dem Ziel entsprechend auf und behandelten dann die Arithmetik und die Theorie der Reihen. Große Teile der Mathematik, wie Geometrie oder Infinitesimalrechnung, kommen nur im Ansatz vor; es wird allerdings klar, dass auch sie nach demselben Muster bearbeitet werden können. Was vor den Principia als mathematisches Axiom gegolten hatte, wurde durch sie zu einer beweisbaren Aussage. Damit hat nach Russells Ansicht das Buch sein Ziel erreicht: nachzuweisen, dass die Mathematik aus der Logik folgt und nicht, wie Kant behauptet hatte, synthetische Urteile enthält. Ein für alle Mal war gezeigt worden, dass mathematische Erkenntnis weder empirisch noch apriorisch ist; in Wirklichkeit handelt es sich bei ihr um verbale Erkenntnis. „3“ bedeutet „2 + 1“, und „4“ bedeutet „3 + 1“. Also bedeutet „4“ das Gleiche wie „2 + 2“. Laut Russell verliert damit „die mathematische Erkenntnis den Charakter des Geheimnisvollen. Sie entspricht ganz der großen Wahrheit, dass drei Fuß auf eine Elle gehen“. Die Axiome, die Russell und Whitehead an den Anfang stellten, sind formallogischer Natur: Was aus einer wahren Prämisse folgt, ist wahr; aus ( p oder p) folgt p; aus q folgt ( p oder q); aus ( p oder q) folgt (q oder p); aus ( p oder (q oder r )) folgt (q oder ( p oder r )); wenn r aus q folgt, folgt

108

W. Tschirk

( p oder r ) aus ( p oder q). Mit solchem Inventar Mathematik zu betreiben, war alles andere als leicht. Das illustriert allein der Umstand, dass man bis zur Seite 347 der Principia blättern muss, ehe man auf die Definition der Zahl Eins stößt. Dann aber hat man die Antwort auf die alte Frage, woher die natürlichen Zahlen kommen: Sie sind eine Form, die Regeln der Logik auszusprechen. Von 1910 bis 1913 erschien das dreibändige Werk im Druck. Für die praktische Mathematik blieb es folgenlos; beispielsweise hat man nirgends die eingeführten Axiome durch die russellschen ersetzt. In der Grundlagenforschung aber löste es eine Lawine von klärenden Arbeiten aus. Als zuverlässiges Werkzeug zur Behandlung mathematischer Fragen kam die Logik gerade zur rechten Zeit, denn die Krise der Mengenlehre, obwohl glücklich überstanden, hatte einen Stachel zurückgelassen: Wie konnte es zu einer Theorie kommen, die sich selbst widerspricht, und was war zu tun, um so etwas in Hinkunft zu vermeiden? Speziell erhob sich die Frage, ob nicht auch in den gegenwärtigen Theorien der Teufel seine Hand im Spiel hatte. Waren die Axiome der Arithmetik, der Geometrie, der Mengenlehre ohne Widerspruch? Längst hatte sich die Auffassung durchgesetzt, sie müssten nicht wahr sein in dem Sinn, dass sie Tatsachen der Natur wiedergäben. Sie durften aber auch nicht beliebig sein; denn sie sollten, zusammen mit den Regeln der Deduktion, jede mathematische Aussage entweder beweisen oder widerlegen lassen und niemals sowohl eine Behauptung als auch ihr Gegenteil für wahr erklären. Das gesuchte System musste also vollständig und widerspruchsfrei sein, und man sollte das auch zeigen können. Dieses Problem griff Hilbert um 1917 auf, in der Absicht, es mittels einer Automatisierung des Beweisens zu lösen. Ein Beweis ist eine Kette von Aussagen. Am Anfang stehen die Voraussetzungen; aus ihnen gehen durch logische Schlüsse alle folgenden Sätze hervor, und deren letzter enthält das zu

8 Von der Logik

109

Beweisende. In der Praxis ist die Wahl der Schlüsse der Intuition des Wissenschaftlers überlassen, mit dem Resultat, dass er – außer in den allereinfachsten Fällen – nie sicher sein kann, ob er auf dem richtigen Weg ist, noch, ob ein solcher überhaupt existiert; manchmal bleibt er ohne Ergebnis. Hilbert schwebte hingegen ein Verfahren vor, das imstande wäre, ausgehend von Axiomen jede mathematische Aussage in endlich vielen Schritten zu beweisen oder zu widerlegen. Es sollte sich nicht auf die Eingebung des Beweisführers stützen, sondern mechanisch nach festen Regeln ablaufen; ein solches Verfahren heißt Kalkül. Hilberts Beweiskalkül sollte zeigen, dass die Mathematik vollständig ist, dass sich also alles, was richtig ist, auch beweisen lässt, und dass sie keine Widersprüche enthält, dass also nicht eine Aussage und deren Gegenteil ableitbar sind. Zunächst konzentrierten sich Hilbert und seine Mitstreiter auf die Arithmetik der natürlichen Zahlen, die PeanoArithmetik, da sich diese als grundlegend für alle Theorien mit Ausnahme der Mengenlehre erwiesen hatte. Die Gesamtheit aller in der Peano-Arithmetik möglichen Aussagen – der wahren und der falschen – ist zwar unendlich, aber abzählbar, denn jede enthält endlich viele Zeichen aus einem endlichen Vorrat, und für die Anzahl ihrer Zeichen gibt es abzählbar viele Möglichkeiten. Man könnte daher eine Liste erstellen, in der jede Aussage vorkäme. Aus dem gleichen Grund könnte man auch die peano-arithmetischen Beweise in eine Liste schreiben. Vollständigkeit im Sinne Hilberts bedeutet nun: Nimmt man aus der Liste der Aussagen eine beliebige heraus, so findet man in der Liste der Beweise nach endlich vielen Schritten entweder einen Beweis für sie oder einen für ihr Gegenteil. Widerspruchsfreiheit bedeutet, dass man in der Liste der Beweise nicht in endlich vielen Schritten einen Beweis für eine Aussage und einen für ihr Gegenteil findet.

110

W. Tschirk

Diese Widerspruchsfreiheit glaubte Hilberts Student Ackermann 1924 bewiesen zu haben. Auch Hilbert selbst sah „nicht mehr die leiseste Spur einer Unklarheit“ und verkündete 1928 auf dem Mathematikerkongress in Bologna, die erste Stufe seines Programms wäre nun erreicht. Gestützt wurde dieser Optimismus im Jahr darauf, als Gödel in seiner Dissertation nachwies, dass sich in der Prädikatenlogik, dem logischen Unterbau der Beweistheorie, das Folgern auf einen Kalkül reduzieren lässt. Ironischerweise war es ausgerechnet Gödel, der kurz darauf Hilberts Programm einen Dämpfer versetzte. Zuerst bewies er, dass die Peano-Arithmetik nicht zugleich vollständig und widerspruchsfrei sein kann; und dann, dass sie, falls sie widerspruchsfrei ist, dies nicht selbst beweisen kann. Nicht vollständig heißt, dass es in ihr mindestens einen wahren Satz gibt, für den kein Beweis existiert. Gödels Idee war es, einen Satz zu finden, der von sich selbst behauptet, nicht beweisbar zu sein, und es auch nicht ist. Ein solcher Satz ist aber kein Satz der Arithmetik; ob er wahr, falsch, beweisbar oder unbeweisbar ist, sagt über sie nicht das Geringste aus. Um ihn brauchbar zu machen, mussten zunächst die Aussagen über die Arithmetik – die metaarithmetischen – in die Arithmetik abgebildet werden. Sehen wir uns ein paar Beispiele an: „1 + 1 = 2“ oder „3 ist eine Primzahl“ sind arithmetische Sätze, nämlich Sätze über Zahlen; metaarithmetische, also Sätze über die Arithmetik selbst, sind „Es gibt einen Beweis für ,1 + 1 = 2‘ “ oder „Die Arithmetik ist widerspruchsfrei“. Gödel erfand ein Verfahren, metaarithmetische Sätze in arithmetische zu übersetzen, und zwar wahre Sätze in wahre und falsche in falsche. Ob ein metaarithmetischer Satz stimmt, kann man seither durch eine Rechnung überprüfen, genauso, wie man seit Descartes und Fermat geometrische Sätze nachrechnen kann. Insbesondere lässt sich nachrechnen, ob eine gegebene Folge von Sätzen den Beweis einer gegebenen Behauptung verkörpert.

8 Von der Logik

111

Nun konnte Gödel eine arithmetische Formel G konstruieren, deren metaarithmetisches Gegenstück über sich selbst sagt: „Dieser Satz ist nicht beweisbar.“ Da der metaarithmetische Satz einem regulären arithmetischen entspricht, ist er nicht einfach sinnlos wie Russells Barbier, sondern entweder wahr oder falsch. Gödel zeigte, dass G nur dann beweisbar ist, wenn auch das Gegenteil von G beweisbar ist: Ein Beweis für G würde seine Aussage, nicht beweisbar zu sein, widerlegen und wäre daher auch ein Beweis gegen G. Ist also G beweisbar, dann auch das Gegenteil von G; dann ist die Peano-Arithmetik widersprüchlich, weil sie den Beweis einer Aussage und ihres Gegenteils zulässt. Ist sie hingegen widerspruchsfrei, dann ist G nicht beweisbar. Dann ist G aber wahr; das lässt sich zwar nicht arithmetisch zeigen – sonst hätten wir einen arithmetischen Beweis für G –, wohl aber durch ein metaarithmetisches Argument: Das metaarithmetische Gegenstück von G behauptet von sich selbst, nicht beweisbar zu sein, und das stimmt. Ist also die Peano-Arithmetik widerspruchsfrei, dann ist G ein wahrer arithmetischer Satz, der sich nicht beweisen lässt, womit die Peano-Arithmetik unvollständig ist. Sie kann daher nicht widerspruchsfrei und zugleich vollständig sein; das ist Gödels erster Unvollständigkeitssatz. Die Frage war nun, ob man wenigstens die Widerspruchsfreiheit allein, zweifellos die begehrtere der beiden Eigenschaften, sicherstellen kann. Aus der Widerspruchsfreiheit der Peano-Arithmetik folgen aber, wie wir soeben gesehen haben, zwei Dinge: erstens, dass G wahr ist, und zweitens, dass G nicht beweisbar ist. Ein Beweis für die Widerspruchsfreiheit käme wegen der ersten Folgerung einem Beweis für G gleich und würde daher die zweite Folgerung verletzen. Deshalb stellt Gödels zweiter Unvollständigkeitssatz fest, dass die Peano-Arithmetik nicht ihre eigene Widerspruchsfreiheit beweisen kann. Man könnte nun auf die Idee kommen, den Stein des Anstoßes – den wahren, aber nicht beweisbaren Satz G –

112

W. Tschirk

einfach als Axiom zur Peano-Arithmetik hinzuzunehmen. Damit bräuchte man G nicht zu beweisen, und man würde auch keinen Widerspruch riskieren, weil ja weder G noch das Gegenteil von G aus den restlichen Axiomen folgt. Doch so leicht lässt uns Gödel nicht davonkommen; er hat nämlich auch gezeigt, dass eine um das Axiom G erweiterte Theorie wiederum einen wahren, aber nicht beweisbaren Satz enthalten würde. Die Unvollständigkeitssätze, 1931 der Öffentlichkeit vorgestellt, gelten nicht nur für die natürlichen Zahlen und ihre Arithmetik, sondern für jeden Bereich, der die natürlichen Zahlen enthält, und jede Sprache, die deren Arithmetik ausdrücken kann: Niemals folgen alle in einer solchen Umgebung wahren Aussagen aus einem endlichen Axiomensystem, sofern dieses widerspruchsfrei ist, und niemals folgt dort aus einem endlichen Axiomensystem dessen eigene Widerspruchsfreiheit. Die Widerspruchsfreiheit einer Theorie kann man nur unter Zuhilfenahme einer umfassenderen Theorie zeigen, woraus sich sofort die Frage nach deren Widerspruchsfreiheit ergibt; absolute Widerspruchsfreiheit ist also unbeweisbar, außer für hinreichend einfache Theorien, die aber in Hilberts Vision von der sich selbst verifizierenden Mathematik nie eine Rolle spielten. ∗∗∗∗∗ Wie die meisten spektakulären Resultate der Wissenschaft, so ziehen auch die Unvollständigkeitssätze einen Rattenschwanz von Unsinn hinter sich her. Entgegen anders lautenden Meldungen behaupten die Sätze aber nicht, die Mathematik wäre widersprüchlich; nur, dass sie das Gegenteil, falls es zutrifft, nicht beweisen kann. Sie stellen auch nicht die These auf, es gäbe Aussagen, die weder wahr noch falsch wären, oder solche, auf die beides zugleich zuträfe. Und sie sagen schon gar nicht, der Mensch könne über sich selbst

8 Von der Logik

113

niemals Klarheit erringen, weil das erkennende Subjekt außerhalb des erkannten liegen müsse; das wäre wohl eine zu plumpe Verallgemeinerung. Trotz des Rückschlags, den Gödel dem hilbertschen Programm versetzt hat, ist dieses nicht beendet. Wie Gödel selbst anmerkte, widerlegen es die Unvollständigkeitssätze nicht, da Widerspruchsfreiheitsbeweise denkbar wären, die sich in seiner Formalisierung der Arithmetik nicht darstellen lassen. Noch in den 1930er-Jahren machte der Deutsche Gerhard Gentzen mit einem Kalkül auf sich aufmerksam, aus dem die Widerspruchsfreiheit der Peano-Arithmetik folgt, wenn auch nicht in der von Hilbert geforderten endlichen Anzahl von Schritten. Allerdings scheint die Frage nach der Konsistenz der Mathematik ihren Status des Jahrhundertproblems eingebüßt zu haben. In der Liste der sieben Millenniums-Probleme des Clay Mathematics Institute in Massachusetts, auf deren Lösungen jeweils eine Million Dollar ausgesetzt sind, kommt sie nicht mehr vor. Der erste Unvollständigkeitssatz rückte eine jahrtausendealte Streitfrage in den Mittelpunkt: Ist Wahrheit gleichzusetzen mit Beweisbarkeit? Für Platon existierte die Wahrheit der Mathematik unabhängig davon, ob ein Mensch sie erkennt oder nicht; Wahrheit und Beweisbarkeit gelten dem Platoniker als grundverschiedene Begriffe. Nicht so seinem Gegenüber, dem Nominalisten: Für diesen wird die Wahrheit erst mit dem Schlusssatz eines Beweises erschaffen, und Wahrheit an sich gibt es nicht. Dass die Wahrheit einer mathematischen Aussage nicht einfach in ihrer Übereinstimmung mit den Tatsachen besteht, darauf hat schon der Philosoph Ludwig Wittgenstein in seinem Tractatus logico-philosophicus von 1921 hingewiesen. Ihm zufolge drücken mathematische Sätze gar keine Tatsachen aus; wir benützen sie nur, um aus nichtmathematischen Sätzen auf andere nichtmathematische Sätze zu schließen, und erst diese sind logische Bilder der Tatsachen.

114

W. Tschirk

Abgesehen davon hat Otto Neurath, Leitfigur des Wiener Kreises, den Vergleich von Aussagen mit Tatsachen für grundsätzlich unmöglich erklärt. Aussagen könne man nur mit anderen Aussagen vergleichen, und daher könne ein Satz allenfalls in Bezug auf andere Sätze wahr – oder bescheidener und treffender: richtig – sein. Diese Form von Wahrheit scheint in der Tat das Äußerste, das man der Mathematik je abverlangen wird können; doch selbst von ihr wissen wir nicht, ob es sie gibt und, falls es sie gibt, wie nahe wir ihr sind. Wittgenstein vertrat die Ansicht, jede Frage, die sich überhaupt stellen lässt, könne auch beantwortet werden, und in der Programmschrift des Wiener Kreises hieß es 1929: „Die wissenschaftliche Weltauffassung kennt keine unlösbaren Rätsel.“ Nirgends aber steht geschrieben, dass uns die Mathematik ihre Geheimnisse in der Zeitspanne von ein paar Menschenleben offenbaren muss. Vielleicht führt sie uns an der Nase herum. Vielleicht ist sie nur scheinbar sicherer als andere Wissenschaften und viel empfindlicher gegenüber der Erfahrung, als wir glauben. Jedenfalls folgt aus der relativen Beständigkeit mathematischer Überzeugung nicht deren absolute Unveränderlichkeit. Wenn Mathematik im Kopf stattfindet, dann ist sie ohnehin eine biologische Erscheinung und schon aus diesem Grund wandelbar. Und selbst wenn sie, wie Platon glaubte, unabhängig von uns existiert, können wir mit noch so viel Logik nie sicher sein, dass wir alles von ihr wissen. Die Erkenntnisse von morgen zeichnen sich ja dadurch aus, dass man sie heute noch nicht hat.

Namenregister

A

Abel, Niels Henrik, 44, 45, 65 Ackermann, Wilhelm, 110 Alembert, Jean le Rond d’, 42, 60 Amiens, Nicolas de, 18 Anaxagoras, 20 Apollonius, 21 Appel, Kenneth, 75 Archimedes, 8, 20, 21, 50, 65 Aristoteles, 6, 7, 10, 30, 65, 103–106

Bayes, Thomas, 86 Bell, Eric Temple, 101 Bernoulli, Jakob, 58, 81 Bernoulli, Johann, 57, 58 Bernstein, Felix, 93 Bohr, Niels, 65 Boltzmann, Ludwig, 65, 89 Bolyai, János, 27, 28, 66 Bolzano, Bernard, 12, 60, 91 Bombelli, Rafael, 37, 42 Boole, George, 105, 106

C B

Bachmann, Paul, 12 Barrow, Isaac, 50, 51

Cantor, Georg, 12, 66, 72, 91–94, 96–98, 100, 101, 107

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 W. Tschirk, Vom Spiegel des Universums, https://doi.org/10.1007/978-3-662-62066-3

115

116

Namenregister

Cardano, Girolamo, 36, 44, 80 Caruso, Enrico, 89 Cauchy, Augustin Louis, 60, 61 Cavalieri, Bonaventura, 49, 50 Cayley, Arthur, 70 Cicero, 21 Cigler, Johann, 67 Clausius, Rudolf, 89 Cohen, Paul, 96 Cox, Richard, 85 Crelle, August, 67 Curie, Marie, 65

D

Dedekind, Richard, 12, 94, 97 Dehaene, Stanislas, 13 Demokrit, 2, 6, 16 Desargues, Gérard, 25 Descartes, René, 2, 18, 25, 26, 29, 42, 50, 51, 65, 67, 71, 72, 104, 110 Dionysios II. von Syrakus, 29 Diophant, 9, 14, 34 Dirichlet, Johann Peter Gustav Lejeune, 61 Dunham, William, 2, 47 Dyck, Walther von, 46

E

Einstein, Albert, 13, 65, 68, 71, 77 Eratosthenes, 8 Eudoxos, 6, 16, 29 Euklid, 1, 2, 7–10, 14–20, 26, 28–30, 34, 58, 65, 71, 72, 97 Euler, Leonhard, 13, 14, 40, 42, 58, 59, 65

F

Faraday, Michael, 65 Fermat, Pierre de, 14, 25, 26, 29, 50–52, 65, 80, 110 Ferrari, Ludovico, 36, 44 Ferro, Scipione del, 35, 36 Fior, Antonio, 35, 36, 38 Fraenkel, Abraham, 99 Freedman, Michael, 75 Frege, Gottlob, 91, 98, 106, 107 Freud, Sigmund, 2

G

Galilei, Galileo, 51–53, 56, 65, 77, 81 Galois, Évariste, 44, 45, 65 Gauß, Carl Friedrich, 13, 27–29, 42, 60, 65, 87 Gentzen, Gerhard, 113 Girard, Albert, 42 Gmunden, Johannes von, 38

Namenregister

Gödel, Kurt, 66, 96, 110–113 Goldbach, Christian, 13, 42 Graßmann, Hermann, 69 Gunter, Edmund, 41 Guthrie, Francis, 74

H

Haken, Wolfgang, 75 Halley, Edmond, 65 Halmos, Paul, 99 Hausdorff, Felix, 73 Heisenberg, Werner, 65 Heron, 1, 2, 22 Hilbert, David, 12, 29, 78–80, 96, 97, 108–110, 112, 113 Hipparchos, 22, 39 Hippasos, 5, 11 Hospital, Guillaume François Antoine de l’, 58 Hubble, Edwin, 65 Huygens, Christiaan, 20, 81

J

Jaynes, Edwin Thompson, 85, 86 Jeffreys, Harold, 85 Justinian I. von Byzanz, 30

117

K

Kant, Immanuel, 19, 28, 107 Kepler, Johannes, 2, 22, 40, 52, 65 Khayyam, Omar al-, 35 Khwarizmi, Mohammed al-, 9, 34 Klein, Felix, 29 Kolmogorow, Andrej, 83, 86 Kopernikus, Nikolaus, 65 Kronecker, Leopold, 12, 97 L

Lagrange, Joseph-Louis, 42, 57 Lambert, Johann Heinrich, 11 Laplace, Pierre-Simon de, 40, 82, 83 Lauchen, Georg von, 39 Lebesgue, Henri, 62 Legendre, Adrien-Marie, 14 Leibniz, Gottfried Wilhelm, 41, 42, 54–59, 61, 63–66, 105, 106 Levi-Civita, Tullio, 71 Lille, Alain de, 18 Lindemann, Ferdinand von, 47 Liouville, Joseph, 100 Ljapunow, Alexander, 87 Llull, Ramon, 104 Lobatschewski, Nikolai, 27, 28, 66 Lorenz, Konrad, 68

118

Namenregister

Lorenzen, Paul, 83 Lotze, Rudolph, 68

M

Mach, Ernst, 77 Mandelbrot, Benoît, 74 Monge, Gaspard, 26 Morgan, Augustus de, 106 Müller, Johannes, 38

Poincaré, Henri, 75, 97, 101 Poisson, Siméon Denis, 44 Poleni, Giovanni, 41 Poncelet, Jean-Victor, 25 Popper, Karl, 84 Ptolemäus, Claudius, 2, 22, 38, 65 Pythagoras, 4, 5, 12, 65, 76

R N

Napier, John, 10, 40 Neurath, Otto, 114 Newton, Isaac, 2, 22, 26, 52–56, 61, 65, 66

O

Oughtred, William, 41

Ricci-Curbastro, Gregorio, 71 Riemann, Bernhard, 28, 61, 66 Ries, Adam, 39 Roberval, Giles de, 50 Robinson, Abraham, 63, 64 Russell, Bertrand, 30, 66, 97–99, 106, 107, 111 Rutherford, Ernest, 65

P

Pacioli, Luca, 35, 80 Pappos, 22, 25 Partridge, Seth, 41 Pascal, Blaise, 10, 41, 80 Peano, Giuseppe, 11, 69, 100, 107 Perelman, Grigori Jakowlewitsch, 76 Peuerbach, Georg von, 38 Planck, Max, 65 Platon, 15, 17, 29, 30, 38, 65, 113, 114 Plücker, Julius, 25

S

Saccheri, Girolamo, 27 Schickhardt, Wilhelm, 41 Schröder, Ernst, 93 Schrödinger, Erwin, 13, 65, 77, 78 Shannon, Claude, 88, 89 Siemens, Werner von, 90 Simmons, John, 65 Skinner, Burrhus Fredric, 2 Spinoza, Baruch, 18 Stevin, Simon, 10 Sylvester, James Joseph, 70

Namenregister

119

Viète, François, 10, 39

Werner, Johannes, 39, 40 Wessel, Caspar, 43 Whitehead, Alfred North, 99, 107 Widmann, Johannes, 39 Wiles, Andrew John, 14 Wingate, Edmund, 41 Wittgenstein, Ludwig, 113, 114

W

Z

Wallis, John, 50 Weierstraß, Karl, 12, 61

Zenon, 60 Zermelo, Ernst, 99

T

Tartaglia, Nicolo, 35, 36, 38, 80 Thales, 3, 15, 16 Theaitetos, 6, 29

V