Lineare Algebra [1. Aufl.] 9783662613399, 9783662613405

Dieses vierfarbige Lehrbuch wendet sich an Studierende der Mathematik, der Physik und Informatik in Bachelor- und Lehram

941 145 8MB

German Pages IX, 432 [439] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Lineare Algebra [1. Aufl.]
 9783662613399, 9783662613405

Table of contents :
Front Matter ....Pages I-IX
Logik, Mengen, Abbildungen – die Sprache der Mathematik (Christian Karpfinger, Hellmuth Stachel)....Pages 1-30
Algebraische Strukturen – ein Blick hinter die Rechenregeln (Christian Karpfinger, Hellmuth Stachel)....Pages 31-64
Lineare Gleichungssysteme – ein Tor zur linearen Algebra (Christian Karpfinger, Hellmuth Stachel)....Pages 65-86
Vektorräume – von Basen und Dimensionen (Christian Karpfinger, Hellmuth Stachel)....Pages 87-120
Analytische Geometrie – Rechnen statt Zeichnen (Christian Karpfinger, Hellmuth Stachel)....Pages 121-168
Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen (Christian Karpfinger, Hellmuth Stachel)....Pages 169-222
Determinanten – Kenngrößen von Matrizen (Christian Karpfinger, Hellmuth Stachel)....Pages 223-246
Normalformen – Diagonalisieren und Triangulieren (Christian Karpfinger, Hellmuth Stachel)....Pages 247-303
Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren (Christian Karpfinger, Hellmuth Stachel)....Pages 305-362
Quadriken – vielseitig nutzbare Punktmengen (Christian Karpfinger, Hellmuth Stachel)....Pages 363-408
Back Matter ....Pages 409-432

Citation preview

Christian Karpfinger Hellmuth Stachel

Lineare Algebra

Lineare Algebra

Christian Karpfinger  Hellmuth Stachel

Lineare Algebra

Christian Karpfinger Technische Universität München Garching b. München, Deutschland

ISBN 978-3-662-61339-9 https://doi.org/10.1007/978-3-662-61340-5

Hellmuth Stachel Technische Universität Wien Wien, Österreich

ISBN 978-3-662-61340-5 (eBook)

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum Die Inhalte dieses Buches basieren größtenteils auf dem Werk „Grundwissen Mathematikstudium – Analysis und Lineare Algebra mit Querverbindungen“, ISBN: 978-3-8274-2308-5 © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Mit Beiträgen von Klaus Lichtenegger Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

V

Vorwort Das Mathematikstudium beginnt üblicherweise mit den beiden Vorlesungen Analysis und Lineare Algebra. Die Lineare Algebra beinhaltet dabei im Wesentlichen die Theorie der Vektorräume und den Matrizenkalkül. Meist findet zu Beginn der Vorlesung eine Einführung statt, die, abhängig vom Dozenten, von einer bis sechs Wochen dauern kann. Hierbei werden Konzepte der Logik, Mengentheorie und der Theorie von Abbildungen, d. h. Funktionen, vorangestellt. Manchmal kommt auch die Vollständige Induktion und/oder auch eine Einführung in die Welt der Zahlen nicht zu kurz. In Abhängigkeit vom Geschmack des Vortragenden gibt es auch eine mehr oder weniger ausführliche Einführung in die Grundlagen von algebraischen Strukturen, sprich Gruppen, Ringe, Körper. Es ist also keineswegs festgelegt, ob Sie in der ersten oder der sechsten Woche des Semesters mit der eigentlichen Linearen Algebra beginnen. Wir haben in dem vorliegenden Buch zur Linearen Algebra einen Mittelweg gewählt. In den ersten beiden Kapiteln finden Sie eine Zusammenstellung der für dieses Buch wichtigen Grundbegriffe wie Mengen, Abbildungen, Relationen, Gruppen, Körper und Ringe. Wenn Sie allerdings einen zügigen Einstieg in die Lineare Algebra vorziehen, so können Sie auch gleich mit dem 7 Kap. 3 beginnen und später, bei Bedarf, die zunächst übersprungenen Inhalte nachholen. Zudem bieten wir in diesem Werk immer wieder klar gekennzeichnete Stellen zur Aufbereitung und Vertiefung des Gelernten an. Natürlich können diese Teile gleichfalls bei der ersten Durchsicht ausgelassen werden. Das vorliegende Buch gibt – mit einigen Anpassungen – die Inhalte zur Linearen Algebra aus dem Buch von T. Arens, R. Busam, F. Hettlich, Ch. Karpfinger, H. Stachel: Grundwissen Mathematikstudium wieder. In diesem mit der gleichen didaktischen Methodik abgefassten Werk, auf das wir unter der Kurzbezeichnung „Grundwissenbuch“ mehrfach verweisen werden, wird ja der Versuch unternommen, die Lineare Algebra und die Analysis von Anfang an parallel zu entwickeln, um den Lesern die Gemeinsamkeiten dieser wichtigen Bausteine der modernen Mathematik vor Augen zu führen. Wenn Sie sich also darüber hinaus über Themen der mathematischen Gedankenwelt informieren wollen, wie z. B. über die Induktion, über komplexe Zahlen oder das Auswahlaxiom, so empfehlen wir dieses Buch von T. Arens, et al. Wir bedanken uns für die fachkundige und stets umsichtige Zusammenarbeit mit Frau Bianca Alton und für die höchst kompetente Projektleitung durch Herrn Dr. Andreas Rüdinger vom Springer-Verlag. Besonders danken möchten wir auch unserem Co-Autor zum Lehrbuch Mathematik, Dr. Klaus Lichtenegger, dessen Material wir hier einfließen lassen konnten. Wir wünschen Ihnen viel Freude und Erfolg mit der Linearen Algebra. Christian Karpfinger Hellmuth Stachel

München, Wien Januar 2020

VII

Inhaltsverzeichnis 1 1.1 1.2 1.3 1.4

Logik, Mengen, Abbildungen – die Sprache der Mathematik . . . . . . . . . . . . . . . . .

2 2.1 2.2 2.3 2.4

Algebraische Strukturen – ein Blick hinter die Rechenregeln . . . . . . . . . . . . . . . . .

3 3.1 3.2 3.3

Lineare Gleichungssysteme – ein Tor zur linearen Algebra . . . . . . . . . . . . . . . . . . . .

4 4.1 4.2 4.3 4.4 4.5

Vektorräume – von Basen und Dimensionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 5.1 5.2 5.3 5.4 5.5

Analytische Geometrie – Rechnen statt Zeichnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

6 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9

Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen . . . . . 169

7 7.1 7.2 7.3 7.4

Determinanten – Kenngrößen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

8 8.1 8.2 8.3

Junktoren und Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grundbegriffe aus der Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Erste Lösungsversuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Lösungsverfahren von Gauß und Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Lösungskriterium und die Struktur der Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 2 5 12 20 31 32 39 46 51 65 66 72 80

87 Der Vektorraumbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Beispiele von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Summe und Durchschnitt von Untervektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

Punkte und Vektoren im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Skalarprodukt im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Weitere Produkte von Vektoren im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abstände zwischen Punkten, Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wechsel zwischen kartesischen Koordinatensystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfungen von linearen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kern, Bild und die Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Darstellungsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verknüpfungen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Invertieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Basistransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Die Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinanten von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anwendungen der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

122 126 134 143 152

171 176 178 185 194 201 207 211 214

224 230 231 237

Normalformen – Diagonalisieren und Triangulieren . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 Berechnung der Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

VIII

Inhaltsverzeichnis

8.4 8.5 8.6 8.7 8.8 8.9

Algebraische und geometrische Vielfachheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Exponentialfunktion für Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Triangulieren von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Berechnung einer Jordan-Normalform und Jordan-Basis . . . . . . . . . . . . . . . . . . . . . . . . . . Das Minimalpolynom einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9 9.1 9.2 9.3 9.4 9.5 9.6 9.7

Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren . . . . . . 305

10 10.1 10.2 10.3 10.4 10.5

Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Norm, Winkel, Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Orthonormalbasen und orthogonale Komplemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Orthogonale und unitäre Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Selbstadjungierte Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

261 269 272 277 283 296

307 313 320 330 333 344 350

Quadriken – vielseitig nutzbare Punktmengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363 Symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hermitesche Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quadriken und ihre Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Singulärwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Pseudoinverse einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

364 374 379 392 395

Serviceteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 Hinweise zu den Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410 Lösungen zu den Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425

IX

Verzeichnis der Übersichten Logik – Junktoren und Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gruppen, Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Produkte von Vektoren im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Homo-, Mono-, Epi-, Iso-, Endo-, Automorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die linearen Abbildungen 'A W v 7! A v mit einer Matrix A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diagonalisieren einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bestimmung einer Jordan-Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die gemeinsamen Eigenschaften ähnlicher Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eigenschaften und Begriffe euklidischer bzw. unitärer Vektorräume . . . . . . . . . . . . . . . . . . . . . . . Die verschiedenen Klassen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reell versus komplex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quadriken im A .R2 / . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quadriken in A .R3 / . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diagonalisieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 53 142 172 211 237 264 291 295 334 354 358 387 390 397

1

Logik, Mengen, Abbildungen – die Sprache der Mathematik

Inhaltsverzeichnis 1.1

Junktoren und Quantoren – 2

1.2

Grundbegriffe aus der Mengenlehre – 5

1.3

Abbildungen – 12

1.4

Relationen – 20 Aufgaben – 28 Antworten zu den Selbstfragen – 29

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_1

1

2

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

n Sie finden unter anderem Antworten zu . . .

4 Wie lassen sich Mengen beschreiben? 4 Was ist eine Abbildung? 4 Wodurch ist eine Äquivalenzrelation gekennzeichnet?

Mathematik kann man als eine Sprache auffassen. Das Vokabular basiert auf der Mengenlehre, und die Logik übernimmt die Rolle der Grammatik. Die Begriffe und Symbole der Mengenlehre und der Logik werden dabei als eine Art Stenografie verwendet um Definitionen, Sätze und Beweise prägnant und klar formulieren zu können. In diesem einführenden Kapitel stellen wir die für uns wesentlichen Begriffe und Symbole der Logik und Mengenlehre zusammen. Da die präzise Einführung dieser Begriffe und Symbole für die lineare Algebra nebensächlich ist, können wir auf einen axiomatischen Aufbau verzichten. Wir benutzen einen intuitiven Zugang zur Logik und Mengenlehre. Dieses Vorgehen, das auch bei Anfängervorlesungen in der Mathematik üblich ist, hat sich bewährt. Man kann somit nach relativ kurzer Einführung schnell zu den Inhalten der Analysis und linearen Algebra kommen. Im Laufe seines Studiums aber sollte sich jeder Mathematikstudent mit einigen wenigen Inhalten der axiomatischen Mengenlehre bzw. der mathematischen Logik vertraut machen. Zur Mengenlehre gehören Abbildungen zwischen Mengen und Relationen auf Mengen. Bei der Einführung dieser Begriffe legen wir ein Augenmerk auf präzise Anwendungen der Begriffe und Symbole der Logik und der bis dahin entwickelten Mengenlehre. Das erscheint einem Neuling in der Mathematik schnell pedantisch oder unnötig abstrakt. Tatsächlich aber ist das korrekte und genaue Anwenden des Formalismus eine unabdingbare Notwendigkeit, um den Weg in die Gedankenwelt der Mathematik zu meistern. 1.1

Junktoren und Quantoren

In der Mathematik geht es darum, Aussagen auf ihren Wahrheitsgehalt hin zu überprüfen. Eine Aussage fassen wir dabei als einen feststellenden Satz auf, dem genau einer der Wahrheitswerte WAHR oder FALSCH zugeordnet werden kann. Eine wahre Aussage wird in der Mathematik oft als Satz bezeichnet. Den Nachweis der Wahrheit dieser Aussage nennt man einen Beweis des Satzes. Bevor wir uns aber an das Beweisen von Sätzen machen, befassen wir uns mit einigen Grundbegriffen der Aussagenlogik. Dabei betreiben wir eine naive Logik, in der wir unterschwellig die sprachliche Vorstellung benutzen. Die mathematische Logik funktioniert auf einem anderen formalen Niveau. Junktoren und Quantoren sind sogenannte Operatoren der Logik. Mit Junktoren werden Aussagen verbunden, Quantoren hingegen binden Variable; dabei verstehen wir unter einer Variablen vorläufig ein Zeichen, für das beliebige Ausdrücke einer bestimmten Art eingesetzt werden können.

Aussagen lassen sich mittels Junktoren verbinden Meist ist man nicht nur an einzelnen Aussagen interessiert, sondern will diese verknüpfen. Das geschieht wie in der Alltagssprache mit Bindewörtern wie nicht, und oder oder. In der formalen Logik nennt man diese Bindewörter Junktoren. Wir bezeichnen im Folgenden Aussagen mit einzelnen Großbuchstaben, etwa A, B, C . Dann notieren wir die Negation (NICHT-Verknüpfung) einer Aussage A durch :A. In der Literatur finden sich auch die Notationen A oder A für die Negation. Wie man es erwartet, ist die Negation so definiert, dass :A dann falsch ist, wenn A wahr ist und umgekehrt. Mithilfe einer Wahrheitstafel lassen sich derartige Sachverhalte übersichtlich darstellen, in dem man alle möglichen Kombinationen auflistet. WAHR und FALSCH werden wir dabei durch w und f abkürzen. Für die Negation erhalten wir A w f

:A f w

Beispiel Für eine reelle Zahl x ist etwa die Negation der

Aussage „x < 5“ durch die Aussage „x  5“ gegeben. Die Negation ist durch „x ist nicht kleiner 5“ gegeben und da es für reelle Zahlen drei Möglichkeiten gibt, kleiner, gleich oder größer, bedeutet die Verneinung der Aussage „x ist größer oder gleich 5“. 9 Neben der Negation haben wir noch die Konjunktion zweier Aussagen, die UND-Verknüpfung, die durch das Symbol ^ ausgedrückt wird, und die Disjunktion, die ODER-Verknüpfung, mit dem Zeichen _. Eine Wahrheitstafel liefert uns die verschiedenen Werte für die beiden Verknüpfungen: A w w f f

B w f w f

A^B w f f f

A_B w w w f

Beachten Sie, dass in der Logik die Disjunktion stets ein einschließendes ODER bezeichnet, im Gegensatz zur Umgangssprache, in der oft nur aus dem Zusammenhang deutlich wird, ob es sich nicht vielleicht um ein „entweder . . . oder“ handelt. Formal können wir mit den gegebenen Symbolen auch ein ausschließendes ODER beschreiben durch .A _ B/ ^ :.A ^ B/ : In der Literatur wird für diese Verknüpfung die Bezeichnung XOR mit der Notation AX B genutzt.

3 1.1  Junktoren und Quantoren

Implikationen sorgen für klare Beziehungen

Beispiel Wir beweisen ein berühmtes Ergebnis, das von Euklid stammt. Es handelt sich um die Aussage: „Es gibt unendlich viele Primzahlen, also Zahlen, die nur durch eins Eine weitere logische Verknüpfung ist die Implikation. und sich selbst teilbar sind.“ Diese WENN-DANN-Verknüpfung wird manchmal auch Den Beweis führen wir mittels Widerspruch. Man als Subjunktion bezeichnet. Es geht um die Logik des ma- nimmt an, es gäbe nur endlich viele Primzahlen. Dann muss thematischen Folgerns der Art „Wenn A wahr ist, so ist es eine größte geben, die wir mit p bezeichnen wollen. Nun auch B wahr“ oder kurz gesagt „Aus A folgt B.“ bildet man das Produkt aller Primzahlen von zwei bis p und Bei der Definition dieser Verknüpfung von Aussagen addiert eins: geht man einen auf den ersten Blick recht seltsamen Weg. Genauso wie oben bei der UND-Verknüpfung beschrieben, r D 2  3  5  7  11  : : :  p C 1 bezeichnet die Implikation weder einen zeitlichen noch einen kausalen Zusammenhang zwischen den Aussagen, Diese neue Zahl r ist durch keine der Primzahlen von zwei was uns aber umgangsprachlich durch die Formulierungen bis p teilbar, bei der Division bleibt immer ein Rest von „wenn . . . dann“ bzw. „folgt“ suggeriert wird. Die Aussage eins. Es gibt also nur zwei Möglichkeiten: Entweder es gibt „A impliziert B“, formal notiert durch A ) B, ist nur dann eine Primzahl, die größer ist als p und durch die r teilbar falsch, wenn A wahr und B falsch ist. Ist also A von vorn- ist, oder r ist selbst eine Primzahl. In beiden Fällen erhalherein falsch, dann ist die Gesamtaussage A ) B immer ten wir einen Widerspruch zur Annahme, dass p die größte wahr. Primzahl ist.

A w w f f

B w f w f

A)B w f w w

Kommentar In der Aussagenlogik gilt das Prinzip ex fal-

Formal wurden in diesem Beweis die beiden Aussagen AW p ist eine Primzahl BW Es gibt eine Primzahl pQ mit pQ > p betrachtet und die Implikation A ) B durch einen Widerspruch gezeigt. 9

so quodlibet, – aus Falschem folgt Beliebiges. Mit einer einzigen falschen Grundannahme kann man, zumindest prinzipiell, jede beliebige Aussage beweisen. Äquivalenz heißt genau dann, wenn Im Zusammenhang mit der Implikation werden zwei Sprechweisen häufiger genutzt. Hat man eine wahre Implikation A ) B vorliegen, so sagt man, „A ist hinreichend für B“; denn, wenn die Implikation A ) B wahr ist, so folgt aus A wahr, dass auch B wahr ist. Oder die Situation wird aus anderem Blickwinkel beschrieben durch „B ist notwendig für A“, da wir die wahre Implikation auch so lesen können, dass A nur wahr sein kann, wenn B gilt. ? Selbstfrage 1.1 Für eine gegebene natürliche Zahl n stellen wir die drei Aussagen AW

n ist durch 12 teilbar

BW

n ist durch 3 teilbar

CW

2 n ist durch 6 teilbar

gegenüber. Welche „notwendigen“ und „hinreichenden“ Beziehungen bestehen zwischen diesen Aussagen?

Mit der Implikation haben wir die wichtigste logische Verknüpfung von Aussagen für das Beweisen formuliert. Letztendlich sind mathematische Sätze, Lemmata und Folgerungen meistens in Form von wahren Implikationen formuliert, und Beweisen heißt, dass man begründet, warum eine Implikation wahr ist. Dabei zerfallen die Beweise üblicherweise in einzelne kleine Beweisschritte, die für sich genommen wiederum wahre Implikationen sein müssen.

Die drei oben aufgeführten Möglichkeiten eine Implikation zu formulieren sind gleichwertig, die entsprechenden Spalten in der Wahrheitstafel liefern dieselben Werte. Aussagen, die diese Eigenschaft haben, nennt man äquivalent. Äquivalenz, die GENAU-DANN-WENN-Verknüpfung von Aussagen, ist der logische Gleichheitsbegriff für Aussagen. Sie wird durch einen Doppelpfeil , zwischen den Aussagen symbolisiert und wird gelesen als „es gilt genau dann A, wenn B gilt“. Die Gesamtaussage A , B ist wahr, wenn A und B entweder beide wahr oder beide falsch sind. Ist eine der beiden Aussagen wahr, die andere falsch, so ist auch A , B falsch. Die zugehörige Wahrheitstabelle lautet: A w w f f

B w f w f

A,B w f f w

Manchmal wird für die Äquivalenz zweier Aussagen auch die Formulierung verwendet, dass Aussage A „notwendig und hinreichend“ für Aussage B ist. Wir haben schon gesehen, das Äquivalenz zwischen A und B vorliegt, wenn der Spezialfall eintritt, dass die Implikation zweier Aussagen in beide Richtungen wahr ist.

1

4

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Genauer bedeutet die Beobachtung, dass die beiden Aussagen A , B und ..A ) B/ ^ .A ( B// äquivalent sind. Im Sinne einer Beweisführung heißt dies, dass wir Äquivalenz von zwei Aussagen zeigen können, indem wir getrennt beweisen, dass die beiden Implikationen gelten. Diesen Weg werden wir bei komplizierteren Äquivalenzbeweisen sehr häufig nutzen. Der Vorteil dabei liegt darin, dass sich so unterschiedliche Beweistechniken nutzen lassen, etwa die eine Richtung durch einen direkten Beweis und die andere Richtung durch einen Widerspruch.

Stellen Sie eine Wahrheitstafel auf, die die Äquivalenz von A , B und ..A ) B/ ^ .A ( B// belegt. Beispiel Wir machen uns das Vorgehen bei Äquivalenzbe-

weisen an einem einfachen Beispiel klar. Für eine reelle positive Zahl x betrachten wir drei Aussagen BW x 2 > 1;

B)C

A gilt,“ bedeutet, dass zumindest ein derartiges x existiert. A darf aber auch für mehrere oder sogar alle möglichen x wahr sein. Meinen wir, dass es genau ein entsprechendes Objekt geben soll, also eines und nur eines, so müssen wir das dazusagen. Wie auch überall sonst in Mathematik und Logik müssen wir die Sprache ernst nehmen und sauber einsetzen.

C W ln x 2 > 0 :

Um die Äquivalenz von A und B zu zeigen, könnten wir folgendermaßen argumentieren. Zunächst zeigen wir A ) B: Wenn x > 1 gilt, so folgt, indem wir die Ungleichung mit x multiplizieren, die Ungleichungskette x 2 D x  x > x > 1. Also ergibt sich x 2 > 1. Andererseits gilt B ) A. Dazu wählen wir einen indirekten Beweis; denn aus der Annahme x  1 folgt x 2  x und somit x 2  1. Also gilt: x 2 > 1 impliziert x > 1. Nun könnten wir die Äquivalenz zwischen A und C zeigen. Damit hätten wir die Äquivalenz aller drei Aussagen bewiesen. Häufig bietet sich aber bei mehreren Äquivalenzen eine Kette von Implikationen an. Statt die Äquivalenzen separat zu beweisen, zeigen wir A ) B;

Hierbei bezeichnet jeweils A.x/ eine Aussageform. i Eine Existenzaussage von der Form „Es gibt ein x, für das

? Selbstfrage 1.2

AW x > 1;

tigkeit von Aussagen quantifizieren sollen. Die beiden hier angesprochenen sind 4 Existenzquantor 9 „9 x W A.x/“ ist gleichbedeutend mit „Es existiert ein x, für das A.x/ wahr ist“. 4 Allquantor 8 „8 x W A.x/“ ist gleichbedeutend mit „Für alle x ist A.x/ wahr“.

und C ) A :

Die erste dieser drei Implikationen haben wir oben gezeigt. Wir setzen nun voraus, dass wir bereits wissen, dass ln 1 D 0 ist und dass der natürliche Logarithmus streng monoton steigend ist. Damit folgt direkt B ) C . Als Letztes ergibt sich aus 0 < ln.x 2 / D 2 ln x ; dass ln x > 0 ist, und somit x > 1 gelten muss. Wir haben C ) A bewiesen und somit die Kette geschlossen. Wegen dieser Beweisstruktur A ) B ) C ) A spricht man auch von einem Ringschluss. 9

Quantoren erlauben knappes Hinschreiben von Existenz- und Allaussagen Für diese beiden Formen von Aussagen gibt es formale Schreibweisen. Man nutzt dazu Quantoren, die die Gül-

Fragen nach Existenz, „gibt es . . . ?“, und nach der Eindeutigkeit, „gibt es höchstens ein . . . ?“ sind zentral in der Mathematik und werden uns sehr oft begegnen. Quantoren, Variablen und Junktoren werden von nun an miteinander zu vielfältigen Aussagen zusammengesetzt. Sehr oft hat man es dabei auch mit Verschachtelungen zu tun, deren Abhängigkeiten unbedingt zu beachten sind. Beispiel Wir betrachten die Aussage „Zu jeder reellen Zahl x gibt es eine natürliche Zahl n, die größer als x ist.“ Hier haben wir zunächst eine Allaussage, der eine Existenzaussage folgt, also formal

8x 2 R 9n 2 N W x < n: Die Gesamtaussage ist in diesem Fall wahr. Würde man einfach naiv die Reihenfolge der Aussagen umstellen, so erhielte man „Es gibt eine natürliche Zahl n, die größer ist als jede reelle Zahl x.“ Das ist eine ganz andere Aussage. In diesem Fall ist sie zudem falsch. Die Reihenfolge der Quantoren spielt fast immer eine entscheidende Rolle. 9 Existenz- und Allaussagen lassen sich natürlich auch negieren, dabei ändert sich ihr Charakter von Grund auf. Sagen wir, eine Aussage A trifft nicht auf alle x zu, so muss es zumindest ein x geben, für das A nicht gilt. Umgekehrt verneinen wir, dass es ein x gibt, für das A gilt, so muss A für alle x falsch sein. Kurz, die Verneinung einer Allaussage ist eine Existenzaussage, die Verneinung einer Existenzaussage ist eine Allaussage. In formaler Notation liest sich das als :.8 x W A.x// ist äquivalent zu 9 x W :A.x/; :.9 x W A.x// ist äquivalent zu 8 x W :A.x/:

5 1.2  Grundbegriffe aus der Mengenlehre

Übersicht: Logik – Junktoren und Quantoren

Wir fassen hier die wichtigsten Junktoren und Quantoren noch einmal kurz zusammen. Wichtige Junktoren :

Negation (NICHT)

^

Konjunktion (UND)

_

Disjunktion (ODER)

)

Implikation (WENN-DANN)

,

Äquivalenz (GENAU-DANN-WENN)

A w w f f

B w f w f

:A f f w w

A^B w f f f

Einige wichtige logische Äquivalenzen   .A , B/ , .A ) B/ ^ .B ) A/ .A ) B/ , :.A ^ :B/

(Widerspruchsbeweis)

.A ) B/ , .:B ) :A/

(indirekter Beweis)

.A _ B/ , :.:A ^ :B/ .A ^ B/ , :.:A _ :B/

A_B w w w f

A)B w f w w

Quantoren 9 Existenzquantor („es gibt ein . . . “) A,B w f f w

8

Allquantor („für alle . . . “ )

Verneinen von Quantoren :.8x W A.x// ist äquivalent zu

9x W :A.x/

:.9x W A.x//

8x W :A.x/

ist äquivalent zu

Außerdem werden gelegentlich verwendet: "

(NAND)

mit A " B , :.A ^ B/

X

(XOR)

mit AX B , ..A _ B/ ^ :.A ^ B//

Abschließend weisen wir noch auf zwei weitere Beweistechniken hin, die man leicht übersehen kann. Um eine Existenzaussage zu zeigen, genügt es ein konkretes Beispiel anzugeben, bei dem die betreffende Aussageform zur wahren Aussage wird. Genauso ist es ausreichend, ein Gegenbeispiel anzugeben, um eine Allaussage zu widerlegen. Natürlich gibt es kein Rezept, wie man im Einzelfall ein Beispiel bzw. Gegenbeispiel findet. Ein erfolgreiches Ausprobieren erfordert im Allgemeinen ein weitreichendes Verständnis des betrachteten Problems. Beispiel Wir können die Aussage „Es gibt eine ganzzahlige

Lösung der Gleichung x 4  2x 3  11x 2 C 12x C 36 D 0,“ dadurch beweisen, dass wir eine Lösung, nämlich x D 3, angeben. Genauso lässt sich die Aussage „Für alle reellen Zahlen x gilt x 2 C 32 x C 17 32  0, “ dadurch widerlegen, indem 3 man x D  einsetzt. Man erhält dann nämlich den Wert  3 2 3 3 4 17 1  2  4 C 32 D  32 . 9 4

Sätzen und Beweisen auseinandersetzen und dabei in den tiefen Gründen der Mathematik graben. Dabei berühren wir gleich ein Thema, das Komplikationen mit sich bringt – der Begriff der Menge. Georg Cantor, der Begründer der Mengenlehre, definierte diesen Begriff wie folgt:

Der Mengenbegriff nach Cantor Unter einer Menge verstehen wir jede Zusammenfassung M von bestimmten, wohlunterschiedenen Objekten x unserer Anschauung oder unseres Denkens zu einem Ganzen.

Diese Definition ist so nicht sinnvoll, sprich keine Definition: Der zu definierende Begriff Menge wird durch einen undefinierten Begriff Zusammenfassung erklärt. Und tatsächlich kamen kurz nach Cantors Definition einer Menge die ersten Beispiele, die Cantors Mengenlehre zum Einsturz brachten (man beachte die Box Die Russell’sche Antinomie in diesem Kapitel). Aber für unsere Zwecke innerhalb 1.2 Grundbegriffe aus der Mengenlehre der linearen Algebra ist der intuitive Begriff einer Menge im Sinne einer Zusammenfassung von wohlunterschiedeAuch wenn wir schon erste (mathematische) Formeln be- nen Objekten zu einem Ganzen völlig ausreichend. Eine trachtet haben, so haben wir bisher nur über Mathematik präzise Definition einer Menge ist möglich. Dies erforgesprochen und eigentlich noch keine Mathematik gemacht dert aber einen erheblichen Aufwand, der üblicherweise in – wir haben die Grammatik der Sprache Mathematik ge- Spezialvorlesungen zur Mengenlehre betrieben wird. Wir schildert. Nun kommen wir zum Alphabet der Mathematik verzichten auf eine solche präzise Definition und beschrei– der Mengenlehre. Wir werden uns nun mit Definitionen, ben Mengen durch ihre Eigenschaften.

1

6

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

4 Z D f0; 1; 1; 2; 2; : : :g – die Menge aller ganzen Zahlen, 4 Q D f mn j n 2 N; m 2 Zg – die Menge aller rationalen Ist M eine Menge, so werden die wohlunterschiedenen ObZahlen, jekte x von M die Elemente von M genannt. 4 R – die Menge aller reellen Zahlen, Der Grundbegriff der Mengenlehre ist die Elementbe- 4 C D fa C i b j a; b 2 Rg – die Menge aller komplexen ziehung, wir schreiben Zahlen. 4 x 2 M , falls x ein Element der Menge M ist, und 4 x … M , falls x nicht Element der Menge M ist. Es ist auch sinnvoll, von einer Menge zu sprechen, die keine Elemente enthält – die leere Menge ;. Auch die SchreibDabei sind für x 2 M Sprechweisen wie „x ist Element weise fg ist für die leere Menge üblich. Wir können die leere von M “ oder „x liegt in M “ üblich. Analog sagt man „x Menge des Weiteren durch Eigenschaften beschreiben: ist nicht Element von M “ oder „x liegt nicht in M “ für ; D fx 2 N j x < 1g : x … M. Mengen lassen sich auf zwei verschiedene Arten ange- Die Mathematiker betrachten die Zahlenmengen nicht als ben: Man kann die Elemente einer Menge explizit auflisten von Gott gegeben. Durch mathematische Prozesse können oder man beschreibt die Elemente durch ihre Eigenschaf- aus N die Zahlenmengen Z, Q, R und C Schritt für Schritt 0 ten. Die explizite Angabe der Elemente ist vor allem bei gewonnen werden. Auch die Menge N kann durch einen 0 kleinen Mengen sinnvoll. mathematischen Prozess konstruiert werden. Dazu geht man

Mengen sind durch ihre Elemente gegeben

Beispiel

4 Die Menge M aller Primzahlen, die kleiner als 10 sind, ist M D f2; 3; 5; 7g :

mengentheoretisch vor. Man erhält die natürlichen Zahlen sukzessive aus der Null durch folgende Festlegungen: 0 D ;; 1 D f;g; 2 D f;; f;gg; 3 D f;; f;g; f;; f;ggg; : : :

Man beachte, es ist z. B. 3 D f0; 1; 2g; : : : In diesem Sinne 4 Die (unendliche) Menge N der natürlichen Zahlen kann sind die natürlichen Zahlen Mengen, deren Elemente Menwie folgt beschrieben werden: gen sind. N D f1; 2; 3; : : :g : 9 Neben dieser expliziten Angabe der Elemente einer Menge kann man die Elemente einer Menge auch durch ihre Eigenschaften erklären: Ist E eine Eigenschaft, so ist M D fx j E .x/g

i Die Begriffe Element und Menge sind somit relativ. Bildet man z. B. die Menge aller oben aufgeführten Mengen, also M D fN; N0 ; Z; Q; R; C; ;g ; so ist etwa Z einerseits Menge (von ganzen Zahlen), zugleich aber auch Element (nämlich der Menge M ).

die Menge aller Elemente x, die die Eigenschaft E haben. Kommentar Wir haben hier einen Sachverhalt angesprochen, dem man in der Mathematik wiederholt begegnet: Man Dabei wird der senkrechte Strich j gesprochen als kann eine mathematische Struktur durch ein (widerspruchfreies) Axiomensystem festlegen oder aus grundlegenderen „für die gilt“ oder „mit der Eigenschaft“ : Strukturen konstruieren. Das Musterbeispiel hierfür ist die Eine eventuelle Grundmenge, aus der die Elemente x sind, Menge der reellen Zahlen, die einerseits durch ein Axiomenwird oft vor dem Strich j festgehalten. system festgelegt werden kann, andererseits über Zwischenstufen aus der leeren Menge konstruiert werden kann. Beispiel

4 M D fx 2 N j x > 2 ; x  9g D f3; 4; 5; 6; 7; 8; 9g. 4 M D fx j x ist eine gerade natürliche Zahlg D Zwei Mengen sind gleich, wenn sie f2; 4; 6; : : :g D fx 2 N j 9 k 2 N mit x D 2 kg. 9 Teilmengen voneinander sind Wir geben im Folgenden gesammelt die sogenannten Zahlenmengen an. Diese sind den meisten Lesern aus der Schulzeit gut vertraut. Wir werden diese Mengen immer wieder in Beispielen zu allen möglichen Mengenoperationen heranziehen, die wir in den folgenden Abschnitten behandeln werden. 4 N D f1; 2; 3; : : :g – die Menge aller natürlichen Zahlen, 4 N0 D f0; 1; 2; : : :g – die Menge aller natürlichen Zahlen mit der Null,

Wir nennen eine Menge A eine Teilmenge einer Menge B, falls jedes Element von A auch ein Element von B ist und schreiben dafür A  B oder B  A, d. h., A  B , Für alle x 2 A gilt x 2 B : Die Teilmengenbeziehung  wird Inklusion genannt, und man sagt auch „die Menge A ist in B enthalten“ oder „die Menge B umfasst A“.

7 1.2  Grundbegriffe aus der Mengenlehre

Hintergrund und Ausblick: Die Russell’sche Antinomie

Cantors Mengenbegriff führt zu Widersprüchen. Folglich ist seine Beschreibung einer Menge keine Definition im mathematischen Sinne. Wir geben dazu ein Objekt an, das nach Cantors Definition eine Menge sein müsste, aber sich nicht mit den Regeln der Mathematik vereinbaren lässt. Die Bildung von Mengen, die nur endlich viele Elemente enthalten, ist unproblematisch. Schwierigkeiten können aber auftreten bei der Bildung gewisser unendlicher Mengen. Die Mengen N; Z; Q; R; C sind unendliche Mengen, aber dennoch so klein, dass auch sie unproblematisch sind. Wir brauchen Zusammenfassungen, die noch viel größer sind. Für Mengen A dürfte A … A wohl der Normalfall sein; Mengen, die sich selbst als Element enthalten, scheinen etwas suspekt zu sein. Aber auch A 2 A ist vorstellbar, man denke etwa an einen Verein, der Mitglied bei sich selbst ist. Wir definieren eine Zusammenfassung, die nach Cantors Definition eine Menge ist: M D fx j x … xg : Nun fragen wir, ob M ein Element der Menge M ist, oder ob das nicht der Fall ist. Es muss ja laut Logik gelten: Entweder ist M 2 M oder es ist M … M : Genau eine der beiden Aussagen ist richtig, genau eine falsch. 4 Angenommen, es ist M 2 M . Dann hat M die Eigenschaft M … M – ein Widerspruch. 4 Angenommen, es ist M … M . Dann hat M die Eigenschaft M 2 M – ein Widerspruch. Zusammen: Sowohl M 2 M als auch M … M sind falsch. Mit diesem Beispiel von Russell brach die naive Mengenlehre von Cantor zusammen.

Dass B keine Teilmenge von A ist – wir schreiben dafür B 6 A oder A 6 B – bedeutet, dass es in B ein Element gibt, das nicht in A ist. Wir halten nun unsere erste beweisdürftige Aussage fest:

Was lässt sich daraus schließen? So naiv darf man Mengen nicht bilden. Diese Konstruktion von Russell hat zu Beginn des 20. Jahrhunderts die von Cantor und anderen entwickelte Mengenlehre ad absurdum geführt und die Entwicklung axiomatischer Mengenlehren eingeleitet und mitbestimmt. Der intuitive Hintergrund für den in der Antinomie (griech. Unvereinbarkeit von Gesetzen) auftretenden Widerspruch ist der: Das oben definierte Gebilde M D fx j x … xg ist riesengroß. Viel zu viele Objekte haben die Eigenschaft, nicht Element von sich selbst zu sein. Also ist festzuhalten: Es ist Vorsicht geboten bei der Bildung allzu großer (unendlicher) Mengen. Für den Inhalt der Mathematik des ersten Studienjahres soll der Hinweis reichen, dass alle hier auftretenden Mengen und Mengenbildungen im Rahmen der gebräuchlichen Mengenlehre akzeptabel sind – aber mit etwas Mutwillen kann man auch hier Schaden anrichten: Sprechen Sie nie von der Menge aller Vektorräume oder Gruppen oder Körper, . . . – eine solche gibt es nicht. Die Antinomie von Russell hat eine berühmte Veranschaulichung, die wir nicht vorenthalten wollen: Der Barbier eines Ortes, der genau die Bewohner des Ortes barbiert, die sich nicht selbst barbieren, barbiert der sich selbst? Im Rahmen der axiomatischen Mengenlehre werden allgemeinere Objekte – die sogenannten Klassen – eingeführt. Mengen sind dann spezielle Klassen. Die Vorstellung, dass Mengen kleine Klassen sind, ist dabei äußerst nützlich. 4 U. Friedrichsdorf, A. Prestel, Mengenlehre für den Mathematiker, Vieweg, 1985

M mit ; 6 M , anders ausgedrückt: ;  M für jede Menge M . Die Aussage M  M gilt aufgrund der Tatsache, dass für jedes Element m aus M offensichtlich m 2 M gilt. 

Für jede Menge M gilt:

Wenn A  B, aber B 6 A gilt, so heißt A echte Teilmenge von B. Wir schreiben dafür A ¤ B oder B ¥ A. Dass A eine echte Teilmenge von B ist, bedeutet: Jedes Element von A ist ein Element von B, in B aber gibt es mindestens noch ein weiteres Element, das nicht in A ist.

;M

i Man beachte, dass die Schreibweise A  B nicht falsch

Die leere Menge ist Teilmenge jeder Menge

und

M M:

ist, falls sogar A ¤ B gilt. Beweis Die erste Inklusion begründen wir durch einen Widerspruchsbeweis. Dazu nehmen wir an, es existiert eine Menge M , für die gilt ; 6 M . Hiernach gibt es in ; ein Element, das nicht in M liegt. Dies ist ein Widerspruch. Somit stimmt die Annahme nicht: Es existiert keine Menge

Beispiel Es gelten die folgenden (echten) Inklusionen bzw.

Negationen von Inklusionen: 4 f1g ¤ f1; 2g und f1g  f1; 2g und f1; 2g  f1; 2g. 4 f1; 2g 6 f1; 3g und f1; 2g 6 f11; 4g. 4 N ¤ N0  Z ¤ Q  R ¤ C. 9

1

8

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

? Selbstfrage 1.3 Formulieren Sie A  B und A ¤ B mithilfe von Quantoren.

Wir sagen, die zwei Mengen A und B sind gleich, wenn sie die gleichen Elemente enthalten. Mithilfe der Inklusion können wir das wie folgt formal ausdrücken:

Gleichheit von Mengen Die Mengen A und B sind gleich, in Zeichen A D B, wenn jedes Element von A ein Element von B ist und jedes Element von B eines von A ist, kurz:

. Abb. 1.1 Der Durchschnitt A \ B enthält alle Elemente, die sowohl in A als auch in B enthalten sind

A

B

. Abb. 1.2 Die Vereinigung A [ B enthält alle Elemente, die in A oder B enthalten sind

A

B

. Abb. 1.3 Die Differenz A n B enthält alle Elemente von A, die kein Element von B sind

A

B

A D B , ..A  B/ ^ .B  A// :

Die Menge A [ B D fx j x 2 A ODER x 2 Bg Um zu beweisen, dass zwei Mengen A und B gleich sind, geht man also wie folgt vor: 4 Wähle ein beliebiges Element x in A und zeige, dass x heißt die Vereinigung von A und B. Und schließlich nennt man die Menge in B liegt. Das zeigt A  B. 4 Wähle ein beliebiges Element x in B und zeige, dass x A n B D fx j x 2 A UND x … Bg in A liegt. Das führt zur zweiten Inklusion B  A. Oftmals lassen sich beide Inklusionen in einem Schritt zeigen: A D B , ..x 2 A/ , .x 2 B// : In der Analysis beweist man die Gleichheit zweier reeller Zahlen a und b manchmal ganz ähnlich: Man zeigt a  b und b  a. Auf den folgenden Seiten folgen mehrere Beispiele, in denen wir die Gleichheit von Mengen begründen. Kommentar Unsere Definition der Gleichheit von Men-

gen ist extensional: Zwei Mengen sind gleich, wenn sie dieselben Elemente enthalten. Der juristische Gleichheitsbegriff von Vereinen ist nicht extensional; zwei Vereine, die dieselben Mitglieder haben, sind nicht unbedingt gleich. Der Sängerverein Frohsinn und der Schützenverein Ballermann von Entenhausen sind verschieden, obwohl sie dieselben Mitglieder haben, der eine Verein ist steuerbegünstigt, der andere nicht. Dass zwei gleiche Objekte auch stets gleiche Eigenschaften besitzen, sagt das auf Leibniz zurückgehende Ersetzbarkeitstheorem aus, dessen Gültigkeit wir axiomatisch voraussetzen.

die Differenz von A und B. Gilt A \ B D ;, so heißen A und B disjunkt oder auch elementfremd. Für die Durchschnitts- und Vereinigungsbildung gelten Rechengesetze, die von den ganzen Zahlen her bekannt sind.

Rechengesetze für Durchschnitts- und Vereinigungsbildung Für beliebige Mengen A, B und C gelten 4 die Assoziativgesetze: A \ .B \ C / D .A \ B/ \ C

und

A [ .B [ C / D .A [ B/ [ C ; 4 die Kommutativgesetze: A \ B D B \ A und

A [ B D B [ A;

4 die Distributivgesetze: A \ .B [ C / D .A \ B/ [ .A \ C /

Mengen kann man vereinigen, miteinander schneiden, voneinander subtrahieren, und manchmal kann man auch das Komplement betrachten Für zwei Mengen A und B heißt die Menge A \ B D fx j x 2 A UND x 2 Bg der Durchschnitt von A und B.

und

A [ .B \ C / D .A [ B/ \ .A [ C / :

Beweis Es gilt:

A \ .B \ C / D A \ fx j x 2 B ^ x 2 C g D fx j x 2 A ^ x 2 B ^ x 2 C g D fx j x 2 A ^ x 2 Bg \ C D .A \ B/ \ C

9 1.2  Grundbegriffe aus der Mengenlehre

. Abb. 1.4 Das Komplement CB .A/ enthält alle Elemente von B, die nicht Element von A  B sind

B

A

und A \ B D fx j x 2 A ^ x 2 Bg D fx j x 2 B ^ x 2 Ag D B \ A:

Beweis Wir zeigen das erste Gesetz, das zweite beweist man analog. Weil die Komplemente stets bezüglich derselben großen Menge M gebildet werden, verwenden wir die Kurzschreibweise Ac , B c für die Komplemente. Die Gleichheit der Mengen .A [ B/c und Ac \ B c ergibt sich aus:

x 2 .A [ B/c , x 2 M n .A [ B/ , x 2 .M n A/ \ .M n B/ , x 2 Ac \ B c :

Dabei liefert ) die Inklusion .A [ B/c  Ac \ B c und ( die Inklusion Ac \ B c  .A [ B/c . Insgesamt folgt damit c c c Das Assoziativ- und Kommutativgesetz für die Vereinigung .A [ B/ D A \ B .  begründet man analog. Zu begründen sind noch die DistriDie Inklusion A  B lässt sich mit den eingeführten Menbutivgesetze. Es gilt: genoperationen kennzeichnen, offenbar gelten (i) mit der Vereinigung: x 2 A \ .B [ C / , x 2 A ^ .x 2 B _ x 2 C / A  B , A[B D B; , .x 2 A ^ x 2 B/ _ .x 2 A ^ x 2 C / , x 2 A\B _ x 2A\C (ii) mit dem Durchschnitt: , x 2 .A \ B/ [ .A \ C / : A  B , A \B D A; Somit sind die beiden Mengen A \ .B [ C / und .A \ B/ [ .A \ C / gleich, beachte hierzu die Bemerkung nach der (iii) mit der Differenz: Definition der Gleichheit von Mengen. Um das zweite Distributivgesetz zu zeigen, geht man analog vor.  A  B , A n B D ;: Ist A eine Teilmenge von B, A  B, so heißt die Menge CB .A/ D B n A das Komplement von A bzgl. B. Z. B. gilt

?Selbstfrage 1.4 Begründen Sie kurz diese Äquivalenzen.

Das kartesische Produkt zweier Mengen A und B ist die Menge aller geordneten Paare

CZ .N/ D f0; 1; 2; : : :g und CN .N/ D ; : In einer euklidischen Ebene E lässt sich jeder Punkt p bezüglich eines kartesischen Koordinatensystems durch zwei Menge A üblich. Bei dieser Schreibweise muss aber klar reelle Zahlen a und b beschreiben, und umgekehrt besein, bezüglich welcher Menge das Komplement gebildet stimmt jedes geordnete Paar .a; b/ zweier reeller Zahlen wird. Beachte das obige Beispiel für N c . a und b einen Punkt der Ebene. Wir können somit die euDas Komplement einer Vereinigung ist der Schnitt der klidische Ebene E als die Menge aller geordneten Paare Komplemente, und das Komplement eines Schnittes ist die auffassen (. Abb. 1.5): Vereinigung der Komplemente, das besagen die Regeln von R2 D R R D f.a; b/ j a; b 2 Rg : De Morgan: i Auch die Schreibweise Ac ist für das Komplement der

Im Allgemeinen gilt .a; b/ ¤ .b; a/, z. B. ist Die Regeln von De Morgan Für beliebige Mengen A; B  M gelten die Regeln: CM .A [ B/ D CM .A/ \ CM .B/ ; CM .A \ B/ D CM .A/ [ CM .B/ :

.2; 1/ ¤ .1; 2/ : Solche Mengen geordneter Paare kann man mit beliebigen Mengen A, B bilden. Die Menge A B D f.a; b/ j a 2 A; b 2 Bg

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

10

y

1

p

b

A

A

B

B

a

x

. Abb. 1.6 Darstellung des kartesischen Produkts A B als Rechtecksfläche

. Abb. 1.5 Der Punkt p D .a; b/ hat die Koordinaten a und b

Die Menge heißt kartesisches Produkt oder Produktmenge von A f.x; 0/ 2 R2 j x 2 Rg und B. Dabei ist A D B erlaubt, für A A schreiben wir kurz A2 . Für zwei Elemente .a; b/; .c; d / 2 A B gilt: ist die x-Achse und .a; b/ D .c; d / , a D c ; b D d : D. h. zwei geordnete Paare sind genau dann gleich, wenn sie komponentenweise gleich sind.

f.0; y/ 2 R2 j y 2 Rg ist die y-Achse in der Ebene R2 . 9

Zur Darstellung eines Punkts des dreidimensionalen eukliKommentar Wir sind bei der Einführung der kartesischen dischen Raumes benötigt man drei reelle Zahlen. Weil bei Produkts einer intuitiven Auffassung gefolgt und haben ei- vielen Problemstellungen, z. B. aus der Physik, auch drei ne Definition des Begriffs geordnetes Paar vermieden. Sind Dimensionen nicht ausreichen, definieren wir allgemein für A und B Mengen, so ist nach K. Kuratowski das geordne- endlich viele Mengen A1 ; A2 ; : : : ; An mit n 2 N te Paar .a; b/ für a 2 A und b 2 B (mengentheoretisch) n Y definiert als Ai D A1    An i D1 D f.a1 ; : : : ; an / j a1 2 A1 ; : : : ; an 2 An g .a; b/ D ffag; fa; bgg : das kartesische Produkt von A1 ; : : : ; An . Das Element Es macht keine große Mühe nachzuweisen, dass die obige .a ; : : : ; a / heißt ein (geordnetes) n-Tupel. Für zwei 1 n Gleichheit für geordnete Paare tatsächlich gilt. n-Tupel .a1 ; : : : ; an /; .b1 ; : : : ; bn / 2 A1    An gilt Beispiel

fa; b; cg f1; 2g D f.a; 1/; .a; 2/; .b; 1/.b; 2/; .c; 1/; .c; 2/g und A ; D ;:

.a1 ; : : : ; an / D .b1 ; : : : ; bn / , a1 D b1 ; : : : ; an D bn : Falls alle Mengen gleich einer Menge A sind, d. h. A D A1 D    D An , so schreibt man kürzer An für A    A. Im Fall A D R und n D 3 erhält man so den (dreidimensionalen) Anschauungsraum R3 D f.a1 ; a2 ; a3 / j a1 ; a2 ; a3 2 Rg :

Die (Anschauungs-)Ebene kann man als R2 D R R beDie Potenzmenge einer Menge M ist schreiben. Sind A und B endliche Intervalle in R, so kann die Menge aller Teilmengen von M man die Menge A B D f.a; b/ j a 2 A ; b 2 Bg als rechteckige Fläche zeichnen, siehe . Abb. 1.6.

Ist M eine Menge, so heißt P .M / D fA j A  M g

11 1.2  Grundbegriffe aus der Mengenlehre

die Potenzmenge von M . Ihre Elemente sind sämtliche Vorstellung aus, dass eine endliche Menge M dadurch geTeilmengen von M ; man beachte, dass für jede Menge M geben ist, dass M nur endlich viele Elemente enthält. Wir die leere Menge ; und M Elemente von P .M / sind. Für nennen 8 die Potenzmenge von M ist auch die Schreibweise 2M ge0 ! R; fW x 7! x 2

eine Familie von Elementen aus X. Für die Abbildung x schreibt man kurz .xi /i 2I – die Definitionsmenge I der Familie x dient also als Indexmenge. Die Bilder der Indizes i sind die Elemente xi 2 X. Wir schreiben für die Familie x auch kurz f.i; xi / j i 2 I g

oder .xi /i 2I :

Im Fall I D N und X D R erhalten wir die reellen Folgen zurück. Sind die Elemente xi von X wiederum Mengen, so nennt man die Familie .xi /i 2I auch ein Mengensystem. 9 ?Selbstfrage 1.5 Für die Menge aller Abbildungen f von X in Y ist auch die Schreibweise Y X üblich. Zeigen Sie, dass im Falle jXj; jY j 2 N gilt: jY X j D jY jjX j :

Sowohl Elemente als auch Teilmengen

eine Abbildung von R>0 in R. Abbildungen von Teilkönnen Bilder und Urbilder haben mengen von Rn bzw. C n in Teilmengen von Rm bzw. m C nennt man auch Funktionen und wählt gerne die Schreibweise Ist f W X ! Y eine Abbildung, so heißt y D f .x/ 2 Y das Bild von x unter der Abbildung f – es ist y durch f W R>0 ! R ; f .x/ D x 2 : f eindeutig bestimmt. Und das Element x 2 X heißt ein Urbild des Elements y 2 Y – das Element x ist durch f Nur dann, wenn aus dem Kontext die Wertmenge und und y nicht notwendig eindeutig bestimmt. der Definitionsbereich einer Funktion klar erkennbar y D f .x/ sind, sprechen wir gelegentlich kurz von der Funktion 2 " " y D f .x/ oder f .x/ D x . das Bild von x ein Urbild von y 4 Es ist  gW

P .N/ ! N0 [ f1g;

x 7! jxj

Wir dehnen diese Begriffe auf naheliegende Art und Weise auf Teilmengen von X bzw. Y aus. Ist f W X ! Y eine Abbildung, so heißt für jede Teilmenge A  X und B  Y die Menge

eine Abbildung von der Potenzmenge von N in N0 [ f1g. Daher ist x eine Teilmenge von N und jxj ihre f .A/ D ff .a/ j a 2 Ag  Y Mächtigkeit. 4 Eine Abbildung a von der Menge der natürlichen Zah- die Bildmenge von A unter f oder das Bild von A unter f und die Menge len N in R aW

 N ! R; n 7! a.n/

f 1 .B/ D fx 2 X j f .x/ 2 Bg  X

die Urbildmenge von B unter f oder das Urbild von B unter f . Im Fall einer einelementigen Menge Y , d. h. Y D nennt man auch eine reelle Folge, anstelle von a.n/ fbg, gilt schreibt man an und für die Abbildung a kurz .an /n2N . Folgen spielen eine zentrale Rolle in der Mathematik. f 1 .fbg/ D fx 2 A j f .x/ D bg :

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

14

1

Beispiel Wir betrachten die Abbildung

 gW

P .N/ ! N0 [ f1g;

so folgt unmittelbar aus der Gleichheit von Mengen und jener von geordneten Paaren:

x 7! jxj:

Gleichheit von Abbildungen

Die Bildmenge von A D f;; f2g; f56gg  P .M / ist g.A/ D f0; 1g, und die Urbildmenge von f2g  N0 [ f1g ist die Menge aller zweielementigen Teilmengen von N. 9

Für zwei Abbildungen f; gW X ! Y gilt: f D g , f .x/ D g.x/ 8 x 2 X :

i Bei einer einelementigen Menge B D fbg  Y schreibt man gerne einfacher f 1 .b/ anstelle f 1 .fbg/,

f 1 .b/ D fx 2 X j f .x/ D bg  X : Diese Schreibweise ist aber mit Vorsicht zu genießen. Manche Abbildungen f haben eine sogenannte Umkehrabbildung. Für diese Umkehrabbildung ist die Schreibweise f 1 üblich. Es ist dann f 1 .y/ das Bild von y unter der Abbildung f 1 , insbesondere also ein Element der Bildmenge der Abbildung f 1 . Bei obiger Schreibweise ist aber f 1 .y/ D f 1 .fyg/ eine Teilmenge der Definitionsmenge von f . Wir werden die etwas umständlichere Schreibweise f 1 .fyg/ bevorzugen, um solche Verwirrungen gar nicht aufkommen zu lassen.

Beispiel Es seien f und g Abbildungen von N nach N0 , wobei f .x/ D kleinster nicht negativer Rest bei ganzzahliger Division von x durch 3. g.x/ D kleinster nicht negativer Rest bei ganzzahliger Division von x 3 durch 3. Die beiden Abbildungsvorschriften sind verschieden, aber es gilt:

f .1/ D 1 D g.1/ ; f .2/ D 2 D g.2/ ; f .3/ D 0 D g.3/ : Allgemein erhält man f .x/ D g.x/ für alle x 2 N. Das liegt daran, dass n3  n D .n  1/ n .n C 1/ ein Vielfaches von 3 ist. Die Abbildungen f und g sind somit gleich. 9

Zwei Abbildungen sind gleich, wenn sie die gleiche Definitions- und Wertemenge haben und die Bilder jeweils gleich sind Die Restriktion einer Abbildung f ist eine Teilmenge von f

Eine Abbildung f ist dann vollständig definiert, wenn ihre Definitionsmenge X, ihre Wertemenge Y und ihr Graph Wir werden sowohl in der Analysis wie auch in der linearen Algebra häufig Abbildungen einschränken, d. h. wir Gf D f.x; f .x// j x 2 Xg X Y betrachten eine gegebene Abbildung f W X ! Y nur auf einer Teilmenge A  X. Weil wir den Definitionsbereich angegeben sind. In den folgenden Beispielen wird der ändern, betrachten wir eine neue Abbildung, für diese müsGraph Gf häufig implizit durch die Abbildungsvorschrift sen wir ein neues Symbol einführen. x 7! f .x/ angegeben. Beispiel Die Abbildungen

 R ! R; f W x 7! x 2

Definition der Restriktion einer Abbildung



N ! N; und g W x 7! x 2

haben identische Abbildungsvorschriften, nämlich x 7! x 2 ; man schreibt bei der expliziten Angabe der Vorschrift auch f .x/ D x 2 . Aber die Abbildungen haben sehr verschiedene Eigenschaften: p p 4 y D 2 hat unter f die zwei Urbilder 2 und  2; 4 y D 2 hat unter g kein Urbild. 9 Sind f und g zwei Abbildungen von X nach Y , etwa Gf D f.x; f .x// j x 2 Xg und Gg D f.x; g.x// j x 2 Xg ;

Ist f W X ! Y eine Abbildung, so nennt man für jede Teilmenge A  X die Abbildung ( f jA W

A ! Y; x 7! f .x/

die Restriktion oder Einschränkung von f auf A.

Man beachte, dass f jA D .A; Y; Gf jA / mit Gf jA D f.x; f .x// j x 2 Ag  A Y natürlich wieder eine Abbildung ist. Im Fall A D X gilt f jA D f .

15 1.3  Abbildungen

Beispiel Die Restriktion der Funktion

 R ! R; fW x 7! x 3

injektiv, surjektiv

injektiv, nicht surjektiv

nicht injektiv, surjektiv

nicht injektiv, nicht surjektiv

auf N, das ist die Abbildung f jN W

 N ! R; ; n 7! n3

ist die reelle Folge .n3 /n2N . 9 ? Selbstfrage 1.6 Geben Sie eine Funktion f W A ! B an, sodass f jA0 dasselbe Bild wie f hat, obwohl A0 eine echte Teilmenge von A ist.

In der Mathematik steht man oft vor dem umgekehrten Problem, dem sogenannten Fortsetzungsproblem: Gegeben ist eine Abbildung f W A ! Y und eine A umfassende Menge X, d. h. A  X. Das Problem lautet: Gibt es eine Abbildung fQW X ! Y mit fQjA D f , die eine gewisse geforderte Eigenschaft besitzt. Kommentar

. Abb. 1.8 Illustration der Eigenschaften injektiv und surjektiv. Nur die Abbildung links oben ist sowohl injektiv als auch surjektiv, also bijektiv

4 Eine Abbildung f W X ! Y ist genau dann surjektiv, wenn f .X/ D Y gilt. Injektiv plus surjektiv ist bijektiv 4 Eine Abbildung f W X ! Y ist genau dann surjektiv, wenn zu jedem y 2 Y mindestens ein x 2 X mit f .x/ D y existiert. Bei einer Abbildung f W X ! Y ist jedem x 2 X genau 4 Eine Abbildung f W X ! Y ist genau dann bijektiv, ein y 2 Y zugeordnet. Wir geben den zusätzlichen Eigenwenn zu jedem y 2 Y genau ein x 2 X mit f .x/ D y schaften existiert. 4 Je zwei verschiedenen Elementen aus X sind auch zwei verschiedene Elemente aus Y zugeordnet und Alle diese Kennzeichnungen sind wichtig, man sollte sich 4 jedes Element aus Y wird einem x zugeordnet, diese daher gut einprägen. Die bijektiven Abbildungen sind die eine Abbildung haben kann, Namen:

Definition von Injektivität, Surjektivität und Bijektivität Eine Abbildung f W X ! Y heißt 4 injektiv, falls aus f .x1 / D f .x2 / für x1 ; x2 2 X folgt x1 D x2 , 4 surjektiv, falls zu jedem y 2 Y ein x 2 X existiert mit f .x/ D y, 4 bijektiv, falls f injektiv und surjektiv ist.

Wir können die Definitionen auch anders formulieren, es gilt nämlich offenbar: 4 Eine Abbildung f W X ! Y ist genau dann injektiv, wenn für x1 ¤ x2 aus X stets f .x1 / ¤ f .x2 / folgt. 4 Eine Abbildung f W X ! Y ist genau dann injektiv, wenn zu jedem y 2 Y höchstens ein x 2 X mit f .x/ D y existiert.

gerade jene Abbildungen, die man umkehren kann, auf diese Kennzeichnung kommen wir bald zu sprechen. Für endliche Mengen kann man sich die Begriffe an einer Skizze veranschaulichen (. Abb. 1.8). Eine injektive bzw. surjektive bzw. bijektive Abbildung nennt man oft auch kürzer Injektion bzw. Surjektion bzw. Bijektion. Beispiel

4 Ist M die Menge aller Menschen und bezeichnet #KH.m/ die Anzahl der Kopfhaare von m 2 M , so ist die Abbildung  M ! N0 ; f W m 7! #KH.m/ weder injektiv noch surjektiv. Es gibt nämlich mindestens zwei (verschiedene) Menschen m1 und m2 , die keine Kopfhaare haben, d. h. #KH.m1 / D #KH.m2 /, sodass f nicht injektiv ist. Und es gibt sicherlich keinen Menschen, der 1010 2 N Kopfhaare hat. Folglich ist f auch nicht surjektiv.

1

16

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

4 Die Abbildung  N ! N; f W n 7! n C 1 ist injektiv, da gilt: n C 1 D f .n/ D f .m/ D m C 1 impliziert n D m : Die Abbildung f ist nicht surjektiv, da das Element 1 2 N nicht als Bild auftritt: À n 2 N mit f .n/ D 1 : Da f nicht surjektiv ist, ist f auch nicht bijektiv. 4 Die Abbildung  N ! f˙1g; f W n 7! .1/n

Zwei Mengen sind gleichmächtig, wenn es eine Bijektion zwischen ihnen gibt Wir werden nun Mengen nach ihrer Größe klassifizieren. Dabei werden uns injektive, surjektive und bijektive Abbildungen als Maßstab dienen.

Gleichmächtige Mengen Zwei Mengen A und B heißen gleichmächtig, wenn es eine bijektive Abbildung f W A ! B gibt. Wir schreiben dann AB

oder

jAj D jBj :

ist surjektiv (f .1/ D 1 und f .2/ D 1), aber nicht Man schreibt weiterhin injektiv (f .1/ D f .3/) und somit auch nicht bijektiv. jAj  jBj ; 4 Für jede Menge X ist die Abbildung idX W X ! X, idX .x/ D x eine Bijektion. wenn es eine injektive Abbildung von A in B gibt, und 4 Für die Abbildungen   jAj < jBj R ! R; R0 ! R; f f1 W W 2 x 7! x 2 ; x 7! x 2 ; für   R ! R0 ; R0 ! R0 ; jAj  jBj ; jedoch jAj ¤ jBj I f4 W f3 W x 7! x 2 ; x 7! x 2 gilt: – f1 ist weder surjektiv (1 … f .R/) noch injektiv (f .1/ D f .1/). – f2 ist nicht surjektiv (1 … f .R/) aber injektiv (f .x/ D f .y/ ) x D y). p – f3 ist surjektiv (y 2 R0 ) f . y/ D y) aber nicht injektiv (f .1/ D f .1/). – f4 ist sowohl surjektiv (siehe f3 ) als auch injektiv (siehe f2 ). 9 ? Selbstfrage 1.7 Ist die Abbildung ( N ! N0 ; f W n 7! n  1 injektiv, surjektiv oder bijektiv? Kommentar Man kann zu jeder injektiven Abbildung f durch Einschränkung der Wertemenge auf das Bild von f eine bijektive Abbildung erklären: Ist

f WX !Y injektiv, so ist die Abbildung  X ! f .X/ Q f W x 7! f .x/ bijektiv.

d. h., es gibt eine injektive Abbildung von A in B, aber keine bijektive. In dieser Situation sagt man auch „A hat eine kleinere Mächtigkeit als B“ oder „B hat eine größere Mächtigkeit als A“. Im Fall jAj D jf1; 2 : : : ; ngj ; d. h., es gibt eine Bijektion von A in f1; 2 : : : ; ng, setzt man jAj D n und nennt A endlich, wenn es ein n 2 N0 gibt mit jAj D n. Bei Abbildungen zwischen endlichen und gleichmächtigen Mengen folgt die Bijektivität aus der Injektivität bzw. Surjektivität, es gilt nämlich: Lemma Für jede Abbildung f W A ! B zwischen endlichen und gleichmächtigen Mengen A und B, d. h. jAj D jBj 2 N0 , sind äquivalent: (i) f ist injektiv, (ii) f ist surjektiv, (iii) f ist bijektiv. Beweis (i) ) (ii): Die Abbildung f W A ! B sei injektiv.

Dann gilt jf .A/j D jAj D jBj : Aus f .A/  B folgt damit f .A/ D B. Somit ist f surjektiv.

17 1.3  Abbildungen

(ii) ) (iii): Die Abbildung f W A ! B sei surjektiv. Jede endliche Menge hat weniger Elemente als die unendAngenommen, es gibt a; a0 2 A mit a ¤ a0 und f .a/ D liche Menge N. Die unendliche Menge N hat wiederum weniger Elemente als die unendliche Menge R. Wir zeigen f .a0 /. Dann folgt: nun, dass sich diese Folge von größer werdenden Mengen jf .A/j < jAj D jBj : beliebig fortsetzen lässt. Die Potenzmenge einer Menge hat Das ist ein Widerspruch zu f .A/ D B. Damit ist begrün- nämlich immer eine echt größere Mächtigkeit als die zugrunde liegende Menge. Folglich gibt es beliebig große det, dass f injektiv und somit bijektiv ist. (iii) ) (i): Falls f bijektiv ist, so ist f auch injektiv.  Mengen. Im Fall jAj D jNj heißt A abzählbar; es gibt dann eine bijektive Abbildung i 7! xi von N auf A – man kann also die Die Mächtigkeit der Potenzmenge Elemente von A abzählen: x1 ; x2 ; x3 : : : Die unendlichen Für jede Menge A gilt jAj < jP .A/j. Mengen A kann man durch jNj  jAj charakterisieren, d. h., eine Menge A ist genau dann unendlich, wenn es eine injektive Abbildung von N in A gibt. In der Analysis zeigt Beweis Die Abbildung  W A ! P .A/, a 7! fag ist inman, dass gilt: jektiv, sodass jAj  jP .A/j gilt. Wir begründen, dass keine jNj D jQj < jRj : surjektive Abbildung von A auf P .A/ existiert. Angenommen, es gibt eine surjektive Abbildung f W Somit ist die nicht endliche Menge R nicht abzählbar. Eine P .A/. Für jedes a 2 A ist dann f .a/  A. Wir A ! nicht endliche Menge, die nicht abzählbar ist, nennt man betrachten die Menge B D fa 2 A j a … f .a/g 2 P .A/. überabzählbar. Bei solchen Mengen kann man die EleWeil f surjektiv ist, gibt es ein a 2 A mit f .a/ D B. mente nicht mehr mit den natürlichen Zahlen durchnumme1. Fall: a 2 B. Dann ist a 2 A und a … f .a/ D B, ein rieren. Die Menge R ist ein Beispiel einer überabzählbaren Widerspruch. Menge. 2. Fall: a … B. Dann ist a 2 A und a … B D f .a/, also doch a 2 B, ein Widerspruch. Beispiel Da in beiden Fällen ein Widerspruch eintritt, muss die 4 Für jede natürliche Zahl n ist die Abbildung Annahme falsch sein.   Z ! n Z; f W z 7! n z

Man kann Abbildungen hintereinander

injektiv (aus f .z1 / D f .z2 / folgt z1 D z2 ) und surjektiv (das Element n z 2 n Z ist Bild von z 2 Z unter f ). ausführen, falls die Bildmenge der einen im Definitionsbereich der anderen liegt Daher gilt für jedes n 2 N: jZj D jn Zj : Sind f eine Abbildung von X in Y und g eine Abbildung 4 Die Mengen N0 und Z sind gleichmächtig, jN0 j D jZj, von Y in Z, das folgt aus der Bijektivität der Abbildung  N0 ! Z; f W X ! Y und g W Y ! Z ; f W n 7! 14 .1  .1/n .2n C 1//: so können wir die beiden Abbildungen hintereinander ausEs gilt f .0/ D 0. Für alle ungeraden n 2 N, n D 2 k1 führen, d. h., wir bilden aus den beiden Abbildungen f und mit k 2 N gilt f .2 k  1/ D k, und für alle geraden g das Produkt g ı f : n 2 N, n D 2 k mit k 2 N gilt f .2 k/ D k. Folglich ist f surjektiv. Die Abbildung f ist auch injektiv, denn aus f .n/ D f .m/ folgt zunächst .1/n .2n C 1/ D Die Komposition von Abbildungen .1/m .2m C 1/. Aus Vorzeichengründen folgt weiter, Es seien f W X ! Y und g W Y ! Z Abbildungen. Dann dass n und m beide gerade oder beide ungerade sind. ist Daraus wiederum folgt 2n C 1 D 2m C 1 und somit n D m. Also ist f tatsächlich bijektiv. ( X ! Z; 4 Das Intervall .1; 1/ D fx 2 R j  1 < x < 1g ist gıf W x 7! g.f .x// gleichmächtig zu R. Es ist nämlich  .1; 1/ ! R; eine Abbildung von X nach Z. Diese heißt die Kompof W x x 7! 1x 2 sition oder Hintereinanderausführung oder Verkettung eine Bijektion. Den Nachweis hierfür haben wir als Übungsaufgabe gestellt. 9

von f und g.

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

18

Beispiel Gegeben sind die Abbildungen

g

1

Dg

 f W

f

R ! R; x 7! x 2

und g W

 R ! R; : x 7! 2 x C 1

Wgıf f .Df /

Df

Dann gilt: g.f .x// D 2 x 2 C 1 und

Wf gıf

. Abb. 1.9 Eine Verkettung von Abbildungen ist nur dann möglich, wenn der Bildbereich der ersten im Definitionsbereich der zweiten enthalten ist

Das Bild .g ı f /.x/ von x unter der Abbildung g ı f entsteht durch Anwenden von g auf das Bild f .x/ von x unter f .

f .g.x// D 4 x 2 C 4x C 1 : Folglich gilt g ı f ¤ f ı g. 9 Aber – und das ist wichtig! – diese Multiplikation ist assoziativ:

Die Komposition ist assoziativ Gegeben seien drei Abbildungen:

i Nicht immer können zwei Abbildungen f und g zu einer Abbildung g ı f zusammengesetzt werden. Möglich ist das genau dann, wenn das Bild von f im Definitionsbereich von g liegt (siehe . Abb. 1.9). Beispiel Die beiden Abbildungen

 N ! R; f W n 7! n1 können zu gıf W

(



f1 W X 1 ! X 2 ; f2 W X 2 ! X 3 ; f3 W X 3 ! X 4 : Dann sind f3 ı .f2 ı f1 / und .f3 ı f2 / ı f1 Abbildungen von X1 nach X4 , und es gilt: f3 ı .f2 ı f1 / D .f3 ı f2 / ı f1 :

R0 ! R0 ; p und g W x 7! x

N ! R0 ; q n 7! n1

verkettet werden. Hingegen ist das für   N ! R; R0 ! R0 ; p f W und g W 1 x 7! x n 7!  n nicht möglich, weil Quadratwurzeln im Reellen nur für positive Argumente definiert sind. 9

Beweis Sowohl f3 ı .f2 ı f1 / als auch .f3 ı f2 / ı f1 sind Abbildungen von X1 nach X4 . Zu zeigen ist daher nur, dass für jedes x 2 X1 beide Abbildungen dasselbe Element in X4 liefern, und das sieht man ganz einfach durch Auswerten der Abbildungen für ein (beliebiges) x 2 X1 :

.f3 ı .f2 ı f1 //.x/ D f3 ..f2 ı f1 /.x// D f3 .f2 .f1 .x/// ; ..f3 ı f2 / ı f1 /.x/ D .f3 ı f2 /.f1 .x// D f3 .f2 .f1 .x/// :

Der Fall X D Y D Z ist besonders interessant. Sind f und Somit sind die beiden Abbildungen gleich.  g zwei Abbildungen von einer Menge X in sich, Bei dieser Multiplikation von Abbildungen tauchen Ähnf W X ! X und g W X ! X ; lichkeiten zu Zahlenmengen auf. Wir betrachten die Menge so ist auch g ı f eine Abbildung von X in sich. Dadurch ist M aller Abbildungen f einer Menge X in sich mit der eine Multiplikation auf der Menge aller Abbildungen von Multiplikation ı – man schreibt dafür .M; ı/. Wir vergleiX nach X erklärt. Diese Multiplikation hat ein sogenanntes chen diese algebraische Struktur .M; ı/ z. B. mit .Z; C/. In beiden Strukturen gilt das Assoziativgesetz und beide Einselement, die identische Abbildung: enthalten ein Einselement, in .M; ı/ ist das idX , in .Z; C/ idX ı f D f und f ı idX D f : lautet es 0. Die Verknüpfung ı in M ist nicht kommutativ, Man beachte, dass diese Multiplikation nicht kommutativ die Verknüpfung C in Z hingegen schon. Es ist ein wesentlicher und notwendiger Abstraktionsschritt, sich daran ist, im Allgemeinen gilt: zu gewöhnen, dass man mit Abbildungen rechnen kann als f ı g ¤ g ı f: wären es Zahlen.

19 1.3  Abbildungen

Genau die bijektiven Abbildungen sind umkehrbar

Definitionsmenge von g bzw. f liegt. Wir werten nun diese Abbildungen gıf WX !X

und f ı g W Y ! Y

Wir zeigen, dass sich die bijektiven Abbildungen umkehren für x 2 X und y 2 Y aus: lassen. Wir stellen diesem wichtigen Satz von der Umkehrabbildung ein Lemma voran. g ı f .x/ D g.f .x// D g.y/ D x D idX .x/ und f ı g.y/ D f .g.y// D f .x/ D y D idY .y/ : Lemma Für Abbildungen f W X ! Y und g W Y ! X gelte: Mit dem Satz zur Gleichheit von Abbildungen folgt nun g ı f D idX und f ı g D idY , wir halten fest: f ı g D idY : Dann sind f surjektiv und g injektiv.

Satz von der Umkehrabbildung

Wir zeigen zuerst, dass f surjektiv ist: Es sei y 2 Y gegeben. Wegen f ı g D idY gilt:

Beweis

Ist f W X ! Y eine bijektive Abbildung, so existiert genau eine Abbildung g W Y ! X mit g ı f D idX

f .g.y// D y : Somit ist y das Bild des Elements x D g.y/ 2 X unter f . Nun begründen wir, dass g injektiv ist: Dazu sei g.y1 / D g.y2 / für y1 ; y2 2 Y angenommen. Nun wenden wir die Abbildung f an und erhalten

f ı g D idY :

Man nennt g die Umkehrabbildung oder die zu f inverse Abbildung. Man bezeichnet sie üblicherweise mit f 1 . Die Abbildung f 1 ist ebenfalls bijektiv und hat die Umkehrabbildung .f 1 /1 D f :

f .g.y1 // D f .g.y2 // : Wegen der Voraussetzung folgt y1 D y2 .

und



Die Existenz der Umkehrabbildung haben wir schon gezeigt. Wir begründen die Eindeutigkeit von g: Ist Falls also g ı f D idX und f ı g D idY gilt, so besagt auch g 0 W Y ! X eine Abbildung mit dieses Lemma, dass f und g injektiv und surjektiv sind. f ı g 0 D idY und g 0 ı f D idX ; Folgerung Sind f W X ! Y und g W Y ! X zwei Abbilso folgt: dungen mit den Eigenschaften g ı f D idX

und f ı g D idY ;

so sind g und f bijektiv.

Beweis

g 0 D idX ı g 0 D .g ı f / ı g 0 D g ı .f ı g 0 / D g ı idY D g : Schließlich zeigt obige Folgerung, dass die Abbildung g, d. h. f 1 , bijektiv ist. Und die beiden Gleichungen

Wir wollen diese Aussage nun umkehren, d. h., wir erklären zu einer bijektiven Abbildung f W X ! Y eine neue f ı f 1 D idY und f 1 ı f D idX Abbildung g W Y ! X, sodass die beiden Gleichheiten zeigen wegen der bewiesenen Eindeutigkeit der Umkehrabg ı f D idX und f ı g D idY erfüllt sind. 1 Ist f W X ! Y eine bijektive Abbildung, so existiert zu bildung, dass f die Umkehrabbildung von f ist, d. h. jedem y 2 Y genau ein x 2 X mit f .x/ D y, d. h. f D .f 1 /1 :  jf 1 .fyg/j D 1 für jedes y 2 Y : Daher können wir zu jedem bijektiven f eine weitere Abbildung g W Y ! X definieren: Wir setzen g.y/ D x für das (eindeutige) x mit f .x/ D y : Die Abbildungen f W X ! Y und g W Y ! X können wir hintereinander ausführen, wir können sowohl f ı g wie auch g ı f bilden, da die Bildmenge von f bzw. g in der

Existiert zu f eine Umkehrabbildung f 1 , so sagt man auch kurz f ist umkehrbar oder f ist invertierbar. i Ist f W X ! Y bijektiv und B  Y , so hat das Zeichen f 1 .B/ nun zwei Bedeutungen:

A1 D f 1 .B/ D fx 2 X j f .x/ 2 Bg ist die Urbildmenge von B unter f , und A2 D f 1 .B/

1

20

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

ist die Bildmenge von B unter f 1 . Das macht aber nichts, es gilt nämlich A1 D A2 . Das sieht man wie folgt: x 2 A1 , f .x/ D b 2 B , x D f 1 .b/ 2 f 1 .B/

Die Abbildung g ıf ist surjektiv: Zu jedem z 2 Z existiert wegen der Surjektivität von g ein y 2 Y mit g.y/ D z. Zu diesem y 2 Y wiederum existiert wegen der Surjektivität von f ein x 2 X mit f .x/ D y. Insgesamt erhalten wir mit diesen x und y:

, x 2 A2 : Man beachte auch die grundverschiedenen Bedeutungen von f 1 .x/

und

g ı f .x/ D g.f .x// D g.y/ D z ; sodass das Element z 2 Z ein Urbild x 2 X bezüglich der Abbildung g ı f hat. 

.f .x//1 :

1.4 Das Element .f .x//1 ist das Inverse von f .x/ aber f 1 .x/ ist das Bild von x unter der Abbildung f 1 .

Relationen

Wir können aus jeder injektiven Abbildung eine bijektive Abbildung machen. Dazu ist es nur notwendig, die WerBeispiel 1 temenge einzuschränken. Ist es auch möglich, aus einer 4 Für jede Menge X ist idX D idX . surjektiven Abbildung eine bijektive zu machen? Die Ant4 Die Abbildung wort ist ja, wir zeigen das in diesem Abschnitt. Wir werden  dazu den Begriff der Gleichheit vergröbern. Wir werden N ! N0 ; f W Elemente einer Menge als äquivalent bezeichnen, wenn n 7! n  1 sie gewisse vorgebene gleiche Eigenschaften haben. Diese zueinander äquivalenten Elemente fassen wir dann in ist bijektiv, ihre Umkehrabbildung lautet Mengen zusammen und behandeln diese Mengen wieder  N0 ! N; als Elemente einer Menge. Das hat eine Ähnlichkeit mit 1 : f W n 7! n C 1 Schubläden – zueinander äquivalente Elemente werden in Schubläden gesteckt, und es wird dann mit den Schubläden 4 In der Analysis definiert man den Logarithmus anstelle der Elemente weitergearbeitet. Wir betrachten also erneut Mengen, wobei nun Elemenln W R>0 ! R ; y 7! ln y te einer Menge zueinander in einem Verhältnis stehen. Ein solches Verhältnis, wir werden das als Relation bezeichals die Umkehrabbildung der (bijektiven) Exponential- nen, definieren wir zuerst sehr allgemein. Wir werden dann abbildung Äquivalenzrelationen betrachten. exp W R ! R>0 ; x 7! ex : 9

Eine Relation auf X ist eine Teilmenge

Die Hintereinanderausführung gıf zweier Abbildungen f und g von einer Menge X in sich ist wieder eine Abbildung von X  X von X in sich. Sind g und f bijektiv, so ist auch g ı f bijektiv. Es seien X und Y beliebige Mengen. Jede Teilmenge   X Y heißt (binäre bzw. zweistellige) Relation auf X Y . Wir werden nur binäre Relationen betrachten und sprechen Die Komposition von bijektiven Abbildungen ist von nun an kurz von Relationen. Der Graph Gf einer Abbijektiv bildung f von X in Y ist eine Relation auf X Y mit der Sind f W X ! Y und g W Y ! Z bijektiv, so ist auch zusätzlichen Eigenschaft, dass es zu jedem x aus X genau g ı f W X ! Z bijektiv. ein y aus Y gibt. ?Selbstfrage 1.8 Beweis Die Abbildung g ı f ist injektiv: Aus

g.f .x// D g.f .y// mit x; y 2 X folgt wegen der Injektivität von g f .x/ D f .y/ : Aus der Injektivität von f folgt nun x D y.

Vornehm ausgedrückt spricht man beim Graph einer Abbildung f von einer linkstotalen und rechtseindeutigen Relation auf X Y – warum wohl? Weiter nennt man den Graph einer injektiven Abbildung auch linkseindeutig und den einer surjektiven auch rechtstotal – warum wohl?

Im Fall X D Y , das werden wir im weiteren stets voraussetzen, spricht man auch kurz von einer Relation auf X .

21 1.4  Relationen

Man beachte, dass eine Relation  auf X eine Menge von geordneten Paaren aus X X ist. Durch die Teilmenge  werden ganz bestimmte Paare aus X X ausgezeichnet, nämlich genau diejenigen, die zueinander in der Relation  stehen. Anstelle von .x; y/ 2  schreibt man auch x  y und benutzt die Sprechweise „x steht in Relation zu y“, x  y , .x; y/ 2  : Beispiel

Reflexiv, symmetrisch, antisymmetrisch und transitiv Eine Relation  auf der Menge X heißt: 4 reflexiv, wenn für alle x 2 X gilt x  x, 4 symmetrisch, wenn für alle x; y 2 X mit x  y gilt y  x, 4 antisymmetrisch, wenn für alle x; y 2 X mit x  y und y  x gilt x D y, 4 transitiv, wenn für alle x; y; z 2 X mit x  y und y  z gilt x  z.

4 Auf der Menge N ist die Teilbarkeit j eine Relation. Dabei sagt man, eine natürliche Zahl a teilt eine natürliche Zahl b, wenn es ein c 2 N gibt mit a c D b. Als Schreibweise verwendet man dafür a j b. Es gilt: Wir sehen uns erneut die letzten Beispiele an und erhalten: j D f.a; b/ 2 N N j a j bg :

Beispiel

4 Die Relation j auf N ist reflexiv, antisymmetrisch und Zum Beispiel gilt .3; 3/; .3; 9/; .12; 36/ 2 j. transitiv. 4 Auf der Menge X aller Geraden der Ebene ist die Par4 Die Relation k auf der Menge X aller Geraden einer allelität k eine Relation. Es gilt: Ebene ist reflexiv, symmetrisch und transitiv. 4 Die Relation  auf R ist reflexiv, antisymmetrisch und k D f.g; h/ 2 X X j g k hg : transitiv. 4 Auf der Menge R der reellen Zahlen ist die Anordnung 4 Die Relation .mod n/ auf Z ist reflexiv, symmetrisch  eine Relation. Es gilt: und transitiv. Wir weisen die Transitivität nach: Es gelte a b .mod n/ und b c .mod n/. Folglich gilt n j  D f.a; b/ 2 R R j a  bg : a  b und n j b  c. Hieraus erhalten wir 4 Wir definieren eine Relation  auf der Menge Z der ganzen Zahlen. Es seien n 2 N und a; b 2 Z. Wir sagen, a  b D r n und b  c D s n a ist kongruent zu b modulo n, falls n die Zahl a  b für ganze Zahlen r und s. Eine Addition dieser beiden teilt, kurz: Gleichungen liefert ab , n j a b: a  c D .a  b/ C .b  c/ D .r  s/ n ; Für n D 3 gilt z. B. .5; 2/; .2; 1/; .4; 4/ 2 . Für diese Relation  schreibt man üblicherweise , genauer d. h. n j a  c. Damit ist gezeigt a c .mod n/. .mod n/, d. h., 4 Die Gleichheit D auf X ist reflexiv, symmetrisch, antisymmetrisch und transitiv. a b .mod n/ , n j a  b : 4 Die Inklusion  auf P .X/ ist reflexiv, antisymmetrisch 4 Auf jeder Menge X ist die Gleichheit D eine Relation. und transitiv. 9 4 Auf der Potenzmenge P .X/ jeder Menge X ist die Inklusion  eine Relation. 9 Kommentar Die Relation ist besser auf der Menge der Gegenstände des täglichen Lebens ist sicherlich als eine Kommentar Eigentlich ist eine Relation  auf X Y ein transitive Relation zu verstehen. Findet man etwa, dass Tripel  D .X; Y; R /, wobei R  X Y . In diesem Sinne Schokolade besser ist als ein Apfel und dass ein Apfel ist eine Abbildung eine spezielle Relation. besser ist als Spinat, so wird man sicher auch auch der Meinung sein, dass Schokolade besser ist als Spinat.

Relationen können reflexiv, symmetrisch, antisymmetrisch oder transitiv sein Eine Relation  auf einer Menge X ist nichts weiter als eine Menge von Paaren aus X X. Betrachten wir z. B. die Menge X D R der reellen Zahlen. Hier haben wir die bekannte Relation . Diese Relation  hat z. B. die Eigenschaft x  x für jedes x 2 R. Wir fassen die für uns wichtigen Eigenschaften, die eine Relation haben kann, zusammen:

Eine Ordnungsrelation ist reflexiv, antisymmetrisch und transitiv Wir sind es gewohnt, die natürlichen Zahlen anzuordnen, dabei betrachten wir für beliebige a; b; c 2 N die folgenden Regeln als selbstverständlich: 4 a  a, 4 aus a  b und b  a folgt a D b, 4 aus a  b und b  c folgt a  c.

1

22

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Diese Regeln sind genau die Reflexivität, Antisymmetrie Ein maximales Element muss kein größtes und Transitivität. Element sein Ist  eine Ordnungsrelation auf einer Menge X, so können wir die Elemente der Menge X größenmäßig erfassen. Bei Eine Relation  auf einer Menge X heißt eine Ordnungseiner linearen Ordnungsrelation können wir sogar von je relation auf X, wenn sie reflexiv, antisymmetrisch und zwei Elementen a; b 2 X entscheiden, welches von beiden transitiv ist. Man nennt dann .X; / eine geordnete größer bzw. kleiner ist. Insbesondere kann man bei einer Menge. endlichen Menge sogar entscheiden, welches das größte bzw. kleinste Element ist. Eventuell haben auch unendliche Mengen ein größtes oder ein kleinstes Element, allgemein definiert man: Wir erhalten sofort einfache Beispiele: 4 Ein Element a 2 X heißt größtes Element von X, falls für alle x 2 X gilt a  x. Beispiel 4 Da  eine Ordnungsrelation auf der Menge R der reel- 4 Ein Element a 2 X heißt kleinstes Element von X, falls für alle x 2 X gilt x  a. len Zahlen ist, ist .R; / eine geordnete Menge. 4 Da die Teilbarkeit j auf N eine Ordnungsrelation ist, ist Das kleinste und das größte Element ist, falls es denn exis.N; j / eine geordnete Menge. 4 Die Potenzmenge jeder Menge X ist mit der Ordnungs- tiert, eindeutig. relation  eine geordnete Menge .P .X/; /. 9 Lemma Es sei .X; / eine geordnete Menge. Falls in X ein größtes oder kleinstes Element existiert, so ist dieses Man beachte, dass man bei einer Ordnungsrelation nicht eindeutig bestimmt. verlangt, dass jedes x zu jedem y in Relation steht, z. B. kann man die Teilmengen f1; 2g und f3g von X D f1; 2; 3g Beweis Sind a; b 2 X größte Elemente, so gilt nicht miteinander vergleichen, es gilt: Ordnungsrelation, geordnete Menge

f1; 2g 6 f3g

und

f3g 6 f1; 2g :

Das ist beim Beispiel mit den reellen Zahlen ganz anders. Man kann für beliebige x und y aus R entscheiden, ob x  y oder y  x

a  b ; da a  x 8 x 2 X und b  a ; da b  x 8 x 2 X ; folglich gilt a D b. Analog zeigt man die Behauptung für das kleinste Element.  Beispiel

4 Die Menge N hat bezüglich der üblichen Ordnung das gilt. Diese zusätzliche Eigenschaft einer Ordnungsrelation kleinste Element 1, aber kein größtes Element. Die bekommt einen eigenen Namen: Mengen Z und R haben bezüglich der üblichen OrdEine Ordnungsrelation  einer geordneten Menge nungen weder ein größtes noch ein kleinstes Element. .X; / heißt lineare oder totale Ordnungsrelation, wenn für 4 Wir betrachten die Potenzmenge P .f1; 2g/ mit der Ordje zwei Elemente x; y 2 X gilt nungsrelation : x  y oder y  x :

P .f1; 2g/ D f;; f1g; f2g; f1; 2gg :

Wegen f1g 6 f2g und f2g 6 f1g sind die Elemente f1g und f2g nicht miteinander vergleichbar, sodass die Ist die Ordnungsrelation j auf N linear? Ordnungsrelation nicht linear ist. Das Element f1; 2g ist das größte Element, das Element Ist .X; / eine geordnete Menge und Y  X, so erhält man ; das kleinste. durch Einschränkung von  auf Y eine Ordnung auf Y – 4 Nun betrachten wir die folgende Teilmenge X der Podie von X auf der Teilmenge Y induzierte Ordnung. Der tenzmenge von M D f1; 2; 3g: Einfachheit halber verwendet man oft für die neue Relation, nämlich für die Einschränkung von , wieder dasselbe X D ff1g; f2g; f3g; f1; 2g; f2; 3g; f1; 3gg ; Zeichen . die aus allen ein- und zweielementigen Teilmengen von Beispiel Die Ordnungsrelation  auf der Menge R der reelM besteht. Die Menge X ist mit der Inklusion  nicht len Zahlen induziert auf der Teilmenge Q  R die Ordnung linear geordnet. Es gibt weder ein größtes noch ein .Q; /. 9 kleinstes Element. 9 ? Selbstfrage 1.9

23 1.4  Relationen

{1, 2}

{1, 3}

{1, 2}

{2, 3}

{1} {1}

{2}

{2}

{3}

. Abb. 1.10 Die eingezeichneten Pfeile symbolisieren die Inklusion. Es gibt maximale und minimale Elemente, aber kein größtes und kein kleinstes Element

∅ . Abb. 1.11 Die eingezeichneten Pfeile symbolisieren wieder die Inklusion. Das maximale Element f1; 2g ist das eindeutig bestimmte größte Element

Endliche linear geordnete Mengen haben stets ein größtes und ein kleinstes Element. Das letzte Beispiel zeigt, dass dies für endliche nicht linear geordnete Mengen nicht richBeweis Ist a 2 X ein größtes Element, so folgt aus a  x tig sein muss. Und trotzdem gilt etwa für ein x 2 X sogleich a  x und somit a D x. Analog zeigt man die Behauptung für das kleinste Element.  f1g  f1; 3g ; sodass man doch auch wieder sagen kann, dass f1; 3g größer ist als f1g, und es gibt in X kein Element, das größer ist als f1; 3g und auch keines, das kleiner ist als f1g. Dies erfasst man mit den Begriffen minimales und maximales Element: Ist  eine Ordnungsrelation auf der Menge X, so sagt man: 4 Ein Element a 2 X heißt maximales Element von X, falls für alle x 2 X gilt: Aus a  x folgt a D x. 4 Ein Element a 2 X heißt minimales Element von X, falls für alle x 2 X gilt: Aus x  a folgt x D a.

Man beachte auch . Abb. 1.11.

Das Zorn’sche Lemma garantiert die Existenz maximaler Elemente

Das Zorn’sche Lemma liefert eine ganz wesentliche Beweismethode für die Existenz maximaler Elemente. Für eine knappe Formulierung dieses Lemmas führen wir weitere Begriffe ein. Eine geordnete Menge .M; / heißt induktiv geordEin Element ist also genau dann maximal, wenn es kein net, wenn jede linear geordnete Teilmenge X  M eine Element gibt, das noch echt größer ist und minimal, wenn obere Schranke in .M; / besitzt, d. h., wenn ein s 2 M es kein Element gibt, das noch echt kleiner ist. Wir greifen existiert mit x  s für alle x 2 X. das letzte Beispiel noch einmal auf. Das Zorn’sche Lemma besagt:

Beispiel Die Menge

X D ff1g; f2g; f3g; f1; 2g; f2; 3g; f1; 3gg versehen mit der Inklusion  ist geordnet, aber nicht linear geordnet. Jedes der Elemente f1g; f2g; f3g ist ein minimales Element, und jedes der Elemente f1; 2g; f2; 3g; f1; 3g ist ein maximales Element (. Abb. 1.10). 9

Lemma von Zorn Jede induktiv geordnete nichtleere Menge .M; / besitzt ein maximales Element.

Das Lemma von Zorn ist ein Axiom der Mengenlehre. Wir werden das Lemma von Zorn benutzen, um zu beweisen, dass jeder Vektorraum eine Basis besitzt.

Eine Äquivalenzrelation ist reflexiv, symmetrisch und transitiv

Im Gegensatz zu größten und kleinsten Elementen sind maximale und minimale Elemente im Allgemeinen keines- Wir betrachten sogenannte Äquivalenzrelationen näher. wegs eindeutig bestimmt. Aber es gilt: Lemma Jedes größte Element von .X; / ist ein maxima-

les Element. Jedes kleinste Element von .X; / ist ein minimales Element.

Äquivalenzrelation Eine Relation  auf einer Menge X heißt Äquivalenzrelation, wenn  reflexiv, symmetrisch und transitiv ist.

1

24

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

In unserem Sammelsurium aus Beispielen finden wir Äqui- 4 Bei der Äquivalenzrelation .mod n/, n 2 N, besteht valenzrelationen: die Äquivalenzklasse Œa von a 2 Z aus all jenen ganzen Zahlen b, die zu a kongruent modulo n sind: Beispiel

4 Die Parallelität k auf der Menge der Geraden X in der Ebene ist eine Äquivalenzrelation. 4 Für jedes n 2 N ist die Relation .mod n/ eine Äquivalenzrelation auf der Menge Z. 9

a b .mod n/ , n j a  b , a  b D n c für ein c 2 Z , b 2 fa C n c j c 2 Zg D a C n Z :

Ist R eine Äquivalenzrelation auf einer Menge X, so schreibt man anstelle von .x; y/ 2 R oft x  y und spricht dies als „x ist äquivalent zu y“ aus. In dieser Schreibweise bedeuten die Axiome einer Äquivalenzrelation: 4 x  x für alle x 2 X ( ist reflexiv), 4 aus x  y folgt y  x ( ist symmetrisch), 4 aus x  y; y  z folgt x  z ( ist transitiv).

Somit gilt:

Ist  eine Äquivalenzrelation auf der Menge X, so nennt man für jedes x 2 X die Teilmenge

Œa D a C n Z : 9 ?Selbstfrage 1.10 Es ist sehr leicht, sich Beispiele für Äquivalenzrelationen aus dem täglichen Leben zu konstruieren: Bezeichnet M die Menge aller Menschen und #KH.m/ die Anzahl der Kopfhaare von m 2 M , so erklären wir zwei Menschen als äquivalent, wenn sie gleich viele Kopfhaare haben, d. h.,

Œx D fy 2 X j x  yg  X m1  m2 , #KH.m1 / D #KH.m2 / :

die Äquivalenzklasse von x bezüglich . In der Äquivalenzklasse Œx sind somit alle Elemente aus X enthalten, die zu x äquivalent sind.

Begründen Sie, dass  eine Äquivalenzrelation auf M ist und beschreiben Sie die Äquivalenzklassen von .

Die Menge aller Äquivalenzklassen wird auch als Quoti4 Bei der Parallelität k auf der Menge X der Geraden entenmenge bezeichnet. Dabei ist das Symbol X=  für einer Ebene E enthält die Äquivalenzklasse Œg von diese Menge üblich: g 2 X die Menge aller zu g parallelen Geraden. X=  D fŒx j x 2 Xg : Beispiel

Die Elemente der Menge X=  sind die Äquivalenzklassen bezüglich der Relation . Insofern sind also in X=  die zueinander äquivalenten Elemente zu einem Element Œx zusammengefasst. In dieser Sichtweise kann man die Menge X=  als eine Vergröberung der Gleichheit auf X betrachten – zueinander äquivalente Elemente in X werden in X=  nicht mehr unterschieden. In einem ausführlichen Beispiel vergröbern wir den Definitionsbereich X einer Abbildung f zu X= . Die Abbildung f , die auf dieser gröberen Menge X=  erklärt werden kann, ist dann injektiv.

Eine Äquivalenzrelation zerlegt die Menge X in nichtleere, disjunkte Äquivalenzklassen

. Abb. 1.12 Die zueinander parallelen Geraden bilden eine Äquivalenzklasse – es gibt unendlich viele verschiedene Äquivalenzklassen mit jeweils unendlich vielen Elementen

Die Bedeutung einer Äquivalenzrelation auf einer Menge X liegt darin, dass man die Menge X mit der Äquivalenzrelation in die disjunkten, nichtleeren Äquivalenzklassen zerlegen kann und ferner, dass Äquivalenz auf X, d. h. x  y, zur Gleichheit in X= , d. h. Œx D Œy , führt. Es gilt nämlich:

25 1.4  Relationen

Äquivalenzrelationen zerlegen die Grundmenge in ihre nichtleeren Äquivalenzklassen Ist X eine nichtleere Menge und  eine Äquivalenzrelation auf X, so gilt: S (a) X D x2X Œx . (b) Œx ¤ ; für alle x 2 X. (c) Œx \ Œy ¤ ; , x  y , Œx D Œy .

Man nennt R  X ein Repräsentanten- oder Vertretersystem von , falls R aus jeder Äquivalenzklasse genau einen Repräsentanten enthält, d. h. jR \ Œaj D 1 für jedes a 2 X : Beispiel

4 Bezeichnen M die Menge aller Menschen und g.m/ 2 fweibl., männl.g das Geschlecht von m 2 M , so erklären wir zwei Menschen als äquivalent, wenn sie das gleiche Geschlecht haben, d. h., für m1 ; m2 2 M gilt:

Beweis (a), (b) Aufgrund der Reflexivität gilt x 2 Œx . Somit ist jede Äquivalenzklasse nichtleer. Außerdem ist jedes m1  m2 W, g.m1 / D g.m2 / : Element von X in einer Äquivalenzklasse enthalten. Das begründet bereits die ersten beiden Aussagen. Die Menschheit M zerfällt bezüglich dieser ÄquivaDie Aussage in (c) beweisen wir durch einen Ringlenzrelation in die zwei Äquivalenzklassen der männlischluss. chen und weiblichen Bevölkerungsgruppen, und es gilt: (c) Es sei Œx \Œy ¤ ; vorausgesetzt. Für u 2 Œx \ Œy gilt x  u, y  u. Wegen der Symmetrie und der ŒAngela Merkel D ŒHillary Clinton sowie Transitivität von  folgt x  y. ŒNigel Kennedy D ŒBoris Becker : Nun sei x  y vorausgesetzt. Wir wählen ein u 2 Œx . Wegen x  u und x  y folgt mit der Symmetrie und Jedes Paar fa; bg mit einem weiblichen a 2 M und Transitivität y  u, d. h. u 2 Œy bzw. Œx  Œy . Anamännlichen b 2 M ist ein Repräsentantensystem dielog zeigt man Œy  Œx, sodass Œx D Œy . ser Äquivalenzrelation . Es gelte nun Œx D Œy . Wenn die Klassen gleich 4 Wir betrachten die Potenzmenge P .N/. Nennt man sind, ist ihr Durchschnitt natürlich nichtleer. zwei Elemente A; B 2 P .N/ äquivalent, in Zeichen Damit sind die drei Äquivalenzen in (c) bewiesen.  A  B, wenn sie gleich viele Elemente enthalten, so ist  offenbar eine Äquivalenzrelation. Die ÄquivalenzNach diesem Satz liefern die Äquivalenzklassen von X eine klassen enthalten jene Teilmengen von N mit je gleich Partition der Menge X, d. h., X ist disjunkte Vereinigung vielen Elementen, z. B.: nichtleerer Teilmengen, nämlich ihrer Äquivalenzklassen. – Œ; D f;g. Anstelle von einer Partition spricht man auch von einer – Œf1g D ff1g; f2g; : : :g – die einelementigen TeilZerlegung. mengen von N. Ist  eine Äquivalenzrelation auf einer Menge X, so – ŒN D fN; 2 N; 3 N C 1; : : :g – die unendlichen nennt man jedes Element a 2 Œx einer Äquivalenzklasse Teilmengen von N. 9 einen Repräsentanten oder Vertreter der Äquivalenzklasse Œx , jeder Repräsentant vertritt nämlich seine Klasse, Wir betrachten ausführlich ein weiteres Beispiel, das nicht denn es gilt nach obigem Satz: nur im ersten Studienjahr eine fundamentale Rolle spielt,

a 2 Œx , Œa D Œx :

die Restklassen modulo n.

Die Restklassen modulo n zerlegen Z in n Äquivalenzklassen Wir kommen erneut auf das schon wiederholt betrachtete Beispiel der Äquivalenzrelation kongruent modulo n, n 2 N, zurück. Für jedes n 2 N ist auf der Menge der ganzen Zahlen Z eine Äquivalenzrelation: Zwei ganze Zahlen a und b sind äquivalent, falls n die Differenz a  b teilt: a b .mod n/ , n j a  b : . Abb. 1.13 Eine Partition der Menge X ist eine Zerlegung von X in disjunkte nichtleere Teilmengen – im Allgemeinen sind weder die Teilmengen noch die Anzahl der Teilmengen endlich

Für jedes a 2 Z ist Œa D a C n Z

1

26

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

Beispiel: Vergröberung des Definitionsbereiches einer Abbildung

Es seien X, Y Mengen und f W X ! Y eine Abbildung. Begründen Sie: Durch x  y , f .x/ D f .y/ wird eine Äquivalenzrelation auf X definiert. Für ein x 2 X sei Œx 2 X= die Äquivalenzklasse von x bezüglich . Zeigen Sie weiter, dass durch f W X= ! f .X/, Œx 7! f .x/ eine bijektive Abbildung erklärt wird. Problemanalyse und Strategie Wir zeigen, dass die Relation  reflexiv, symmetrisch und transitiv ist. Um zu zeigen, dass durch f eine Bijektion gegeben ist, ist erst einmal zu begründen, dass f tatsächlich eine Abbildung ist, dann erst prüfen wir die Abbildung auf Bijektivität. Lösung Wegen f .x/ D f .x/ für jedes x 2 X gilt x  x für jedes x 2 X (Reflexivität). Es gelte x  y mit x; y 2 X. Dann gilt f .x/ D f .y/, d. h. f .y/ D f .x/. Es folgt y  x (Symmetrie). Nun gelte x  y und y  z, x; y; z 2 X. Dann gilt f .x/ D f .y/ und f .y/ D f .z/, d. h. f .x/ D f .z/. Es folgt x  z (Transitivität). Damit ist bereits begründet, dass  eine Äquivalenzrelation ist. In der Äquivalenzklasse Œx D fy 2 X j x  yg D fy 2 X j f .x/ D f .y/g liegen alle Elemente aus X, die unter der Abbildung f den gleichen Wert in Y annehmen. Die folgende Abbildung deutet die Zerlegung von X in die Äquivalenzklassen an.

X/ ∼

X

Y

Ist die Abbildung f injektiv, so ist jede Äquivalenzklasse einelementig, da im Falle der Injektivität aus f .x/ D f .y/ die Gleichheit x D y folgt. Ist die Abbildung f nicht injektiv, so gibt es (mindestens) eine Äquivalenzklasse, die mehr als ein Element enthält. Wir vergröbern die Abbildung f nun. Wir unterscheiden nicht mehr zwischen zueinander äquivalenten Elementen, sondern fassen diese zu einem Element zusammen, d. h., wir betrachten eine Abbildung, die auf den Äquivalenzklassen definiert ist und jeder Äquivalenzklasse (als Ganzes) den Wert zuordnet, die die Abbildung f jedem Element der Äquivalenzklasse zuordnet: ( f W

X=  ! f .X/; Œx 7! f .x/:

Es ist zu erwarten, dass diese Abbildung nun injektiv ist, wir haben ja gerade die Nichtinjektivität beseitigt. Bevor wir aber dieses f auf Injektivität und Surjektivität überprüfen, müssen wir uns überlegen, ob f überhaupt eine Abbildung von X=  in f .X/ ist, d. h., ob f  .X= / f .X/ mit der Eigenschaft, dass es zu jedem Element Œx genau ein Element aus f .X/ gibt. Weil wir einer Äquivalenzmenge Œx einen Wert zuordnen, nämlich f .x/, der vom Repräsentanten x abhängt, müssen wir sicherstellen, dass dieser Wert unabhängig von der Wahl des Repräsentanten ist: Würde nämlich für ein y 2 X mit Œx D Œy gelten f .x/ ¤ f .y/, so wäre durch f keine Abbildung gegeben, da einem Element Œx D Œy der Definitionsmenge verschiedene Werte f .x/ ¤ f .y/ zugeordnet werden würden. Wir begründen, dass das bei unserer Abbildung f nicht der Fall ist: Es sei y 2 X mit Œx D Œy gewählt. Es gilt dann x  y. Nach der Definition besagt dies aber f .x/ D f .y/. Folglich ist f eine Abbildung. Man sagt, dass die Abbildung wohldefiniert ist. Die Abbildung f ist injektiv: Aus f .Œx/ D f .Œy/ folgt f .x/ D f .y/ und damit x  y. Dies besagt gerade Œx D Œy. Die Abbildung f ist surjektiv: Das Element f .x/ 2 f .X/, x 2 X, ist Bild des Elements Œx 2 X=. Damit ist gezeigt, dass die Abbildung f bijektiv ist. Kommentar Ist die Abbildung f bereits injektiv, so bestehen die Äquivalenzklassen Œx aus genau einem Element, Œx D fxg. Die Quotientenmenge X= D fŒx j x 2 Xg ist dann eine Menge von einelementigen Teilmengen von X. Strenggenommen muss man also schon noch zwischen f und f unterscheiden.

27 1.4  Relationen

die Äquivalenzklasse von a. Folglich zerfällt Z in disjunkte Äquivalenzklassen. Um sämtliche Äquivalenzklassen konkret und übersichtlich angeben zu können, führen wir eine andere Beschreibung der Äquivalenzrelation ein. Dazu benötigen wir die bekannte Division mit Rest.

Division mit Rest Gegeben sei n 2 N. Zu jeder ganzen Zahl a 2 Z gibt es genau ein Paar ganzer Zahlen q, r mit a D qnCr

und

0  r < n:

Man nennt r den Rest von a bei Division mit Rest durch n.

Beispiel Wir teilen die ganze Zahl 21 durch 4 mit Rest:

da wegen der obigen Größeneinschränkung von r1  r2 nur der Fall d D 0 möglich ist. Die zwei Zahlen a; b sind somit genau dann kongruent mod n, wenn sie denselben Rest bei Division durch n haben.  Wegen der Charakterisierung der Kongruenz mit den Resten nennt man die Äquivalenzklassen der Kongruenz modulo n auch Restklassen modulo n. Wir erhalten nun eine sehr einfache Beschreibung der Restklassen modulo n. Für jedes a 2 Z gilt Œa D a C n Z D r C n Z ; wobei r 2 f0; 1; : : : ; n  1g der Rest bei Division von a durch n mit Rest ist. Folglich liegt jedes a 2 Z in einer der Restklassen 0 C n Z ; 1 C n Z ; : : : ; .n  1/ C n Z :

21 D 5  4 C 1 :

Und da je zwei der hier angegebenen Restklassen verschieDie Zahl 21 hat somit den Rest 1 bei Division mit Rest den sind (die Differenz zweier Repräsentanten ist nicht durch n teilbar), erhalten wir: durch 4. 9 Nun können wir die Kongruenz modulo n mithilfe der Division mit Rest charakterisieren:

Die Restklassen modulo n Für jedes n 2 N sind

Charakterisierungen der Kongruenz modulo n Es sei n eine natürliche Zahl. Für zwei ganze Zahlen a und b sind äquivalent: 4 a b .mod n/. 4 n j a  b. 4 a C n Z D b C n Z. 4 a und b haben bei Division mit Rest durch n den gleichen Rest.

0 C n Z ; 1 C n Z ; : : : ; .n  1/ C n Z sämtliche verschiedene Restklassen modulo n. Es ist somit R D f0; 1; : : : ; n  1g ein Repräsentantensystem – dabei haben wir aus jeder Restklasse den kleinsten positiven Repräsentanten gewählt.

Anstelle von a C n Z schreibt man oft auch kurz a; manchBeweis Dass die ersten drei Aussagen gleichwertig sind, mal lässt man selbst den Querstrich weg und identifiziert wurde bereits gezeigt. Wir zeigen die Gleichwertigkeit der die Restklasse a mit seinem Repräsentanten a. dritten und vierten Aussage. Dazu teilen wir zwei ganze Zahlen a und b mit Rest durch n: Beispiel 4 Im Fall n D 1 gibt es genau eine Restklasse a D q1 n C r1 ; b D q2 n C r2 mit 0  r1 ; r2 < n : Man beachte: r1  r2 2 f.n  1/; : : : ; 1; 0; 1; : : : ; n  1g : Damit gilt: a C nZ D b CnZ , a  b D n c für ein c 2 Z , .q1  q2 / n C .r1  r2 / D n c ; c 2 Z , r1  r2 D n d für ein d 2 Z , r1 D r2 ;

0 D 0C1Z D Z: Es sind je zwei ganze Zahlen äquivalent, da die Differenz beliebiger Zahlen stets von 1 geteilt wird. 4 Im Fall n D 2 gibt es genau zwei Restklassen 0 D 0 C 2 Z D f0; ˙2; ˙4; : : :g ; 1 D 1 C 2 Z D f˙1; ˙3; ˙5; : : :g : Die Menge Z wird aufgeteilt in die geraden und ungeraden ganzen Zahlen.

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

28

1

4 Im Fall n D 6 gibt es genau sechs Restklassen 0 D 0 C 6 Z D f: : : ; 12; 6; 0; 6; 12; : : :g ; 1 D 1 C 6 Z D f: : : ; 11; 5; 1; 7; 13; : : :g ; 2 D 2 C 6 Z D f: : : ; 10; 4; 2; 8; 14; : : :g ; 3 D 3 C 6 Z D f: : : ; 9; 3; 3; 9; 15; : : :g ; 4 D 4 C 6 Z D f: : : ; 8; 2; 4; 10; 16; : : :g ; 5 D 5 C 6 Z D f: : : ; 7; 1; 5; 11; 17; : : :g : Es ist Z D 0 [ 1 [ 2 [ 3 [ 4 [ 5, und es ist R D f0; 1; 2; 3; 4; 5g ein Repräsentantensystem. Ebenso gut können wir natürlich auch R0 D f12; 5; 8; 9; 16; 5g als Repräsentantensystem wählen. 9

Rechenaufgaben 1.3 

Beweisen Sie die Äquivalenzen:

.A _ B/ , :.:A ^ :B/; .A ^ B/ , :.:A _ :B/: 1.4 

Zeigen Sie die Transitivität der Implikation, also die Aussage ..A ) B/ ^ .B ) C // ) .A ) C / :

Beweisaufgaben

Im nächsten Kapitel werden wir auf der Menge Zn D f0; 1; : : : ; n  1g der Restklassen modulo n, n 2 N, eine Ad- 1.5  Zeigen Sie durch einen Widerspruchsbeweis, p dition und eine Multiplikation erklären. Es wird so möglich, dass 2 keine rationale Zahl ist. Formulieren Sie dazu zumit den Äquivalenzklassen k umzugehen wie z. B. mit den nächst die beiden Aussagen, ganzen Zahlen. Der Fall, dass n sogar eine Primzahl ist, wird ein besonderes Augenmerk verdienen. In diesem Fall kann AW „x ist die positive Lösung der Gleichung x 2 D 2“ man jedes von 0 verschiedene Element sogar invertieren. und

Aufgaben Gelegentlich enthalten die Aufgaben mehr Angaben, als für die Lösung erforderlich sind. Bei einigen anderen dagegen werden Daten aus dem Allgemeinwissen, aus anderen Quellen oder sinnvolle Schätzungen benötigt.



einfache Aufgaben mit wenigen Rechenschritten mittelschwere Aufgaben, die etwas Denkarbeit und unter Umständen die Kombination verschiedener Konzepte erfordern

anspruchsvolle Aufgaben, die fortgeschrittene Konzepte (unter Umständen auch aus späteren Kapiteln) oder eigene mathematische Modellbildung benötigen

BW

„x Es gibt keine Zahlen a; b 2 Z mit x D

a “ b

1.6  Geheimrat Gelb, Frau Blau, Herr Grün und Oberst Schwarz werden eines Mordes verdächtigt. Genau einer bzw. eine von ihnen hat den Mord begangen. Beim Verhör sagen sie Folgendes aus: Geheimrat Gelb: Ich war es nicht. Der Mord ist im Salon passiert. Frau Blau: Ich war es nicht. Ich war zur Tatzeit mit Oberst Schwarz zusammen in einem Raum. Herr Grün: Ich war es nicht. Frau Blau, Geheimrat Gelb und ich waren zur Tatzeit nicht im Salon. Oberst Schwarz: Ich war es nicht. Aber Geheimrat Gelb war zur Tatzeit im Salon. Unter der Annahme, dass die Unschuldigen die Wahrheit gesagt haben, finde man den Täter bzw. die Täterin.

Verständnisfragen Es seien A eine Menge und F eine Menge von Teilmengen von A. Beweisen Sie die folgenden (allgemeineren) Regeln von De Morgan:

1.7  1.1 

Welche der folgenden Aussagen sind richtig? Für alle x 2 R gilt: (a) „x > 1 ist hinreichend für x 2 > 1.“ (b) „x > 1 ist notwendig für x 2 > 1.“ (c) „x  1 ist hinreichend für x 2 > 1.“ (d) „x  1 ist notwendig für x 2 > 1.“ 1.2 

Wie viele unterschiedliche binäre, also zwei Aussagen verknüpfende Junktoren gibt es?

0 An@

\

B2F

0 An@

[

B2F

1 BA D 1 BA D

[

.A n B/ und

B2F

\ B2F

.A n B/ :

29 Antworten zu den Selbstfragen

1.8  Es seien A, B Mengen, M1 ; M2  A, ferner N1 ; N2  B und f W A ! B eine Abbildung. Zeigen Sie: (a) f .M1 [ M2 / D f .M1 / [ f .M2 /, (b) f 1 .N1 [ N2 / D f 1 .N1 / [ f 1 .N2 /, (c) f 1 .N1 \ N2 / D f 1 .N1 / \ f 1 .N2 /.

Gilt im Allgemeinen auch f .M1 \M2 / D f .M1 /\f .M2 /? Es seien A, B nichtleere Mengen und f W A ! B eine Abbildung. Zeigen Sie: (a) f ist genau dann injektiv, wenn eine Abbildung g W B ! A mit g ı f D idA existiert. (b) f ist genau dann surjektiv, wenn eine Abbildung g W B ! A mit f ı g D idB existiert. 1.9 

1.16 

Auf einer Menge A seien zwei Äquivalenzrelationen  und  gegeben. Dann heißt  eine Vergröberung von , wenn für alle x; y 2 A mit x  y auch x  y gilt. (a) Es sei  eine Vergröberung von . Geben Sie eine surjektive Abbildung f W A= ! A= an. (b) Für m; n 2 N sind durch x  y ” m j .x  y/ und x  y ” n j .x  y/

1.10  Es seien A, B, C Mengen und f W A ! B, Äquivalenzrelationen auf Z definiert. g W B ! C Abbildungen. Bestimmen Sie zu n 2 N die Menge aller m 2 N, (a) Zeigen Sie: Ist g ı f injektiv, so ist auch f injektiv. sodass  eine Vergröberung von  ist. (b) Zeigen Sie: Ist g ı f surjektiv, so ist auch g surjektiv. (c) Geben Sie die Abbildung f aus Teil (a) für m D 3 und (c) Geben Sie ein Beispiel an, in dem g ı f bijektiv, aber n D 6 explizit an, indem Sie für sämtliche Elemente weder g injektiv noch f surjektiv ist. von Z= das Bild unter f angeben.

Es seien A, B Mengen und f W A ! B eine Ab- 1.17  Es sei  eine reflexive und transitive Relation auf bildung. Die Potenzmengen von A bzw. B seien A bzw. B. einer Menge A. Zeigen Sie: Wir betrachten die Abbildung g W B ! A, B 0 7! f 1 .B 0 /. (a) Durch Zeigen Sie: x  y ” ..x; y/ 2  und .y; x/ 2 / (a) Es ist f genau dann injektiv, wenn g surjektiv ist. (b) Es ist f genau dann surjektiv, wenn g injektiv ist. wird eine Äquivalenzrelation auf A definiert. (b) Für x 2 A sei Œx 2 A= die Äquivalenzklasse von x 1.12  Begründen Sie die Bijektivität der Abbildung bezüglich  . Durch  .1; 1/ ! R; f W x Œx  Œy ” .x; y/ 2  x 7! 1x 2: 1.11 

wird eine Ordnungsrelation auf A= definiert. Geben Sie für die folgenden Relationen auf Z jeweils an, ob sie reflexiv, symmetrisch oder transitiv sind. Welche der Relationen sind Äquivalenzrelationen? Antworten zu den Selbstfragen (a) 1 D f.m; n/ 2 Z Z j m  ng, (b) 2 D f.m; n/ 2 Z Z j m  n > 0g [ f.0; 0/g, (c) 3 D f.m; n/ 2 Z Z j m D 2ng, vAntwort 1.1 (d) 4 D f.m; n/ 2 Z Z j m  n C 1g, Offensichtlich ist A hinreichend für B; denn, wenn die (e) 5 D f.m; n/ 2 Z Z j m  n  1g, Zahl durch 12 teilbar ist, ist sie sicher auch durch 3 teil(f) 6 D f.m; n/ 2 Z Z j m D 2g. bar. Also ist die Implikation A ) B wahr. Das bedeutet 1.13 

1.14 

Wo steckt der Fehler in der folgenden Argumen-

tation? Ist  eine symmetrische und transitive Relation auf einer Menge M , so folgt für a; b 2 M mit a  b wegen der Symmetrie auch b  a. Wegen der Transitivität folgt aus a  b und b  a auch a  a. Die Relation  ist also eine Äquivalenzrelation. 1.15 

Zeigen Sie, dass die folgenden Relationen Äquivalenzrelationen auf A sind. Bestimmen Sie jeweils die Äquivalenzklassen von .2; 2/ und .2; 2/. (a) A D R2 , .a; b/  .c; d / ” a2 C b 2 D c 2 C d 2 . (b) A D R2 , .a; b/  .c; d / ” a  b D c  d . (c) A D R2 n f.0; 0/g, .a; b/  .c; d / ” a  d D b  c.

gleichzeitig, dass B eine notwendige Bedingung für A ist. Genauso ist A hinreichend für C und somit C notwendig für A. Bei der Beziehung zwischen B und C beobachten wir, dass B sowohl notwendig als auch hinreichend für C ist. Diese Beziehung zwischen Aussagen wird äquivalent genannt, wie wir noch sehen werden.

vAntwort 1.2 A

B

A,B

A)B

B)A

w w f f

w f w f

w f f w

w f w w

w w f w

.A ) B/ ^ .B ) A/ w f f w

1

Kapitel 1  Logik, Mengen, Abbildungen – die Sprache der Mathematik

30

1

v Antwort 1.3 Es gilt A  B , 8x 2 A W x 2 B und A ¤ B , .8 x 2 A W x 2 B/ ^ .9 y 2 B W y … A/ :

v Antwort 1.4 Es sind jeweils die zwei Implikationen ) und ( zu zeigen. Beim Nachweis von ) wird die Aussage links davon vorausgesetzt und die Aussage rechts davon begründet, bei Nachweis von ( ist es genau umgekehrt: (i) ): A [ B D fx j x 2 A _ x 2 Bg D fx j x 2 Bg D B. (: x 2 A ) x 2 B. (ii) ): A \ B D fx j x 2 A ^ x 2 Bg D fx j x 2 Ag D A. (: x 2 A ) x 2 B. (iii) ): A n B D fx j x 2 A ^ x … Bg D ;. (: x 2 A ) x 2 B.

v Antwort 1.5 Ist X D fx1 ; : : : ; xn g, so gilt für jedes f 2 Y X f D f.x1 ; f .x1 // : : : ; .xn ; f .xn //g : Für jedes f .xi / hat man jY j viele Möglichkeiten, damit gibt es genau jY jn verschiedene Abbildungen f von X in Y .

v Antwort 1.6 Z. B. f W R ! R, f .x/ D x 2 . Die Restriktion f jR 0 der Funktion f auf die nichtnegativen reellen Zahlen hat dasselbe Bild wie f .

vAntwort 1.7 Aus f .n/ D f .m/ folgt n  1 D m  1 und somit n D m. Damit ist f injektiv. Ist n 2 N beliebig, so gilt mit nC1 2 N offenbar f .n C 1/ D n. Damit ist f auch surjektiv. Schließlich ist f bijektiv.

vAntwort 1.8 Der Graph Gf einer Abbildung f ist eine linkstotale Relation, da es zu jedem x 2 X ein y 2 Y mit .x; y/ 2 Gf gibt – das x steht links. Der Graph ist rechtseindeutig, da es zu jedem x 2 X genau ein y 2 Y mit .x; y/ 2 f gibt – das y steht rechts. Bei einer injektiven Abbildung f ist für jedes y 2 Y das x 2 X mit .x; y/ 2 Gf eindeutig bestimmt – das x steht links. Bei einer surjektiven Abbildung f gibt es zu jedem y 2 Y ein x 2 X mit .x; y/ 2 Gf – das y steht rechts.

vAntwort 1.9 Nein, z. B. sind die beiden natürlichen Zahlen 3 und 7 nicht miteinander vergleichbar, es gilt weder 3 j 7 noch 7 j 3.

vAntwort 1.10 Jeder Mensch hat genauso viele Kopfhaare wie er selbst, d. h., m  m für jedes m 2 M . Und wenn m1 genauso viele Kopfhaare wie m2 hat, so hat m2 genauso viele wie m1 , d. h. m1  m2 ) m2  m1 . Analog begründet man m1  m2 und m2  m3 impliziert m1  m3 . In der Äquivalenzklasse Œm D fn 2 M j m  ng liegen all jene Menschen, die gleich viele Kopfhaare haben wie m.

31

Algebraische Strukturen – ein Blick hinter die Rechenregeln

Inhaltsverzeichnis 2.1

Gruppen – 32

2.2

Homomorphismen – 39

2.3

Körper – 46

2.4

Ringe – 51 Aufgaben – 62 Antworten zu den Selbstfragen – 63

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_2

2

32

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

n Sie finden unter anderem Antworten zu . . .

4 Was bedeuten Gruppen, Ringe und Körper in der Mathematik? 4 Was versteht man unter der Symmetriegruppe eines Ornaments? 4 Was ist ein Polynom?

2

Addition und Subtraktion sind Beispiele einer Verknüpfung Bei den ersten drei Beispielen wenden wir eine Rechenoperation, die Addition, Subtraktion oder Multiplikation, auf zwei Ausdrücke an und erhalten einen eindeutigen Ausdruck derselben Art wie die Ausgangswerte. Im Sinne von 7 Kap. 1 liegt eine Abbildung von Elementepaaren auf ein einzelnes Element vor. Die Division schieben wir vorerst beiseite, denn das „Ergebnis“ ist schließlich ein Bruch, also von anderer Art als die Eingangselemente. Wir verallgemeinern: Weil das Operationssymbol alles mögliche bedeuten kann, schreiben wir dafür , ohne zu erklären, was damit gemeint ist. Wir legen uns auch nicht fest, worauf wir die Operation anwenden; wir sprechen in der folgenden Definition lediglich von den Elementen a; b einer Menge. Bei dieser Allgemeinheit können wir natürlich nichts über das Ergebnis der Operation sagen. Wir wissen nur, dass es eindeutig ist und bezeichnen es mit dem Symbol a b.

Die Tätigkeit, die umgangssprachlich mit „Rechnen“ bezeichnet wird, ist ein zielorientiertes Hantieren mit Symbolen und mit Regeln, die man einfach weiß, ohne sie immer extra aufzulisten. Im Rahmen der Schulmathematik sind die Symbole Zahlen, Unbestimmte, aber auch Mengen oder Funktionen. Auch die Rechenoperationen wie Addition, Subtraktion, Multiplikation, Vereinigung, Durchschnitt, Differentiation und Integration werden durch Symbole ausgedrückt. In diesem Kapitel wollen wir genauer klären, was man eigentlich klarstellen sollte, bevor man mit dem „Rechnen“ beginnt. Ganz im Sinne des Bestrebens der Mathematik, das Gemeinsame bei verschiedenartigen Problemstellungen aufzudecken und damit zu abstrahieren, werden wir gewisse Grundeigenschaften von Rechenoperationen kennenlernen. Dabei unterscheiden wir diese nicht nach den Objekten, auf welche diese Operationen anzuwenden sind, Definition einer Verknüpfung sondern einzig nach den Regeln, welche für diese OpeIst M eine nichtleere Menge, so heißt eine Abbildung rationen gelten. Nur so ist der Blick auf das Wesentliche ( möglich. M M ! M; W Zudem werden wir einzelne, häufig auftretende Grund.a; b/ 7! a b typen algebraischer Strukturen kennenlernen, in welchen Verknüpfung auf M . gewisse Regeln gleichzeitig erfüllt sein müssen. Dazu gehören jedenfalls die Gruppen, Ringe und Körper, aber noch viele andere, die in diesem Rahmen außer Acht bleiben. Wir bauen im Folgenden auf einfachen Kenntnissen der Beispiel Schulmathematik auf und nutzen die Grundbegriffe und lo- 4 Die Addition zweier ganzer Zahlen a; b zu a C b sowie gischen Schlussweisen aus 7 Kap. 1. Bei den reellen und deren Multiplikation zu a  b, aber auch die Subtraktion komplexen Zahlen legen wir unser Hauptaugenmerk auf zu a  b sind Verknüpfungen auf Z. deren algebraische Eigenschaften. Wir werden aber nicht 4 Ebenso stellen die Addition zweier reeller Zahlentripel nur mit Zahlen „rechnen“, sondern auch Mengen oder Abgemäß bildungen miteinander „multiplizieren“. Diese Stufe der .a1 ; a2 ; a3 / C .b1 ; b2 ; b3 / D .a1 C b1 ; a2 C b2 ; a3 C b3 / Abstraktion stellt für Studienanfänger eine klare Hürde dar, ist aber unumgänglich für ein tieferes mathematisches Veroder auch die Bildung des Vektorprodukts ständnis. 2.1

Gruppen

.a1 ; a2 ; a3 / .b1 ; b2 ; b3 / D .a2 b3  a3 b2 ; a3 b1  a1 b3 ; a1 b2  a2 b1 /

Verknüpfungen auf R3 dar. Werden zwei Geldbeträge addiert, so ist das Ergebnis wohl- 4 Für je zwei Mengen M1 ; M2 sind die Mengen M1 \M2 , bestimmt und wieder ein Geldbetrag. Dasselbe gilt, wenn M1 [ M2 und M1 n M2 wohldefiniert. Handelt es sich wir von dem ersten Geldbetrag den zweiten subtrahieren, bei M1 und M2 um Teilmengen einer Menge G, so sind Wir können andererseits .a C b/ mit .a  b/ multiplizieauch M1 \ M2 , M1 [ M2 und M1 n M2 Teilmengen von ren und für das Produkt .a2  b 2 / schreiben. Dagegen steht G. Somit bedeuten \, [ und n Verknüpfungen auf der uns für das Ergebnis der Division .a C b/ W .a  b/ kein Potenzmenge P .G/ (siehe 7 Kap. 1). 9 neuer Ausdruck zur Verfügung; wir können das Ergebnis höchstens noch als Bruch aCb darstellen; aber „ausgerech- Das Ergebnis einer Verknüpfung auf M ist wiederum ein ab Element von M . Die Verknüpfung führt also nicht aus der net“ haben wir dabei eigentlich nichts. Was ist das Gemeinsame dieser verschiedenen Opera- Menge heraus. Wir sagen: M ist abgeschlossen gegenüber der Verknüpfung . tionen?

33 2.1  Gruppen

? Selbstfrage 2.1 Welche der folgenden Operationen stellt eine Verknüpfung auf der Menge N der natürlichen Zahlen dar: Addition, Subtraktion, Multiplikation, Division?

?Selbstfrage 2.2 Wir betrachten auf der Menge P .M / aller Teilmengen von M D f1; 2; 3g die Verknüpfungen \, [ und n. Welche sind assoziativ? Für welche existiert ein linksneutrales Element? Gibt es linksinverse Elemente?

In der obigen Definition einer Verknüpfung wird nicht verlangt, dass das Ergebnis a b von der Reihenfolge un- Beispiel abhängig ist – im Gegenteil, M M ist ja die Menge der 4 Offensichtlich ist .Z; C/ eine kommutative Gruppe. geordneten Paare und daher .a; b/ ¤ .b; a/, sofern a ¤ b Dabei ist 0 linksneutral, denn 0 C a D a, und 0 ist das ist. Die Subtraktion ganzer Zahlen ist offensichtlich ein einzige Element mit dieser Eigenschaft. Das zu a linksBeispiel einer Verknüpfung, bei der die Reihenfolge weinverse Element ist a, denn .a/Ca D 0. .N; C/ und sentlich ist. Wir werden dies als Normalfall betrachten und .N0 ; C/ sind keine Gruppen, denn es fehlen die inververstehen a b D b a als Zusatzbedingung. sen Elemente. Ist eine Verknüpfung auf der Menge M , so gilt für 4 .Q; / ist keine Gruppe. Zwar gibt es das linksneutrale a; b; c 2 M : Element 1, und etwa zu 2 gibt es das Linksinverse 12 , denn 12  2 D 1. Aber es gibt kein linksinverses Element a D b H) a c D b c und c a D c b : (2.1) zu 0, also keine rationale Zahl a mit a  0 D 1. Jedoch Beweis: a c bezeichnet das Bild des Paares .a; c/ unter ist .Q n f0g; / eine Gruppe, und ebenso ist .R n f0g; / der Abbildung W .M M / ! M . Im Falle der Gleichheit eine kommutative Gruppe. 9 a D b gilt .a; c/ D .b; c/; also müssen auch deren Bilder übereinstimmen. Aus demselben Grund hat a D b die In den bisher vorgestellten Beispielen war das neutrale Gleichheit der Paare .c; a/ D .c; b/ zur Folge und weiter Element eindeutig. Auch waren die Gruppen kommutativ, c a D c b. und natürlich ist dann ein linksneutrales Element zugleich Wir können (2.1) auf folgende Weise in Worte fassen: rechtsneutral, d. h., a e D a, und das linksinverse Element Die in einer Gleichung ausgedrückte Übereinstimmung a0 zu a ist auch rechtsinvers, d. h., a a0 D e. Der folgenzwischen der linken und der rechten Seite bleibt bestehen, de Satz wird zeigen, dass dies nicht nur auf kommutative wenn man beide Seiten von rechts mit demselben Element Gruppen beschränkt bleibt, sondern allgemein der Fall ist. verknüpft. Dasselbe gilt für eine Verknüpfung von links. Man hätte demnach so wie in manchen Lehrbüchern im Axiom (G2) gleich die Existenz eines einzigen neutralen Elementes fordern können sowie in (G3) zu jedem Element Gruppen sind durch drei Axiome a die Existenz eines links- und gleichzeitig rechtsinversen gekennzeichnet Elements. Es ist aber das Bestreben in der Mathematik, in den Definitionen möglichst wenig zu fordern. Deshalb wird Je nach Art der Regeln, die für eine Menge M mit einer hier der Mehraufwand in Form des folgenden Satzes samt Verknüpfung gelten, lassen sich verschiedene Begriffe de- zugehörigem Beweis in Kauf genommen. finieren. Wir beginnen mit einem, der in unterschiedlichsten Bereichen der Mathematik auftritt und dessen Rechenregeln uns vom Rechnen mit Zahlen sehr vertraut sind.

Definition einer Gruppe Die Menge G mit der Verknüpfung heißt Gruppe, wenn die folgenden Eigenschaften erfüllt sind: (G1) Für alle a; b; c 2 G gilt: .a b/ c D a .b c/, d. h., die Verknüpfung ist assoziativ. (G2) Es existiert ein linksneutrales Element e 2 G mit e a D a für alle a 2 G. (G3) Zu jedem a 2 G existiert ein hinsichtlich e linksinverses Element a0 2 G mit a0 a D e. Wir sprechen kurz von der Gruppe .G; /. Gilt stets a b D b a, so heißt die Gruppe kommutativ oder abelsch – nach dem norwegischen Mathematiker Niels H. Abel (1802–1829).

Satz vom neutralen und vom inversen Element In jeder Gruppe .G; / gibt es genau ein neutrales Element e mit e x D x e D x für alle x 2 G. Ferner gibt es zu jedem a 2 G genau ein inverses Element a1 mit der Eigenschaft a a1 D a1 a D e : Das inverse Element a1 ist somit gleichzeitig links- und rechtsinvers.

Beweis Wir zeigen dies in vier Schritten, indem wir jeweils

ein wichtiges Zwischenergebnis formulieren und dann begründen: (i) In einer Gruppe ist das hinsichtlich e zu a linksinverse Element a0 zugleich rechtsinvers. Somit gilt auch a a0 D e.

2

34

2

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Beweis: Nach der Definition einer Gruppe gibt es zu a ?Selbstfrage 2.3 ein a0 mit a0 a D e und ferner zu a0 ein a00 mit a00 a0 D e. Wie lässt sich die zweite Kürzungsregel beweisen? Folglich gilt nach den einzelnen Punkten der GruppendefiMithilfe der Kürzungsregeln (2.2) erkennen wir z. B. nition .G3/

.G3/

.G2/

e D a00 a0 D a00 .e a0 / D a00 ..a0 a/ a0 / .G1/

.G3/

.G2/

D .a00 a0 / .a a0 / D e .a a0 / D a a0 :

a b D a H) b D e sowie a b D b H) a D e: ?Selbstfrage 2.4

Warum gilt in einer Gruppe .G; / stets .y 1 /1 D y für y 2 G?

(ii) Das linksneutrale Element e ist zugleich rechtsneuDie bisher vorgestellten Regeln für Gruppen wirken vertral, daher stets auch a e D a. traut; man kennt sie alle aus der Schulmathematik. Nur bei Beweis: Es ist der Reihenfolge muss man achtgeben; man darf die Reihen.G3/ .G1/ .i/ .G2/ folge bei der Verknüpfung nicht ohne Weiteres vertauschen. a e D a .a0 a/ D .a a0 / a D e a D a: Dies gilt z. B. auch bei der folgenden, in allen Gruppen gülNun fehlt noch der Nachweis der Eindeutigkeit sowohl von tigen Formel:

e als auch von a1 . .a b/1 D b 1 a1 : (2.3) (iii) In einer Gruppe ist das neutrale Element e eindeutig bestimmt. Der Hinweis „hinsichtlich e“ bei den inversen ?Selbstfrage 2.5 Elementen kann somit entfallen. Wie kann (2.3) bewiesen werden? Beweis: Angenommen, e 0 ist ebenfalls ein neutrales Gruppen sind in vielen Bereichen der Mathematik anzutrefElement. Dann gilt: fen. Wir beginnen mit den geläufigen Beispielen: .ii/

.G2/

e D e e0 D e0 :

Beispiel

4 Es wurde bereits gezeigt, dass die ganzen Zahlen Z hinsichtlich der Addition eine kommutative Gruppe bilden mit 0 als neutralem Element und .x/ als inversem Element zu x. Dasselbe gilt für die Gruppen .Q; C/, .R; C/ und .C; C/. Die oben vorgestellte elementweise Addition reeller Zahlentripel ergibt die Gruppe .R3 ; C/ mit dem neu.i/ 0 0 .ii/ 0 00 .G1/ 0 00 .G3/ 00 tralen Element .0; 0; 0/. Natürlich gibt es die analogen a D a e D a .a a / D .a a/ a D a : Gruppen .Rn ; C/ und .C n ; C/, n 2 N. 0 4 Neben den additiven Gruppen gibt es die multiplikatiSomit ist a eindeutig bestimmt. ven .Q n f0g; /, .R n f0g; / und .C n f0g; /. Sie sind Damit ist nun aber der oben aufgestellte Satz vom neuebenfalls kommutativ; das neutrale Element ist 1, und tralen und inversen Element vollständig bewiesen.  1=x ist invers zu x. Wir schreiben statt x  y 1 einfacher yx . Übrigens, in nicht kommutativen Gruppen wäre Wir bezeichnen von nun an das eindeutig bestimmte Inverse 1 diese Bruchdarstellung nicht sinnvoll, denn man könnte von a mit a , sofern die Verknüpfung keine Addition ist. nicht zwischen x y 1 und y 1 x unterscheiden. Bei einer additiven Verknüpfung schreiben wir a für das 4 Die bereits erklärte Verknüpfung zweier Zahlentripel zu zu a inverse Element. Wir halten weiterhin fest: dem Vektorprodukt ergibt hingegen keine Gruppe, denn „ “ ist nicht assoziativ. Dies zeigt das folgende Beispiel mit e 1 D .1; 0; 0/, e 2 D .0; 1; 0/ und e 3 D .0; 0; 1/: Die Kürzungsregeln Somit ist e eindeutig bestimmt. (iv) In einer Gruppe ist das inverse Element a0 zu a 2 G eindeutig bestimmt. Beweis: Angenommen, a00 ist ebenfalls ein inverses Element zu a. Dann gilt:

.e 1 e 1 / e 2 D .0; 0; 0/; hingegen e 1 .e 1 e 2 / D e 1 e 3 D .0; 1; 0/:

In Gruppen gelten die beiden Kürzungsregeln: a b Da c

H)

b D c;

b aDc a

H)

b D c:

(2.2)

Beweis Wir verknüpfen beide Seiten der Gleichung a b D

Hier gibt es übrigens auch kein neutrales Element, also kein Tripel e mit e .x1 ; x2 ; x3 / D .x1 ; x2 ; x3 / für alle .x1 ; x2 ; x3 / 2 R3 . 9

Handelt es sich bei der Gruppenverknüpfung nicht ausa c von links mit dem Inversen a1 von a. Dann folgt mit drücklich um eine Addition, so spricht man gerne neutral (2.1) a1 .a b/ D a1 .a c/ und weiter wegen der von der Gruppenmultiplikation und nennt das Ergebnis Assoziativität e b D e c, also b D c.  auch Produkt.

35 2.1  Gruppen

Die bijektiven Abbildungen einer Menge auf sich bilden eine Gruppe

und die Spalte links vom Doppelstrich auch weggelassen werden, nachdem die dort aufgelisteten Faktoren bei Multiplikation mit dem neutralen Element e erneut als Produkte auftreten. Der verbleibende und hier gelb schattierte Teil Eine neue Art von Verknüpfung tritt in dem folgenden der Tabelle rechts vom vertikalen und unter dem horizontaBeispiel auf, und diesmal handelt es sich um eine nicht len Doppelstrich heißt Gruppentafel von G. kommutative Gruppe: G sei die Menge der bijektiven Abbildungen einer Menı e f g h i j ge M auf sich, also der Permutationen von M . Wie e e f g h i j gewohnt, bezeichnet das Symbol ı die Hintereinanderausf f e führung. Damit ist ı eine Verknüpfung auf G, denn sind f g g e h und g zwei Bijektionen von M , so gilt h h e f g i i f j e g ı f W x 7! f .x/ 7! g ı f .x/ D g .f .x// für x 2 M; j j e i und g ı f ist wieder bijektiv. Wir zeigen, dass .G; ı/ eine Absichtlich sind in dieser Gruppentafel noch einige Felder Gruppe ist, die Permutationsgruppe von M . 4 Die Verknüpfung ı ist assoziativ, denn bei f; g; h 2 G frei gelassen worden, um Sie zu aktiver Mitarbeit anzuregen: ist Jedes der 6 Elemente e; : : : ; j muss in jeder Spalte und g ı f W x 7! g.f .x//; h ı .g ı f /W x 7! h.g.f .x///; in jeder Zeile der Gruppentafel genau einmal vorkommen, h ı gW x 7! h.g.x//; .h ı g/ ı f W x 7! h.g.f .x///: denn aus den Kürzungsregeln (2.2) folgt Dies gilt nicht nur für Bijektionen, sondern für alle hin.a ı c D b ı c oder c ı a D c ı b/ H) a D b: tereinander ausführbaren Abbildungen, wie bereits in 7 Kap. 1 festgestellt worden ist. Dass die Permuationsgruppe .G; ı/ von M nicht kommu4 Neutrales Element ist die identische Abbildung tativ ist, zeigt ein Vergleich der Produkte idM W x 7! x für alle x 2 M . 4 Zu jeder Bijektion f von M existiert nach g ı iW 1 7! 2; 2 7! 1; 3 7! 3; g ı i D h; 7 Abschn. 1.3 die Umkehrabbildung f 1 2 G mit also i ı gW 1 ! 7 1; 2 ! 7 3; 3 ! 7 2; i ı g D f: 1 f ı f D idM . Somit gilt: Satz von der Permutationsgruppe Die bijektiven Abbildungen einer nichtleeren Menge M auf sich bilden hinsichtlich der Hintereinanderausführung ı eine Gruppe, die Permutationsgruppe von M .

Nun sei M D f1; 2; 3g: Dann umfasst die Permutationsgruppe G von M die folgenden Bijektionen: eW fW gW hW iW jW

1 7! 1; 1 7! 1; 1 7! 3; 1 7! 2; 1 7! 2; 1 7! 3;

2 7! 2; 2 7! 3; 2 7! 2; 2 7! 1; 2 7! 3; 2 7! 1;

3 7! 3; 3 7! 2; 3 7! 1; 3 7! 3; 3 7! 1; 3 7! 2:

Offensichtlich ist e D idM . Jede der Bijektionen f; g; h bildet genau ein Element von M auf sich ab, d. h. lässt dieses fix. Es ist f .1/ D 1, g.2/ D 2 und h.3/ D 3. Wie die durch Hintereinanderausführung entstehenden Produkte aussehen, zeigt in übersichtlicher Form die folgende Tabelle. Offensichtlich könnten die oberste Zeile

g ı i ¤ i ı g: Die Bijektion i rückt jede Zahl zyklisch um 1 weiter; zyklisch heißt 1 7! 2 7! 3 7! 1. Damit wird klar, warum i 1 D j ist, denn j macht dasselbe in der entgegengesetzten Richtung. Die Gruppe der Permutationen einer Menge von n Elementen heißt symmetrische Gruppe und wird üblicherweise mit Sn bezeichnet. Demnach behandeln wir in diesem Beispiel die symmetrische Gruppe S3 . ?Selbstfrage 2.6 Ergänzen Sie in der obigen Gruppentafel die fehlenden Elemente.

Bei einer genaueren Analyse der obigen Gruppentafel kann man feststellen, dass die Teilmenge fi; j; eg abgeschlossen ist unter ı, denn die Produkte i ı i D j , i ı j D j ı i D e und j ı j D i wie auch alle jene mit e haben als Ergebnis wieder ein Element aus dieser Teilmenge. Diese Teilmenge von nur 3 Permutationen bildet für sich eine Gruppe. Dafür gibt es ein Fachwort:

2

36

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Untergruppen sind Teilmengen einer Gruppe, die selbst wieder Gruppen sind

2

Nun wenden wir uns einigen Beispielen von Untergruppen zu: Beispiel

Ist .G; / eine Gruppe, und hat eine Teilmenge H von G 4 Jede Gruppe .G; / mit neutralem Element e enthält die die Eigenschaft, hinsichtlich der von G stammenden VerUntergruppen feg und G. Man nennt diese Untergrupknüpfung eine Gruppe zu sein, so heißt H Untergruppe pen die trivialen Untergruppen von G. Wenn wir von von G. einer echten Untergruppe H sprechen, so meinen wir Wir verwenden für die Verknüpfung auf H einfachdamit, dass H keine triviale Untergruppe von G ist. Daheitshalber dasselbe Symbol wie in G, sprechen also von mit ist H sicherlich eine echte Teilmenge von G. der Gruppe .H; /, obwohl mit der „von G stammenden 4 Offensichtlich ist in der Folge der Gruppen .Z; C/, Verknüpfung“ eigentlich die Abbildung 0 W H H ! H .Q; C/, .R; C/ und .C; C/ jede eine echte Untergruppe mit .x; y/ 7! x 0 y D x y gemeint ist. der folgenden. Dasselbe trifft auf die Folge .Q n f0g; /, Hat man festzustellen, ob eine gegebene Teilmenge H .R n f0g; / und .C n f0g; / zu. Da das Produkt zweier eine Untergruppe der Gruppe .G; / ist, so müssen nicht positiver Zahlen und auch der Kehrwert einer positiven alle Gruppenaxiome überprüft werden. Das folgende KriteZahl stets wieder positiv sind, ist .R>0 ; / eine echte Unrium zeigt, dass es ausreicht, in H die Abgeschlossenheit tergruppe von .R n f0g; /. gegenüber und die Existenz der inversen Elemente nach- 4 Es sei .G; ı/ die Gruppe der Permutationen einer Menzuweisen. ge M und N  M eine Teilmenge von M . Mit H bezeichnen wir die Menge derjenigen Bijektionen f 2 G, welche die Teilmenge N von M auf sich abbilden, Untergruppenkriterium für die also f .N / D N gilt. Dann ist H eine UnterSind .G; / eine Gruppe und H eine Teilmenge von G, so gruppe von G. ist H dann und nur dann eine Untergruppe von G, wenn Beweis mithilfe des Untergruppenkriteriums: gilt: Zu (U1): H ist nichtleer, weil die identische Abbildung (U1) H ist nicht die leere Menge. idM jedenfalls N fix lässt, also zu H gehört. (U2) Für alle x 2 H ist zugleich x 1 2 H . Zu (U2): Bildet die Bijektion f 2 G die Teilmenge (U3) Aus x; y 2 H folgt stets .x y/ 2 H . N auf sich ab, ist also auch ihre Einschränkung auf N bijektiv, so trifft dasselbe auf die Umkehrabbildung f 1 zu. Also liegt auch f 1 in H . Beweis Die Formulierung „dann und nur dann“ erfordert, Zu (U3): Wenn schließlich neben f auch g die Teilmendass wir zweierlei zeigen müssen: ge N auf sich abbildet, so tut dies auch g ı f . (i) Ist H eine Untergruppe, so gelten die im UntergruppenSo können wir z. B. in dem oben bereits diskutierten kriterium geforderten Aussagen (U1), (U2) und (U3). Sonderfall M D f1; 2; 3g anhand der dargestellten (ii) Treffen umgekehrt diese drei Aussagen zu, so ist H eine Gruppentafel sofort erkennen, dass fe; f g eine UnterUntergruppe von G, also .H; / eine Gruppe. gruppe von .G; ı/ ist, denn e und f sind die einzigen Permutationen von M , die das Element 1 fix lassen. Zu (i): Nach (G2) muss H ein neutrales Element enthalten; Ebenso sind fe; gg und fe; hg Untergruppen. 9 also ist H nichtleer und damit (U1) bestätigt. Als Gruppe enthält H gemäß (G3) mit jedem Element Weitere Beispiele von Untergruppen folgen in der Box zur a auch das Inverse a1 . Somit ist auch (U2) erfüllt. Symmetriegruppe eines Ornaments. Dort geht es um bijekNachdem .H; / eine Gruppe ist, muss nach der Defi- tive Selbstabbildungen unendlicher Punktmengen. nition einer Verknüpfung mit x; y 2 H auch stets x y in Wir zeigen im Folgenden, dass jede Untergruppe H von H liegen. Also gilt (U3). .G; / Anlass für eine Äquivalenzrelation H auf der MenZu (ii): Wegen (U3) ist H bezüglich der von G stamge G ist. Wir definieren menden Verknüpfung abgeschlossen. Also liegt eine Verknüpfung auf H vor. g2 H g1 ” g11 g2 2 H: Die Verknüpfung auf H ist assoziativ, denn dies ist in ganz G garantiert. ist g2 genau dann hinsichtlich H äquivalent Wegen der Forderung H ¤ ; in (U1) gibt es mindes- Offensichtlich 1 1 zu g1 , wenn g1 g2 D h, also g2 D g1 h ist mit einem tens ein Element a 2 H . Nach (U2) liegt das Inverse a in H und wegen (U3) auch das Produkt a a1 D e. Also h 2 H . Die Menge der zu g1 äquivalenten Elemente lautet also gibt es in H ein neutrales Element. Das letzte Gruppenaxiom (G3) ist schließlich mit der g1 H D f.g1 h/ j h 2 H g: Forderung (U2) identisch. 

37 2.1  Gruppen

Dass die Relation H auf G tatsächlich reflexiv, symmetrisch und transitiv ist, ergibt sich nun einfach aus den Untergruppeneigenschaften von H . Damit sind die Mengen g H für g 2 G Äquivalenzklassen. Wir nennen sie Linksnebenklassen von H . Auch H D e H gehört dazu. Alle Linksnebenklassen sind gleichmächtig, denn die Abbildung H ! g H mit h 7! g h

Wir wollen zunächst nur die Zahl 3 2 R herausgreifen und auf diese wiederholt und in beliebiger Reihenfolge die beiden Operationen r und s anwenden. Es wird sich herausstellen, dass lediglich 6 verschiedene Werte als Ergebnisse auftreten: Durch Anwendung von r entsteht aus 3 der Kehrwert r.3/ D 13 ; durch s geht 3 in s.3/ D 1  3 D 2 über. Wenn wir auf die neuen Werte wiederum r oder s anwenden, so entstehen 1  13 D 23 und  12 , oder wir kehren zum Ausgangswert 3 zurück. Ferner ist r. 32 / D 32 , und ebenso ist s. 12 / D 32 . Weder r, noch s führen 32 in Werte über, die bisher noch nicht aufgetreten sind. Also bleibt es bei der Menge der Bilder:   1 2 1 3 3; ; 2; ;  ; : 3 3 2 2

ist eine Bijektion. Nachdem die Linksnebenklassen als Äquivalenzklassen zu einer Partition von G führen (siehe 7 Kap. 1), also jedes Element von G in genau einer Linksnebenklasse vorkommt, erhalten wir im Falle endlicher Gruppen die Anzahl jGj der Elemente von G, wenn wir jH j mit der Anzahl der Linksnebenklassen von H in G multiplizieren. Damit haben wir das folgende Resultat hergeleitet. Wir werden erkennen, dass es auch für andere x 2 R nie mehr als sechs verschiedene Bilder gibt. Hinter diesem Phänomen steckt nämlich eine nur sechs Elemente umfassende Satz von Lagrange: Untergruppe H , welche trotzdem alle möglichen Produkte Ist H Untergruppe der endlichen Gruppe G, so ist die Ander Bijektionen r und s enthält. zahl jH j der Elemente von H ein Teiler von jGj. Nach (U3) enthält H neben r und s auch r

Wenn wir unsere Relation abwandeln zu g2 H g1 ” g2 g11 2 H; so entsteht erneut eine Äquivalenzrelation. Diesmal fungieren die Rechtsnebenklassen H g als Äquivalenzklassen.

Gruppen lassen sich oft aus gewissen Grundelementen erzeugen

r ı rW x 7!

1 r 1 7! 1 D x; x x

also r ı r D e mit e als identischer Abbildung, und ebenso s

s

s ı sW x 7! 1  x 7! 1  .1  x/ D x: Damit gilt r 1 D r und s 1 D s. Abbildungen, die diese Eigenschaft erfüllen und von der identischen Abbildung verschieden sind, heißen übrigens selbstinvers oder involutorisch. Der Untergruppe H müssen aber auch die Produkte

Am Ende dieses Abschnitts wenden wir uns einem Beispiel 1 x 1 1 s ı rW x 7! 1  D und r ı sW x 7! zu, das deshalb etwas schwerer zu verstehen ist, weil die x x 1x Elemente der Gruppe Bijektionen einer unendlichen Menge sind. Das Beispiel ist allerdings recht instruktiv, weil es angehören. Dabei ist nach (2.3) künftige Begriffe wie Erzeugendensystem und Isomorphie .r ı s/1 D s 1 ı r 1 D s ı r: vorbereitet. Nun fehlen noch r ı s ı r und s ı r ı s. Die beiden sind Menge der Bijektionen von R n f0; 1g auf sich. Allerdings gleich, denn beschränken wir uns auf diejenigen Bijektionen, welche aus x sır x  1 r den folgenden zwei Abbildungen zusammensetzbar sind: r ı .s ı r/W x 7! 7! ; x x1 1 1 1 x rıs s rW x 7! und sW x 7! 1  xI 7! 1  D : s ı .r ı s/W x 7! x 1x 1x x1 Beispiel Ausgangspunkt ist die Gruppe .G; ı/ mit G als

r bedeutet den Übergang zum Reziprokwert; hier muss x D 0 ausgeschlossen werden. s kann als Spiegelung an x D 12 bezeichnet werden; hier muss x D 1 ausgeschlossen werden, weil dessen Bild x D 0 fehlt.

Auch r ı s ı r D s ı r ı s ist involutorisch, denn nach zweimaliger Anwendung von (2.3) folgt: .r ı s ı r/1 D r 1 ı s 1 ı r 1 D r ı s ı r:

2

38

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Hintergrund und Ausblick: Symmetriegruppe eines Ornaments aus der Alhambra

2

Welche Bewegungen bringen das unten links ausschnittsweise gezeigte Ornament F mit sich zur Deckung? Wir verzichten hier auf die genaue Definition des Begriffs Bewegung; diese folgt in 7 Kap. 5. Uns genügt die folgende anschauliche Vorstellung: Wir kopieren das Ornament F auf eine Folie und versuchen, diese auf verschiedene Arten derart über das Original zu legen, dass die Kopie des Ornaments genau das darunterliegende Ornament F überdeckt. Ausgehend von der randgetreuen Lage kann beispielsweise durch eine geeignete Verschiebung der Kopie nach rechts eine neuerliche Überdeckung der Ornamente erreicht werden. Übrigens darf die Folie auch umgedreht werden. Mit jeder deckungsgleichen Position ist eine Abbildung der Punkte des Originals F auf die jeweils darüberliegenden Punkte der Kopie verbunden. Wenn wir die Kopie als mit dem Original identisch auffassen und deren Trägerebene als R2 interpretieren, so liegt jeweils eine bijektive Punktabbildung R2 ! R2 vor, und diese nennen wir eine Deckbewegung des Ornaments F . Die vorhin als Beispiel erwähnte Verschiebung nach rechts ist eine derartige Deckbewegung. Alle Deckbewegungen bilden eine Gruppe, die Symmetriegruppe von F , denn offensichtlich sind alle drei Anforderungen aus dem Untergruppenkriterium erfüllt. Bei allen Überlegungen müssen wir voraussetzen, dass der gezeigte Ausschnitt soweit typisch ist für das unbegrenzte Ornament F , dass eine Übereinstimmung der Kopie mit dem Original innerhalb des Ausschnitts auch eine Übereinstimmung außerhalb garantiert.

Beginnen wir mit der rechts oben gezeigten quadratischen Teilfigur F0 von F . Man kann die Figur F0 durch Drehungen um das Zentrum durch 90ı , 180ı oder 270ı mit ihrer Ausgangslage zur Deckung bringen. Dasselbe trifft auf die Spiegelungen an den unter 0ı , 45ı , 90ı oder 135ı geneigten Quadratdurchmessern zu. So entsteht zusammen mit der identischen Abbildung eine insgesamt 8 Elemente umfassende Gruppe, die Symmetriegruppe dieser quadratischen Teilfigur.

Betrachten wir nun einen größeren Ausschnitt F1 des Ornaments; nehmen wir zur quadratischen Figur F0 auch noch die davon ausgehenden Linien dazu (siehe Abbildung rechts unten). Für F1 sind die Spiegelungen keine Symmetrieoperationen mehr. Die Symmetriegruppe umfasst in diesem Fall nur mehr Drehungen. Wir sagen, die Quadratmitte ist ein vierzähliges Drehzentrum.

Nun kehren wir zurück zu dem kompletten Ornament F . Offensichtlich bringen die Drehungen durch ganzzahlige Vielfache von 90ı um die Quadratmitten nicht nur die Teilfigur F1 mit sich zur Deckung, sondern das ganze Ornament. Dazu kommen nun noch alle Translationen, also Parallelverschiebungen, welche ein Quadratzentrum in ein anderes überführen. Alle diese vierzähligen Zentren sind im Gesamtbild links durch kleine rote Quadrate markiert. Die Symmetriegruppe von F wird damit unendlich groß. Sie umfasst auch die Drehungen durch ganzzahlige Vielfache von 90ı um die zwischen den Quadratzentren liegenden Kreuzungspunkte, die in der Abbildung links blau markiert sind. Schließlich gehören auch noch weitere Drehungen durch 180ı dazu. Deren Zentren heißen zweizählig, und sie sind links durch grüne Rauten gekennzeichnet.

Es gibt übrigens 17 verschiedene ebene Symmetriegruppen, welche Translationen in verschiedenen Richtungen enthalten. Man nennt diese Gruppen auch ebene kristallografische Gruppen. Die dem obigen Beispiel zugrunde liegende Symmetriegruppe wird üblicherweise mit p4 bezeichnet. 4 E. Quaisser: Diskrete Geometrie. Spektrum Akademischer Verlag, Heidelberg 1994

2

39 2.2  Homomorphismen

Verknüpft man r ı s ı r D s ı r ı s rechts mit r oder s, so ist die neue Abbildung gleich r ı s oder s ı r. Ebenso ist ein Produkt von mehr als vier r- und s-Abbildungen auf eines von höchstens 3 Abbildungen reduzierbar: Wann immer nämlich in diesem Produkt zwei gleiche Abbildungen aufeinanderfolgen, kann man diese weglassen. Hierauf kann man die Tripel r ı s ı r und s ır ıs wegen deren Gleichheit gegeneinander austauschen, wodurch an den Anschlussstellen wiederum zwei gleiche aufeinanderfolgen können, die dann wegzulassen sind. Dies geht so lange, bis nur mehr ein Produkt von höchstens drei Abbildungen vorliegt. Dies beweist: Führt man endlich oft die Bijektionen r oder s hintereinander aus, so entstehen keine neuen Abbildungen gegenüber den bisherigen sechs. Die Menge H D fe; r; s; r ı s; s ı r; r ı s ı rg ist abgeschlossen unter ı, und zudem ist zu jeder Abbildung auch die Inverse enthalten. Nach dem Untergruppenkriterium ist H eine Untergruppe von G. Weil jedes Element aus H ein Produkt von endlich vielen r- und s-Abbildungen ist, sagen wir, diese Untergruppe wird von r und s erzeugt, oder r und s bilden ein Erzeugendensystem von H . Wir werden im nächsten Abschnitt erkennen, dass sich diese Gruppe .H; ı/ trotz ihrer etwas mühsamen Herleitung eigentlich nicht von der gleichfalls 6 Elemente umfassenden symmetrischen Gruppe S3 aus dem obigen Beispiel unterscheidet. 9 2.2

Homomorphismen

Wir beziehen uns zunächst auf das eben gezeigte Beispiel. Die von r und s erzeugte Gruppe .H; ı/ umfasst die sechs Elemente H D fe; r; s; r ı s; s ı r; r ı s ı rg: Dabei ist r ı r D s ı s D e. Aber auch das letzte Element r ı s ı r ist involutorisch. Zum Vergleich betrachten wir nochmals die Gruppentafel der symmetrischen Gruppe S3 (siehe . Abb. 2.1), wobei diesmal die Farben verdeutlichen sollen, dass in jeder Zeile und in jeder Spalte alle 6 Elemente vorkommen: ı

e

f

g

h

i

j

eı f ı gı hı iı j

e f g h i j

f e j i h g

g i e j f h

h j i e g f

i g h f j e

j h f g e i

. Abb. 2.1 Gruppentafel der symmetrischen Gruppe S3 D fe; : : : ; j g

Hier sind die Elemente f und g involutorisch, denn f ı f D g ı g D e. Aber auch h hat diese Eigenschaft. Die folgende Bijektion W H ! S3 bildet die Elemente von H auf jene von S3 ab: W

e 7! e; r 7! f; s 7! g; r ı s 7! i; s ı r 7! j; r ı s ı r 7! h:

Dabei hat eine besondere Eigenschaft, die sich erst bei genauem Hinsehen offenbart. Es ist z. B. .r ı s/ D i D f ı g D .r/ ı .s/; .s ı r/ D j D g ı f D .s/ ı .r/ und .r ı s ı r/ D h D f ı g ı f D

.r/ ı

.s/ ı

.r/:

Tatsächlich bekommt man in allen Fällen das -Bild eines in H gelegenen Produkts von r- und s-Abbildungen, indem man zunächst jeden einzelnen Faktor mittels abbildet und dann die Multiplikation nach der obigen Gruppentafel vornimmt. In diesem Abschnitt widmen wir uns generell derartigen verknüpfungstreuen Abbildungen, denn sie ermöglichen es, bei verschiedenen Gruppen gemeinsame Strukturen zu erkennen. Dabei beschränken wir uns aber nicht nur auf bijektive Abbildungen.

Bei einem Homomorphismus ist das Bild eines Produkts stets gleich dem Produkt der Bilder

Definition eines Homomorphismus Eine Abbildung W G ! G 0 der Gruppe .G; / in die Gruppe .G 0 ; 0 / heißt Homomorphismus, wenn für alle a; b 2 G die Eigenschaft .a b/ D

.a/ 0

.b/

gilt. Ist bijektiv, so heißt Isomorphismus und insbesondere bei G 0 D G Automorphismus. Zwei Gruppen heißen isomorph, wenn zwischen ihnen ein Isomorphismus existiert.

Ist ein Homomorphismus, so kommt es nicht darauf an, ob zwei Elemente a; b 2 G zuerst verknüpft werden und dann deren Produkt durch abgebildet wird, oder ob die Elemente zuerst einzeln durch abgebildet und dann deren Bilder in G 0 verknüpft werden. Die Abbildung ist mit den Verknüpfungen vertauschbar oder kurz: Das Bild des Produkts ist gleich dem Produkt der Bilder.

40

2

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Die unterschiedlichen Verknüpfungssymbole und 0 sol- Beweis (i) Für alle a 2 G gilt a D a e, daher auch len verdeutlichen, dass die Verknüpfungen in G und G 0 .a/ D .a/ 0 .e/ und somit .e/ D e 0 . (ii) Aus a a1 D e folgt ganz unterschiedlich sein können. Es folgen einige Beispiele: .a a1 / D .a/ 0 .a1 / D .e/ D e 0 Beispiel

4 Hinter den Vorzeichenregeln für die Produkte positiver und somit .a1 / D Œ .a/1 . oder negativer reeller Zahlen verbirgt sich ein Homo(iii) Wir verwenden das Untergruppenkriterium: Es ist morphismus: Die Abbildung .G/ ¤ ;, da e 0 unter den Bildelementen vorkommen muss. Die Abgeschlossenheit der Bildmenge gegenüber  1 für x > 0; der Multiplikation 0 ist gegeben, denn aus .a/; .b/ 2 W R n f0g ! f1; 1g; x 7! .x/ D 1 für x < 0 .G/ folgt ist ein surjektiver Homomorphismus von .Rnf0g;  / auf .f1; 1g;  /, denn stets ist .x  y/ D

.x/ 

x 7! 2x ;

also z. B. 0 7! 1, 1 7! 2, 2 7! 4, 1 7! 12 , 2 7! 14 , ist ein injektiver Homomorphismus .Z; C/ ! .Q >0 ;  /, denn .x C y/ D 2xCy D 2x  2y D

.b/ D

.a b/ 2

.G/:

Schließlich ist für jedes .a/ 2 .G/ das inverse Element wegen (ii) gleich .a1 / und daher gleichfalls ein Bildelement. 

.y/ :

4 Die Abbildung W Z ! Q >0 ;

.a/ 0

.x/ 

.y/:

Der folgende Satz, welcher Arthur Cayley (1821–1895) zugeschrieben wird, unterstreicht die Wichtigkeit der Permutationsgruppen für die Theorie endlicher Gruppen.

Der Satz von Cayley Jede Gruppe .G; / mit n Elementen ist isomorph zu einer Untergruppe der symmetrischen Gruppe Sn .

4 Die zu Beginn dieses Abschnitts gezeigte Bijektion zwischen der Gruppe H und der Permutationsgruppe S3 zeigt, dass .H; ı/ isomorph ist zur symmetrischen Beweis Dieser Satz basiert auf einer Beobachtung, auf Gruppe S3 . 9 die bereits bei . Abb. 2.1 hingewiesen wurde: In jeder Zeile der Gruppentafel von G muss jedes der n Ele? Selbstfrage 2.7 mente genau einmal vorkommen; nur die Reihenfolge Ist W x 7! 2x ein Homomorphismus der Gruppe .Z; C/ variiert. Genauer: Steht in der zum neutralen Element auf sich oder der Gruppe .R n f0g;  / auf sich? g1 D e gehörigen Zeile von links nach rechts die Folge Das Beispiel in der folgenden Box zeigt mithilfe eines .g1 ; g2 ; : : : ; gn /, so steht in der Zeile, die zu gi gehört die Homomorphismus, dass man zwischen geraden und unge- Folge .gi ; gi g2 ; : : : ; gi gn /. raden Permutationen unterscheiden kann. Wir ordnen nun dem Element gi 2 G diejenige Permutation zu, welche .g1 ; g2 ; : : : ; gn / auf .gi ; gi g2 ; : : : ; gi gn / abbildet. Dies führt zur Abbildung 0

Ein Homomorphismus G ! G weist bestimmte Gesetzmäßigkeiten auf

W G ! Sn ;

gi 7!

.gi /

mit

.gi /

.g1 ; g2 ; : : : ; gn / 7! .gi ; gi g2 ; : : : ; gi gn /:

Wir stellen nun einige Eigenschaften von Homomorphismen zusammen: Für die Permutation .gi / gilt also e D g1 7! gi D gi e, g2 7! gi g2 , . . . , gn 7! gi gn , somit kurz: Lemma

(i) Der Homomorphismus W G ! G 0 bildet das neutrale .gi /W gk 7! gi gk für k D 1; : : : ; n: Element e von G auf das neutrale Element e 0 von G 0 ab. ist injektiv, denn .gi / D .gj / bedeutet (ii) Der Homomorphismus W G ! G 0 bildet das inverse Element von a auf das inverse Element des Bildes .gi ; gi g2 ; : : : ; gi gn / D .gj ; gj g2 ; : : : ; gj gn /; .a/ ab, also .a1 / D Œ .a/1 . (iii) Ist W G ! G 0 ein Homomorphismus, so ist die Bild- und schon die jeweils ersten Elemente zeigen, dass daraus gi D gj folgt. menge .G/ eine Untergruppe von G 0 .

41 2.2  Homomorphismen

Beispiel: Signum einer Permutation

Eine Permutation  2 Sn der Zahlen 1; : : : ; n ändert deren Reihenfolge ab auf die Folge ..1/; .2/; : : : ; .n//. Wir sprechen von einem Fehlstand von , wann immer in der Folge der Bildelemente eine größere Zahl vor einer kleineren steht, wenn also .i/ > .j / ist bei i < j .  So weist z. B. die Permutation  2 S5 mit .1; 2; 3; 4; 5/ 7! .3; 2; 4; 5; 1/ fünf Fehlstände auf, nämlich .3; 2/, .3; 1/, .2; 1/, .4; 1/ und .5; 1/, denn rechts steht 3 vor 2 und 1, 2 vor 1, und ebenso befinden sich 4 und 5 vor 1. Weist die Permutation  2 Sn genau f Fehlstände auf, so heißt sgn  D .1/f Signum der Permutation . Die Permutation  heißt gerade, wenn sgn  D 1 ist, sonst ungerade. Wir wollen den folgenden Satz beweisen, der später auch noch bei den Determinanten im 7 Kap. 7 eine Rolle spielen wird. Satz vom Signum einer Permutation Die Abbildung sgnW Sn ! f1; 1g mit  7! sgn  D .1/f ist ein Homomorphismus .Sn ; ı/ ! .f1; 1g;  /, denn es gilt

ner überein. Allerdings führt jeder Fehlstand wegen .i/ > .j / zu einer negativen Differenz. Also liefert die Produktformel . / tatsächlich den geforderten Wert .1/f . Beweis des obigen Satzes Aus der eben bewiesenen Formel folgt für das Produkt sgn.2 ı 1 / zweier Permutationen: sgn.2 ı 1 / D

Y 2 ı 1 .j /  2 ı 1 .i/ j i

i 1 gibt es einen Restklassenkörper

bei welcher jede Klasse links mit r multipliziert wird. Diese Abbildung ist injektiv, denn bei r ˇa D r ˇb unterscheiden sich ra und rb durch ein Vielfaches von p, d. h., p teilt r.a  b/. Wegen 1 < r < p muss p ein Teiler von a  b sein und daher a D b. Also durchlaufen die p  1 Produkte r ˇ 1, r ˇ 2, : : : , r ˇ p  1 alle p  1 Restklassen aus Zp n f0g. Darunter muss unbedingt auch 1 vorkommen. Die notwendige Bedingung, dass p eine Primzahl ist, erweist sich somit als hinreichend. Sie garantiert, dass .Zp n f0g; ˇ/ eine Gruppe ist. Nachdem auch die distributiven Gesetze gelten, weil sie ja in Z erfüllt sind und durch den Homomorphismus .r Ckp/ 7! r nicht zerstört werden, ist die folgende Aussage bewiesen:

Satz vom Restklassenkörper

Oben haben wir den Restklassenkörper modulo 5 betrachtet. Wie sieht es aus, wenn wir, von Z ausgehend, 5 durch eine andere natürliche Zahl p > 1 ersetzen, also die Menge der Restklassen

Ist p eine Primzahl, so ist   Zp D f0; 1; : : : ; p  1g; ˚; ˇ ein Körper, der Restklassenkörper modulo p.

Zp D f0; 1; : : : ; p  1g betrachten? Führen die Addition und Multiplikation von Der kleinste Körper ist Z2 D f0; 1g. In ihm ist 0 C 1 D 1 Restklassen aus Zp ebenfalls zu Gruppen? und 1 C 1 D 0. Das „kleine Einmaleins“ besteht hier überDie Summe haupt nur aus der trivialen Regel 1  1 D 1. In Zukunft werden wir in Restklassenkörpern die Ad.r C kp/ C .s C lp/ D .r C s/ C .k C l/p; dition und Multiplikation wie gewohnt mit C und  be0  r; s < p; zeichnen statt mit ˚ und ˇ, und auch die Querstriche zur Kennzeichnung der Restklassen lassen wir meist weg. Statt liegt bei r C s < p in der Restklasse r C s, andernfalls in .a ˚ b/ ˇ c D d schreiben wir einfach .a C b/c D d . r C s  p. Das Ergebnis hängt also nur von den Klassen r und s ab. Somit ist ˚ eine Verknüpfung auf Zp , und wie bei ?Selbstfrage 2.14 Z5 lässt sich begründen, dass .Zp ; ˚/ eine Gruppe ist. Berechnen Sie im Restklassenkörper modulo 7 den Wert Bei der Multiplikation ist zu beachten, dass das Produkt .r C kp/  .s C lp/ D rs C .klp C ks C rl/p; nicht unbedingt in einer der Restklassen 1; : : : ; p  1 vorkommen muss. Sobald nämlich p D rs ist bei 1 < r; s < p, liegt das Produkt rs in 0. Somit wären r und s Nullteiler dieser Multiplikation. Ist hingegen p eine Primzahl, besitzt p also nur 1 und p als Teiler, so kann rs kein ganzzahliges Vielfaches von p

x D .4  6/  .1  6/1 , den man auch als Bruch schreiben könnte.

46 16

Die Restklassenkörper sind an sich interessant, weil sie endliche Körper sind. Darüber hinaus spielen sie in der Zahlentheorie, in der Kryptographie und in der Codierungstheorie eine wichtige Rolle. Letztlich gäbe es ohne den kleinsten Körper Z2 keine Digitalisierung und keine Computer.

2

49 2.3  Körper

Der Körper der komplexen Zahlen ist eine echte Erweiterung des Körpers der reellen Zahlen Im 7 Abschn. 2.1 wurde bereits die elementeweise Addition von reellen Zahlentripeln eingeführt und im Anschluss daran gezeigt, dass .R3 ; C/ eine Gruppe ist. Dasselbe ist natürlich auch mit Zahlenpaaren .a; b/ 2 R2 möglich. Man kann aber auch eine Multiplikation von Zahlenpaaren erklären, sodass nach Ausschluss von .0; 0/ eine Gruppe entsteht. Das ist zunächst überraschend, wird aber nach den folgenden Betrachtungen gleich klar: Wir notieren das Zahlenpaar .a; b/ in der Form z D a C ib

bildet einen Körper .C; C;  / mit 0 D 0 C i 0 als Nullelement und 1 D 1 C i 0 als Einselement, den Körper der komplexen Zahlen. Wir widmen uns den algebraischen Eigenschaften von C.

Die Konjugation ist ein Automorphismus Die Abbildung ( W

C ! C; z D a C i b 7! z D a  i b

ist bijektiv und heißt Konjugation. Sie ist additiv und multiplikativ, d. h., es gilt: z1 C z2 D z1 C z2 und z1  z2 D z1  z2 :

und nennen jedes solche z eine komplexe Zahl. Dabei ist i die imaginäre Einheit, welche der Regel i2 D 1 genügt. Die reelle Zahl a heißt Realteil Re z und die reelle Zahl b Beweis Es seien z1 D a1 Ci b1 und z2 D a2 Ci b2 komplexe Imaginärteil Im z. Statt z D a C i b schreiben wir auch Zahlen mit a1 ; a2 ; b1 ; b2 2 R. Dann gilt: z D a C b i. Wir nennen die komplexen Zahlen mit Im z D 0 reell, jene mit Re z D 0 rein imaginär. z1 C z2 D .a1 C a2 / C i.b1 C b2 / Wie bereits betont, wird die Summe der beiden kompleD .a1 C a2 /  i.b1 C b2 / D z1 C z2 : xen Zahlen z1 D a1 Ci b1 und z2 D a2 Ci b2 elementeweise gebildet, und z1 C z2 D .a1 C a2 / C i.b1 C b2 /:

z1  z2 D .a1 a2  b1 b2 / C i .b1 a2 C a1 b2 / Es werden also die Realteile addiert und ebenso die ImagiD .a1 a2  b1 b2 /  i .b1 a2 C a1 b2 / närteile. Beim Produkt gehen wir „distributiv“ vor, nutzen D .a1  i b1 / .a2  i b2 / D z1  z2 :  die Gleichung i2 D 1 und setzen wie bei der Multiplikation reeller Zahlen mit i die Assoziativität und die Man nennt eine bijektive Abbildung von einem Körper Kommutativität voraus: K auf sich mit der Eigenschaft z1  z2 D .a1 C i b1 /.a2 C i b2 / D a1 a2 C i a1 b2 C i b1 a2 C i2 b1 b2 D .a1 a2  b1 b2 / C i .a1 b2 C a2 b1 /

.a C b/ D

.a/ C

.b/ und

.a b/ D

.a/ .b/

für alle a; b 2 K einen Körperautomorphismus. Offenbar ist ein Körperautomorphismus ein Automorphismus von K Damit ist die Multiplikation komplexer Zahlen kommutativ, bezüglich der Addition und ebenso ein Automorphismus d. h., z1 z2 D z2 z1 . Zudem ist die Multiplikation assoziativ, von K n f0g bezüglich der Multiplikation. d. h., .z1 z2 /z3 D z1 .z2 z3 /, wie man durch Nachrechnen Nach obigem Satz ist die Konjugation ein Körperautobestätigen kann. Gibt es auch ein z 1 ? morphismus von C. Die zu z D a C i b konjugiert komplexe Zahl ist z D a  i b, und es gilt: z  z D .a C i b/  .a  i b/ D a2 C b 2 2 R:

So wie Untergruppen gibt es auch Unterkörper

Hieraus erhalten wir für das Inverse von z D a C i b bei .a; b/ ¤ .0; 0/ Der Körper C ist eine Erweiterung des Körpers R. Man kann umgekehrt auch sagen, dass R ein Unterkörper von a  ib 1 z 1 D .a C i b/1 D 2 D z: C ist. Allgemeiner definiert man: a C b2 zz Ist .K; C;  / ein Körper und L eine Teilmenge von K, wobei .L; C;  / hinsichtlich der von K stammenden VerFolgerung Die Menge knüpfungen ebenfalls ein Körper ist, so heißt L Unterkörper oder Teilkörper von K. C D fz D a C i b j .a; b/ 2 R2 g

50

2

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Offensichtlich ist .Q; C;  / ein Unterkörper von ist definiert als .R; C;  / und dieser Unterkörper von .C; C;  / und weiter q1 C q2 D .a1 C a2 / C i.b1 C b2 / vom Schiefkörper .H; C;  /, der gleich genauer vorgestellt wird. C j.c1 C c2 / C k.d1 C d2 /: Bei den bisherigen Beispielen war die Multiplikation Damit ist .H; C/ eine kommutative Gruppe mit dem Nullstets kommutativ, d. h., es galt: element 0 D 0Ci 0Cj 0Ck 0. Offensichtlich ist die additive Gruppe .H; C/ isomorph zu .R4 ; C/. a b D b a für alle a; b 2 K : Bei dem Produkt der beiden Quaternionen q1 ; q2 gehen Das folgende Beispiel beweist, dass es auch Schiefkörper wir analog zu C vor: Jeder Summand von q1 wird mit jedem gibt. Der folgende Körper spielt auch in der analytischen Summanden von q2 multipliziert, wobei für die Produkte Geometrie eine Rolle, wie das 7 Kap. 5 zeigen wird. der Quaternioneneinheiten die folgenden Regeln gelten: i  i D j  j D k  k D 1

Die Quaternionen bilden einen Schiefkörper und i j D k; j  k D i; k  i D j; Jede komplexe Zahl ist eine Zusammenfassung zweier reeller Zahlen mithilfe der imaginären Einheit i. Bei den j  i D k ; k  j D i ; i  k D j : Quaternionen sind es vier reelle Zahlen, und es gibt drei Quaternioneneinheiten i, j, k. Die Quaternionen wurden Die erste Zeile zeigt, dass die Quadrate der Quaternionen1843 von Hamilton entdeckt (siehe . Abb. 2.5). Die Men- einheiten übereinstimmen mit dem Quadrat der imaginären Einheit. Die Formeln für die gemischten Produkte von i, j ge der Hamilton’schen Quaternionen lautet: oder k lassen sich wie folgt zusammenfassen: Folgen die zwei Faktoren in zyklischer Reihe aufeinanH D f q D a C i b C j c C k d j .a; b; c; d / 2 R4 g: der (siehe Pfeilrichtung in . Abb. 2.6), so ist das Produkt Eine Quaternion q mit c D d D 0 sieht wie eine kom- gleich der dritten Einheit. Andernfalls ist das Produkt plexe Zahl aus, jene mit b D c D d D 0 wie eine reelle gleich dem Negativen der dritten Einheit. Das Produkt zweier Quaternionen lautet somit: Zahl. Somit gilt H  C  R, und die nachstehend definierten Verknüpfungen in H enthalten die Addition und die .a1 C i b1 C j c1 C k d1 /  .a2 C i b2 C j c2 C k d2 / Multiplikation der reellen sowie der komplexen Zahlen als D .a1 a2  b1 b2  c1 c2  d1 d2 / Sonderfälle. Die Summe der beiden Quaternionen C i .a1 b2 C b1 a2 C c1 d2  d1 c2 / C j .a1 c2  b1 d2 C c1 a2 C d1 b2 / q1 D a1 C i b1 C j c1 C k d1 ; C k .a1 d2 C b1 c2  c1 b2 C d1 a2 /: q2 D a2 C i b2 C j c2 C k d2 1 D 1 C i 0 C j 0 C k 0 ist ein Einselement. Analog zu C heißt die Quaternion q WD a  i b  j c  k d konjugiert zu q. Das Produkt q1  q2 bei a2 D a1 , b2 D b1 , c2 D c1 und d2 D d1 ergibt: q  q D a2 C b 2 C c 2 C d 2 2 R: Somit existiert bei q ¤ 0 die inverse Quaternion q 1 D

a2

C

b2

1 1 qD q 2 2 Cc Cd qq

mit q  q 1 D .q  q/=.q  q/ D 1.

. Abb. 2.5 Gedenktafel für Sir Hamilton, den Entdecker der Quaternionen, an der Brougham-Bridge in Dublin: „Here as he walked by on the 16th of October 1843 Sir William Rowan Hamilton in a flash of genius discovered the fundamental formula for quaternion multiplication i2 D j2 D k2 D ijk D 1 & cut it on a stone of this bridge“

. Abb. 2.6 Regel für die gemischten Produkte der Quaternioneneinheiten i, j und k

j

k i

51 2.4  Ringe

auf welchen eine Ordnungsrelation definiert ist, die in gewisser Weise mit den Körperverknüpfungen verträglich ist. Ein wichtiges Beispiel ist dazu R; wir können ja die Größen von je zwei reelle Zahlen vergleichen. In der folgenden De.i  j/  k D k  k D 1 D i  .j  k/: finition werden gewisse Anordnungseigenschaften von R als Axiome verwendet. Damit ist aber auch die Multiplikation von Quaternionen Ein Körper K heißt angeordnet, wenn er einen Positiassoziativ. vitätsbereich enthält. Es ist dies eine Teilmenge P von K Die Multiplikation ist allerdings nicht kommutativ, mit folgenden Eigenschaften: denn z. B. i  j D j  i. Aber es gelten die beiden Distri- 1. P [ .P / D K, butivgesetze, woraus folgt: 2. P \ .P / D f0g, 3. P C P  P , 4. P  P  P . Quaternionenschiefkörper Dabei bedeuten P D fx 2 K j x 2 P g und P C P  P .H; C;  / ist ein Schiefkörper. bzw. P  P  P , dass mit x; y 2 P stets auch die Summe x C y bzw. das Produkt x  y in P liegen. Man nennt die Elemente aus P n f0g positiv und jene Nun folgen noch einige Begriffe, die beim Umgang mit aus P n f0g negativ. Körpern eine Rolle spielen. Ist K ein angeordneter Körper mit dem Positivitätsbereich P , so wird durch die Definition Alle Produkte von je drei Quaternioneneinheiten sind assoziativ, wie man durch einzelnes Nachrechnen bestätigen kann, z. B.

Die Charakteristik eines Körpers ist null oder eine Primzahl

x  y ” y x 2 P eine lineare Ordnungsrelation auf der Menge K erklärt.

Werden in einem Körper K der Reihe nach die Summen 1, ?Selbstfrage 2.15 Begründen Sie das. 1 C 1, 1 C 1 C 1, 1 C 1 C 1 C 1, . . . gebildet, so sind wegen x C 1 ¤ x (Kürzungsregel) aufeinanderfolgende Werte h. x 2 P n f0g, so ist wegen x 2 D stets verschieden. Es ist aber möglich, dass in der Folge der Ist x 2 K positiv, d. 2 x  x 2 P auch x positiv. Und ist x negativ, d. h. x 2 Summen Wiederholungen auftreten, dass also etwa P n f0g, so ist wegen x 2 P das Element x positiv und damit wegen x 2 D .x/  .x/ 2 P auch x 2 positiv. y C .1 C 1 C    C 1/ D y Da K D P [ .P / gilt, haben wir damit gezeigt, dass ist, woraus .1 C 1 C    C 1/ D 0 folgt. In einem endlichen jedes von 02 verschiedene Quadrat in einem angeordneten Körper muss das so sein, denn es stehen ja nur endlich viele Körper positiv ist. Insbesondere ist 1 D 1  1 positiv, 1 2 P Werte als Summen zur Verfügung. Die kleinste Anzahl n > und damit 1 2 P negativ. Der Körper R hat den Positivitätsbereich 0 mit der Eigenschaft, dass die Summe von n Einsen null ergibt, heißt Charakteristik char K des Körpers K. Gibt es P D R0 D fx 2 R j x  0g hingegen kein derartiges n, so wird char K D 0 definiert. So ist z. B. die Charakteristik von Z2 D f0; 1g gleich 2, und ist damit ein angeordneter Körper. Der Körper C hindenn 1 C 1 D 2 2 0. Analog ist char Zp D p. Aber Zp gegen nicht, denn dann wäre das Quadrat 1 D i  i positiv, ist nicht der einzige Körper mit dieser Charakteristik. An- daher 1 D .1/ negativ – im Widerspruch zur vorhin bedererseits ist char Q D char R D char C D 0. wiesenen Aussage. Wir werden der Körpercharakteristik später vor allem dann begegen, wenn bei Aussagen gewisse Werte der Cha- ?Selbstfrage 2.16 Begründen Sie, dass ein angeordneter Körper die Charakrakteristik ausgeschlossen werden müssen. So muss z. B. teristik null hat. immer dann, wenn in einem Körper durch 2 dividiert wird, der Fall char K D 2 ausgeschlossen werden, weil dort Neben den Gruppen und Körpern, die wir ausführlich be2 D 0, d. h. 1 D 1 ist und eine Division durch 0 wegen handelt haben, spielen in der Algebra die im folgenden 1 des Fehlens von 0 nicht möglich ist. Abschnitt behandelten Ringe eine wesentliche Rolle.

In manchen Körper kann man die Elemente in ihrer Größe unterscheiden

2.4

Ringe

Die von Körpern geforderten Bedingungen lassen sich auf Unter den verschiedenen Relationen wurden in 7 Kap. 1 verschiedene Weise abschwächen. So kann man ja auch auch Ordnungsrelationen behandelt. Es gibt auch Körper, ganze Zahlen addieren und multiplizieren; .Z; C/ ist eine

2

52

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

kommutative Gruppe und es gibt 0 und 1. Aber es fehlen erfüllen. So gewinnt man die reellen Nullstellen der Funktion f . Betrachten wir konkret das Polynom inverse Elemente. f .x/ D x 2 C 1 :

2

Das Polynom hat in R keine Nullstellen, da die Gleichung x 2 C 1 D 0 in R nicht lösbar ist, denn in R sind Quadrate stets positiv. Analytisch ist man somit fertig, die Funktion f hat in ihrem Definitionsbereich keine Nullstelle. Aber algebraisch ist die Auflösung der Gleichung noch längst nicht erledigt: Es trifft zwar zu, dass es keine reellen Nullstellen gibt, aber kann es nicht sein, dass es einen R umfassenden Körper gibt, in dem eine Nullstelle von f liegt? Und tatsächlich liegt in C © R die komplexe Zahl i mit i2 D 1; damit sind Hat ein Ring .R; C; / die zusätzlichen Eigenschaften: i und i zwei verschiedene Nullstellen von f , die für die 4 die Multiplikation ist kommutativ, 4 es existiert ein neutrales Element 1 ¤ 0 bezüglich der analytische Diskussion der Funktion f W R ! R ohne Belange sind, für algebraische Zwecke aber zur Auflösung der Multiplikation, Gleichung führen. 4 in R gibt es keine Nullteiler, Es hat sich für die Algebra als sehr zweckmäßig erwiesen, Polynome in einem anderen Licht darzustellen, als dies so nennt man den Ring R einen Integritätsbereich. in der Analysis üblich ist. Wir betrachten in der Algebra das x nicht als eine reelle Zahl; wir fassen es als eine UnbeBeispiel stimmte auf, in die wir z. B. Zahlen einsetzen können. Man 4 Jeder kommutative Körper ist ein Integritätsbereich. 4 .Z; C; / ist ein Integritätsbereich. Es gibt nämlich keine verwendet in der Algebra sogar gerne ein anderes Symbol für die Unbestimmte als in der Analysis – wir werden X Nullteiler. schreiben – und verwenden eigentlich genauer die Bezeich4 Die Menge der Restklassen modulo 12 nungen 4 Polynom in der Algebra und Z12 D f0; 1; : : : ; 11g 4 Polynomfunktion in der Analysis. ergibt einen Ring .Z12 ; ˚; ˇ/. Dieser ist nicht nullteilerfrei, denn wegen 3  4 D 12 ist 3 ˇ 4 D 0, obwohl 3 Diese Bezeichnungen werden aber keineswegs konsequent benutzt. Auch wir werden in der Analysis oftmals wieder und 4 von 0 verschieden sind. 9 von Polynomen sprechen, obwohl wir Polynomfunktionen Wir vertiefen die Ringtheorie nicht weiter und behan- meinen. Wir beginnen nun bei „Adam und Eva“ und erklären, deln nur ausführlich ein für uns wichtiges Beispiel eines was ein Polynom ist. Man tut gut daran, vorläufig zu verRings, nämlich den Polynomring. gessen, was es mit den oben erwähnten Polynomfunktionen Die klassische Algebra ist die Lehre von der Auflösung auf sich hat. Wir kommen auf diese nach der Einführung von Gleichungen der Form der Polynome wieder zurück. Weil wir in der Mathematik darauf achten, dass Dean x n C    C a1 x C a0 D 0 finitionen sinnvoll sind, müssen wir erklären, was eine mit Koeffizienten an ; : : : ; a0 aus einem Körper. Die linke Unbestimmte ist. Das ist gar nicht so einfach, es sind daSeite dieser Gleichung assoziiert man als Student des ers- zu einige Vorbetrachtungen nötig. Definition eines Ringes

Eine Menge R mit zwei Verknüpfungen C und  heißt Ring, wenn gilt: 1. .R; C/ ist eine kommutative Gruppe. 2. Die Multiplikation  ist assoziativ. 3. Es gelten die beiden Distributivgesetze .a C b/  c D .a  c/ C .b  c/ und a  .b C c/ D .a  b/ C .a  c/.

ten Semesters im Allgemeinen mit einem Polynom, also mit einer reellen Funktion der Form f W R ! R ; f .x/ D an x n C    C a1 x C a0 ;

Folgen, die nur endlich viele Folgenglieder ungleich 0 haben, sind fast überall 0

wobei die Koeffizienten a0 ; : : : ; an reelle Zahlen sind. Und Der Ausdruck a0 C a1 X C    C an X n ist durch seine Koefbeim Element x hat man vielleicht im Hinterkopf, dass x fizienten a0 ; : : : ; an und 0 D anC1 D anC2 D    eindeutig die reellen Zahlen durchläuft. Will man die Nullstellen des gegeben. Für jedes i 2 N0 gilt: Vor X i steht ai . Polynoms f bestimmen, so steht man vor der Aufgabe, die Aber das ist nichts anderes als die folgende Abbildung Zahlen x 2 R zu bestimmen, die die Gleichung  N0 ! R; aW mit ai D 0 für alle i > n : i 7! ai f .x/ D an x n C    C a1 x C a0 D 0

53 2.4  Ringe

Übersicht: Gruppen, Ringe und Körper

Wir stellen die Axiome für Gruppen, Ringe und Körper zusammen. Dabei ersetzen wir bei den Gruppen bewusst die ursprünglich etwas schwächeren Forderungen nach einem linksneutralen und linksinversen Element durch äquivalente, aber übersichtlichere Bedingungen. Auch bei den Körpern gibt es geringfügige Abweichungen gegenüber früher: Wir schreiben alle Bedingungen aus, um sie leichter mit jenen bei Ringen vergleichen zu können. Gruppe Es sei G eine nichtleere Menge mit einer Verknüpfung W .G G/ ! G. Es heißt .G; / eine Gruppe, wenn für alle a; b; c 2 G gilt: (1) .a b/ c D a .b c/. (2) Es existiert ein Element e 2 G mit e a D a D a e. (3) Zu jedem a 2 G existiert ein a1 2 G mit a1 a D e D a a1 . Ring Es sei R eine Menge mit den beiden Verknüpfungen C W .R R/ ! R und  W .R R/ ! R. Es heißt .R; C; / ein Ring, wenn für alle a; b; c 2 R gilt: (1) a C b D b C a.

Wir haben hierbei ai anstelle von a.i/ geschrieben. Die Abbildung a wiederum können wir durch die endlichen vielen von null verschiedenen Bilder eindeutig festlegen. Man schreibt a D .a0 ; a1 ; : : : ; an ; 0; : : :/

(2) a C .b C c/ D .a C b/ C c. (3) Es gibt ein Element 0 (Nullelement) in R mit 0 C a D a. (4) Zu jedem a 2 R gibt es a 2 R (inverses Element) mit a C .a/ D 0. (5) a .b c/ D .a b/ c. (6) a .b C c/ D a b C a c und .a C b/ c D a c C b c. Körper Es sei K eine Menge mit den beiden Verknüpfungen C W .K K/ ! K und  W .K K/ ! K. Es heißt .K; C; / ein Körper, wenn für alle a; b; c 2 K gilt: (1) a C b D b C a. (2) a C .b C c/ D .a C b/ C c. (3) Es gibt ein Element 0 (Nullelement) in K mit 0 C a D a. (4) Zu jedem a 2 K gibt es a 2 K (inverses Element) mit a C .a/ D 0. (5) a .b c/ D .a b/ c. (6) Es gibt ein Element 1 ¤ 0 (Einselement) in K mit 1  a D a D a  1. (7) Zu jedem a 2 K n f0g gibt es a1 2 K (inverses Element) mit a a1 D 1 D a1 a. (8) a b D b a. (9) a .b C c/ D a b C a c und .a C b/ c D a c C b c.

mit 1 zu. Anstelle des Körpers R wählen wir ab jetzt einen beliebigen kommutativen Ring R mit 1. Man gewinnt dadurch viel; und man kann sich für R stets einen der vertrauten Ringe Z oder R denken. Vielleicht ist es auch sinnvoll, an dieser Stelle darauf hinzuweisen, dass, egal wie abstrakt das Folgende erscheinen mag, wir doch wieder bei der vertrauten Darstellung a0 C a1 X C   C an X n für Polynome landen werden. Dann wird aber X ein wohldefiniertes Objekt sein, an dem nichts „Unbestimmtes“ haften wird.

und nennt die Abbildung a auch eine Folge mit den Folgengliedern ai (mehr über Folgen im Grundwissenbuch, Kapitel 8). Von den endlich vielen möglichen Ausnahmen a0 ; : : : ; an abgesehen sind alle Folgenglieder null. Man beachte, dass es auch zugelassen ist, dass manche oder alle der endlichen vielen Zahlen a0 ; : : : ; an ebenfalls null sind. Weil die Anzahl der endlich vielen Elemente a0 ; : : : ; an Der Polynomring RŒX  besteht aus allen mehr oder weniger nichts ist im Vergleich zu der Anzahl der Folgen mit der Eigenschaft, dass fast alle Elemente von N, hat sich die folgende Sprechweise einge- Folgenglieder null sind bürgert: Man sagt ai D 0 für fast alle i 2 N0 und meint damit, dass ai ¤ 0 auf nur endlich viele i 2 N0 zutrifft.

Wir betrachten nun die Gesamtheit aller Abbildungen von N0 nach R, die die Eigenschaft haben, dass fast alle Bilder den Wert null haben. Wir bezeichnen diese Gesamtheit mit dem Symbol RŒX:

? Selbstfrage 2.17 Können Sie eine Abbildung g W N0 ! R angeben, die nicht für fast alle i 2 N0 und dennoch unendlich oft den Wert 0 hat?

Wir erklären nun Polynome als Folgen, die fast überall den Wert 0 haben. Dabei wollen und müssen wir uns keineswegs auf reelle Folgen festlegen. Wir lassen als Wertemenge solcher Abbildungen einen beliebigen Ring R

Die Polynome über R Wir nennen jede Abbildung a W N0 ! R mit a.i/ D 0 für fast alle i 2 N0 ein Polynom. Die Menge RŒX D fa W N0 ! R j a.i/ D 0 für fast alle i 2 N0 g ist die Menge aller Polynome über R.

2

54

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Es seien a D .a0 ; a1 ; a2 ; : : :/ und b D .b0 ; b1 ; b2 ; : : :/ Ein Polynom ist eine Folge in R, die nur an endlichen vielen Stellen aus N0 einen von null verschiedenen Wert Polynome aus RŒX mit ak D 0 für alle natürlichen k > n annimmt. und bl D 0 für alle natürlichen l > m, d. h.,

2

a D .a0 ; : : : ; an ; 0; : : :/; b D .b0 ; : : : ; bm ; 0; : : :/ :

Beispiel Es sind

Dann gilt für die Folgenglieder cr der Summe a C b und für die Folgenglieder ds des Produkts a b: Polynome über jedem kommutativen Ring R mit 1. Dabei 4 cr D 0 für alle r > maxfm; ng, stehen die ersten Auslassungspunkte : : : jeweils für endlich 4 ds D 0 für alle s > m C n. viele ausgelassene Werte. 9 Beispiel Gegeben seien die reellen Polynome a D .1; 2; 0; 3; 0; : : :/ und b D .0; 1; 1; 0; : : :/. Dann gilt: .1; 1; 1; 1; : : : ; 1; 0; 0; : : :/ und .0; : : : ; 0; 1; 0; 0; : : :/

Polynome werden komponentenweise addiert, die Multiplikation erfolgt durch Summation über die Produkte mit gleicher Indexsumme

a C b D .1; 3; 1; 3; 0; : : :/; a  b D .0; 1; 3; 2; 3; 3; 0; : : :/ : 9

Die Menge der Polynome bildet Wir erklären auf der Menge RŒX aller Polynome eine Ad- mit der Addition C und der Multiplikation  dition und eine Multiplikation. Es seien einen kommutativen Ring .RŒX ; C; / a D .a0 ; : : : ; an ; 0; : : :/ ; b D .b0 ; : : : ; bm ; 0; : : :/ zwei Polynome aus RŒX. Wir definieren nun die Addition und Multiplikation durch:  N0 k  N0 a  bW k

a C bW

! R; 7! ak C bk ;

Für die Menge RŒX der Polynome über R gilt mit den eben definierten Verknüpfungen C und  :

Satz vom Polynomring Für jeden kommutativen Ring R mit 1 ist .RŒX; C; / ein kommutativer Ring mit 1.

! R; P 7! i Cj Dk ai bj :

Die Addition ist also komponentenweise erklärt, die Mul- Beweis Es sind: (i) .RŒX; C/ ist eine kommutative Gruptiplikation sieht etwas ungewohnt aus. Deshalb geben wir pe, (ii) die Multiplikation  ist assoziativ, (iii) die Multiplikation ist kommutativ, (iv) es gibt ein Einselement und explizit die ersten Folgenglieder an: (v) es gilt das Distributivgesetz. Es seien a D .a0 ; a1 ; a2 ; : : :/, b D .b0 ; b1 ; b2 ; : : :/ und .a0 ; a1 ; a2 ; a3 ; : : :/ C .b0 ; b1 ; b2 ; b3 ; : : :/ c D .c0 ; c1 ; c2 ; : : :/ Polynome aus RŒX. D .a0 C b0 ; a1 C b1 ; a2 C b2 ; a3 C b3 ; : : :/ (i) Dass C eine Verknüpfung auf RŒX ist, haben wir „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … Dc0 Dc1 Dc2 Dc3 schon festgestellt. Die Addition ist auch assoziativ, da die Addition in R assoziativ ist: und .a C b/ C c .a0 ; a1 ; a2 ; a3 ; : : :/  .b0 ; b1 ; b2 ; b3 ; : : :/ D .a0 C b0 C c0 ; a1 C b1 C c1 ; a2 C b2 C c2 ; : : :/ D . a 0 b0 ; a 0 b1 C a 1 b0 ; a 0 b2 C a 1 b1 C a 2 b0 ; D a C .b C c/ : „ƒ‚… „ ƒ‚ … „ ƒ‚ … Dd0

Dd1

Dd2

a0 b3 C a1 b2 C a2 b1 C a3 b0 ; : : :/ : „ ƒ‚ … Dd3

Die Verknüpfung ist wegen a C b D .a0 C b0 ; a1 C b1 ; a2 C b2 ; : : :/ D .b0 C a0 ; b1 C a1 ; b2 C a2 ; : : :/ D b C a

Bei der Multiplikation beachte man, dass die Summe der Indizes der Summanden des k-ten Folgenglieds stets k erauch kommutativ. Das neutrale Element ist die Nullfolge gibt. Offenbar sind Summe und Produkt zweier Folgen, bei 0 D .0; 0; : : :/ 2 RŒX; es gilt nämlich denen fast alle Folgenglieder null sind, erneut solche Fol0 C a D .0 C a0 ; 0 C a1 ; 0 C a2 ; : : :/ D a : gen. Genauer kann man sagen:

55 2.4  Ringe

Und schließlich gibt es zu jedem Element ein Inverses in Der Ring R ist ein Teilring von RŒX  RŒX, denn für a D .a0 ; a1 ; a2 ; : : :/ 2 RŒX gilt offenbar a C .a/ D 0. Somit ist (i) gezeigt. Völlig analog zu einem Teilkörper erklärt man den Begriff (ii) Wir zeigen, dass das Assoziativgesetz der MultipliTeilring: Eine Teilmenge S eines Rings R heißt ein Teilring kation gilt: von R, wenn S mit den von R induzierten Verknüpfungen selbst wieder einen Ring bildet. Die sogenannten trivialen .a b/ c D .d0 ; d1 ; d2 ; : : :/ mit   Teilringe sind der Nullring f0g und der ganze Ring R. Wir X X X ai bj ck D .ai bj / ck : dl D zeigen nun, dass wir den Ring R stets als Teilring des Polyi;j;k2N0 rCkDl i Cj Dr nomrings RŒX auffassen können. Hierbei ist eine Feinheit .i Cj /CkDl zu berücksichtigen: Natürlich ist der Ring R selbst niemals Nun klammern wir anders: Teilmenge von RŒX; die Menge RŒX ist eine Menge von 0 0 0 Folgen, deren Folgenglieder aus R sind. Die Elemente aus a .b c/ D .d0 ; d1 ; d2 ; : : :/ mit   R sind hingegen nicht von dieser Form und daher X X X 0 ai bj ck D ai .bj ck / : dl D R ª RŒX: i;j;k2N i CsDl j CkDs 0 i C.j Ck/Dl

Da wegen des in R gültigen Assoziativgesetzes beide Male dasselbe Element herauskommt, gilt das Assoziativgesetz auch in RŒX. (iii) Die Multiplikation ist kommutativ, da sie in R kommutativ ist:   X X X ai bj ; ai bj ; ai bj ; : : : ab D i Cj D0

D

 X

i Cj D1

i Cj D2

X

X

bj ai ;

j Ci D0

bj ai ;

j Ci D1

 bj ai ; : : : D b a :

j Ci D2

(iv) Das Einselement ist die Folge 1 D .1; 0; 0; : : :/ 2 RŒX; es gilt nämlich für jedes a 2 RŒX: 1 a D .1; 0; : : :/.a0 ; a1 ; a2 ; : : :/ D .a0 ; a1 ; a2 ; : : :/ D a : (v) Wir begründen das Distributivgesetz. Es gilt:  X X .ai C bi /cj ; .ai C bi /cj ; .a C b/ c D i Cj D0

X

i Cj D1

 .ai C bi /cj ; : : :

i Cj D2

D

 X

ai cj C bi cj ;

i Cj D0

X

X

ai cj C bi cj ;

i Cj D1

 ai cj C bi cj ; : : : :

Somit hat es eigentlich keinen Sinn, bei R von einem Teilring von RŒX zu sprechen. Aber wir betten nun den Ring R in den Polynomring RŒX ein. Dabei meint man, dass man eine injektive, additive und multiplikative Abbildung angibt, die den Ring R in den Polynomring RŒX einbettet. Eine additive und multiplikative Abbildung zwischen Ringen bezeichnet man auch als Ringhomomorphismus:

Ringhomomorphismus Eine Abbildung ' W S ! S 0 zwischen Ringen S und S 0 nennt man einen Ringhomomorphismus oder kurz Homomorphismus, wenn für alle r; s 2 S gilt: 4 '.r C s/ D '.r/ C '.s/, 4 '.r s/ D '.r/ '.s/.

Wir können einen solchen Ringhomomorphismus von R in RŒX angeben:  R ! RŒX; W r 7! .r; 0; 0; : : :/: Jedem Ringelement r 2 R wird die Folge a 2 RŒX mit a0 D r und ai D 0 für i ¤ 0 zuordnet. Nun zeigen wir: Lemma Für jeden kommutativen Ring R ist die Abbildung



i Cj D2

Und nun berechnen wir   X X X ai cj ; ai cj ; ai cj ; : : : ac Cbc D i Cj D0

 X

i Cj D1

i Cj D2

W

R ! RŒX; r 7! .r; 0; 0; : : :/

ein injektiver Ringhomomorphismus.

 Beweis Für alle r; s 2 R gilt: C bi cj ; bi cj ; bi cj ; : : : .r C s/ D .r C s; 0; 0; : : :/ i Cj D0 i Cj D1 i Cj D2  X X D .r; 0; 0; : : :/ C .s; 0; 0; : : :/ D .r/ C .s/ ; D ai cj C bi cj ; ai cj C bi cj ; .r s/ D .r s; 0; 0; : : :/ i Cj D0 i Cj D1  D .r; 0; 0; : : :/ .s; 0; 0; : : :/ D .r/ .s/ : X ai cj C bi cj ; : : : :  C Folglich ist  ein Ringhomomorphismus. i Cj D2 X

X

2

56

Kapitel 2  Algebraische Strukturen – ein Blick hinter die Rechenregeln

Die Abbildung  ist zudem injektiv: Es gelte .r/ D .s/ für r; s 2 R, d. h.,

2

.r; 0; 0; : : :/ D .s; 0; 0; : : :/ : Hieraus folgt r D s.



Nach diesem Lemma ist .R/ D f.r; 0; : : :/ j r 2 Rg  RŒX isomorph zu R; es ist nämlich die Abbildung R ! .R/; r 7! .r; 0; : : :/ eine Bijektion. D. h., wir können die Elemente .r; 0; : : :/ 2 RŒX mit den Elementen r 2 R identifizieren. Hierbei ersetzt man gewissermaßen die Elemente .r; 0; : : :/ in RŒX durch die entsprechenden Elemente r aus R – daher auch der Begriff einer Einbettung. Übrigens bezeichnet man Einbettungen oft mit dem griechischen Buchstaben  (wie Injektion). Wir unterscheiden von nun ab die Bilder .r/ 2 RŒX und r 2 R nicht mehr und fassen R als einen Teilring von RŒX auf. Wir nennen die Elemente r 2 R auch die Konstanten von RŒX. Nun führen wir eine neue Schreibweise ein und erhalten dadurch für die Elemente aus P RŒX die bekannte Darstellung als Polynome in der Form niD0 ai X i in einer Unbestimmten X, wobei X ein Element von RŒX ist.

wobei a an .n C 1/-ter Stelle steht. Für ein beliebiges P D .a0 ; a1 ; a2 ; : : : ; an ; 0; 0; : : :/ 2 RŒX finden wir mit unserer Definition der Addition in RŒX; P D a0 X 0 C a1 X C a2 X 2 C    C an X n : Wir schreiben kürzer P D

Unter der Vielzahl von Polynomen in RŒX wählen wir nun ein ganz bestimmtes Polynom aus und geben diesem den Namen X. Die Abbildung 8

C> B > f2 C> B > > C B > f3 C> B > C> > B C= B C B :: C> r B : 0 C> B > C> B fr C > > B > C> B > A> @ 0 > > ;

Wir unterscheiden zwei Eliminationsverfahren zur Lösung linearer Gleichungssysteme: Das Verfahren von Gauß und das Verfahren von Gauß und Jordan. Tatsächlich waren diese Verfahren schon lange Zeit vor Gauß und Jordan bekannt, aber diese Bezeichnungen haben sich etabliert, und auch wir wollen davon nicht abrücken. Beim Verfahren von Gauß wird die erweiterte Koeffizientenmatrix auf Zeilenstufenform gebracht, also auf die Form 1 0 f1 C B f2 C B B f3 C C B C B C B C B :: C B : 0 C B C B B fr C C B A @ 0

Die führenden Einträge f1 ; : : : ; fr sind von Null verschieden; davor und darunter gibt es nur Nullen. Darüber stehen Dabei bezeichnen f1 ; : : : ; fr die in den Zeilen jeweils ersbeliebige Einträge; diese sind durch markiert. Nullspalten ten, von 0 verschiedenen Einträge, die führenden Einträge sind bereits weggelassen worden. oder Pivotelemente. Kennzeichnend für die Zeilenstufenform ist, dass beim Durchlaufen der Zeilen von oben nach unten nach jeder Zeile der führende Eintrag um mindestens Eliminationsverfahren von Gauß eine Spalte nach rechts rückt. Gibt es Nullzeilen, so stehen Dieses Eliminationsverfahren zur Lösung des linearen diese ganz unten. Gleichungssystems .A j b/ besteht aus Liegt fi C1 um k Spalten rechts von fi bei k  1, so 1. der Umformung auf Zeilenstufenform, bildet fi zusammen mit den k  1 rechts anschließenden 2. der Lösbarkeitsentscheidung und Einträgen eine Stufe der Länge k. Die verstreuten Nullen in 3. dem Rückwärtseinsetzen zur Bestimmung der Löder obigen Matrix sollen andeuten, dass unter den Stufen, sungsmenge des Systems. also unter der markierten Linie, nur Nullen auftreten. Die durch markierten Einträge sind beliebig. Wir haben eventuell vorhandene Nullspalten bereits weggelassen. Sie bedeuten, dass eine Unbekannte xj über- Beim Verfahren von Gauß und Jordan wird die erweihaupt nicht in den Gleichungen erscheint und daher in der terte Koeffizientenmatrix auf reduzierte Zeilenstufenform

77 3.2  Das Lösungsverfahren von Gauß und Jordan

gebracht, also auf die Form 0 0 f1 B f 0 2 B B f 0 3 B B B B :: B : 0 B B B fr B @ 0

Beim Verfahren von Gauß berechnet man nun die Lösung durch Rückwärtseinsetzen. Wir erhalten für x2 den Wert 1=7 und dann durch Einsetzen in die erste Gleichung

1 C C C C C C C C C C C C A

x1 C 4 .1=7/ D 2 ) x1 D 18=7 :

Wie vorhin sind für i D 1; : : : ; r die führenden fi ¤ 0, und davor und darunter gibt es nur Nullen. Diesmal werden aber auch über den Stufen mittels elementarer Zeilenumformungen möglichst viele Nullen erzeugt, auf jeden Fall über den fi . Durch geeignete Multiplikation der Zeilen könnte auch f1 D    D fr D 1 erreicht werden.

Eliminationsverfahren von Gauß und Jordan Dieses Eliminationsverfahren zur Lösung des linearen Gleichungssystem .A j b/ besteht aus 1. der Umformung auf Zeilenstufenform, 2. der Lösbarkeitsentscheidung und 3. der Reduktion mittels weiterer elementarer Zeilenumformungen auf reduzierte Zeilenstufenform und dem Ablesen der Lösung.

Also ist .l1 ; l2 / D .18=7; 1=7/ die einzige Lösung. Beim Verfahren von Gauß und Jordan werden an der Matrix   1 4 2 0 7 1 in Zeilenstufenform noch zwei weitere Umformungen durchgeführt: Die zweite Zeile wird mit 1=7 multipliziert und dann zur ersten Zeile das .4/-Fache der neuen zweiten Zeile addiert, kurz:     1 0 18=7 1 4 2 ! 0 7 1 z1 !z1 C4=7 z2 0 1 1=7 Wir geben wieder das zugehörige, zu (3.1) äquivalente Gleichungssystem explizit an: x1

D 18=7 x2 D 1=7

Bei dieser reduzierten Zeilenstufenform ist die Lösung direkt ablesbar. 4 Wir bestimmen die Lösungsmenge des folgenden reellen linearen Gleichungssystems:

Bevor wir die uneingeschränkte Wirksamkeit dieser Verfahren beweisen, üben wir sie an einigen einfachen linearen Gleichungssystemen über dem Körper R ein.

2 x1 C 4 x2 D 2 3 x1 C 6 x2 D 3 5 x1 C 10 x2 D 5

Beispiel

Die erweiterte Koeffizientenmatrix ist 0 1 2 4 2 @3 6 3 A 5 10 5

4 Wir bestimmen die Lösungsmenge des folgenden reellen linearen Gleichungssystems: x1 C 4 x2 D 2 3 x1 C 5 x2 D 7

(3.1)

Die erweiterte Koeffizientenmatrix ist   1 4 2 3 5 7 Wir wählen in der ersten Spalte die 1 an der Stelle .1; 1/ und beginnen mit     1 4 2 1 4 2 ! 3 5 7 z2 !z2 3 z1 0 7 1 Die Matrix hat bereits Zeilenstufenform, der Rang der Matrix ist also 2. Wir geben das zugehörige, zu (3.1) äquivalente Gleichungssystem explizit an: x1 C 4 x2 D 2  7 x2 D 1

Wir multiplizieren die erste Zeile mit 1=2 und wählen die an der Stelle .1; 1/ entstehende 1, um mit dem Verfahren von Gauß zu beginnen: 0 1 1 0 1 2 1 1 2 1 z2 !z2 3 z1 @3 6 3A ! @0 0 0A z3 !z3 5 z1 5 10 5 0 0 0 Die Matrix hat Zeilenstufenform, ihr Rang ist 1. Die beiden Eliminationsverfahren sind hier identisch, die entstandene Matrix hat bereits reduzierte Zeilenstufenform. Das zugehörige Gleichungssystem lautet x1 C 2 x2 D 1 : Für jedes reelle t, das wir für x2 einsetzen, nimmt x1 den Wert 1  2 t an. Also ist L D f.1  2 t; t/ j t 2 Rg die Lösungsmenge.

3

78

3

Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

4 Wir bestimmen für alle a 2 R die Lösungsmenge des haben das bisher ebenfalls gemacht, werden die aber in Zukunft zunehmend meiden, weil ja in der erweiterten folgenden linearen Gleichungssystems: Koeffizientenmatrix alle wesentlichen Informationen entx1 C a  x2  x3 D 0 halten sind. D0 2 x1 C x2 Das a in dem letzten Beispiel ist zwar anfangs nicht x2 C x3 D 0 bekannt, aber keine Unbestimmte, sondern ein Parameter. Das Gleichungssystem wäre andernfalls nicht mehr linear. Die erweiterte Koeffizientenmatrix lautet 0 1 Wir diskutieren kurz den Fall einer erweiterten Koeffizi1 a 1 0 entenmatrix, deren erste Spalte keine 1 aufweist. Dann @2 1 0 0A sind entweder alle Elemente der ersten Spalte null, oder es 0 1 1 0 gibt ein ai1 ¤ 0. Im ersten Fall braucht man der ersten Wir wählen in der ersten Spalte die 1 an der Stelle .1; 1/ Spalte keine weitere Beachtung zu schenken; die Unbestimmte x1 unterliegt keinerlei Einschränkung, man setze und beginnen mit dem Verfahren von Gauß: x1 D t 2 R. 1 1 0 0 1 Im zweiten Fall multiplizieren wir die i-te Zeile mit ai1 1 a 1 0 1 a 1 0 @2 1 0 0A ! @0 .1  2 a/ 2 0A ! und erreichen damit eine 1 an der Stelle .i; 1/, mit welcher die anderen Zahlen der ersten Spalte eliminiert werden kön0 1 1 0 0 1 1 0 1 0 1 nen. Dies führt aber häufig zu unhandlichen Brüchen in den 0 1 0 .1  a/ 0 1 0 .1  a/ 0 weiteren Zahlen dieser Zeile und schließlich in der ganzen @0 0 .1 C 2 a/ 0A ! @0 1 0A Matrix. Dies lässt sich vermeiden, wenn man die neuen Zei1 0 0 1 1 0 0 .1 C 2 a/ 0 len wieder derart erweitert, dass die Nenner wegfallen. Bei der folgenden Elimination erfolgen diese beide elementaDie Matrix hat damit Zeilenstufenform. ren Zeilenumformungen gleichzeitig: Der Rang der Matrix hängt nun von der reellen Zahl a ab. Ist a D 1=2, so ist der Rang 2, im Fall a ¤ 1=2     3 2 3 4 3 2 3 4 jedoch 3. ! 2 5 6 10 z2 !3 z2 2 z1 0 11 12 22 1. Fall: a ¤ 1=2. Wegen 1 C 2 a ¤ 0 ist die dritte Gleichung nur für x3 D 0 erfüllbar. Für x2 erhalten wir aus der zweiten Es wird nämlich vom 3-Fachen der zweiten Zeile das Gleichung durch Einsetzen von x3 D 0 ebenfalls den 2-Fache der ersten Zeile subtrahiert. Wert 0 und schließlich aus der ersten Gleichung x1 D 0. Also ist .0; 0; 0/ die eindeutig bestimmte Lösung des Beispiel Als ausführlicheres Beispiel betrachten wir ein Systems und L D f.0; 0; 0/g die Lösungsmenge. komplexes lineares Gleichungssystem, also mit K D C: 2. Fall: a D 1=2. Die erweiterte Koeffizientenmatrix hat in diesem Fall C i x3 D i 2 x1 die Gestalt x1  3 x2  i x3 D 2 i 1 0 i x1 C x2 C x3 D 1 C i 1 0 1=2 0 @0 1 0A 1 0 0 0 0 Die erweiterte Koeffizientenmatrix ist Für jedes reelle t, das wir für x3 einsetzen, hat x2 den Wert t, wie wir aus der zweiten Gleichung erkennen. Die erste Gleichung führt auf x1 D 12 t. Damit lautet die Lösungsmenge L D f. 21 t; t; t/ j t 2 Rg. 9 Kommentar Natürlich führen beide Eliminationsverfahren

zur gleichen Lösung. Tatsächlich aber schleichen sich umso mehr Rechenfehler ein, je mehr elementare Zeilenumformungen durchgeführt werden. Die Erfahrung zeigt, dass man am besten das Eliminationsverfahren von Gauß anwendet und dann von Fall zu Fall entscheidet, ob man oberhalb der Stufen noch die eine oder andere Null erzeugt. Für den Anfänger ist es nützlich, nach Durchführung des Verfahrens von Gauß das zugehörige äquivalente Gleichungssystem noch einmal explizit anzuschreiben. Wir

0

1 i 2 0 i @1 3 i 2i A i 1 1 1Ci Wir wählen eine 1 und beginnen: 0

2 0 @1 3 i 1

1 0 1 i 2i 1 3 i i 2 i A ! @0 i 6 3 i 3 i A 1 1Ci 0 1C3i 0 3 Ci

Nun könnten wir die zweite Zeile durch 6 dividieren, doch führt dies zu unbequemen Brüchen. Wir vermeiden diese, indem wir nur durch 3 dividieren und umgekehrt vom Doppelten der dritten Zeile das .1C3 i/-Fache der zweiten Zeile

3

79 3.2  Das Lösungsverfahren von Gauß und Jordan

Beispiel: Lineare Gleichungssysteme mit Parameter I

Für welche a 2 R hat das reelle lineare Gleichungssystem x1 C x2 C a x3 D 2 2 x1 C a x2  x3 D 1 3 x1 C 4 x2 C 2 x3 D a keine, genau eine bzw. mehr als eine Lösung? Berechnen Sie für a 2 f2; 3g alle Lösungen. Problemanalyse und Strategie Wir notieren die erweiterte Koeffizientenmatrix .A j b/ und bringen diese mit elementaren Zeilenumformungen auf Stufenform. Dabei achten wir darauf, dass wir Fallunterscheidungen so lange wie möglich hinausschieben, also nicht durch a oder einen a enthaltenden Ausdruck dividieren. Lösung Wir beginnen mit den Zeilenumformungen an der erweiterten Koeffizientenmatrix: 0

1 B2 @ 3 0 1 B0 @ 0 0 1 B0 @ 0 0 1 B0 @ 0

1 a 4

a 1 2

1 2 z2 2z1 1C A ! z3 3z1 a

1 a2 1

a 1  2 a 2  3a

1 1 a2

a 2  3a 1  2 a

1 1 0

1 2 C a6 A .a  3/.a  5/

subtrahieren. 1 0 2i 1 3 i @0 i A ! 2 i 0 2C6i 0 6C2i 1 0 2i 1 3 i @0 2 i A i 0 0 3 i 3 C3i Es gibt also eine eindeutige Lösung, und zwar 3 C3i 1 3 6 D .3 C 3 i/ .3 C i/ D C i 3i 10 5 5 i  i x3 3 4 D  i x2 D 2 5 5 3 1 x1 D 2 i C 3 x2 C i x3 D C i 5 5

x3 D

0 1 B0 @ 0

1 1 0

2 4 5

1 2 4C A 3

also x3 D 35 , x2 D 4 C 4 x3 D  85 , x1 D 2  x2  2 x3 D d. h.

12 5 ,

L D f.12=5; 8=5; 3=5/g:

1 2 z2 $z3 3 C A ! a6 1 2 z3 .a2/z2 a  6C A ! 3

a 2  3a 3.a  3/.a  13 /

Dies gilt wegen 12 a.a2/.23 a/ D 3 a2 10 aC3 D .a 3/.3 a 1/ und 3.a 2/.a 6/ D .a2 8 a C15/ D .a  3/.a  5/. Für a … f3; 13 g ist das Gleichungssystem also eindeutig lösbar. Für a D 13 ist das Gleichungssystem aufgrund der letzten Zeile unlösbar. Für a D 3 gibt es unendlich viele Lösungen. Wir berechnen nun abschließend die Lösungen des Systems für die beiden Fälle a 2 f2; 3g. a D 2: Wir setzen a D 2 in die Zeilenstufenform der erweiterten Koeffizientenmatrix ein und erhalten

a D 3: In diesem Fall erhalten wir aus der Zeilenstufenform der erweiterten Koeffizientenmatrix 0 1 B0 @ 0

1 1 0

3 7 0

1 2 3C A 0

also x2 D 3 C 7 x3 , x1 D 2  x2  3 x3 D 5  10 x3 . Für jede Wahl von x3 2 R liegt eine Lösung vor. Wir verdeutlichen dies, indem wir x3 D t setzen. Damit lautet die Lösungsmenge bei a D 3 L D f.5  10 t; 3 C 7 t; t/ j t 2 Rg:

d. h.,  LD

 1 1 1 .3 C i/; .3  4 i/; .3 C 6 i/ 5 5 5

ist die Lösungsmenge. 9

Hinter den Eliminationsverfahren steht ein Algorithmus Egal, wie unbequem die Einträge einer Matrix auch sein mögen, letztlich gelingt es immer, eine Matrix mit elementaren Zeilenumformungen auf (reduzierte) Zeilenstufenform zu bringen. Nach den vielen Beispielen soll dieses Ergebnis nochmals festgehalten und der algorithmische Charakter des Verfahrens hervorgehoben werden. Mit

Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

80

Letzterem ist gemeint, dass ein und dieselben Prozedur so ersten Spalten bleiben davon sowieso unberührt. Nach dieoft angewendet wird, bis die gewünschte Form erreicht ist. sen Umformungen steht der erste, von null verschiedene Eintrag der zweiten Zeile – bezogen auf die Gesamtmatrix – an der Stelle .2; k C l/: 0

Reduzierbarkeit auf Zeilenstufenform

3

Jedes lineare Gleichungssystem lässt sich durch elementare Zeilenumformungen in ein äquivalentes System überführen, das eine Zeilenstufenform oder reduzierte Zeilenstufenform aufweist.

Beweis Wir beschreiben das schrittweise Vorgehen, also den Eliminationsalgorithmus, bei dem aus m Gleichungen in n Unbekannten bestehenden Gleichungssystem .A j b/: 1. Schritt: Wir beginnen mit der ersten Spalte von A. Gibt es darin ein ai1 ¤ 0, so verwenden wir dieses, um alle anderen Einträge aj1 , j ¤ i, in der ersten Spalte zu eliminieren, indem von der j -ten Zeile die mit aj1 =ai1 multiplizierte i-te Zeile subtrahiert wird. Dann tauschen wir die i-te Zeile mit der ersten Zeile. Alle Zeilenumformungen sind an der erweiterten Koeffizientenmatrix .A j b/ vorzunehmen. Gibt es hingegen nur Nullen in der ersten Spalte, so gehen wir die Spalten der Reihe nach durch. Finden wir erstmals in der k-ten Spalte von A, 1 < k  n, ein von null verschiedenes Element ai k , so verfahren wir mit der k-ten Spalte so wie vorhin mit der ersten. Gibt es überhaupt nur Nullen in A, so sind wir bereits fertig mit der Elimination. 2. Schritt: Die erste Zeile der Matrix beginnt nun entweder mit ai1 ¤ 0, oder sie beginnt mit Nullen und erstmals an der Stelle .1; k/, k > 1, steht ein ai k ¤ 0. Wir fassen beide Möglichkeiten zusammen, indem wir k  1 zulassen. Dann lassen wir im Weiteren die erste Zeile und die ersten k Spalten der Koeffizientenmatrix A außer Acht und wenden uns der verbleibenden .m  1/ .n  k/-Matrix A 1 zu:

0

0 ai k B 0 0 B B :: :: @ : :



A1



1 C C C A

B B B B B @

0 ai k 0  0  :: :

0 a1Cj kCl 0 0 :: :: : :

1 C C C C C A2 A

Von nun an lassen wir die erste Zeile und die ersten l Spalten von A 1 außer Acht und wiederholen das Verfahren für die verbleibende Matrix A 2 , die nur mehr .m  2/ Zeilen und n  k  l Spalten aufweist; und so weiter. Gleichartige Schritte sind so lange zu wiederholen, bis alle Zeilen durchlaufen sind oder die Restmatrix nur mehr Nullen enthält. Nachdem die Größe der Restmatrix Schritt für Schritt abnimmt, ist nach spätestens m Schritten die Zeilenstufenform hergestellt. Will man schließlich die reduzierte Zeilenstufenform erreichen, so verwendet man die führenden Einträge pro Zeile, um die darüber stehenden Einträge zu eliminieren. Über den anderen Elementen derselben Stufe können durchaus von null verschiedene Zahlen stehen bleiben.  3.3

Das Lösungskriterium und die Struktur der Lösung

Bringt man eine Koeffizientenmatrix A bzw. eine erweiterte Koeffizientenmatrix .A j b/ mithilfe von elementaren Zeilenumformungen auf Zeilenstufenform, so heißt die Anzahl der Zeilen, in denen nicht nur Nullen als Einträge erscheinen, der Rang rg A bzw. rg.A j b/. Dieser bereits oben eingeführte Begriff spielt eine wesentliche Rolle bei der Lösbarkeitsentscheidung.

Mithilfe des Ranges lässt sich die Lösbarkeit eines linearen Gleichungssystems entscheiden

Es ist zu beachten, dass die Restmatrix A 1 ebenso wie A keine Absolutglieder enthält. Nur bei den Zeilenumformun- Wir formulieren gleich das wesentliche Ergebnis. gen sind auch die Absolutglieder mit zu berücksichtigen. Diesmal durchsuchen wir in A 1 die Spalten von vorne weg, um ein Element aj l ¤ 0 zu entdecken. Gibt es keines, Das Lösbarkeitskriterium so sind wir fertig. Finden wir hingegen in der Restmatrix Ein lineares Gleichungssystem mit der KoeffizientenmaA 1 an der Stelle .j; l/, j  1, l  1, ein von null vertrix A und der erweiterten Koeffizientenmatrix .A j b/ ist schiedenes Element a1Cj kCl , so eliminieren wir damit wie genau dann lösbar, wenn im ersten Schritt die Einträge der l-ten Spalte in A 1 und tauschen dann die j -te Zeile mit der ersten von A 1 . rg A D rg.A j b/ : Wieder werden die Zeilenumformungen an der gesamten erweiterten Koeffizientenmatrix vorgenommen. Die

81 3.3  Das Lösungskriterium und die Struktur der Lösung

Kommentar Dieses Kriterium wird den im 19. Jahrhundert daran, dass bei allen elementaren Zeilenumformungen die wirkenden Mathematikern Leopold Kronecker und Alfredo Nullen in der Absolutspalte bestehen bleiben und sich daCapelli zugeschrieben und deshalb oft Kriterium von Kron- her in der Zeilenstufenform kein Widerspruch zeigen kann. Setzt man in einem beliebigen linearen Gleichungssysecker und Capelli genannt. tem .A j b/ alle Absolutglieder gleich null, so entsteht das Beweis Gilt rg A D rg.A j b/, so existiert ein zu .A j b/ zugehörige homogene lineare Gleichungssystem .A j 0/ äquivalentes lineares Gleichungssystem in Zeilenstufen- mit dem Nullvektor 0 als Spalte der Absolutglieder: form, bei welchem rechts von den Nullzeilen von A nur Nullen stehen. Deshalb ist die Lösungsmenge nicht leer. a11 x1 C a12 x2 C    C a1n xn D b1 Ist rg A ¤ rg.A j b/, so bleibt nur rg A < rg.A j b/, a21 x1 C a22 x2 C    C a2n xn D b2 da die Zeilen in .A j b/ jeweils ein Element mehr aufwei:: :: :: :: : : : : sen als jene in A. Dann enthält ein zu .A j b/ äquivalentes am1 x1 C am2 x2 C    C amn xn D bm lineares Gleichungssystem in Zeilenstufenform eine Zeile „ ƒ‚ … der Art inhomogen ” b ¤0 für mindestens ein i i

.0 0 : : : 0 j b/ mit b ¤ 0 : Dies besagt aber, dass das gegebene Gleichungssystem nicht lösbar ist.  Nicht lösbar sind also z. B. 0 1 2 b 1 0 @0 1 0 4A und 0 0 0 2

0

1 1 1 2 3 2 @0 0 0 0 1A : 0 0 0 1 1

Hingegen sind lösbar 0 2 b @0 1 0 0

1 1 0 0 4A 0 0

0 und

1 1 1 2 3 2 @0 0 1 1 1 A : 0 0 0 1 5

Kommentar

4 Lineare Gleichungssysteme mit lauter Nullen als Absolutglieder sind immer lösbar. 4 Beim Verfahren von Gauß und Jordan bedeutet es keinen zusätzlichen Aufwand, das obige Lösbarkeitskriterium anzuwenden. Es ist eine Station auf dem Weg zur Lösungsfindung. 4 Ein Grund, warum das Lösbarkeitskriterium mithilfe der Ränge formuliert wird, liegt in der Bedeutung des Ranges als eine wichtige Kenngröße einer Matrix. Vorweggreifend wollen wir nur bemerken, dass sich der Rang auch auf andere Arten feststellen lässt. Man muss hierzu nicht unbedingt die Zeilenumformungen durchführen. ? Selbstfrage 3.6 Vergleichen Sie bei den sechs Gleichungssystemen im Beispiel aus 7 Abschn. 3.1 die Ränge der Koeffizientenmatrizen mit jenen der erweiterten Koeffizientenmatrizen.

# a11 x1 C a12 x2 C    C a1n xn D 0 a21 x1 C a22 x2 C    C a2n xn D 0 :: :: :: :: : : : : am1 x1 C am2 x2 C    C amn xn D 0 ƒ‚ … „ zugehöriges homogenes System

?Selbstfrage 3.7 Hat ein homogenes Gleichungssystem über einem Körper K neben der trivialen Lösung noch eine weitere Lösung, so hat es gleich unendlich viele Lösungen. Stimmt das?

Die Lösungsmengen von homogenen und inhomogenen linearen Gleichungssystemen haben eine gewisse Struktur Mithilfe von Begriffen und Ergebnissen aus dem kommenden 7 Kap. 4 werden wir eine bessere Einsicht in die Struktur der Lösungsmengen gewinnen. Unsere derzeitigen Kenntnisse reichen aber bereits aus, um die folgenden Sachverhalte zu begründen.

Lösungen eines homogenen Systems Sind .l1 ; : : : ; ln / und .m1 ; : : : ; mn / Lösungen eines homogenen linearen Gleichungssystems über K in n Unbekannten, dann ist auch die Summe .l1 C m1 ; : : : ; ln C mn / eine Lösung. Ferner ist für jedes  2 K auch das -Fache . l1 ; : : : ;  ln / eine Lösung.

Beweis Um zu zeigen, dass die Summe eine Lösung ist, Ein lineares Gleichungssystem, in dessen Absolutspalte müssen wir nur verifizieren, dass alle Gleichungen beim lauter Nullen stehen, heißt homogen und sonst inhomogen. Einsetzen dieser Summe erfüllt werden. Wir setzen die Summe in die i-te Gleichung des hoEin homogenes System besitzt immer die triviale Lösung .0; 0; : : : ; 0/ und ist daher immer lösbar. Das zeigt sich auch mogenen Systems ein. Mithilfe der in Körpern gültigen

3

82

Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

Beispiel: Lineare Gleichungssysteme mit Parameter II

Wir untersuchen das reelle lineare Gleichungssystem

3

x1 C a x2 C b x3 D 2 a x1  x2 D0 b x2 C a x3 D b in Abhängigkeit der beiden Parameter a; b 2 R auf Lösbarkeit bzw. eindeutige Lösbarkeit und stellen die entsprechenden Bereiche für .a; b/ 2 R2 grafisch dar. Problemanalyse und Strategie Wir wenden die bekannten elementaren Zeilenumformungen an, beachten aber jeweils, unter welchen Voraussetzungen an a und b diese zulässig sind.

Für a ¤ 1 können wir die zweite Zeile durch a C 1 und die dritte durch a teilen. Wir erhalten so die Matrix 0 1 1 1 0 0 B0 1 0 2 a C @ aC1 A 0 0 1 0 mit einer eindeutig bestimmten Lösung. Damit haben wir den Fall b D 0 abgehandelt. 2. Fall b ¤ 0: Die zum Gleichungssystem gehörige Matrix lautet, nachdem wir die dritte Zeile durch b geteilt haben: 0 1 B0 @ 0

1 aC1 1

0 b a=b

1 0 2 aC A 1

Lösung Die erweiterte Koeffizientenmatrix .A j b/ des Systems lautet: 1 0 1 a b 2a B1 1 0 0C A @ 0 b a b Damit die Parameter a und b nicht zu oft auftreten, bietet sich ein Tausch der ersten beiden Zeilen an. Zur neuen zweiten Zeile addieren wir dann das .1/-Fache der dann neuen ersten Zeile: 1 0 1 0 1 1 0 0 0 1 1 0 B C B1 a b 2 aC A ! @0 a C 1 b 2 a A @ 0 b a b 0 b a b Damit wir die letzte Zeile mit b 1 multiplizieren dürfen, betrachten wir b D 0 gesondert. 1. Fall b D 0: Die Matrix hat dann die Form: 1 0 0 1 1 0 B0 a C 1 0 2 aC A @ 0 0 a 0 Wir unterscheiden zwei Fälle: (a) a D 0 und (b) a ¤ 0: (a) Ist a D 0, so erhalten wir 1 0 1 1 0 0 B0 1 0 0C A @ 0 0 0 0 und damit unendlich viele Lösungen. (b) Ist a ¤ 0, so müssen wir die beiden Fälle a D 1 und a ¤ 1 unterscheiden: Bei a D 1 gehört zu dem Gleichungssystem die Matrix: 1 0 0 1 1 0 B0 0 0 2C A @ 0 0 1 0 Wegen rg A < rg.A j b/ ist das System nicht lösbar.

Wir vertauschen die zweite und die dritte Zeile und addieren zur neuen dritten Zeile das .a C 1/-Fache der neuen zweiten Zeile: 1 0 0 1 1 0 B0 1 a=b 1 C A @ 0 0 b  .a C 1/ a=b a  1 Also gilt: 1) Das Gleichungssystem ist nicht lösbar für a ¤ 1 und b 2 D .a C 1/ a. 2) Das Gleichungssystem ist eindeutig lösbar für b 2 ¤ .a C 1/ a, wobei a beliebig ist. 3) Das Gleichungssystem hat unendlich viele Lösungen für a D 1 und b 2 D 2. Die Menge der in 1) genannten Punkte .a; b/ 2 R2 mit b 2 D .a C 1/ a bildet eine Hyperbel: a

1

b

Die blauen Bereiche geben diejenigen Paare .a; b/ 2 R2 an, für die das Gleichungssystem eindeutig lösbar ist. Für die Punkte der rot eingezeichneten Hyperbel ist das Gleichungssystem nicht lösbar – abgesehen von den drei grün markierten Punkten, die jeweils unendlich viele Lösungen liefern.

83 3.3  Das Lösungskriterium und die Struktur der Lösung

distributiven Gesetze (7 Abschn. 2.3) folgt: ai1 .l1 C m1 / C ai 2 .l2 C m2 / C    C ai n .ln C mn / D ai1 l1 C ai1 m1 C ai 2 l2 C ai 2 m2 C    C a i n ln C a i n mn D ai1 l1 C ai 2 l2 C    C ai n ln „ ƒ‚ …

Die erste Behauptung ergibt sich durch Einsetzen: A s D b und A l D 0 ) A.s C l / D A s C A l D b C 0 D b Ist m so wie s eine Lösung des inhomogenen Systems, so gilt:

D0

C ai1 m1 C ai 2 m2 C    C ai n mn D 0 „ ƒ‚ … D0

Am D As D b ) A.m  s/ D A m  A s D b  b D 0

Das gilt für jedes i 2 f1; : : : ; mg. Also ist .l1 Cm1 ; : : : ; ln C Also löst der Differenzenvektor l D m  s das homogene mn / eine Lösung. System, oder anders ausgedrückt: m D s C l .  Ebenso gilt für jedes  2 K und für jeden Zeilenindex i 2 f1; : : : ; mg wegen der Kommutativität von K Ist L die Lösungsmenge unseres inhomogenen Systems und L0 jene des zugehörigen homogenen Systems, so beai1 . l1 / C ai 2 . l2 / C    C ai n . ln / sagt das zweite Ergebnis D  .ai1 l1 C ai 2 l2 C    C ai n ln / D   0 D 0 : L D s C L0 D fs C l j l 2 L0 g: (3.2) Somit ist wie behauptet auch . l1 ; : : : ;  ln / eine Lösung unseres Gleichungssystems. ?Selbstfrage 3.8 Hier drängt sich die Vektorschreibweise geradezu auf. Sind Summen und Vielfache von Lösungen inhomogener Wenn wir l und m als die beiden Lösungsvektoren des hoSysteme stets wieder Lösungen des inhomogenen Sysmogenen Gleichungssystems A x D 0 voraussetzen, so tems? besagt die obige Aussage, dass auch der Summenvektor l C m eine Lösung ist. Dabei wird – die Vektoraddition bereits vorwegnehmend – die Summe zweier n-Tupel kom- Nach einer Umreihung der Unbekannten ponentenweise gebildet, analog zu der im 7 Abschn. 2.1 wird das Rückwärtseinsetzen besonders vorgeführten Summe zweier Zahlentripel. Ebenso löst mit übersichtlich l auch  l das homogene System, und natürlich bedeutet  l das -Fache der Lösung l . Wenn wir gleich auch noch die Matrizengleichung un- Abschließend noch ein genauer Blick auf das Rückwärtsseres Systems verwenden und vorwegnehmen, dass die einsetzen: Wir gehen aus von der reduzierten Zeilenstufenform. Matrizenmultiplikation distributiv ist, was in voller Allgemeinheit erst im 7 Kap. 6 erklärt wird, so können wir den Nach geeigneter Multiplikation der Zeilen können alle führenden Einträge zu 1 gemacht werden. Wir wollen nun auch obigen Beweis ganz kurz wie folgt führen: noch Spaltenvertauschungen zulassen. Damit können wir Al D Am D 0 nämlich erreichen, dass alle Stufen die Länge 1 erhalten, weil die zwischen den führenden Einträgen gelegenen Spal) A.l C m/ D A l C A m D 0 C 0 D 0: ten zurückgereiht werden. Wenn wir die Spalten mit den Indizes i und j vertauIn 7 Kap. 4 werden wir eine Menge U von Vektoren einen Unterraum nennen, wenn dieser mit l und m auch l C m schen, so bedeutet dies, dass in der bisherigen Reihenfolge der Unbekannten x1 ; : : : ; xn die beiden Unbekannten xi sowie  l für alle  2 K enthält.  und xj die Plätze tauschen. Wir können also von einer Umreihung der Unbekannten sprechen, oder aber auch von einer Umnummerierung, weil wir das bisherige xi als xj Lösungsmenge eines inhomogenen Systems bezeichnen können und umgekehrt. Ist .s1 ; : : : ; sn / eine spezielle Lösung eines linearen GleiAuf diese Weise kommen wir im lösbaren Fall auf die chungssystems über K in n Unbekannten und .l1 ; : : : ; ln / Form eine Lösung des zugehörigen homogenen Systems, dann 1 0 ist auch die Summe .s1 C l1 ; : : : ; sn C ln / eine Lösung des 1 0 c1 rC1    c1n s1 inhomogenen Systems. Umgekehrt ist jede Lösung des inB :: :: :: C :: B : homogenen Systems als eine derartige Summe darstellbar. : : :C C B B0 1 cr rC1    crn sr C C; B C B  0 0C B0    0 @: :: :: :: A Beweis Wir verwenden hier gleich von Anfang an die Ma:: : : : trizengleichung A x D b des gegebenen Systems.

3

Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

84

also ausgeschrieben, ohne Nullspalten und nach bereits erfolgter Umnummerierung der Unbekannten: x1 ::

3

C c1 rC1 xrC1 C    C c1n xn D s1 :: :: :: : : : : xr C cr rC1 xrC1 C    C crn xn D sr

Sicherheitshalber haben wir in einer Kopfzeile die Namen der jeweiligen Unbekannten angeführt, denn nun reihen wir um, so dass die Stufenlänge einheitlich 1 beträgt: 0

x1 x3 @ 1 0 0 1

x2 2 0

x4 1 3

x5 0 3

1 1A 2

Nun ersetzen wir die letzten Unbekannten xrC1 ; : : : ; xn durch frei wählbare Parameter t1 ; : : : ; tnr 2 K und brau- Dies ergibt für die neue Reihenfolge der Unbekannten als Parameterdarstellung der Lösungsmenge chen die Lösung nur noch abzuschreiben: 1 0 1 0 1 0 2 1 0 1 x1 x1 D s1  c1 rC1 t1      c1n tnr 0 1 Bx3 C B2C B 0 3 3 C t1 :: :: :: :: C B C B C B : : : : Bx2 C D B0C C B 1 @ A 0 0 C C t2 : B C B C B xr D sr  cr rC1 t1      crn tnr A @x4 A @0A @ 0 1 0 t3 xrC1 D t1 0 0 1 0 x5 :: :: : : Kommentar In der Sprache der Vektorräume, wie sie tnr xn D im nächsten 7 Kap. 4 entwickelt wird, können wir saIn Form einer Matrizengleichung sieht dies vielleicht noch gen: Die Lösungsmenge eines homogenen Systems über K in n Unbekannten und vom Rang r ist ein .n  deutlicher aus: r/-dimensionaler Unterraum von Kn . Die Lösungsmenge 0 1 1 0 1 0 c1;rC1    c1n s1 x1 eines lösbaren inhomogenen Systems vom Rang r ist ein B : C B:C B : :: C .n  r/-dimensionaler affiner Raum. B :: C B :: C B :: C 0 1 : C t1 B C B C B B x C Bs C B c C B r C B r C B r;rC1    crn C B :: C B C CDB CCB 0 C@ : A BxrC1 C B 0 C B 1 Aufgaben B : C B:C B C tnr :: B : C B:C B C : @ : A @:A @ A Gelegentlich enthalten die Aufgaben mehr Angaben, als für 0 0 1 xn die Lösung erforderlich sind. Bei einigen anderen dageIn den ersten r Zeilen scheinen Teilmatrizen der vorange- gen werden Daten aus dem Allgemeinwissen, aus anderen gangenen erweiterten Koeffizientenmatrix auf. Bei den rot Quellen oder sinnvolle Schätzungen benötigt. gedruckten Einträgen in der r .n  r/-Teilmatrix sind al einfache Aufgaben mit wenigen Rechenschritten lerdings alle Vorzeichen umgekehrt. In Übereinstimmung mit (3.2) zeigt die obige Parame-

mittelschwere Aufgaben, die etwas Denkarbeit und terdarstellung in der ersten Spalte die spezielle Lösung des unter Umständen die Kombination verschiedener inhomogenen Systems (erreichbar bei t1 D    D tnr D 0) Konzepte erfordern und anschließend die allgemeine Lösung des zugehörigen

anspruchsvolle Aufgaben, die fortgeschrittene Konhomogenen Gleichungssystems. zepte (unter Umständen auch aus späteren Kapiteln) oder eigene mathematische Modellbildung benötigen Freie Parameter in der Lösungsmenge Ist .A j b/ ein lösbares lineares Gleichungssystem über K mit n Unbekannten und hat die Koeffizientenmatrix A den Rang r, so treten in der Lösungsmenge n  r Parameter t1 ; : : : ; tnr auf, deren Werte jeweils in K frei wählbar sind.

Wir demonstrieren dies noch an dem Beispiel aus der Beispielbox im 7 Abschn. 3.2 mit der reduzierten Zeilenstufenform 0 1 x1 x2 x3 x4 x5 @ 1 2 0 1 0 1A : 0 0 1 3 3 2

Verständnisfragen 3.1  Haben reelle lineare Gleichungssysteme mit zwei verschiedenen Lösungen stets unendlich viele Lösungen? 3.2 

Gibt es ein lineares Gleichungssystem über einem Körper K mit weniger Gleichungen als Unbekannten, welches eindeutig lösbar ist?

3.3  Ist ein lineares Gleichungssystem A x D b mit n Unbekannten und n Gleichungen für ein b eindeutig lösbar, dann auch für jedes b . Stimmt das?

85 Aufgaben

Folgt aus rg A D rg.A j b/, dass das lineare mit b D a2  6 a C 9 keine, genau eine bzw. mehr als Gleichungssystem .A j b/ eindeutig lösbar ist? eine Lösung? Für a D 0 und a D 2 berechne man alle Lösungen. 3.5  Ein lineares Gleichungssystem mit lauter ganzzahligen Koeffizienten und Absolutgliedern ist auch als 3.10  Berechnen Sie die Lösungsmenge der kompleGleichungssystem über dem Restklassenkörper Zp aufzu- xen linearen Gleichungssysteme: fassen. Angenommen, l D .l1 ; : : : ; ln / ist eine ganzzahlige a) x1 C i x2 C x3 D 1 C 4 i Lösung dieses Systems. Warum ist dann l D .l 1 ; : : : ; l n / x1  x2 C i x3 D 1 mit l i li .mod p/ für i D 1; : : : ; n eine Lösung i x1  x2  x3 D  1  2 i des gleichlautenden Gleichungssystems über Zp ? Ist jede b) 2 x C i x3 D i 1 Lösung zu letzterem aus einer ganzzahligen Lösung des x1  3 x2  i x3 D 2 i Systems über Q oder R herleitbar? i x1 C x2 C x3 D 1 C i i x2  x3 D 0 3.6  Das folgende lineare Gleichungssystem mit c) .1 C i/ x1  C .2  3 i/ x2 C 2 i x3 D 0 2 x 1 ganzzahligen Koeffizienten ist über R unlösbar. In welchen 3.4 

Restklassenkörpern ist es lösbar, und wie lautet die jeweilige Lösung? 2 x1 C x2  2 x3 D 1 x1  4 x2  19 x3 D 10 x2 C 4 x3 D 1 3.7  Es sind Zahlen a; b; c; d; r; s aus dem Körper K vorgegeben. Begründen Sie, dass das lineare Gleichungssystem

a x1 C b x2 D r c x1 C d x2 D s

3.11  Bestimmen Sie die Lösungsmenge L des folgenden reellen linearen Gleichungssystems in Abhängigkeit von r 2 R:

r x1 C x2 C x3 D 1 x1 C r x2 C x3 D 1 x1 C x2 C r x3 D 1 3.12  Untersuchen Sie das reelle lineare Gleichungs-

system x1  x2 C x3  2 x4 2 x1 C 3 x2 C a x3 x1 C x2  x3 C a x4 a x2 C b 2 x3  4 a x4

D 2 D4 Da D1

im Fall a d  b c ¤ 0 eindeutig lösbar ist, und geben Sie die eindeutig bestimmte Lösung an. Bestimmen Sie zusätzlich bei K D R für m 2 R die in Abhängigkeit der beiden Parameter a; b 2 R auf LösLösungsmenge des folgenden linearen Gleichungssystems: barkeit bzw. eindeutige Lösbarkeit und stellen Sie die entsprechenden Bereiche für .a; b/ 2 R2 grafisch dar. 2 x1 C 3 x2 D 2 m x1  5 x2 D 11 3.13  Im Ursprung 0 D .0; 0; 0/ des R3 laufen die drei Stäbe eines Stabwerks zusammen, die von den Punkten

Rechenaufgaben 3.8 

Bestimmen Sie die Lösungsmengen L der folgenden reellen linearen Gleichungssysteme und untersuchen Sie deren geometrische Interpretationen: a) 2 x1 C 3 x2 D 5 x1 C x2 D 2 3x1 C x2 D 1 b) 2x1  x2 C 2x3 D 1 x1  2x2 C 3x3 D 1 6x1 C 3x2  2x3 D 1 x1  5x2 C 7x3 D 2 3.9  Für welche a 2 R hat das reelle lineare Gleichungssystem

.a C 1/ x1  b x2 C .a  2/ x3 D 1 3 x3 D a  3 .a  2 a  3/ x1 C b x2 C .a C 1/ x1  b x2 C .a C 1/ x3 D 1 2

a D .2; 1; 5/; b D .2; 2; 4/; c D .1; 2; 3/ ausgehen. Im Ursprung 0 wirkt die vektorielle Kraft F D .0; 0; 56/ in Newton. Welche Kräfte wirken auf die Stäbe (siehe . Abb. 3.7)?

Beweisaufgaben 3.14  Beweisen Sie, dass bei jedem linearen Gleichungssystem über dem Körper K mit den beiden Lösungen l D .l1 ; : : : ; ln / und l D .l1 ; : : : ; ln / gleichzeitig auch l C .1  /l , also .l1 C .1  /l1 ; : : : ; ln C .1  /ln / eine Lösung ist, und zwar für jedes  2 K. 3.15 

Zeigen Sie, dass die elementare Zeilenumformung (1) auch durch mehrfaches Anwenden der Umformungen vom Typ (2) und (3) erzielt werden kann.

3

86

Kapitel 3  Lineare Gleichungssysteme – ein Tor zur linearen Algebra

vAntwort 3.4

0

3

#F #F

c b

c

# F

b

#F

a

a . Abb. 3.7 Die Gewichtskraft F verteilt sich auf die Stäbe

Antworten zu den Selbstfragen v Antwort 3.1 Man erhält dann f.t; 1=2 t/ j t 2 Rg als Lösungsmenge. Dies ist aber natürlich die gleiche Menge.

v Antwort 3.2 1) Nein, denn die Gleichungen können einander widersprechen wie etwa x1 Cx2 Cx3 D 1 und x1 Cx2 Cx3 D 0, was zu L D ; führt. Ist das System jedoch lösbar, so kann man eine Unbekannte durch einen Parameter t 2 R ersetzen und das System weiterhin lösen. Wegen der freien Wahl von t gibt es unendlich viele Lösungen. 2) Nein, es ist z. B. x1 D 1, 2 x1 D 2 ein System von zwei linearen Gleichungen in einer Unbekannten x1 und mit der eindeutig bestimmten Lösung x1 D 1.

v Antwort 3.3 Im Fall b ¤ 0 ist die Lösungsmenge jeweils die leere Menge. Im Fall b D 0 ist bei zwei Unbekannten die Lösungsmenge L D R2 , also die ganze Ebene, und bei drei Unbekannten der ganze Raum.

Die Zeilenumformung vom Typ 3 wurde beim ersten Umformungspfeil nicht korrekt ausgeführt: Zeilenumformungen sind der Reihe nach durchzuführen. Wird im ersten Schritt gemäß Typ 3 die zweite Gleichung zur ersten addiert, so muss im zweiten Schritt zur zweiten Gleichung bereits die Summe z1 C z2 addiert werden und nicht nur z1 allein. Hinter dem ersten Umformungspfeil verbergen sich bereits zwei Schritte, von denen der zweite unzulässig ist.

vAntwort 3.5 Steht an der Stelle .2; 3/ eine Zahl a23 ¤ 0, dann er1 zeugen wir dort eine 1, wenn wir die 2. Zeile mit a23 multiplizieren. Bei a23 D 0 sehen wir nach, ob in der 3. Spalte weiter unten ein von null verschiedenes Element vorkommt. Wenn ja, vertauschen wir die zugehörige Zeile mit der zweiten und verfahren wie vorhin. Wenn nein, verfahren wir mit der 4. Spalte so wie vorhin mit der dritten, und so weiter. Gibt es von der zweiten Zeile an links vom Trennstrich sowieso nur mehr Nullen, so liegt bereits eine Stufenform vor.

vAntwort 3.6 Es gilt der Reihe nach rg A D 2 D rg.A j b/, rg A D 1 ¤ 2 D rg.A j b/ sowie rg A D 1 D rg.A j b/. Bei den drei Gleichungen mit 4 Unbekannten im vierten Beispiel ist rg A D 2 D rg.A j b/, bei dem fünften rg A D 2 ¤ 3 D rg.A j b/. Beim sechsten gilt über R rg A D 2 ¤ 3 D rg.A j b/; hingegen gilt über Z5 rg A D 2 D rg.A j b/.

vAntwort 3.7 Es ist nur dann richtig, wenn K unendlich viele Elemente hat, denn mit l ist auch jedes Vielfache  l mit  2 K eine Lösung des homogenen Systems.

vAntwort 3.8 Nein, denn aus As1 D As2 D b folgt A.s1 C s2 / D 2 b ¤ b sowie A.s1 / D  b ¤ b, sofern  ¤ 1.

87

Vektorräume – von Basen und Dimensionen

Inhaltsverzeichnis 4.1

Der Vektorraumbegriff – 88

4.2

Beispiele von Vektorräumen – 91

4.3

Untervektorräume – 94

4.4

Basis und Dimension – 97

4.5

Summe und Durchschnitt von Untervektorräumen – 112 Aufgaben – 118 Antworten zu den Selbstfragen – 119

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_4

4

88

Kapitel 4  Vektorräume – von Basen und Dimensionen

n Sie finden unter anderem Antworten zu . . .

4 Können Funktionen Vektoren sein? 4 Enthält jedes Erzeugendensystem eine Basis? 4 Welche Dimension hat KŒX über K?

4

Die lineare Algebra kann auch als Theorie der Vektorräume bezeichnet werden. Diese Theorie entstand durch Verallgemeinerung der Rechenregeln von klassischen Vektoren im Sinne von Pfeilen in der Anschauungsebene. Der wesentliche Nutzen liegt darin, dass unzählige, in fast allen Gebieten der Mathematik auftauchenden Mengen eben diese gleichen Rechengesetze erfüllen. So war es naheliegend, jede Menge, in der jene Rechengesetze gelten, allgemein als Vektorraum zu bezeichnen. Eine systematische Behandlung eines allgemeinen Vektorraumes, d. h. eine Entwicklung einer Theorie der Vektorräume, löst somit zahlreiche Probleme in den verschiedensten Gebieten der Mathematik. Auch wenn die Definition eines allgemeinen Vektorraumes reichlich kompliziert wirken mag – letztlich kann man einen Vektorraum durch Angabe von oft sehr wenigen Größen vollständig beschreiben. Jeder Vektorraum besitzt nämlich eine sogenannte Basis. In einer solchen Basis steckt jede Information zu dem Vektorraum. Und es sind auch die Basen, die es möglich machen, von der Dimension eines Vektorraumes zu sprechen. Dabei entspricht dieser Dimensionsbegriff den drei räumlichen Dimensionen des Anschauungsraumes. Aber dieser mathematische Dimensionsbegriff ist viel allgemeiner. Es besteht für die Mathematik keine Hürde, auch in Vektorräumen zu rechnen, die sich der Anschauung völlig entziehen. 4.1

Der Vektorraumbegriff

Definition eines K-Vektorraums Es seien K ein Körper, .V; C/ eine abelsche Gruppe und ( K V !V W .; v/ 7!   v eine Abbildung. Falls für alle u; v; w 2 V und ;  2 K die Eigenschaften (V1)   .v C w/ D   v C   w, (V2) . C /  v D   v C   v, (V3) . /  v D   .  v/, (V4) 1  v D v gelten, nennt man V einen Vektorraum über K oder kurz einen K-Vektorraum.

Es ist hier angebracht, die Definition etwas zu erläutern. Bei einem Vektorraum V werden zwei algebraische Strukturen, nämlich die der abelschen Gruppe .V; C/ und die des Körpers K, durch eine neue Verknüpfung  miteinander verbunden. Dass  eine Abbildung ist, bringt zum Ausdruck, dass diese Verbindung der beiden Strukturen durch eine Multiplikation der Elemente aus V mit Elementen aus K gegeben ist; das Ergebnis dieser Multiplikation ist ein Element in V . Die Eigenschaften (V1)–(V4) nennt man auch Vektorraumaxiome, sie beschreiben eine Verträglichkeit der zwei gegebenen Verknüpfungen C und  des Vektorraumes V . In (V3) bezeichnet   das Produkt von  mit  in K. Wir lassen für das Produkt in K – wie dies oft üblich ist – den Punkt für die Multiplikation weg. ?Selbstfrage 4.1 Hinter dem Begriff abelsche Gruppe .V; C/ verbergen sich fünf Axiome. Können Sie diese angeben?

Wir führen den Begriff eines Vektorraums ein. Dieser erlaubt uns, für viele verschiedene Bereiche, in welchen Die Elemente aus V heißen Vektoren und werden zugleichartige Rechenverfahren auftreten, eine einheitliche nächst durch Fettdruck hervorgehoben. In späteren KaTheorie zu entwickeln. piteln werden wir keinen Fettdruck mehr einsetzen, weil sonst Formeln und Aussagen nicht konsistent werden. Es ist unumgänglich, dass man sich über die Bedeutung der Ein Vektorraum ist durch eine einzelnen Symbole in mathematischen Aussagen im Klaabelsche Gruppe, einen Körper, ren ist. Die Elemente aus K heißen Skalare und werden häufig eine äußere Multiplikation und durch griechische Buchstaben gekennzeichnet. Das neuvier Verträglichkeitsgesetze gegeben trale Element 0 bezüglich der Addition heißt Nullvektor. Wir bezeichnen das zu v entgegengesetzte und eindeutig Im Folgenden bezeichnen wir mit K einen Körper. Wenn bestimmte Element v0 mit v und schreiben anstelle von nicht explizit auf einen besonderen Körper hingewiesen v C .w/ kurz v  w. Gelegentlich nennt man das entwird, kann man sich anstelle von K stets den vertrauten gegengesetzte Element v zu v auch inverses Element. Körper R denken, um ein konkretes Beispiel vor Augen zu Die (äußere) Multiplikation  nennen wir die Multiplikahaben. tion mit Skalaren.

89 4.1  Der Vektorraumbegriff

Im Fall K D R nennen wir V auch einen reellen Wir tun das nicht, da die Schreibweise dadurch kompliVektorraum und im Fall K D C einen komplexen Vek- ziert wird, und halten uns immer vor Augen, dass es sich um verschiedene Additionen bzw. Multiplikationen hantorraum. delt: 2-Tupel werden addiert (Addition in R2 ), indem man Kommentar Alles, was als Element eines Vektorraumes ihre Koordinaten addiert (Addition in R); ein 2-Tupel wird aufgefasst werden kann, ist also ein Vektor. Vektoren wer- mit einem  2 R multipliziert (äußere Multiplikation), den nur durch ihre Eigenschaften definiert. Wir werden bald indem man jede seiner Koordinaten mit diesem Skalar mulverschiedene, zum Teil sehr vertraute mathematische Ob- tipliziert (Multiplikation in R). Diese Addition und Multiplikation mit Skalaren haben jekte kennenlernen, die auch Vektoren sind. Ein Vektor ist wir übrigens bereits mit den Lösungen linearer Gleichungsalso nicht unbedingt systeme eingeführt. 4 ein Pfeil mit einer Länge und einer Richtung oder 4 eine Klasse parallel verschobener Pfeile. Lemma Die abelsche Gruppe R2 bildet mit der wie eben erklärten komponentenweisen Multiplikation  einen RDie Anschauungsebene ist ein klassisches Vektorraum.

Beispiel eines reellen Vektorraumes Die Vektorraumaxiome verifiziert man  durch v1 ;w D Nachrechnen. Wir wählen Elemente v D v2   w1 2 R2 und ;  2 R: w2 (V1) gilt, da      .v1 C w1 / v1 C w1 D   .v C w/ D   v2 C w2  .v2 C w2 /        v1 C  w1  v1  w1 D D C  v2 C  w2  v2  w2     v1 w1 D C D v C w: v2 w2 Beweis

Wir erklären auf dem kartesischen Produkt R2 D R R eine Addition und eine Multiplikation mit Skalaren und erhalten so ein erstes (aus der Schulzeit bekanntes) Beispiel eines Vektorraumes. Es ist R2 D f.v1 ; v2 / j v1 ; v2 2 Rg die Menge aller geordneten Paare .v1 ; v2 /. Dabei war es reine Willkür, die reellen Zahlen v1 und v2 nebeneinander zu schreiben. Wir können die Zahlen genauso gut übereinander schreiben, d. h. R2 D

   v1 j v1 ; v2 2 R : v2

Wir werden diese aufrechte Schreibweise in diesem Kapitel für alle n-Tupel beibehalten. Der Vorteil liegt darin, dass die Darstellung übersichtlicher ist und Rechenregeln einprägsamer werden.     v1 w1 Sind v D ,wD Elemente aus R2 , so wird v2 w2 R2 mit der komponentenweise erklärten Addition       w1 v1 C w1 v1 C D v2 w2 v2 C w2

(V2) gilt, da     . C /  v1 v1 D v2 . C /  v2         v1 C   v1   v1   v1 D D C   v2 C   v2   v2   v2     v1 v1 D  C  v2 v2

. C /  v D . C / 

D .  v/ C .  v/ : (V3) und (V4) begründet man analog.



zu einer abelschen Gruppe .R2 ; C/. Wir erklären nun eine Das Beispiel lässt sich noch weiter verallgemeinern. 2 Multiplikation von Elementen der abelschen Gruppe  R mit Beispiel Analog zu dem eben betrachteten Beispiel des R2 v1 Elementen aus dem Körper R. Für jedes v D 2 R2 ist für jeden Körper K und jede natürliche Zahl n die Menge v2 80 9 1 und jedes  2 R setzen wir v1 ˆ > < =     B :: C n V D K D @ : A j v1 ; : : : ; vn 2 K v1  v1 ˆ >  D : : ; v2  v2 vn Eigentlich sollte man für die Addition von Elementen aus mit komponentenweiser Addition und komponentenweiser R2 und die Multiplikation von Elementen aus dem R2 mit Multiplikation mit Skalaren ein K-Vektorraum, Rn ein rereellen Zahlen neue Symbole, etwa ˚ und ˇ, einführen. eller, C n ein komplexer.

4

90

Kapitel 4  Vektorräume – von Basen und Dimensionen

Hintergrund und Ausblick: „Fastvektorräume“

4

Es gibt Beispiele von Mengen mit Verknüpfungen, bei denen nur fast alle Vektorraumaxiome erfüllt sind. Wir führen vier Beispiele an, bei denen jeweils eines der sogenannten Verträglichkeitsaxiome (V1), (V2), (V3), (V4) zwischen der skalaren Multiplikation und der Addition nicht erfüllt ist. Man beachte, dass wir im Folgenden bei der üblichen Multiplikation  in R bzw. C keinen Multiplikationspunkt setzen. Die Multiplikationspunkte sind für die definierten skalaren Multiplikationen reserviert. (1) In K D C und V D C 2 bezeichne C die komponentenweise Addition; als skalare ! Multiplikation definieren wir v1 2 V: für  2 C und v D v2 8 ! ˆ  v1 ˆ ! ˆ ˆ <  v2 ; v1 !  D v2 ˆ  v1 ˆ ˆ ˆ : 0 ;

falls v2 ¤ 0

falls v2 D 0 ! ! 1 1 Wir wählen  D i 2 C, v D ,wD 2 V und 1 1 rechnen nach, ! !! ! ! 1 1 2 2 i   .v C w/ D i  C D i D 1 1 0 0

! ! 1 1 vCwD i Ci 1 1 ! ! ! i i 2i D C D : i i 0 sowie

Also ist das Vektorraumaxiom (V1) verletzt. Es gelten jedoch alle anderen Vektorraumaxiome. !Exemv1 2 V plarisch weisen wir (V9) nach: Für alle v D v2 gilt: ! ! 1 v1 v1 D D v: 1v D1 v2 1 v2 (2) In K D R und V D R bezeichne C die übliche Addition reeller Zahlen; als skalare Multiplikation definieren wir für  2 R und v 2 V

(3) In K D C und V D C bezeichne C die übliche Addition komplexer Zahlen; als skalare Multiplikation definieren wir für  2 C und v 2 V   v D .Re / v : Das gemischte Assoziativgesetz (V3) gilt hier nicht: Z. B. ist .i2 /  v D .1/  v D Re.1/ v D v ; aber i  .i  v/ D Re.i/ Re.i/ v D 0 ; d. h. .i2 /  v ¤ i  .i  v/, sofern v ¤ 0. Die anderen Vektorraumaxiome sind erfüllt. Exemplarisch zeigen wir, dass (V2) erfüllt ist: Für alle ,  2 C und v 2 V gilt . C /  v D Re. C /  v D .Re  C Re / v D Re  v C Re  v D   v C   v : (4) In K D R und V D R2 bezeichne C die komponentenweise Addition; als skalare ! Multiplikation definieren wir v1 2V für  2 R und v D v2 v1  v2

!

 v1 D 0

! :

Für  D 1, v2 ¤ 0 ergibt sich v1 1 v2

!

v1 D 0

!

v1 ¤ v2

! ;

also gilt hier das Axiom (V4) nicht. Alle anderen Axiome gelten. Exemplarisch weisen ! wir (V1) nach. Für alle ! w1 v1 ;w D 2 V gilt:  2 R und v D v2 w2 ! ! !  .v1 C w1 /  w1  v1   .v C w/ D C D 0 0 0 D   v C   w:

v D  v: 2

Das Axiom (V2) . C /  v D   v C   v ist verletzt: Z. B. ist .1 C 1/  v D 2  v D 4 v ¤ 2 v D v C v D 1  v C 1  v ; sofern v ¤ 0. Es sind jedoch alle anderen Vektorraumaxiome erfüllt. Exemplarisch zeigen wir, dass (V3) erfüllt ist: Für alle ,  2 R und v 2 V gilt . /  v D . /2  v D 2 .2  v/ D   .  v/ :

Kommentar Wir haben für jedes der vier Vektorraumaxiome eine algebraische Struktur angegeben, in der dieses Axiom verletzt und alle anderen Vektorraumaxiome erfüllt sind. Demnach folgt keines der vier Axiome der Skalarmultiplikation aus den übrigen Axiomen. Man sagt: „Die Axiome der Skalarmultiplikation sind voneinander unabhängig“. Dies ist nicht so bei der Kommutativität der Addition: Die Kommutativität der Addition folgt tatsächlich aus den anderen Vektorraumaxiomen. Wir stellen diesen Nachweis als Übungsaufgabe 4.15.

91 4.2  Beispiele von Vektorräumen

Wir prüfen dies für den Fall K D C und n D 1 explizit nach: Es gilt hier V D C: V liefert die Vektoren, C die Skalare. Die Addition in V ist hier die Addition in C und die Multiplikation mit Skalaren ist die Multiplikation in C; Skalare stehen links, Vektoren rechts. Die Menge V D C ist mit der Addition C eine abelsche Gruppe, und C ist ein Körper. Die Axiome (V1)–(V3) sind das Distributiv- und das Assoziativgesetz in C, diese sind natürlich erfüllt, und (V4) gilt ebenfalls in C. Also ist C ein C-Vektorraum. Dieselbe Überlegung zeigt, dass jeder Körper über jedem seiner Teilkörper ein Vektorraum ist, also ist R ein Rund Q-Vektorraum, C ein C-, R- und Q-Vektorraum. Wir betrachten den Vektorraum Z32 über dem Körper Z2 mit zwei Elementen 0 und 1. Die Elemente von Z32 können explizit angegeben werden: 80 1 0 1 0 1 0 1 0 1 0 1 0 1 0 19 ˆ 1 0 0 1 0 1 1 > = < 0 B CB CB CB CB CB CB CB C 3 Z2 D @0A; @0A; @1A; @0A; @1A; @1A; @0A; @1A : > ˆ : 0 0 0 1 0 1 1 1 ;

Beweis (i) gilt, da .V; C/ eine Gruppe ist.

(ii) Aus  D 0 folgt 0 v D .0 C 0/ v D 0 v C 0 v; folglich gilt 0 v D 0 nach (i). Und ist v D 0, so folgt analog aus  0 D  .0 C 0/ D  0 C  0 mit (i)  0 D 0. Gilt umgekehrt  v D 0 und  ¤ 0, so können wir die Gleichung  v D 0 mit dem Skalar 1 multiplizieren und erhalten nach unserem ersten Teil des Beweises v D 1 0 D 0. Folglich gilt  D 0 oder v D 0. (iii) Wegen des Vektorraumaxioms (V2) und (ii) gilt  v C ./ v D . C .// v D 0 v D 0. Folglich ist ./ v das zu  v entgegengesetzte Element, d. h. ./ v D . v/. (iv) Nach dem Vektorraumaxiom (V1) gilt mit  D 1: .1/ .v C w/ D .1/ v C .1/ w : Nun wenden wir (iii) an, hiernach dürfen wir .1/ durch ein einfaches Minuszeichen ersetzen. Es folgt die Behauptung. 

Da man für jede Komponente eines Vektors v 2 Z32 die Wir werden diese Regeln im Folgenden oftmals ohne Hinzwei Wahlmöglichkeiten 0 und 1 hat, gibt es genau 23 Ele- weis benutzen. mente in Z32 . Allgemeiner hat für jedes n 2 N und jede Primzahl p der Zp -Vektorraum Zpn genau p n Elemente. 9 Kommentar Wir lassen von nun an den Punkt  für die Mul-

4.2

Beispiele von Vektorräumen

tiplikation mit Skalaren weg, wir schreiben also kurz  v anstelle von   v.

Wir behandeln in diesem Abschnitt drei wichtige Klassen von Beispielen für Vektorräumen. Es sind dies die Matrizen über einem Körper K, die Polynome über einem Körper Vektoren gehorchen Rechenregeln, K und die Abbildungen von einer Menge in einen Kördie man von Zahlen her kennt per K. Diesen drei Klassen von Beispielen werden wir in den weiteren Kapiteln immer wieder begegnen. Oft wird der jeVektoren, also Elemente von Vektorräumen, können ganz weilige Grundkörper K der Körper der reellen Zahlen sein. unterschiedlicher Art sein. Es können Lösungen von lineaWir erhalten aber eine Vielfalt von Beispielen, wenn wir ren Gleichungssystemen oder Polynome oder auch allgenur K anstelle von R schreiben, K kann dann einfach jeder meiner Abbildungen oder auch Matrizen sein. Wir werden mögliche Körper sein. diese Beispiele im nächsten 7 Abschn. 4.2 behandeln. Hier geben wir an, welchen Regeln sie gehorchen – egal, ob es sich dabei um Lösungen von Differenzialgleichungen oder Matrizen über einem Körper bilden um Punkte des R2 handelt.

einen Vektorraum Rechenregeln für Vektoren In einem K-Vektorraum V gelten für alle v; w; x 2 V und  2 K: (i) v C x D w , x D w  v, (ii)  v D 0 ,  D 0 oder v D 0, (iii) ./ v D . v/, (iv) .v C w/ D v  w.

Diese Regeln erscheinen einem ganz natürlich und selbstverständlich. Das sollte nicht darüber hinwegtäuschen, dass diese Aussagen zu beweisen sind.

In dem Kapitel zu den linearen Gleichungssystemen haben wir bereits mit Matrizen gearbeitet. Wir wollen uns nun überlegen, ob die Menge aller Matrizen mit m Zeilen und n Spalten, deren Einträge einem Körper K angehören, mit geeignet definierten Verknüpfungen C und  einen K-Vektorraum bilden. Es seien m und n natürliche Zahlen. Eine m  n-Matrix A über dem Körper K ist eine Abbildung  f1; : : : ; mg f1; : : : ; ng ! K : AW .i; j / 7! aij

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

92

Wir notieren eine solche Matrix A übersichtlich durch An- Kommentar Eigentlich müsste man auch hier neue Zeigabe aller Bilder a11 ; : : : ; amn in der Form chen für die Addition C und Multiplikation mit Skalaren  einführen. Um aber die Rechnung nicht mit Symbolen zu 0 1 a11 a12    a1n überladen und unübersichtlich zu gestalten, verwenden wir B a21 a22    a2n C nur ein C-Zeichen und das Multiplikationszeichen  für die B C A D B :: :: :: C : Multiplikation mit Skalaren lassen wir, wie bereits verein@ : :  : A bart, weg. am1 am2    amn

4

Wir werden eine Matrix A oft auch kurz mit .aij /m;n oder Kmn ist ein K-Vektorraum – wenn m; n festliegen – mit .aij / bezeichnen; hierbei ist Die Menge Km n aller m n-Matrizen über K bildet mit i der Zeilenindex und j der Spaltenindex. Die Körperelekomponentenweiser Addition und Multiplikation mit Skamente aij 2 K, i D 1; : : : ; m, j D 1; : : : ; n nennt man die laren einen K-Vektorraum. Komponenten oder die Einträge der Matrix A. Im Fall K D R bzw. K D C bezeichnet man A auch als reelle Matrix bzw. komplexe Matrix. Unter der Stelle .r; s/ einer Matrix A D .aij /m;n versteht man den Schnittpunkt der Beweis Wir zeigen, dass Km n mit der erklärten Addition r-ten Zeile mit der s-ten Spalte im obigen Schema – hierbei eine abelsche Gruppe ist. Gegeben sind A D .aij /, B D sind r und s natürliche Zahlen mit r  m und s  n. .bij /, C D .cij / 2 Km n . Die Verknüpfung C ist abgeschlossen: ACB D .aij /C ? Selbstfrage 4.2 .bij / D .aij C bij / 2 Km n . Wann sind zwei Matrizen gleich? Die Verknüpfung C ist assoziativ: .A C B/ C C D .aij Cbij /C.cij / D .aij Cbij Ccij / D .aij /C.bij Ccij / D Die Menge aller m n-Matrizen über K bezeichnen wir mit A C .B C C /. Km n , also Die Nullmatrix ist ein neutrales Element: A C 0 D 80 9 1 .a ij C 0/ D .aij / D A. a    a1n ˆ > < 11 = Jede Matrix hat ein Inverses: Es ist .aij / 2 Km n , und B : :: C j a 2 K 8 i; j : Km n D @ :: : A ij es gilt .aij / C .aij / D 0. ˆ > : ; Die Verknüpfung C ist kommutativ: A C B D .aij C am1    amn bij / D .bij C aij / D B C A. 0 1 Damit ist bereits gezeigt, dass .Km n ; C/ eine abel0  0 B: :: C sche Gruppe ist. Die erklärte Multiplikation mit Skalaren m n Die Matrix 0 D @ :: : A 2 K , deren Komponen- ist wegen  .a / D . a / 2 Km n eine Abbildung von ij ij 0  0 K Km n in Km n . Es sind also nur noch die vier Vektorten alle 0 sind, heißt Nullmatrix. raumaxiome nachzuweisen. Wir führen nun in Km n eine Addition C und eine MulNeben A D .aij / und B D .bij / aus Km n seien nun tiplikation  mit Skalaren komponentenweise ein durch: auch ,  2 K gegeben. (V1)  .A CB/ D  ..aij /C.bij // D . .aij Cbij // D 0 1 0 1 a11    a1n b11    b1n . aij C  bij / D . aij / C . bij / D  A C  B. B :: :: C B :: :: C (V2) . C / A D .. C / aij / D . aij C  aij / D @ : : AC@ : : A . a ij / C . aij / D  A C  B. am1    amn bm1    bmn (V3) . / A D .  aij / D  . aij / D  . A/. 1 0 a11 C b11    a1n C b1n (V4) 1 A D 1 .aij / D .1 aij / D .aij / D A. C B :: :: Also bildet Km n mit den angegebenen Verknüpfungen D@ A : : einen K-Vektorraum.  am1 C bm1    amn C bmn und 0

a11 B :: @ : am1

1 0  a11 a1n :: C B :: : AD@ :    amn  am1 

1  a1n :: C : A:     amn 

Mit der oben eingeführten Kurzschreibweise können wir das auch notieren als .aij / C .bij / D .aij C bij / und   .aij / D . aij / :

Jeder andere Nachweis dafür, dass eine Menge V mit Verknüpfungen C und  einen Vektorraum bildet, verläuft prinzipiell nach demselben Verfahren. Kommentar Die Voraussetzung, dass K ein Körper ist, be-

nötigten wir nur für den Begriff „K-Vektorraum“ – wir haben Vektorräume nämlich nur über Körpern erklärt. Aber Matrizen kann man analog über Ringen .R; C; / erklären. Auch die obige Addition C von Matrizen und die Multiplikation  mit Elementen aus R kann definiert werden –

93 4.2  Beispiele von Vektorräumen

diese Verknüpfungen C und  werden auf die entsprechen- Beispiel Mit den Bezeichnungen aus dem obigen Beispiel den Verknüpfungen C und  des Ringes R zurückgeführt. gilt etwa Gelten die Axiome eines Vektorraumes für eine Gruppe V , p5 C p6 D 1 C X 2 C X C X 2 wobei nur anstelle eines Körpers K ein Ring R zugrunde liegt, so spricht man von einem R-Modul V . Folglich ist D 1 C X C .1 C 1/ X 2 m n für jeden Ring R die Menge R aller m n-Matrizen ein D1CX R-Modul. D p3 Matrizen können also durchaus auch Vektoren sein. Nun ist und es nicht mehr verwunderlich, dass noch wesentlich abstraktere mathematische Objekte als Vektoren aufgefasst werden p i C p i D 0 für jedes i D 0; : : : ; 7 : 9 können. Wir führen nun in naheliegender Weise auf der Menge KŒX eine äußere Multiplikation von Polynomen mit ElePolynome über einem Körper bilden menten aus K ein. Pn i einen Vektorraum Wir multiplizieren ein Polynom p D i D0 ai X aus KŒX mit einem Element  aus K, indem wir alle Koeffizienten von p mit  multiplizieren, Polynome haben wir in 7 Abschn. 2.4 eingeführt. Ein Pon lynom p über dem Körper K in der Unbestimmten X ist X . ai / X i : p D eine Summe i D0

p D a0 C a1 X C    C an X n ;

Beispiel Für p D 2 X 3 CX 2 3 X, q D X 3 C 12 X 2 CX C1

dabei ist n 2 N0 , und die Koeffizienten a0 ; : : : ; an liegen aus RŒX gilt: in K. Ist p nicht das Nullpolynom 0, so ist der Index n des p  .2 q/ D 5 X  2 : 9 höchsten von null verschiedenen Koeffizienten an der Grad von p. Dem Nullpolynom ordnet man den Grad 1 zu, Der Beweis der folgenden Aussage verläuft analog zu dem dabei gilt 1 < n für alle n 2 N0 . Beweis für den Vektorraum der m n-Matrizen. Beispiel Die Menge aller Polynome über Z2 vom Grad kleiner oder gleich 2 bilden die acht Polynome

p0 D 0 ;

p1 D 1 ;

p2 D X ;

p3 D 1 C X ;

p4 D X ;

p5 D 1 C X 2 ;

2

p6 D X C X 2 ; p 7 D 1 C X C X 2 : 9 Die Menge aller Polynome über einem Körper K ist ( n ) X KŒX D a i X i j n 2 N0 ; a 0 ; : : : ; a n 2 K :

KŒX  ist ein K-Vektorraum Die Menge KŒX aller Polynome über K mit koeffizienterweiser Addition und obiger Multiplikation mit Skalaren bildet einen K-Vektorraum.

Die Abbildungen von einer Menge in einen Körper bilden einen Vektorraum

Bei einem Polynom p D a0 C a1 X C    C an X n 2 KŒX kann man in die Unbestimmte X zum Beispiel Elemente Diese Menge bildet mit der koeffizientenweisen Addition aus K einsetzen. Dadurch erhält man eine Abbildung, näm(wir nutzen eine vereinfachte, aber suggestive Schreibwei- lich die Polynomfunktion:  se) K!K : p Q W X X X x 7! p.x/ i i i bi X D .ai C bi / X ai X C i D0

eine abelsche Gruppe; P das neutrale Element ist hierbei das Nullpolynom 0 D 0 X i , dessen Koeffizienten allesamt 0 sind. Die Möglichkeit, Polynome auch miteinander zu multiplizieren, lassen wir nun außer acht und betrachten nur die Addition.

Die Abbildung pQ ist ein Element aus KK , d. h. eine Abbildung von K in K. Wir betrachten nun etwas allgemeiner eine beliebige Menge M . Dann können wir für jeden Körper K die Menge KM aller Abbildungen f W M ! K erklären, KM D ff j f W M ! K ist eine Abbildungg :

4

94

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

Diese Menge bildet mit sinnvoll gewählter Addition und Sind K und M endlich, so ist die Menge KM aller AbbilMultiplikation mit Skalaren einen K-Vektorraum. Wir defi- dungen von M in K ebenfalls endlich. Wir betrachten ein nieren für f ; g 2 KM und  2 K: Beispiel eines solchen endlichen Vektorraums mit acht Elementen:  M !K f Cg W und x 7! f .x/ C g.x/ Beispiel Wir betrachten eine dreielementige Menge M D  fx; y; zg und den Körper K D Z2 D f0; 1g mit zwei EleM !K f W menten. Es ist dann die Menge KM aller Abbildungen von x 7!  f .x/ M nach K eine Menge mit 23 D 8 Elementen. Wir geben die Elemente von KM explizit an: Die Summe f C g und das skalare Vielfache  f liegen wieder in KM . Die Summe ordnet jedem x 2 M die Sumf 1 W x 7! 0; y 7! 0; z 7! 0 me f .x/ C g.x/ der Bilder von x unter f und g zu. Und das Bild von x unter  f ist das -Fache des Bildes von x f 2 W x 7! 0; y 7! 0; z 7! 1 unter f . Wir halten fest: f 3 W x 7! 0; y 7! 1; z 7! 1 f 4 W x 7! 1; y 7! 1; z 7! 1

Der Vektorraum aller Abbildungen von einer Menge in einen Körper

f 5 W x 7! 1; y 7! 0; z 7! 0

Für jede Menge M und jeden Körper K ist die Menge KM aller Abbildungen von M in K mit den Verknüpfungen C und  ein K-Vektorraum.

f 6 W x 7! 1; y 7! 1; z 7! 0 f 7 W x 7! 1; y 7! 0; z 7! 1 f 8 W x 7! 0; y 7! 1; z 7! 0

Beweis Die Addition ist offenbar assoziativ und kommu-

Der eindeutig bestimmte Nullvektor ist f 1 und jedes Eletativ. Das neutrale Element ist die Abbildung 0, die jedem ment ist zu sich selbst invers, da für jedes i 2 f1; : : : ; 8g Element x 2 M das Nullelement 0 2 K zuordnet, und jeweils f i Cf i D f 1 gilt. Wir bestimmen weiter die Sumdas dem Vektor f entgegengesetzte Element ist die Abbilme f 2 C f 3 : dung f W x 7! f .x/. Somit ist .KM ; C/ eine abelsche Wegen Gruppe. Wegen  f 2 KM für jedes  2 K und f 2 KM ist die .f 2 C f 3 /.x/ D f 2 .x/ C f 3 .x/ D 0 C 0 D 0 ; Multiplikation eine Abbildung von K KM in KM . Da die Vektorraumaxiome (V1)–(V4) offenbar gelten, ist KM ein .f 2 C f 3 /.y/ D f 2 .y/ C f 3 .y/ D 0 C 1 D 1 ; K-Vektorraum.  .f 2 C f 3 /.z/ D f 2 .z/ C f 3 .z/ D 1 C 1 D 0 i Man achte wieder auf die grundsätzlich verschiedenen Bedeutungen der Additionen, die wir mit ein und demselben C-Zeichen versehen. Man unterscheide genau: f C g bezeichnet die Addition in KM und f .x/ C g.x/ jene in K.

? Selbstfrage 4.3

gilt also f 2 C f 3 D f 8 . 9 4.3

Untervektorräume

Der Anschauungsraum, den wir auch als die Menge R3 aller 3-Tupel interpretieren können, bildet mit komponenBeispiel Wir betrachten den Fall M D N0 . In der Analysis tenweiser Addition und Multiplikation mit Skalaren einen werden Folgen über C definiert, es sind dies die Abbil- reellen Vektorraum. Die Anschauungsebene kann mit dem dungen von N0 nach C. Also bildet die Menge C N0 der R2 identifiziert werden und ist ebenso ein reeller Vektor2 3 (komplexen) Folgen einen komplexen Vektorraum. Etwas raum. Der R bildet zwar keine Teilmenge des R , er kann aber als dessen x1 -x2 -Ebene aufgefasst werden, also als allgemeiner erhalten wir: Die Menge aller Folgen über einem Körper K 9 80 1 = < v1 U D @v2 A j v1 ; v2 2 R KN0 D f.an /n2N0 j an 2 Kg ; : 0 ist ein K-Vektorraum. Und der Sonderfall M D R und K D R führt uns zum (. Abb. 4.1). Wir werden sagen: U ist ein Untervektorraum reellen Vektorraum RR aller reellwertigen Funktionen. 9 des R3 . Was ist im Fall M D ; los?

4

95 4.3  Untervektorräume

x3

x2 vCw w

x1

x2

. Abb. 4.1 Der sich in alle Richtungen ausstreckende Vektorraum R2 aufgefasst als Untervektorraum des R3

Untervektorräume sind Teilmengen von Vektorräumen, die selbst wieder Vektorräume bilden

v x1

. Abb. 4.2 Die begrenzte schattierte Fläche ist kein Untervektorraum des R2 , da die Summe von v und w nicht in ihr enthalten ist. Das gilt für jede begrenzte Fläche im R2

Multiplikation mit Skalaren aus K abgeschlossen. Die Vektorraumaxiome (V1)–(V4) gelten für alle ;  2 K und u; v 2 V . Insbesondere gelten diese Axiome auch für alle Beliebige Teilmengen von Vektorräumen bilden im Allge- ;  2 K und v; u 2 U . Damit haben wir begründet: meinen keine Vektorräume (. Abb. 4.2). Ist aber eine Teilmenge eines Vektorraums V doch wieLemma Ein Untervektorraum U eines K-Vektorraumes V der ein Vektorraum mit der Addition und der skalaren ist wieder ein K-Vektorraum. Multiplikation von V , so spricht man von einem Untervektorraum. Jeder Vektorraum V hat zwei Untervektorräume, nämlich V selbst und die einelementige Menge f0g. Diese Untervektorräume nennt man die trivialen Untervektorräume eines Vektorraums. Im Fall V ¤ f0g sind die trivialen UntervekDefinition eines Untervektorraums torräume voneinander verschieden. Eine nichtleere Teilmenge U eines K-Vektorraums V heißt Untervektorraum von V , wenn gilt: (U1) u; w 2 U ) u C w 2 U , (U2)  2 K; u 2 U )  u 2 U .

Beispiel Wir überlegen uns, welche Untervektorräume der

R2 mit komponentenweiser Addition und Mutiplikation mit Skalaren besitzt. Neben den trivialen Untervektorräumen R2 und f0g ist für jeden Vektor v 2 R2 die (nichtleere) Menge U D Man merkt sich das in der Form: Die nichtleere Teilmenge R v D f v j  2 Rg ein Untervektorraum (. Abb. 4.3). U von V ist dann ein Untervektorraum, wenn die Summe Sind nämlich u; w 2 U , so gibt es u ; w 2 R mit und skalare Vielfache von Vektoren aus U wieder in U liegen; in diesem Zusammenhang ist auch die Sprechweise u D u v und w D w v : „die Menge U ist gegenüber Addition und Multiplikation mit Skalaren abgeschlossen“ üblich. Ist U ein Untervektorraum eines K-Vektorraums V , so x2 liegt nach (U2) für jedes u 2 U auch das Inverse u in U . Da U nicht leer ist, liegt wegen (U1) also der Nullvektor 0 D u  u in U . Eine Teilmenge U eines K-Vektorraums v V , die den Nullvektor 0 2 V nicht enthält, kann somit kein Untervektorraum von V sein. Jeder Untervektorraum U eines K-Vektorraums V entx1 hält also zumindest den Nullvektor. Nach dem Untergruppenkriterium aus 7 Abschn. 2.1 ist ein Untervektorraum U mit der Addition von V eine Untergruppe von V und als solche eine Gruppe. Wegen (U2) ist U bezüglich der . Abb. 4.3 Der Untervektorraum R v des R2

96

Kapitel 4  Vektorräume – von Basen und Dimensionen

Folglich ist u C w D .u C w / v 2 R v D U . Ebenso gilt für jedes  2 R:  u D  .u v/ D . u / v 2 R v D U . Tatsächlich besitzt der R2 neben den trivialen Untervektorräumen und den von v ¤ 0 erzeugten Geraden R v keine weiteren Untervektorräume. Dies wird mit dem Begriff der Dimension klar. Ferner gilt für v1 ; v2 2 R2 n f0g R v1 D R v2 , v1 D  v2 für ein  2 R : 9

4

? Selbstfrage 4.4 Geben Sie Untervektorräume des R3 an.

Die Lösungsmenge L eines homogenen Gleichungssystems ist nicht leer, da die triviale Lösung 0 2 Kn dazugehört. Weiter haben wir in 7 Abschn. 3.3 gezeigt, dass mit zwei Elementen u; w 2 L auch die Summe u C w eine Lösung und ebenso  u für alle  2 K eine Lösung ist. Damit ist bereits bewiesen: Lemma Die Lösungsmenge L eines homogenen linearen

Gleichungssystems über K in n Unbekannten ist ein Untervektorraum von Kn .

i Lösungsmengen L inhomogener Systeme über einem Untervektorräume von Vektorräumen sind wieder VekKörper K sind keine Untervektorräume, denn 0 … L. Dietorräume. Mit diesem Ergebnis gelingt für zahlreiche Mense Mengen bilden sogenannte affine Teilräume. gen ein sehr einfacher Nachweis dafür, dass sie einen Vektorraum bilden. Hat man nämlich eine Menge U , von Als weitere Klasse von Beispielen betrachten wir Untervekder man nachprüfen will, dass sie ein K-Vektorraum ist, so torräume von KŒX. suche man nach einem großen K-Vektorraum V , der die gegebene Menge U umfasst und verifiziere für die Teilmenge U von V die im Allgemeinen leicht nachprüfbaren drei BePolynome vom Grad kleiner gleich n bilden einen dingungen: Vektorraum 4 U ¤ ;, Für jede natürliche Zahl n sowie für n D 0 und n D 1 4 v; w 2 U ) v C w 2 U , bildet die Menge 4  2 K; u 2 U )  u 2 U .

Es ist dann U ein Untervektorraum von V und somit ein K-Vektorraum. Es müssen also nicht alle Axiome eines KVektorraums nachgeprüft werden. Man muss hierbei aber auf eines aufpassen: Die Vektoraddition und die Multiplikation mit Skalaren in U muss dabei die Einschränkung der Addition und Multiplikation in V sein. Wir nutzen diesen kleinen Trick gleich an zwei Beispielen aus.

Lösungsmengen homogener linearer Gleichungssysteme und Polynome bis zu einem festen Grad bilden Vektorräume

KŒXn D

8 < :

pD

X i2N0

ai X i 2 KŒX j deg.p/  n

9 = ;

aller Polynome mit einem Grad kleiner gleich n einen Vektorraum.

Beweis Das Nullpolynom liegt wegen deg.0/ D 1  n

in KŒXn , sodass KŒXn für keinesPder zu betrachtenden r i n i D0 ai X und q D Psleer ist. i Für Polynome p D D0 bi X aus KŒXn , d. h. r; s  n, ist auch p C q D Pimaxfr;sg .ai P C bi / X i 2 KŒXn . Und für jedes  2 K ist i D0 auch  p D riD0  ai X i in KŒXn . 

Diese vorgestellte Vielfalt von Vektorräumen zeigt, wie Wir greifen einige Begriffe aus dem 7 Abschn. 3.2 zu den linearen Gleichungssystemen wieder auf. Ein lineares allgemein dieser Begriff eines Vektorraums ist. Um so unGleichungssystem über K in n Unbekannten und m Glei- gewöhnlicher ist es, dass man alle Vektorräume, die es gibt, allein durch Angabe des Grundkörpers K und einer zweichungen lässt sich schreiben als ten Größe, nämlich der Dimension, bis auf die Bezeichnung a11 x1 C a12 x2 C    C a1n xn D b1 der Elemente charakterisieren kann. Wir werden dieses Era21 x1 C a22 x2 C    C a2n xn D b2 gebnis in dieser Allgemeinheit nicht herleiten können, aber :: wenigstens den endlichdimensionalen Fall können wir im : 7 Kap. 6 behandeln. Zunächst führen wir den Begriff der am1 x1 C am2 x2 C    C amn xn D bm Dimension ein. mit aij ; bi 2 K für 1  i  m, 1  j  n. Das System heißt homogen, wenn bi D 0 für alle i gilt und sonst in0 1 v1 B :: C homogen. Jede Lösung v D @ : A ist ein Element des Kvn Vektorraumes Kn , also ein Vektor.

Kommentar Ein K-Vektorraum hat eine Vektoraddition C

und eine Multiplikation  mit Skalaren. Bei vielen Vektorräumen kann man zusätzlich eine Multiplikation von Vektoren erklären, wobei das Ergebnis wieder ein Vektor ist. Beispiele sind etwa das bekannte Vektorprodukt im Vektorraum R3 oder die Multiplikation von Polynomen

97 4.4  Basis und Dimension

Beispiel: Magische Quadrate I

Eine quadratische Anordnung von Zahlen mit der Eigenschaft, dass alle Zeilen-, Spalten- und Diagonalsummen denselben Wert c annehmen, nennt man ein magisches Quadrat, die Zahl c nennt man die magische Zahl. Das älteste bekannte magische Quadrat ist ein 3 3-Quadrat und stammt aus China. Angeblich wurde es um 2200 v. Chr. vom chinesischen Kaiser Yü am Gelben Fluss auf dem Panzer einer Schildkröte entdeckt. Wir drücken es mit arabischen Zahlen aus: 4 3 8

9 5 1

2 7 6

Wir begründen hier, dass die magischen 3 3-Quadrate, aufgefasst als Matrizen, einen Vektorraum bilden. Mit Methoden des nächsten Abschnittes werden wir dann zeigen, wie man zu einer vorgegebenen Zahl c alle möglichen magischen Quadrate mit c als magischer Zahl konstruieren kann. Problemanalyse und Strategie Es ist zu zeigen, dass die Menge aller magischen Quadrate nicht leer ist. Sodann sind (U1) und (U2) nachzuprüfen. Lösung Für c 2 R bezeichne Mc die Menge aller reellen 3 3-Matrizen 0 a11 Ba A D @ 21 a31

a12 a22 a32

1 a13 a23 C A a33

mit der Eigenschaft, dass alle Zeilensummen, Spaltensummen und Diagonalsummen von A gleich c sind. S Dann ist M D c2R Mc die Menge aller magischen 3 3-Quadrate. Nun zeigen wir, dass M ein Untervektorraum des reellen Vektorraumes R3 3 ist. S Es ist M D c2R Mc nichtleer, weil 0 2 M0  M . Sind A; B 2 M , so gibt es c; c 0 2 R mit A 2 Mc und B 2 Mc 0 . Dann ist A C B 2 McCc 0  M . Und mit A 2 Mc und  2 R ist  A 2 M c M . Somit ist M ein Untervektorraum von R3 3 und damit ein reeller Vektorraum. Wir erwähnen, dass Mc für c 2 R im Allgemeinen kein Untervektorraum von M ist: Zwar liegt für jedes c 2 R 0c AD

3 Bc @3 c 3

c 3 c 3 c 3

1

c 3 cC 3A c 3

in Mc ; somit ist Mc also für kein c 2 R die leere Menge. Doch folgt aus A; B 2 Mc bei c ¤ 0 stets A C B … Mc . Lediglich M0 ist ein Untervektorraum, da 0 2 M0 , und mit A; B 2 M0 und  2 R auch A C B;  A 2 M0 gilt. Kommentar 4 Analog kann man die hier gemachten Behauptungen auch für magische n n-Quadrate mit n  2 begründen. 4 Oftmals fordert man bei magischen n n-Quadraten, dass alle Ziffern von 1 bis n2 als Einträge im Quadrat vorkommen.

?Selbstfrage 4.5 Können Sie magische 2 2-Quadrate angeben?

in KŒX. Falls nun in einem K-Vektorraum V eine sol- Untervektorraum von V . Solche minimalen Erzeugendenche Multiplikation ˇ von Vektoren gegeben ist, mit der systeme von V werden wir Basen nennen. Die Dimension Eigenschaft, dass für alle  2 K und v; w 2 V die Ver- eines Vektorraums ist die Anzahl der Elemente einer Basis. träglichkeitsgesetze  .v ˇ w/ D . v/ ˇ w D v ˇ . w/

Vektoren erzeugen durch Bildung von Linearkombinationen Untervektorräume

gelten, so nennt man V eine K-Algebra. Der R3 mit dem Vektorprodukt und KŒX mit der Multiplikation von Polynomen sind somit K-Algebren. Wir betrachten eine nichtleere Teilmenge X von Vektoren eines K-Vektorraums V – man beachte, dass X durchaus auch unendlich sein kann. Für beliebige, endlich viele Vek4.4 Basis und Dimension toren v1 ; : : : ; vn 2 X und 1 ; : : : ; n 2 K heißt n Wir machen uns nun mit folgendem Sachverhalt vertraut: X i vi D 1 v1 C    C n vn Jede Teilmenge eines Vektorraums V erzeugt einen Uni D1 tervektorraum von V , und umgekehrt ist jeder Untervektorraum von V das Erzeugnis einer Teilmenge von V . Wir suchen letztlich minimale Teilmengen von V , die den eine Linearkombination von X oder von v1 ; : : : ; vn . Wir ganzen Vektorraum V erzeugen – dieser ist ja auch ein nehmen stets vi ¤ vj für i ¤ j an.

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

98

Für die Menge aller möglichen Linearkombinationen von X schreiben wir hXi, d. h. hXi D

4

x2 h

X n

1 0

;

iDR

1 0

CR

0 1

1

i vi j n 2 N; i 2 K;  i D1 vi 2 X; i D 1; : : : ; n ;

1

und sagen, hXi ist das Erzeugnis oder die Hülle von X oder hXi werde durch X erzeugt. Ist X D fv1 ; : : : ; vn g eine endliche Menge, so schreiben wir einfacher hv1 ; : : : ; vr i anstelle hfv1 ; : : : ; vn gi

0 1

x1

. Abb. 4.5 Die Ebene R2 wird von den zwei Vektoren e 1 und e 2 erzeugt

und erhalten für ein solches endliches X D fv1 ; : : : ; vn g: hXi D f1 v1 C    C n vn j 1 ; : : : ; n 2 Kg D K v1 C    C K v n : i Oftmals wird der Fehler gemacht, die Menge K in dieser letzten Darstellung auszuklammern. Aber beispielsweise gilt R

! 1 CR 0

! 0 ¤R 1

! !! 1 0 C DR 0 1

! 1 : 1

Wir haben das Erzeugnis nur für nichtleere Mengen erklärt. Der Vollständigkeit halber vereinbaren wir, dass die leere Menge den trivialen Vektorraum erzeugt, h;i D f0g. Damit können wir zeigen, dass für jede Teilmenge X eines Vektorraumes V das Erzeugnis von X, also hXi, ein Untervektorraum von V ist.

hX i ist der kleinste Untervektorraum, der X umfasst

Kommentar Für hXi ist auch die Bezeichnung spanX üb-

lich. Anstelle von der von X erzeugten Menge spricht man auch von der von X aufgespannten Menge.

Für jede Menge X eines K-Vektorraums V gilt: (a) hXi ist ein Untervektorraum von V , (b) X  hXi, (c) hXi ist der Durchschnitt all derjenigen Untervektorräume von V , welche X umfassen.

Beispiel

    1 1 4 Es ist D R die x1 -Achse im R2 0 0 (. Abb. 4.4).         1 0 1 0 4 Die Menge ; DR CR hingegen 0 1 0 1 ist die ganze Ebene R2 (. Abb. 4.5). 4 Für das Erzeugnis der Polynome p1 D X 2 C 1; p 2 D X C 1 2 Z2 ŒX erhalten wir

Beweis (a) Die Menge hXi ist nichtleer, da der Nullvektor

stets in hXi liegt. Wir weisen die Eigenschaften (U1) und (U2) (siehe Definition Untervektorraum) für hXi nach. Zu (U1): Nehmen wir zwei Elemente aus hXi, also Pr zwei Linearkombinationen v D  v i i und w D i D1 Ps  w von X, so ist die Summe i i i D1 vCw D

hp1 ; p 2 i D Z2 .X C 1/ C Z2 .X C 1/ 2

beachte X 2 C 1 C X C 1 D X 2 C X in Z2 ŒX. 9 x2

1 0

iDR

1 0

e1

x1

s X

i wi

i D1

dieser beiden Linearkombinationen wieder eine Linearkombination von X. Zu (U2): Ist v D 1 v1 C    C n vn 2 hXi und  2 K, so gilt  v D . 1 / v1 C    C . n / vn 2 hXi. (b) Für jedes v 2 X gilt v D 1 v 2 hXi, d. h. X  hXi. (c) Ist U irgendein Untervektorraum von V , der X enthält, so ist, weil U die Eigenschaften (U1) und (U2) erfüllt, auch jede Linearkombination von X in U , somit haben wir hXi  U . Da dies für jeden Untervektorraum U mit X  U gilt, erhalten wir hieraus hXi 

. Abb. 4.4 Die x1 -Achse wird von dem Vektor e 1 erzeugt

i vi C

i D1

D f0; X 2 C 1; X C 1; X 2 C Xg ;

h

r X

\ X U U Untervektorraum von V

U:

99 4.4  Basis und Dimension

Mit (a) und (b) folgt die Inklusion , da hXi einer der Untervektorräume ist, über die der Durchschnitt gebildet wird. Damit ist die Gleichheit gezeigt: \ hXi D U: X U U Untervektorraum von V

Das begründet die Aussage in (c).



Ist X  V eine Menge von Vektoren von V mit der Eigenschaft U D hXi für einen Untervektorraum U von V , d. h., ist jedes Element von U eine Linearkombination von X  U , so sagt man X erzeugt U oder X ist ein Erzeugendensystem von U . Besitzt U ein endliches Erzeugendensystem, so heißt U endlich erzeugt. So ist zum Beispiel der R-Vektorraum R2 endlich erzeugt, es gilt nämlich     1 0 2 R D ; : 0 1

Beispiel Wir betrachten für einen beliebigen Körper K den Vektorraum KŒX der Polynome über K. Dieser Vektorraum hat das unendliche Erzeugendensystem fX k j k 2 N0 g, dabei setzen wir X 0 D 1. Wir begründen nun, dass dieser Vektorraum nicht endlich erzeugbar ist. Zuerst zeigen wir, dass die Menge M D fX k j k 2 N0 g tatsächlich KŒX erzeugt. Ist p ein Polynom über K, so gibt es eine Zahl n 2 N0 und an ; : : : ; a1 ; a0 2 K mit

p D an X n C    C a1 X C a0 :

Daraus folgt, dass p eine Linearkombination von fX 0 ; X 1 ; : : : ; X n g  M ist. Damit ist die erste Behauptung gezeigt. Die zweite Behauptung begründen wir durch einen Widerspruchsbeweis. Angenommen, es besitzt KŒX ein endliches Erzeugendensystem E  KŒX. Wir wählen in E ein Polynom maximalen Grades m 2 N0 . Das funktioniert, da die Menge E zum einen nicht leer ist, zum anderen nur endlich viele Elemente enthält. Es lässt sich jedoch nun mC1 nicht als Linearkombination von Wir verallgemeinern dies und kehren zu unseren ersten Bei- das Polynom p D X E darstellen, da ja jedes Polynom aus E einen Grad kleiner spielen von Vektorräumen zurück. oder gleich m hat. Und das ist ein Widerspruch. Somit kann Beispiel Im K-Vektorraum Kn betrachten wir für i D es kein endliches Erzeugendensystem für KŒX geben, d. h., KŒX ist nicht endlich erzeugt. 9 1; : : : ; n die Vektoren 0 1 :: B:C B0C B C B C e i D B1C B C B0C @:A ::

?Selbstfrage 4.6 Besitzt jeder Vektorraum ein Erzeugendensystem?

i-te Zeile ;

Gerade bei den Aufgaben trifft man oft auf die Frage, ob ein gegebener Vektor v im Erzeugnis einer Teilmenge X eines K-Vektorraums V liegt, d. h., ob v 2 hXi gilt. Diese Fragestellung führt meistens auf das Lösen eines linearen die in der i-ten Zeile eine 1 und sonst nur Nullen als Gleichungssystems hinaus. Wir behandeln diese ProblemaKomponenten haben. Man nennt e 1 ; : : : ; e n die Standard- tik für den Fall von Spaltenvektoren in einem ausführlichen Einheitsvektoren oder auch die Koordinaten-Einheits- Beispiel im aktuellen Abschnitt. vektoren des Kn . Für beliebige 1 ; : : : ; n ist Lineare Unabhängigkeit bedeutet: 0 1 1 Mit weniger klappt es nicht! B:C 1 e 1 C    C n e n D @ :: A :     n 2 1 Im R2 seien die drei Vektoren u D ,v D und 0 1 0 2 1   1 B:C Folglich ist jeder Vektor @ :: A 2 Kn eine Linearkombina- w D 2 gegeben. n Wir betrachten nun tion der Standard-Einheitsvektoren, d. h. U D hu; v; wi D R u C R v C R w : Kn D he 1 ; : : : ; e n i : Insbesondere ist der Kn endlich erzeugt. 9 Es folgt ein Beispiel eines nicht endlich erzeugbaren Vektorraumes.

Durch Lösen eines linearen Gleichungssystems (oder durch Probieren) erhalten wir u D v  w; v D u C w; w D u C v :

4

100

Kapitel 4  Vektorräume – von Basen und Dimensionen

Beispiel: Darstellung von Vektoren als Linearkombination

Im Fall (1) erhalten wir rg.A j v/ D 3 D rg A, also die Lösbarkeit des Systms. Im Fall (2) hingegen gilt rg.A j v/ D 4 > rg A, in diesem Fall ist das System unlösbar. Für die Vektoren bedeutet dies

Im R-Vektorraum R4 ist die Teilmenge 80 1 0 1 0 1 0 19 1 2 0 1 > ˆ ˆ > ˆ

= B C B C B C B C X WD B C ; B C ; B C ; B C  R4 ˆ @1A @0A @ 2 A @1A> ˆ > ˆ > : 2 3 7 1 ;

4

0

1 6 B4C B C B C 2 hXi @2A 2

gegeben. Man entscheide für 0 1 0 1 1 6 B3C B4C B C B C .1/ v D B C 2 R4 und .2/ v D B C 2 R4 ; @1A @2A 2 2

und

1 1 B3C B C B C … hXi : @1A 2

1 6 B4C B C Um B C als Linearkombination von X darzustellen, ist das @2A 2 durch die erweiterte Koeffizientenmatrix 0

ob v 2 hXi. Falls dies so ist, gebe man eine Darstellung von v als Linearkombination von X an. Problemanalyse und Strategie Die Bedingung v 2 hXi besagt: Es gibt 1 ; : : : ; 4 2 R mit 1 v1 C    C 4 v4 D v ;

0

( )

wobei wir kurzerhand die vier Vektoren aus X (der Reihe nach) mit v1 ; : : : ; v4 bezeichnen. Wir fassen 1 ; : : : ; 4 als Unbekannte auf und überprüfen das (dann reelle) lineare Gleichungssystem . / für die beiden Fälle (1) und (2) auf Lösbarkeit. Die Lösbarkeit von . / bedeutet, dass v als Linearkombination von X darstellbar ist. Den Vektor v als Linearkombination von X darzustellen, bedeutet dabei, eine Lösung .1 ; : : : ; 4 / anzugeben. Lösung Zu prüfen ist die Lösbarkeit des Gleichungssystems, gegeben durch die erweiterte Koeffizientenmatrix .A j v/, wobei die Spalten der Matrix A die Vektoren v1 ; : : : ; v4 bilden. Wir notieren diese beiden erweiterten Koeffizientenmatrizen (für die beiden Fälle (1) und (2)) 0 1 1 2 0 1 6 1 B 1 1 1 3C 2 4 B C B CI 2 1A 2 1 @1 0 2 3 7 1 2 2 wir haben hier beide Systeme in einer Matrix zusammengefasst und lösen nun diese beiden Systeme zugleich. Das Eliminationsverfahren von Gauß liefert nach einigen Schritten 1 0 1 2 0 1 6 1 B0 1 1 3 10 2C C B C: B 1 3 1A @0 0 0 0 1 0 0 0 0

0 1 B0 B B @0 0

2 1 0 0

0 1 0 0

1 6 10C C C 3A 0

1 3 1 0

gegebene lineare Gleichungssystem über R zu lösen. Das Eliminationsverfahren von Gauß und Jordan liefert 0 1 B0 B B @0 0

0 1 0 0

2 1 0 0

1 1 1C C C: 3A 0

0 0 1 0

Eine Lösung dieses linearen .1; 1; 0; 3/, und in der Tat ist 0

1 6 B4C B C vDB CD1 @2A 2

0

1 1 B1C B C B CC1 @1A 2

Gleichungssystems

0 1 2 B1C B C B C3 @0A 3

ist

0 1 1 B2C B C B C @1A 1

eine Darstellung von v als Linearkombination von X. Kommentar Diese Darstellung ist nicht eindeutig. Für jede andere Lösung des Systems erhält man eine andere Darstellung. Die Menge aller Lösungen des Systems ist 9 80 1 1 C 2t > ˆ > ˆ > ˆ =

ˆ > ˆ@ t A > ˆ ; : 3

4

101 4.4  Basis und Dimension

x2 w

x2

v

2

v1

1 u 1

1

2

x1

x1 v2

1 . Abb. 4.6 Die drei Vektoren u; v; w im R3

v3

Wir können also jeden der drei Vektoren mithilfe der jeweils anderen beiden linear kombinieren, d. h. darstellen, sodass also

. Abb. 4.7 Die Vektoren v1 ; v2 ; v3 sind linear abhängig, die Vektoren v1 ; v2 linear unabhängig

4 Wir betrachten die drei Vektoren       1 3 1 gilt. Ein Versuch, etwa das Erzeugendensystem fu; vg von ; v2 D ; v3 D 2 R2 : v1 D 2 1 3 U noch weiter zu verkürzen, scheitert. Durch Weglassen eines der Elemente u oder v kann der Vektorraum U nicht Die Menge fv1 ; v2 ; v3 g ist linear abhängig. Aus v3 D mehr erzeugt werden, da u kein Vielfaches von v ist. Eben2 v1  v2 folgt nämlich hv1 ; v2 i D hv1 ; v2 ; v3 i, und es so lassen sich die Erzeugendensysteme fu; wg und fv; wg gilt fv1 ; v2 g ¨ fv1 ; v2 ; v3 g. von U nicht weiter verkürzen. Wir werden sagen u; v; w Dafür ist die Menge fv1 ; v2 g linear unabhängig, weil jesind linear abhängig und u; v sind linear unabhängig. de echte Teilmenge dieser Menge, also ; oder fv1 g oder fv2 g, jeweils auch einen echt kleineren Vektorraum erzeugt (. Abb. 4.7). 9 Definition der linearen Unabhängigkeit U D hu; v; wi D hu; vi D hu; wi D hv; wi

Verschiedene Vektoren v1 ; : : : ; vr 2 V heißen linear unabhängig, wenn für jede echte Teilmenge T von fv1 ; : : : ; vr g gilt hT i ¨ hv1 ; : : : ; vr i. Eine Menge X  V heißt linear unabhängig, wenn je endlich viele verschiedene Elemente aus X linear unabhängig sind. Eine nicht linear unabhängige Menge heißt linear abhängig.

? Selbstfrage 4.7 Sind Teilmengen linear unabhängiger Mengen linear unabhängig?

Da die Definition der linearen Unabhängigkeit etwas unhandlich ist, wenn man für eine gegebene Menge von Vektoren deren lineare Unabhängigkeit nachweisen will, wäre es sehr nützlich, wenn wir ein leicht nachprüfbares Kriterium für die lineare Unabhängigkeit zur Hand hätten. Und ein solches gibt es auch, wir leiten es nun her.

Die Vektoren v1 ; : : : ; vr sind genau dann linear unabhängig, wenn sich der Nullvektor nur trivial linear kombinieren lässt

Verschiedene Vektoren v1 ; : : : ; vr sind genau dann linear Linear unabhängige Mengen sind also unverkürzbare Men- abhängig, wenn sich einer der Vektoren, also etwa vj für ein j 2 f1; : : : ; rg als Linearkombination der anderen Vektoren gen; weniger Vektoren erzeugen auch weniger Raum. Hingegen enthält eine linear abhängige Menge einen fv1 ; : : : ; vr g n fvj g darstellen lässt, d. h., Vektor, der in der Hülle der anderen Vektoren liegt und r X daher weggelassen werden kann, ohne die Hülle zu verkleii vi D vj für i 2 K : nern. i D1 i ¤j

Beispiel

4 Für jedes v 2 V ist ; die einzige echte Teilmenge von fvg. Im Fall v D 0 gilt: Der Nullvektor 0 ist linear abhängig, da ; ¨ f0g und h;i D f0g D h0i gilt. Für v ¤ 0 jedoch gilt: h;i ¨ hvi, sodass v linear unabhängig ist.

Wir bringen vj auf die linke Seite des Gleichheitszeichens und erhalten eine Linearkombination von v1 ; : : : ; vr , die den Nullvektor ergibt, ohne dass alle Koeffizienten, also die Skalare, gleich null sind, denn der Koeffizient von vj

Kapitel 4  Vektorräume – von Basen und Dimensionen

102

ist 1. Anders formuliert erhalten wir das folgende Kriterium, das häufig auf das Lösen eines homogenen linearen Gleichungssystems hinausläuft.

Kriterium für lineare Unabhängigkeit

4

Die Vektoren v1 ; : : : ; vr 2 V sind genau dann linear unabhängig, wenn gilt: Aus

r X

i vi D 0 folgt 1 D 2 D    D r D 0 :

iD1

folgt 1 D    D n D 0 ; da zwei Polynome genau dann gleich sind, wenn ihre Koeffizienten zu den entsprechenden Potenzen gleich sind, und das Nullpolynom hat zu allen Potenzen die Koeffizienten 0. 4 Im R-Vektorraum RR aller reellen Funktionen sind die Funktionen f und g mit f .x/ D 2x 2x1 und g.x/ D C1 2 x  1 linear unabhängig. Sind nämlich 1 ; 2 2 R, so folgt aus 1 f C 2 g D 0 ;

Mit diesem Kriterium erhalten wir nun leicht, dass f0g linear abhängig ist, weil 1 ¤ 0 und 1  0 D 0 gilt. Oder für v 2 V nf0g ist fvg linear unabhängig, da aus  v D 0 sofort  D 0 folgt.

wobei der Nullvektor hier die Nullabbildung ist, 1

Beispiel

4 Zwei vom Nullvektor verschiedene Vektoren v und w eines K-Vektorraumes sind genau dann linear abhängig, wenn es ein  2 K mit v D  w gibt. 4 Die Standard-Einheitsvektoren e 1 ; : : : ; e n 2 Kn sind linear unabhängig. Aus 0 1 0 B :: C 1 e 1 C    C n e n D 0 D @ : A 0

2x  1 C 2 .x 2  1/ D 0.x/ D 0 für alle x 2 R : x2 C 1 ( )

Diese Gleichung gilt also insbesondere für x D 1, d. h. 1

1 C 2 0 D 0 : 2

Es folgt 1 D 0. Mit 1 D 0 wird aus der Gleichung ( ) die Gleichung 2 .x 2  1/ D 0 für alle x 2 R :

( )

Diese Gleichung gilt insbesondere für z. B. x D 0, d. h. folgt 1 0 1 0 1 B :: C B :: C @ : A D @ : A ; d. h. i D 0 für i D 1; : : : ; n : 0 n 0

0 1 0 1 0 1 0 0 0 @ @ @ A A 1 1 4 Es sind v1 D ; v2 D ; v 3 D 0A 2 R3 0 1 1 linear abhängig, denn .1/ v1 C 1 v2 C .1/ v3 D 0 :

2 .1/ D 0 : Nun folgt 2 D 0. Gezeigt ist: Für 1 ; 2 2 R gilt Aus 1 f C 2 g D 0 folgt 1 D 0 D 2 : Somit sind f und g linear unabhängig. Auf 2 D 0 hätten wir auch schneller schließen können. Die Gleichung . / lautet 2 g D 0. Und da g nicht der Nullvektor in RR ist, folgt 2 D 0. 4 Die Matrizen . 20 11 /; . 11 12 /; . 21 40 / 2 Z2 2 sind wegen 5 ! 2 1 C2 0 1

! 1 1 C3 1 2

! ! 2 4 0 0 D D0 1 0 0 0

1 4 Es folgt ein Beispiel einer unendlichen linear unabhängigen Menge. Im Vektorraum der Polynome über einem Körper K ist die Menge B D fX k j k 2 N0 g linear unlinear abhängig. 9 abhängig. Nachzuweisen ist, dass je endlich viele verschiedene Vektoren aus B linear unabhängig sind. Wir wählen Ein linear unabhängiges also endlich viele verschiedene Elemente X i1 ; : : : ; X in Erzeugendensystem nennt man Basis aus B. Wir machen den Ansatz entsprechend dem Kriterium – man beachte, dass der Nullvektor rechts vom Wir reduzieren Vektorräume auf Basen, weil wir VektorräuGleichheitszeichen das Nullpolynom ist: Aus me möglichst ökonomisch schreiben wollen – kennt man 1 X i1 C    C n X in D 0 die Basis, dann kennt man den Vektorraum.

103 4.4  Basis und Dimension

4 Im Vektorraum KŒX der Polynome über einem Körper K bildet die Menge fX k j k 2 N0 g eine Basis, die Standardbasis oder 80kanonische 1 0 1 0Basis 19von KŒX. 0 0 = < 0 Erzeugendenlin. unabh. Basen 4 Die Menge @1A ; @1A ; @0A ist keine Basis des systeme Teilmengen : ; von V von V von V 0 1 1 R3 , da sie linear abhängig 80 1 0ist.19 0 = < 0 @ A @ 1 ; 1A ist eine Basis von hBi, 4 Die Menge B D : ; 0 1 . Abb. 4.8 Basen sind linear unabhängige Erzeugendensysteme aber nicht des R3 . 4 Für einen Körper K und Zahlen r 2 f1; : : : ; mg und s 2 f1; : : : ; ng definieren wir die m n sogenannten   v1 2 Standard-Einheitsmatrizen aus Km n , Jeder Vektor des R lässt sich als Linearkomv2     2 1 Ers D .aij / mit ars D 1 und aij D 0 sonst : bination der beiden Vektoren v D und w D 0 2 darstellen, da das lineare Gleichungssystem Dann ist die Menge   2 1 v1 B D fErs j r 2 f1; : : : ; mg; s 2 f1; : : : ; ngg 0 2 v2 Teilmengen von V

für alle v1 ; v2 2 R (eindeutig) lösbar ist. Zudem sind v und w linear unabhängig, da das lineare Gleichungssystem   2 1 0 0 2 0 nur die triviale Lösung .0; 0/ hat. Es ist also fv; wg ein linear unabhängiges Erzeugendensystem des R2 .

eine Basis des Km n , da für eine beliebige Matrix A D .aij /i;j 2 Km n gilt A D .aij /i;j D

Eine Teilmenge B eines K-Vektorraums V heißt Basis von V , wenn gilt: 4 hBi D V , 4 B ist linear unabhängig.

Basen sind somit linear unabhängige Erzeugendensysteme (. Abb. 4.8). ? Selbstfrage 4.8 Kann es sein, dass ein Vektorraum genau eine Basis besitzt? Beispiel

4 Für jeden Körper K bildet die Menge En D fe 1 ; : : : ; e n g

ij Eij ;

i D1 j D1

sodass B ein Erzeugendensystem von Km n ist. Zudem folgt aus 0

11 B :: ij Eij D @ : i D1 j D1 m1

m X n X

Definition einer Basis

m X n X

1 1n ::: C AD0    mn 

sofort ij D 0 für alle i und j , und damit, dass B linear unabhängig ist. Also ist B tatsächlich eine Basis von Km n . Auch diese nennt man Standardbasis oder kanonische Basis des Km n . 9 ?Selbstfrage 4.9 1. Ist stets X eine Basis von hXi? 2. Ist jede linear unabhängige Menge auch Basis eines Vektorraums?

Die Darstellung eines Vektors v als Linearkombination einer Menge X ist im Allgemeinen nicht eindeutig, so gilt z. B.           1 2 3 1 2 1 C1 D D C2 : 1 2 3 1 2

der Standard-Einheitsvektoren eine Basis des Kn , die sogenannte Standardbasis oder kanonische Basis Ist aber X eine Basis, so ist jede Linearkombination eindeutig, das besagt der Satz: des Kn .

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

104

Eindeutige Darstellbarkeit von Vektoren durch Basen Ist B eine Basis eines K-Vektorraums V , so lässt sich jedes v 2 V bis auf die Reihenfolge der Summanden auf genau eine Art und Weise in der Form

4

v D 1 b1 C    C n bn mit 1 ; : : : ; n 2 K und b1 ; : : : ; bn 2 B darstellen.

Basen sind maximale linear unabhängige Mengen und minimale Erzeugendensysteme Will man zeigen, dass eine Teilmenge B eines K-Vektorraums V eine Basis ist, so ist zu begründen, dass B ein linear unabhänges Erzeugendensystem ist. Unter gewissen Voraussetzungen reicht es aus, eine dieser beiden Eigenschaften nachzuweisen. Kann man nämlich begründen, dass eine Teilmenge B 4 linear unabhängig ist, aber jede andere, B echt umfassende Teilmenge von V linear abhängig ist

Beweis Weil eine Basis B von V insbesondere ein Erzeugendensystem von V ist, existieren zu jedem v 2 oder V Vektoren b1 ; : : : ; br 2 B und von null verschiedene 4 ein Erzeugendensystem von V ist, aber jede echte Teilmenge von B den Vektorraum V nicht mehr erzeugt, 1 ; : : : ; r 2 K n f0g mit

v D 1 b1 C    C r br :

(4.1)

Es sei vD

so ist B bereits eine Basis, das besagt der folgende Satz. Bevor wir den Satz formulieren, wiederholen wir eine Sprechweise aus 7 Kap. 1: Die Potenzmenge P .V / D fX j X  V g ;

01

b01

CC

0s

b0s

(4.2) das ist die Menge aller Teilmengen von V , ist mit der Inklusion  eine geordnete Menge. Das gilt analog für jede eine weitere Linearkombination mit b01 ; : : : ; b0s 2 B und Teilmenge M  P .V /, d. h. für jede Menge M von Teilmengen von V . Ein Element B von M ist bezüglich der 01 ; : : : ; 0s 2 K n f0g. Angenommen, es gibt ein j 2 f1; : : : ; sg mit bj0 ¤ bi Ordnung  ein für alle i 2 f1; : : : ; rg. Dann gilt für die Differenz der Glei- 4 maximales Element, falls es in M kein Element C gibt mit C © B, und chungen (4.1) und (4.2) 4 minimales Element, falls es in M kein Element C gibt r s mit C ¨ B. X X i bi  0i b0i 0D Man vergleiche hierzu den 7 Abschn. 1.4. Mithilfe dieser i D1 i D1 r s Begriffe können wir nun die oben angedeuteten KennzeichX X nungen von Basen knapp formulieren. D i bi  0i b0i  j0 bj0 : i D1

i D1 i ¤j

Das ist ein Widerspruch zur linearen Unabhängigkeit von B. Somit gilt also r D s und nach evtl. Umnummerieren bi D b0i für alle i 2 f1; : : : ; rg. Setzt man dies in (4.2) ein und betrachtet erneut die Differenz von (4.1) und (4.2), so erhält man 0D

r X i D1

i bi 

r X i D1

0i bi D

r X

.i  0i / bi :

i D1

Kennzeichnungen von Basen Für eine Teilmenge B eines K-Vektorraums V sind äquivalent: (i) B ist eine Basis von V . (ii) B ist ein maximale linear unabhängige Teilmenge von V , d. h. B ist linear unabhängig und für jedes v 2 V n B ist B [ fvg linear abhängig. (iii) B ist ein minimales Erzeugendensystem von V , d. h. B erzeugt V und für jedes v 2 B gilt B n fvg erzeugt V nicht.

Nun folgt aus der linearen Abhängigkeit der Vektoren b1 ; : : : ; br sogleich i  0i D 0, d. h. i D 0i für alle i D 1; : : : ; r. Das zeigt die Eindeutigkeit der Darstellung Beweis (i) ) (ii): Es sei B eine Basis von V . Dann ist B linear unabhängig. Wir wählen ein v 2 V n B. Da V D hBi bezüglich der Basis B.  gilt, ist v eine Linearkombination von B. Somit existieren v1 ; : : : ; vn 2 B und 1 ; : : : ; n 2 K mit ? Selbstfrage 4.10 Gilt auch die Umkehrung dieses Satzes? D. h., folgt aus der eindeutigen Darstellbarkeit jedes Vektors v 2 V als Linearkombination von B, dass B eine Basis von V ist?

vD

n X i D1

i vi :

4

105 4.4  Basis und Dimension

Durch Umstellen erhalten wir hieraus n X i vi C .1/ v D 0 : i D1

Dies besagt aber, dass v1 ; : : : ; vn ; v linear abhängig sind. Somit ist auch B [ fvg linear abhängig. (ii) ) (iii): Es sei B eine maximale linear unabhängige Teilmenge von V . 1. B ist ein Erzeugendensystem von V , d. h. V D hBi: Dazu ist nur V  hBi zu zeigen. Wir wählen ein v 2 V beliebig. Im Fall v 2 B erhalten wir wie gewünscht v 2 hBi. Daher nehmen wir nun an v … B. Nach Voraussetzung ist dann B [fvg linear abhängig. Somit gibt es v1 ; : : : ; vn 2 B und ; 1 ; : : : ; n 2 K, die nicht alle gleich null sind, mit v C

n X

i vi D 0 :

i D1

4 Die Menge B D fX k j k 2 N0 g ist auch ein minimales Erzeugendensystem von KŒX, da für jedes k 2 N0 gilt X k … hB n fX k gi : 9

Jeder Vektorraum besitzt eine Basis Eine Basis eines Vektorraums V liefert insofern eine ideale Beschreibung von V , da mit ihrer Hilfe zum einen alle Elemente des Vektorraums V darstellbar sind, d. h., V D hBi, und zum anderen es keine kleinere Teilmenge von V gibt, die dies möglich macht, da B ein minimales Erzeugendensystem ist. Daher wäre es sehr wünschenswert, wenn jeder Vektorraum auch eine Basis enthalten würde. Dass dem wirklich so ist, folgern wir aus dem folgenden allgemeinen Satz.

Da die Vektoren v1 ; : : : ; vn linear unabhängig sind, muss  ¤ 0 gelten. Nun stellen wir um: vD

n X

Basisergänzungssatz 1

. i /vi 2 hBi :

i D1

Da dies für alle v 2 V gilt, folgt V D hBi. 2. B ist ein minimales Erzeugendensystem von V : Wir wählen ein v 2 B und zeigen, dass hB n fvgi kein Erzeugendensystem von V ist. Dazu zeigen wir, dass bereits der Vektor v 2 V nicht in hB n fvgi liegt. Angenommen, es gilt v 2 hB n fvgi. Dann existieren v1 ; : : : ; vn 2 B n fvg und 1 ; : : : ; n 2 K mit vD

n X

Es sei V ein K-Vektorraum. Weiter seien S  V ein Erzeugendensystem und A  S eine linear unabhängige Teilmenge, AS V : Dann gibt es eine Basis B von V mit A  B  S. Man sagt: „Die linear unabhängige Menge A wird durch Elemente des Erzeugendensystems S zu einer Basis B von V ergänzt.“

i vi :

i D1

Durch Umstellen erhalten wir hieraus n X i vi C .1/ v D 0 : i D1

Da bei dieser Linearkombination des Nullvektors nicht alle Koeffizienten null sind, sind die Vektoren v; v1 ; : : : ; vn linear abhängig. Das ist aber ein Widerspruch zur linearen Unabhängigkeit der Menge B. Dieser Widerspruch belegt, dass v … hB n fvgi liegt. Somit ist B ein minimales Erzeugendensystem von V . (iii) ) (i): Es sei B ein minimales Erzeugendensystem von V . Dann ist B insbesondere ein Erzeugendensystem von V . Da B per Definition linear unabhängig ist, folgt die Behauptung.  Beispiel

Beweis Wir zeigen die Behauptung mit dem Zorn’schen

Lemma (siehe 7 Abschn. 1.4). Dazu betrachten wir die Menge M D fX j X ist linear unabhängig und A  X  Sg ; die bezüglich der Inklusion geordnet ist. Wir zeigen, dass .M; / eine nichtleere, induktiv geordnete Menge ist. Das Zorn’sche Lemma garantiert in diesem Fall die Existenz eines maximalen Elements. Da die linear unabhängige Menge A natürlich A  A erfüllt, gilt A 2 M , sodass M nichtleer ist. Es sei C  M eine nichtleere linear geordnete Teilmenge von M . Wir betrachten die Vereinigung der Elemente aus C : Y D

[ X 2C

X:

(4.3)

4 Die Menge B D fX k j k 2 N0 g ist eine maximal linear unabhängige Teilmenge von KŒX, da für jedes p D Offenbar ist Y eine obere Schranke von C . Es bleibt zu a0 C a1 C    C an X n 2 KŒX n B gilt, dass zeigen, dass Y 2 M gilt. Da C nicht leer ist, gilt A  Y  S. Die Menge Y ist linear unabhängig: Es seien dazu 0 n fX ; : : : ; X ; pg  B [ fpg v1 ; : : : ; vn 2 Y gewählt. Weil Y Vereinigung von Teilmenlinear abhängig ist. gen X 2 C ist (siehe Gleichung (4.3)), gibt es Teilmengen

106

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

X1 ; : : : ; Xn 2 C mit vi 2 Xi . Da die Menge C total geordnet ist, gibt es ein j 2 f1; : : : ; ng mit Xi  Xj für alle i D 1; : : : ; n. Es liegen damit alle v1 ; : : : ; vn in diesem Xj . Da Xj linear unabhängig ist, sind auch v1 ; : : : ; vn 2 Xj linear unabhängig. Folglich gilt Y 2 M . Die Menge .M; / ist somit induktiv geordnet. Nach dem Zorn’schen Lemma besitzt .M; / ein maximales Element B. Da diese Teilmenge B von V in M liegt, ist B linear unabhängig. Um zu zeigen, dass B eine Basis ist, reicht es aus zu begründen, dass B den Vektorraum V erzeugt, hBi D V . Dies folgt aus S  hBi. Ohne Einschränkung nehmen wir v … B an. Dann erhalten wir A  B ¨ B [ fvg  S :

Beim obigen Beweis des Basisergänzungssatzes wurde das Zorn’sche Lemma benutzt. Will man das Zorn’sche Lemma vermeiden, so bleibt einem nur die deutlich schwächere Aussage:

Existenz von Basen endlich erzeugter Vektorräume Jeder endlich erzeugte Vektorraum V besitzt eine Basis.

Beweis Es sei B  S ein Erzeugendensystem mit mi-

nimaler Elementzahl. Ein solches existiert, da S endlich ist. Es ist B dann ein minimales Erzeugendensystem. Nach den Kennzeichnungen von Basen ist B somit eine Basis. 

Die Menge B [ fvg ist wegen der Maximalität von B linear abhängig. Also existieren v1 ; : : : ; vn 2 B und Wir erörtern das Ergänzen und Verkürzen von Men; 1 ; : : : ; n 2 K, die nicht alle gleich null sind, mit gen zu Basen in einem ausführlichen Beispiel in diesem Abschnitt. n X Basen sind im Allgemeinen keineswegs eindeutig bei vi D 0 : v C stimmt. Ist etwa B D fv1 ; : : : ; vn g eine Basis eines Ki D1 Vektorraums V , so ist für 1 ; : : : ; n 2 K n f0g auch Da die Menge B linear unabhängig ist, muss  ¤ 0 gelten, B 0 D f v ; : : : ;  v g eine Basis. Aber je zwei Basen 1 1 n n wir erhalten haben gleich viele Elemente. Das zeigen wir im nächsten n Abschnitt. X v D 1 i vi : i D1

Folglich gilt S  hBi.



Wir betrachten nun für einen beliebigen Vektorraum V den Sonderfall S D V und A D ;. Es ist S D V ein Erzeugendensystem von V und A D ; eine linear unabhängige Teilmenge von V . Außerdem gilt natürlich A  S  V . Der Basisergänzungssatz besagt nun, dass es in S D V eine Basis gibt. Damit haben wir gezeigt, dass jeder Vektorraum eine Basis besitzt. Wir können sogar mehr zeigen: Mit A D ; und einem Erzeugendensystem S von V besagt der Basisergänzungssatz, dass jedes Erzeugendensystem eine Basis enthält. Und mit einer linear unabhängigen Menge A und dem Erzeugendensystem S D V besagt der Basisergänzungssatz, dass jede linear unabhängige Menge A zu einer Basis von V ergänzt werden kann, wir halten das fest:

Die Dimension ist die Mächtigkeit einer und damit jeder Basis Im R2 gilt für die drei Vektoren u D   1 wD 2

    2 1 ,vD und 0 2

R2 D hu; vi D hu; wi D hv; wi ; sodass fu; vg; fu; wg; fv; wg drei verschiedene Basen des R2 sind. Es ist kein Zufall, dass jede dieser Basen genau zwei Elemente enthält. Tatsächlich ist es so, dass in jedem endlich erzeugten Vektorraum V jede Basis von V gleich viel Elemente enthält. Dies ist keine Selbstverständlichkeit. Diese Aussage folgt aus dem folgenden Satz:

Existenz von Basen Jeder Vektorraum V besitzt eine Basis. Genauer: 4 Jedes Erzeugendensystem von V enthält eine Basis von V . 4 Jede linear unabhängige Teilmenge von V kann durch Hinzunahme weiterer Vektoren zu einer Basis von V ergänzt werden.

Austauschsatz von Steinitz Ist S D fb1 ; : : : ; bs g ein endliches Erzeugendensystem des K-Vektorraums V , so gilt für jedes linear unabhängige System A D fa1 ; : : : ; ar g: jAj D r  s D jSj :

107 4.4  Basis und Dimension

Beweis Wir zeigen die Behauptung durch vollständige Induktion nach jS n Aj. Induktionsanfang: Falls jS n Aj D 0, so gilt S  A. Da A linear unabhängig ist, ist auch die Teilmenge S von A linear unabhängig. Und da S ein Erzeugendensystem von V ist, ist S eine Basis von V . Als Basis von V ist S eine maximale linear unabhängige Teilmenge von V , daher gilt S D A, insbesondere jAj  jSj. Induktionsvoraussetzung: Die Behauptung gelte für jedes Erzeugendensystem S und jede linear unabhängige Menge A mit jS n Aj D n. Induktionsschritt: Es gelte jS n Aj D n C 1 für ein Erzeugendensystem S und eine linear unabhängige Menge A. Wir dürfen ohne Einschränkung annehmen, dass A 6 S. Folglich existiert ein v 2 A n S. Und da V D hSi gibt es v1 ; : : : ; v t 2 S n f0g und 1 ; : : : ;  t 2 K n f0g mit

1 v1 C    C  t v t D v :

(4.4)

Angenommen, alle v1 ; : : : ; v t sind in A. Dann erhalten wir einen Widerspruch zur linearen Unabhängigkeit von A, da in diesem Fall eine nichttriviale Linearkombination des Nullvektors gegeben wäre,

Nun vertauschen wir die Rollen von B1 und B2 und erhalten jB2 j  jB1 j : Insgesamt ist damit jB1 j D jB2 j gezeigt.



Da je zwei Basen endlich erzeugter Vektorräume gleich viele Elemente haben, ist die folgende Definition sinnvoll:

Die Dimension eines Vektorraums Ist B eine Basis eines endlich erzeugten Vektorraums V , so nennt man die Elementzahl einer und damit jeder Basis von V die Dimension von V . Wir schreiben dafür dim.V / D jBj : Ist V nicht endlich erzeugt, so setzen wir dim.V / D 1 : Im ersten Fall nennt man V endlichdimensional, im zweiten Fall unendlichdimensional.

1 v1 C    C  t v t  v D 0 : Somit ist mindestens ein vi aus S n A. Nach eventuellem Beispiel Umnummerieren können wir ohne Einschränkung v1 2 4 Es gilt dim.f0g/ D 0, da ; eine Basis von f0g ist und S n A. Aus Gleichung (4.4) folgt j;j D 0 gilt. ! 4 Für jeden Körper K und jede natürliche Zahl n gilt t X n dim.K / D n, da En D fe 1 ; : : : ; e n g eine Basis ist und 1 v1 D 1 v  i vi 2 hv; v2 ; : : : ; v t i : jE j D n gilt. n i D2 4 Für jeden Körper K und alle natürlichen Zahlen m; n Nun setzen wir S 0 D .S n fv1 g/ [ fvg und erhalten v1 2 gilt dim.Km n / D m n, da B D fEr;s j r 2 0 0 0 hS i. Es folgt S  hS i. Somit ist auch S ein Erzeugenf1; : : : ; mg; s 2 f1; : : : ; ngg eine Basis ist und jBj D densystem von V , d. h. hS 0 i D V . m n gilt. Für das Erzeugendensystem S 0 gilt wegen v 2 S 0 und 4 Für jeden Körper K gilt dim.KŒX/ D 1, da fX k j k 2 v 2 A n S und v1 2 S n A N0 g eine nicht endliche Basis bildet. 4 Die Dimension des R-Vektorraums C ist 2, da f1; ig eijS 0 n Aj D jS n Aj  1 D n : ne Basis bildet. Weiter ist f1g eine Basis von C über C, sodass C als C-Vektorraum eindimensional ist. Wegen der Induktionsvoraussetzung gilt jAj  jS 0 j. Aber 4 Die Lösungsmenge eines homogenen linearen Gleies gilt auch jS 0 j D jSj. Somit ist die Behauptung jAj  jSj chungssystems A x D 0 mit einer Matrix A 2 Km n nachgewiesen.  ist ein Untervektorraum des Kn . Die Dimension dieses Untervektorraumes L ist die Anzahl der frei wählbaren Nun können wir das angekündigte Ergebnis folgern: Variablen, also Folgerung Falls der K-Vektorraum V ein endliches Erzeu-

gendensystem hat, so sind alle Basen endlich und haben gleich viele Elemente. Beweis Sind B1 und B2 zwei Basen von V , so liefert der

dim L D n  rg A : 9

Wie findet man Basen?

obige Satz zuerst jB1 j; jB2 j 2 N0 , und dann mit B1 in der Eine Basis ist ein linear unabhängiges Erzeugendensystem. Rolle von A und B2 in der Rolle von S: Zum Nachweis dieser beiden Eigenschaften sind die foljB1 j  jB2 j : genden Aussagen nützlich:

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

108

(iii) Für jeden Untervektorraum U  V gilt dim.U /  dim.V /. (iv) Für einen Untervektorraum U  V mit dim.U / D dim.V / gilt U D V . (v) Mehr als n Vektoren sind stets linear abhängig. (vi) Weniger als n Vektoren bilden kein Erzeugendensystem.

Kennzeichnungen endlicher Basen

4

Es sei V ein K-Vektorraum der endlichen Dimension n 2 N0 . (i) Je n linear unabhängige Vektoren bilden eine Basis. (ii) Jedes Erzeugendensystem mit n Elementen bildet eine Basis.

Beispiel: Der Vektorraum aller Abbildungen mit endlich vielen von null verschiedenen Werten

Für einen Körper K und eine nichtleere Menge M definieren wir V D ff 2 KM j nur für endlich viele x 2 M ist f .x/ ¤ 0g : Es ist V also eine Teilmenge von KM , dem Vektorraum aller Abbildungen von M nach K. Wir zeigen: (a) V ist ein K-Vektorraum. (b) Für jedes y 2 M betrachten wir die Abbildung ıy W M ! K mit ( 1 ; falls x D y ıy .x/ D 0 ; sonst und zeigen, dass B D fıy j y 2 M g eine Basis von V ist. Es gilt demzufolge dim V D jBj D jM j.

Setzt man nun in . / nacheinander (die verschiedenen) y1 ; y2 ; : : : ; yn ein, so erhält man nacheinander 1 D 0, 2 D 0, . . . , n D 0; und damit ist die lineare Unabhängigkeit von B gezeigt. Die Menge B ist ein Erzeugendensystem von V : Gegeben ist ein f 2 V . Dann gibt es endlich viele verschiedene x1 ; : : : ; xn 2 M mit f .x1 / ¤ 0; : : : ; f .xn / ¤ 0 und f .x/ D 0

8x 2 M n fx1 ; : : : ; xn g:

Nun setzen wir 1 D f .x1 /; : : : ; n D f .xn / und zeigen die Gleichheit f D 1 ıx1 C : : : C n ıxn :

Problemanalyse und Strategie Für den Teil (a) zeigen wir, dass V ein Untervektorraum von KM ist. Beim Teil (b) beachten wir, dass die Menge B durchaus unendlich sein kann. Somit ist es hier notwendig, die lineare Unabhängigkeit von B dadurch zu beweisen, dass man die lineare Unabhängigkeit jeder endlichen Teilmenge von B beweist. Lösung (a) Es ist V eine nichtleere Teilmenge des Vektorraumes KM , da die Nullabbildung in V enthalten ist. Denn diese nimmt für kein x 2 M und damit für endlich viele x 2 M einen von null verschiedenen Wert an. Sind f und g zwei Abbildungen aus V , d. h., f und g nehmen nur an endlich vielen Stellen einen von null verschiedenen Wert an, so auch deren Summe f C g W x 7! f .x/ C g.x/. Für jedes  2 K und f 2 V hat auch die Abbildung  f W x 7!  f .x/ die Eigenschaft, nur endlich viele von null verschiedene Werte anzunehmen. Damit ist begründet, dass V ein Untervektorraum von KM , also ein K-Vektorraum ist. (b) Die Menge B ist linear unabhängig: Wir wählen eine endliche Teilmenge E  B, etwa E D fıy1 ; : : : ; ıyn g für verschiedene y1 ; : : : ; yn 2 M . Für 1 ; : : : ; n 2 K gelte n X

i ıyi D 0 ;

( )

iD1

d. h., für alle x 2 M gilt

n P iD1

i ıyi .x/ D 0.

Für jedes x 2 M n fx1 ; : : : ; xn g gilt 0 D f .x/ D .1 ıx1 C    C n ıxn /.x/ D 1 ıx1 .x/ C    C n ıxn .x/ D 0 C  C 0 D 0 und für jedes xi 2 fx1 ; : : : ; xn g gilt i D f .xi / D .1 ıx1 C    C n ıxn /.xi / D 1 ıx1 .xi / C    C n ıxn .xi / D i : Also stimmen die beiden Abbildungen f und 1 ıx1 C    C n ıxn für alle Werte aus M überein, d. h., sie sind gleich: f D 1 ıx1 C    C n ıxn . Dies begründet, dass jedes beliebige f aus V eine Linearkombination von Elementen aus B ist, sodass B ein Erzeugendensystem von V liefert. Insgesamt wurde gezeigt, dass B ein linear unabhängiges Erzeugendensystem von V , also eine Basis von V , ist. Die Dimension des Vektorraums V ist die Mächtigkeit von B, und wegen jBj D jM j haben wir somit einen Vektorraum der Dimension dim V D jM j : Man beachte, dass die Dimension unabhängig vom Körper K ist, in dem die Werte der Abbildungen f liegen. Im Fall M D R haben wir ein Beispiel eines Vektorraums mit der Dimension jRj, egal, welchen Körper K wir dazu wählen.

109 4.4  Basis und Dimension

Beispiel: Bestimmung von Basen

Wir lösen beispielhaft zwei typische Problemstellungen. (1) Gegeben ist ein endliches Erzeugendensystem E eines Vektorraums V . Man bestimme eine Basis B  E. Beispiel: V D R4 und 80 1 0 1 0 1 0 1 0 1 0 19 1 1 1 0 0 0 > ˆ ˆ > ˆ

= B C B C B C B C B C B C E WD B C ; B C ; B C ; B C ; B C ; B C : ˆ ˆ@0A @1A @0A @1A @0A @1A> > ˆ > : 0 0 1 0 1 1 ; (2) Gegeben ist eine linear unabhängige Teilmenge E eines endlich erzeugten Vektorraumes V . Man bestimme eine Basis B  E. Beispiel: V D R4 und 80 1 0 1 0 19 1 2 1 > ˆ ˆ > ˆ

= B C B C B C E D B C;B C;B C : ˆ @ 3 A @ 6 A @2A> ˆ > ˆ > : 4 11 6 ; Problemanalyse und Strategie Bei (1) entferne man so lange Vektoren aus dem Erzeugendensystem E, bis ein linear unabhängiges Erzeugendensystem verbleibt. Bei (2) füge man zu der linear unabhängigen Menge E so lange weitere, zu den Vektoren aus E linear unabhängige Elemente von V hinzu, bis ein linear unabhängiges Erzeugendensystem entsteht. Dabei muss man sich nach jedem Hinzufügen eines Vektors vergewissern, dass die dann größere Menge nach wie vor linear unabhängig ist.

Gleichungssystem 0 1 B1 B B @0 0

1 0 1 0

1 0 0 1

0 1 1 0

1 0 0C C C; 0A 0

dessen einzige Lösung offenbar 1 D    D 4 D 0 ist. Also ist E 00 linear unabhängig. Folglich ist B D E 00  E eine Basis von V ; insbesondere erzeugt E den R4 . (2) Dass E tatsächlich linear unabhängig ist, wird sich wieder im Laufe der Rechnung zeigen. Wir benennen die drei Vektoren aus E der Reihe nach mit v1 ; v2 ; v3 . Aber mit welchem Vektor sollte man nun E ergänzen, um eine Basis zu erhalten? Die Entscheidung fällt gar nicht so leicht. Man könnte es mit e 1 versuchen. Man muss aber dann nachprüfen, ob v1 ; v2 ; v3 ; e 1 linear unabhängig sind. Falls dies nicht so sein sollte, so hätte man dann den Versuch mit einem anders gewählten Vektor zu wiederholen. Das kann reichlich aufwendig werden. Wir zeigen, wie sich das Problem einfacher lösen lässt. Wir schreiben die Vektoren v1 ; v2 ; v3 als Zeilen einer Matrix und bringen die Matrix mittels elementarer Zeilenumformungen auf Zeilenstufenform: 0

1 B 2 @ 1

2 3 3

3 6 2

1 0 4 1 C B 11A ! @0 0 6 0 1 B ! @0 0

2 1 1

3 0 1

2 1 0

3 0 1

1 4 3C A 2 1 4 3C A 5

Lösung (1) Dass E tatsächlich ein Erzeugendensystem ist, ergibt sich im Laufe der Rechnung. Wir benennen die sechs Vektoren aus E der Reihe nach mit v1 ; : : : ; v6 . Durch Probieren (oder Lösen eines Gleichungssystems) erkennt man, dass v6 D v3 C v4  v1 : Also gilt hv 1 ; : : : ; v6 i D hv1 ; : : : ; v5 i, sodass wir v6 aus dem Erzeugendensystem entfernen können. Nun betrachten wir in dem Erzeugendensystem E 0 D fv1 ; : : : ; v5 g den Vektor v5 und sehen, dass v5 D v3 C v4  v2 : Also gilt hv 1 ; : : : ; v5 i D hv1 ; : : : ; v4 i, sodass wir v5 aus dem Erzeugendensystem entfernen können. Es verbleibt nun das Erzeugendensystem E 00 D fv 1 ; : : : ; v4 g. Weil sich keine weiteren Kombinationen zu ergeben scheinen, prüfen wir das System E 00 auf lineare Unabhängigkeit. Es gelte 1 v1 C    C 4 v4 D 0 für 1 ; : : : ; 4 2 R. Dies führt zu dem linearen

Nun bezeichnen wir die Zeilen der letzten Matrix der Reihe nach mit w1 ; w2 ; w3 und machen uns mit folgendem Sachverhalt vertraut: Es gilt hv 1 ; v2 ; v3 i D hw1 ; w2 ; w3 i. Dies ist in der Tat so, da w1 ; w2 ; w3 Linearkombinationen von v1 ; v2 ; v3 sind. Diese Vektoren entstanden ja durch Zeilenumformungen (d. h. Vektoraddition und skalare Multiplikation) der Zeilen v1 ; v2 ; v3 . Und somit gilt hw1 ; w2 ; w3 i  hv1 ; v2 ; v3 i. Aber ebenso sind v1 ; v2 ; v3 Linearkombinationen von w1 ; w2 ; w3 , da diese Zeilenumformungen alle umkehrbar sind. Somit gilt auch hv 1 ; v2 ; v3 i  hw1 ; w2 ; w3 i, schließlich also die Gleichheit dieser beiden Vektorräume. Aber wozu nun das? Die Antwort ist einfach: Den Vektoren w1 ; w2 ; w3 ist es nun leicht anzusehen, dass sie linear unabhängig sind – und somit sind dann auch v1 ; v2 ; v3 linear unabhängig –, und es ist nun leicht, einen zu w1 ; w2 ; w3 linear unabhängigen Vektor anzugeben. Man ergänze E mit dem Element e 4 . Die obige Rechnung – beachte die letzte Matrix – begründet, dass v1 ; v2 ; v3 ; e 4 linear unabhängig sind. Wegen jE [fe 4 gj D 4 bildet somit E [fe 4 g eine Basis von V . Ebenso natürlich auch fw1 ; w2 ; w3 ; e 4 g.

4

110

Kapitel 4  Vektorräume – von Basen und Dimensionen

Beispiel: Die Anzahl der k-dimensionalen Untervektorräume von Zpn

Gegeben seien n 2 N0 sowie eine Primzahl p 2 N. Wir wollen die Anzahl der k-dimensionalen (verschiedenen) Untervektorräume von Zpn bestimmen. Problemanalyse und Strategie

4

Wir bestimmen in einem ersten Schritt für k  n die Anzahl der linear unabhängigen k-Tupel .a1 ; : : : ; ak /. In einem zweiten Schritt überlegen wir uns, wieviele verschiedene solche Tupel den gleichen Vektorraum erzeugen. Lösung Wir betrachten den Zp -Vektorraum Zpn : 9 80 1 a1 > ˆ > ˆ =

ˆ > ˆ ; : a n Für jede Komponente hat man p Möglichkeiten, ein Element aus Zp zu wählen, sodass also Zpn insgesamt p n Elemente enthält. Der triviale Untervektorraum f0g ist der einzige Untervektorraum der Dimension 0. Zur Anzahl der 1-dimensionalen Untervektorräume: Es gibt p n  1 Möglichkeiten, einen vom Nullvektor verschiedenen Vektor zu wählen, und jeder solche Vektor erzeugt einen 1-dimensionalen Untervektorraum. Nun sind aber diese Untervektorräume nicht alle verschieden, so gilt im Z33 etwa 0 1 0 1 * 1 + * 2 + B1C B C @ A D @2A : 0 0 Wir überlegen uns, wieviele verschiedene Basen ein 1-dimensionaler Untervektorraum von Zpn haben kann. Ist U ein 1-dimensionaler Untervektorraum, so liefert jede Wahl eines vom Nullvektor verschiedenen Vektors aus U (das sind p  1 Möglichkeiten) eine Basis für U . Also erzeugen je p  1 D jZp n f0gj Elemente den gleichen Untervektorraum. Folglich gibt es genau pn  1 p1 verschiedene 1-dimensionale Untervektorräume von Zpn . Zur Anzahl der 2-dimensionalen Untervektorräume: Es gibt p n  1 Möglichkeiten, einen vom Nullvektor verschiedenen Vektor a1 zu wählen und p n  p Möglichkeiten einen zum Vektor a1 linear unabhängigen Vektor a2 2 Zpn n ha1 i zu wählen. Jedes solche Paar von Vektoren a1 und a2 erzeugt einen 2-dimensionalen Untervektorraum. Diese Untervektorräume sind aber nicht alle verschieden. So gilt im Z33 etwa 0 10 1 0 1 0 1 * 1 0 + * 2 0 + B2C B2C B1C B2C @ A;@ A D @ A @ A : 0 0 0 0

Wir überlegen uns, wieviele verschiedene Basen ein 2-dimensionaler Untervektorraum von Zpn haben kann. Jede Wahl eines vom Nullvektor verschiedenen Vektors b1 (das sind p 2  1 Möglichkeiten) und eines von b1 linear unabhängigen Vektors aus U n hb1 i (das sind p 2  p Möglichkeiten) liefert eine Basis von U : Es gibt also .p 2  1/ .p 2  p/ verschiedene Basen in U . Folglich gibt es genau .p n  1/ .p n  p/ .p 2  1/ .p 2  p/ verschiedene 2-dimensionale Untervektorräume von Zpn . Die Überlegungen wiederholen sich für die 3-dimensionalen Untervektorräume. Und allgemein erhalten wir für die Anzahl der k-dimensionalen Untervektorräume von Zpn die Formel: Es gibt genau k1 Y

.p n  1/.p n  p/    .p n  p k1 / pn  pj D pk  pj .p k  1/.p k  p/    .p k  p k1 / j D0 k-dimensionale Untervektorräume von Zpn . Als Beispiel bestimmen wir alle Untervektorräume von Z32 : Es ist f0g der einzige Untervektorraum von Z32 der 3 1 D 7 verschiedenen 1-dimensionalen Dimenion 0. Die 221 Untervektorräume von Z32 sind 0 1 0 1 0 1 0 1 * 1 + * 0 + * 0 + * 1 + B0C B C B C B C @ A ; @1A ; @0A ; @1A ; 0 0 1 0 0 1 0 1 0 1 * 1 + * 0 + * 1 + B C B C B0C @ A ; @1A ; @1A : 1 1 1 1/ .2 2/ Die .2 D 7 verschiedenen zweidimensionalen Un.22 1/ .22 2/ tervektorräume von Z32 sind 3

3

0 1 0 1 0 1 0 1 0 1 0 1 * 1 0 + * 1 0 + * 0 0 + B0C B1C B0C B0C B1C B0C ; ; ; ; ; @ A @ A @ A @ A @ A @ A ; 0 0 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 * 1 0 + * 0 1 + * 0 1 + B1C B0C B0C B1C B0C B1C @ A;@ A ; @ A;@ A ; @ A;@ A ; 0 1 0 1 1 0 0 1 0 1 * 1 0 + B1C B1C @ A;@ A : 0 1 Und schließlich ist Z32 der einzige dreidimensionale Untervektorraum von Z32 . Kommentar Im 7 Kap. 6 werden wir zeigen, dass je zwei k-dimensionale Vektorräume über ein und demselben Körper isomorph sind, d. h., sie unterscheiden sich nur in der Bezeichnung der Elemente.

111 4.4  Basis und Dimension

Beispiel: Magische Quadrate II

Für c 02 R sei Mc die 1 Menge aller magischen Quadrate x11 x12 x13 C B A D @x21 x22 x23 A 2 R3 3 mit der Eigenschaft, dass x31 x32 x33 alle Zeilen-, Spalten- und Diagonalsummen von A gleich c S sind. Und es sei M D c2R Mc die Menge der magischen 3 3-Quadrate. Unser Ziel: Wir wollen alle möglichen magischen Quadrate zu einer vorgegebenen Zahl c 2 R bestimmen und schließlich eine Basis des Untervektorraums M von R3 3 angeben. Problemanalyse und Strategie Wir begründen, dass ein magisches Quadrat mit der magischen Zahl c durch seine erste Zeile festgelegt ist. Lösung Wir geben uns eine reelle Zahl c vor, und es sei 1 0 x11 x12 x13 C B A D @x21 x22 x23 A 2 Mc : x31 x32 x33 Für i D 1; 2; 3 sei Zi die Summe der i-ten Zeile und Si die Summe der i-ten Spalte von A. Es seien ferner D1 WD x11 C x22 C x33 und D2 WD x13 C x22 C x31 die Diagonalsummen von A. Dann ist D1 C D2 C Z2 C S2 D Z1 C Z2 C Z3 C 3x22 ; also 4 c D 3 c C 3 x22 und somit c D 3 x22 . Damit haben wir x22 D c=3 bestimmt. Für c D 0 gilt also etwa x22 D 0. Nun überlegen wir uns, dass das magische Quadrat A durch die erste Zeile, d. h. durch die Zerlegung von c in die Summe c D x11 C x12 C x13 bereits eindeutig festgelegt ist. Die erste Zeile von A 2 Mc sei .x11 ; x12 ; x13 /. Dann folgt 1 0 x12 x13 x11 C B c c A D @ 3c  x11 C x13 3 3 C x11  x13 A 2 2 2 c  x13 c  x12 c  x11 3 3 3 Der Eintrag an der Stelle .2; 2/ ergibt sich unmittelbar aus obigem; die Einträge in der letzten Zeile ergeben sich dann aus den Bedingungen D1 D c, D2 D c und S2 D c; weiter ergeben sich die beiden noch fehlenden Einträge in der mittleren Zeile von A aus den Bedingungen S1 D c und S3 D c. Nun können wir wegen c D x11 C x12 C x13 einfach eine Basis von M angeben, da jedes magische Quadrat durch seine erste Zeile eindeutig bestimmt ist: Es ist fA 1 ; A 2 ; A 3 g mit 1 0 1 0 0 B 2 1 4C A 1 WD @ 3 3 3A ; 0

2 3

1 3

0

1

0

2 3

1 3 1 3

2 3

B A 2 WD @ 13

1

1C 3A 2 3

;

0 B A 3 WD @

0

0

4 3 1 3

1 3 2 3

1

1

2 C 3 A 2 3

eine Basis von M : Jedes magische Quadrat ist eine Linearkombination der magischen Quadrate A 1 ; A 2 ; A 3 , und offenbar sind A 1 ; A 2 ; A 3 linear unabhängig. Man wähle also zu einer vorgegebenen Zahl c 2 R eine Zerlegung in eine Summe der drei Zahlen x11 ; x12 ; x13 , also c D x11 C x12 C x13 , und setze A WD x11 A 1 C x12 A 2 C x13 A 3 Es ist dann A ein magisches Quadrat mit der magischen Zahl c, d. h., die restlichen Einträge der Matrix A D .aij / stimmen dann automatisch. Es ist etwa a33 D 1=3 x11 C 2=3 x12 C 2=3 x13 , also wegen c D x11 C x12 C x13 weiter a33 D 1=3 x11 C 2=3 .c  x11 / D 2=3 c  x11 . Wir wollen die Basis noch etwas verschönern. Durch Probieren findet man 0

1 0 1C A 1 1 1 1 0 1C A 1 0 1 0 1 1 1 B C B 3 D A 1 C A 2 C A 3 D @1 1 1A 1 1 1

1 B B 1 D A 1  A 2 D @1 0 0 0 B B 2 D A 2  A 3 D @1 1

1 0 1

Die magischen Quadrate B 1 ; B 2 ; B 3 haben nun eine schöne Gestalt. Nun müssen wir uns aber natürlich noch davon überzeugen, dass sie eine Basis bilden. Es ist nämlich keineswegs so, dass beliebige drei Linearkombinationen dreier Basisvektoren wieder drei Basisvektoren bilden. So folgt etwa schon bei nur zwei Basisvektoren a1 und a2 aus b1 D a1 C a2 und b2 D 2 a1 C 2 a2 die Gleichung 2 b1 D b2 . Wir müssen uns aber nur davon überzeugen, dass B 1 ; B 2 ; B 3 linear unabhängig sind. Wir machen den üblichen Ansatz. Für 1 ; 2 ; 3 2 R gelte 1 B 1 C 2 B 2 C 3 B 3 D 0 2 R3 3 : Aus dem Eintrag an der Stelle .2; 2/ folgt 3 D 0. Nun betrachten wir die Stelle .1; 1/. Es ist dann auch 2 D 0. Und schließlich folgt aus dem Eintrag an der Stelle .1; 3/ in der letzten Zeile 2 D 0. Damit ist gezeigt, dass B 1 , B 2 , B 3 linear unabhängig sind. Es ist also fB 1 ; B 2 ; B 3 g eine Basis von M . Wir merken noch an, dass M ein 3-dimensionaler Untervektorraum des 9-dimensionalen R-Vektorraums R3 3 ist.

4

112

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

Beweis (i) Nach dem Austauschsatz von Steinitz ist jede Menge fv1 ; : : : ; vn g linear unabhängiger Vektoren von V eine maximale linear unabhängige Teilmenge von V und somit eine Basis. (ii) Nach dem Austauschsatz von Steinitz ist jedes Erzeugendensystem fv1 ; : : : ; vn g mit n Elementen ein minimales Erzeugendensystem von V und somit eine Basis. (iii) Es sei BU eine Basis von U . Nach dem Basisergänzungssatz existiert eine Basis BV von V mit BU  BV . Hieraus folgt jBU j  jBV j. (iv) Dies folgt aus dem Beweis von (iii), da unter der Voraussetzung dim.U / D dim.V / sogleich BU D BV und somit U D V folgt. (v) Das folgt aus (iii). (vi) Das folgt aus (iv). 

(c) K D Q: Wir zeigen, dass fp 0 ; p 1 ; p 2 ; p 3 g linear unabhängig ist, sodass fp0 ; p 1 ; p 2 ; p 3 g eine Basis von U ist. Es seien a0 ; a1 ; a2 ; a3 2 Q mit a0 p 0 C a1 p 1 C a2 p 2 C a3 p 3 D 0 2 KK

( )

gegeben, d. h. a0 p 0 .x/ C a1 p 1 .x/ C a2 p 2 .x/ C a3 p 3 .x/ D 0 für alle x 2 Q. Einsetzen von x D 0 liefert a0 1 C a1 0 C a2 0 C a3 0 D 0 ;

sodass a0 D 0 gilt. Wir setzen a0 D 0 in ( ) ein und erhalInsbesondere ist nun auch klar, dass die Untervektorräume ten der Dimension 1 bzw. 2 des R3 die Form R a mit a ¤ 0 a1 p 1 .x/ C a2 p 2 .x/ C a3 p 3 .x/ D 0 bzw. R a C R b mit a; b ¤ 0 und R a ¤ R b, also mit linear unabhängigen Vektoren a, b, haben. Außer diesen und den trivialen Untervektorräumen f0g und R3 existieren für alle x 2 Q. Nun setzen wir x D 1, x D 1 und x D 2 ein. Das liefert ein lineares Gleichungssystem für keine weiteren Untervektorräume im R3 . die a1 ; a2 ; a3 : ? Selbstfrage 4.11 Welche reelle Zahlen bilden eine Basis des reellen Vektorraums R?

a1 1 C a2 1 C a3 1 D 0; a1 .1/ C a2 1 C a3 .1/ D 0 ; a1 2 C a2 4 C a3 8 D 0:

Beispiel Wir betrachten den K-Vektorraum KK aller Ab-

bildungen von K nach K. Für i 2 N0 sei p i 2 KK die Die Koeffizientenmatrix dieses homogenen linearen Gleichungssystems lautet Polynomfunktion 0 1  1 1 1 K!K @1 1 1A : pi W : x 7! x i 2 4 8 Wir bestimmen jeweils die Dimension des von Mit dem Gauß-Algorithmus sieht man, dass dieses fp 0 ; p 1 ; p 2 ; p 3 g aufgespannten Untervektorraums von KK System nur die Lösung .0; 0; 0/ besitzt. Also ist für die Fälle fp0 ; p 1 ; p 2 ; p 3 g linear unabhängig, also eine Basis und somit dim.U / D 4. 9 (a) K D Z2 ; (b) K D Z3 bzw. (c) K D Q : 4.5 Summe und Durchschnitt Es sei U D hp 0 ; p 1 ; p 2 ; p 3 i. N D p 2 .0/ N D p 3 .0/ N D 0N und von Untervektorräumen (a) K D Z2 : Wegen p 1 .0/ N D p 2 .1/ N D p 3 .1/ N D 1N gilt p 1 .1/

p1 D p2 D p3 und somit hp 0 ; p 1 i D hp 0 ; p 1 ; p 2 ; p 3 i D U . Wir zeigen nun noch, dass fp0 ; p 1 g linear unabhängig ist. Es seien a0 ; a1 2 Z2 mit a0 p 0 C a1 p1 D 0 2 KK , also a0 p 0 .x/ C a1 p 1 .x/ D 0N für alle x 2 Z2 . Einsetzen von x D 0N liefert a0 D 0N und dann Einsetzen von x D 1N N Also ist fp0 ; p 1 g linear unabhängig, also eine auch a1 D 0. Basis von U , also dim.U / D 2. (b) K D Z3 : Analog zu K D Z2 sieht man, dass fp 0 ; p 1 ; p 2 g eine Basis von U ist, also dim.U / D 3.

Durch Summen und Durchschnittbildung werden aus Untervektoräumen wieder Untervektorräume.

Die Summe von Untervektorräumen ist ein Untervektorraum Für zwei Untervektorräume U und W eines K-Vektorraumes V definiert man U C W D fu C w j u 2 U; w 2 W g  V

113 4.5  Summe und Durchschnitt von Untervektorräumen

und nennt U C W die Summe der Untervektorräume U Beispiel Wir bestimmen jeweils eine Basis von U , W und und W . U C W für Offenbar ist U CW wieder ein Untervektorraum von V . 0 1 0 1 0 1 1 0 1 B1C B1C B1C B C B C B C ? Selbstfrage 4.12 C 0C 1C U DRB CR B CR B B C B C B 0 C und Wieso ist U C W ein Untervektorraum? @0A @0A @0A 0 0 2 Gilt sogar V D U C W , so sagt man, der K-Vektorraum V 0 1 0 1 0 1 1 2 2 ist die Summe der Untervektorräume U und W . B1C B1C B1C Wir betrachten Erzeugendensysteme MU von U und B C B C B C B C B C C W DRB MW von W , d. h., B1C C R B 3 C C R B2C : @4A @6A @2A 6 8 0 U D hM i und W D hM i : U

W

Wir bezeichnen die angegeben Vektoren aus U der Reihe nach mit u1 ; u2 ; u3 und jene aus W mit w1 ; w2 ; w3 . Die Schreibweise U D R u1 C R u2 C R u3 bedeutet nichts anderes als U D hu1 ; u2 ; u3 i. Wir zeigen, dass u1 ; u2 ; u3 linear unabhängig sind. Die Gleichung 1 u1 C 2 u2 C 3 u3 D 0 mit 1 ; 2 ; 3 2 R führt zu einem linearen Gleichungssystem mit der erweiterten Koeffizienr s X X tenmatrix i ui C i wi uCwD 1 0 1 0 1 0 i D1 i D1 B1 1 1 0C C B eine Linearkombination von u1 ; : : : ; ur ; w1 ; : : : ; ws 2 B 0 1 0 0C ; C B MU [ MW . Es gilt also U CP W  hMU [ MW i. @0 0 0 0A t Nun sei umgekehrt v D i D1 i vi eine Linearkombi0 0 2 0 nation von Elementen vi 2 MU [ MW . Wir setzen dessen einzige Lösung offenbar .0; 0; 0/ ist. Demnach ist fu1 ; u2 ; u3 g ein linear unabhängiges Erzeugendensystem, I D fi 2 f1; 2; : : : ; tg j vi 2 MU g und also eine Basis von U . J D f1; 2; : : : ; tg n I : Nun untersuchen wir die Vektoren w1 ; w2 ; w3 auf lineare Unabhängigkeit. Offenbar sind w1 ; w2 linear unabhänFür i 2 J gilt vi … MU , d. h. vi 2 MW . Folglich ist gig, denn aus 1 w1 C 2 w2 D 0 mit z. B. 2 ¤ 0 folgt w2 D .1 =2 / w1 , d. h. w2 wäre skalares Vielfaches von t X X X w1 , was offensichtlich nicht der Fall ist. Wir müssen dann uD i vi D i vi C i vi 2 U C W: prüfen, ob w3 2 hw1 ; w2 i, d. h. w3 D 1 w1 C 2 w2 lösbar i D1 i 2I i 2J „ ƒ‚ … „ ƒ‚ … ist. Ausgeschrieben liefert dies das lineare Gleichungssys2hMU i 2hMW i tem mit der erweiterten Koeffizientenmatrix 1 0 2 2 1 Damit ist gezeigt: B1 1 1C C B B1 3 2C Lemma Sind U1 ; : : : ; Un Untervektorräume eines K-VekC B @2 6 4A torraums V mit den Erzeugendensystemen MU1 ; : : : ; MUn , 0 8 6 so gilt Gegeben seien u 2 U und w 2 W . Da hMU i aus allen Linearkombinationen von Elementen aus MU besteht, existierenP r 2 N0 , u1 ; : : : ; ur 2 MU und P 1 ; : : : ; r 2 K mit u D riD1 i ui . Ebenso ist w D siD1 i wi mit einem s 2 N0 , wi 2 MW und i 2 K für 1  i  s. Folglich ist

Dieses Gleichungssystem ist lösbar mit Lösung 1 D U1 C    C Un D fu1 C    C un j u1 2 U1 ; : : : ; un 2 Un g 1=4,  D 3=4. Es folgt W D hw ; w i, und fw ; w g 2 1 2 1 2 D hMU1 [    [ MUn i : ist als linear unabhängiges Erzeugendensystem eine Basis von W . Nun wissen wir, dass U C W D hfu1 ; u2 ; u3 ; w1 ; w2 gi. Insbesondere ist die Summe U1 C    C Un ein Untervektorraum von V . Der Vektor w1 kann nicht Linearkombination von u1 ; u2 ; u3 sein – man beachte die vierten Komponenten. Also sind u1 ; u2 ; u3 ; w1 linear unabhängig. Wegen w2 D 4 u3  3 w1 ? Selbstfrage 4.13 Wenn MU und MW sogar Basen von U und W sind, ist gilt U CW D hu1 ; u2 ; u3 ; w1 i, d. h. fu1 ; u2 ; u3 ; w1 g ist eine Basis von U C W . 9 dann MU [ MW eine solche von U C W ?

4

114

Kapitel 4  Vektorräume – von Basen und Dimensionen

Durchschnitte von Untervektorräumen sind wieder Untervektorräume

4

Für zwei Untervektorräume U und W eines K-Vektorraums V ist U \ W wieder ein Untervektorraum von V . Der Nachweis ist sehr einfach: Weil der Nullvektor sowohl in U als auch in W liegt, ist U \ W nichtleer. Weiterhin ist mit jedem  2 K und v 2 U \ W auch  v ein Element aus U und zugleich ein Element aus W , also wieder ein Element aus U \ W . Und mit zwei Elementen v und v0 aus U \ W liegt auch deren Summe sowohl in U als auch in W , also wieder in deren Durchschnitt. Diesen Nachweis kann man leicht auf einen beliebigen Durchschnitt verallgemeinern: Lemma Ist M eine nichtleere Menge von Untervektorräu-

men eines K-Vektorraums V , so ist U0 D

\

U

U 2M

wieder ein Untervektorraum von V . i Ist MU ein Erzeugendensystem von U und MW ein sol-

x3

x1

x2

. Abb. 4.9 Der Schnitt der beiden Untervektorräume U und W ist eine Gerade

Mittels elementarer Zeilenumformungen wird diese Matrix überführt in 0 1 1 0 0 1 0 @0 1 0 1 0A : 0 0 1 1 0

Also gilt L D f.; ; ; / j  2 Rg und somit 8 0 1 9 0 1 1 0 < = U \ W D hMU i \ hMW i ¤ hMU \ MW i : U \ W D  @0A C  @ 1 A j  2 R : ; 1 1 Man wähle etwa MU D f1g und MW D f2g im eindimen8 0 1 9 1 < = sionalen R-Vektorraum R. D  @1A j  2 R : : ; 0 Beispiel Im R-Vektorraum V D R3 seien zwei Untervektorräume U und W gegeben durch Also *011+ 0 1 0 1 0 1 0 1 * 1 * 1 U \ W D @1 A : 9 0 + 0 + 0 U D @0 A ; @ 1 A und W D @ 0 A ; @1A : 1 1 1 1 i Die Vereinigung von Untervektorräumen ist im Allgeches von W , so gilt im Allgemeinen

Wir bestimmen U 0\ 1W . 0 1 1 0 Für v D 1 @0A C 2 @ 1 A mit 1 ; 2 2 R gilt v 2 1 1 U \ W genau dann, wenn es 1 ; 2 2 R gibt, so dass

meinen kein Untervektorraum. Als Beispiel wähle man etwa zwei verschiedene eindimensionale Untervektorräume des R2 (siehe . Abb. 4.10). Man beachte den Unterschied zwischen der Summe und der Vereinigung von Untervektorräumen.

0 1 0 1 0 1 0 1 1 0 1 0 @ @ @ @ A A A 1 D 1 0 C 2 1A 1 0 C 2 1 1 1 1

x2

62 U1 [ U2

gilt. Wir bestimmen daher die Lösungsmenge L des homogenen linearen Gleichungssystems über R mit der folgenden erweiterten Koeffizientenmatrix: 1 0 1 0 1 0 0 @0 1 0 1 0A : 1 1 1 1 0

U2

x1 U1

. Abb. 4.10 Die Summe der zwei Vektoren aus U1 [U2 ist nicht Element von U1 [ U2 , also ist U1 [ U2 kein Vektorraum

115 4.5  Summe und Durchschnitt von Untervektorräumen

Die Summe der Dimension von U und W ist gleich der Summe der Dimensionen von U \ W und U C W

Der Vektor links vom Gleichheitszeichen liegt in U , der Vektor rechts davon in W , sodass r X i D1

i bi C

s X

i ui 2 U \ W D hBi :

i D1

Die Summe U CW von Untervektorräumen U und W eines K-Vektorraums V ist erneut ein Untervektorraum von V . Es folgt 1 D    D s D 0. Da BW linear unabhängig ist, Doch welche Dimension hat der Vektorraum U C W ? Die erhalten wir nun aus ( ) weiterhin naheliegende Formel dim.U C W / D dim U C dim W ist 1 D    D r D 0 D 1 D    D  t : falsch, wie das Beispiel U D W D he 1 i  R2 zeigt, hier gilt: Wegen dim U C dim W D 2 ¤ 1 D dim.U C W / : Korrekt hingegen ist die folgende Dimensionsformel:

jBj C jBU [ BW j D jBU j C jBW j gilt die Dimensionsformel.



Beispiel Wir betrachten erneut das Beispiel von oben: Für

Die Dimensionsformel für Untervektorräume Sind U und W endlichdimensionale Untervektorräume des K-Vektorraums V , so gilt: dim.U \ W / C dim.U C W / D dim U C dim W :

Man beachte die Ähnlichkeit zu der folgenden Formel aus der elementaren Mengenlehre: jA \ Bj C jA [ Bj D jAj C jBj :

die Untervektorräume *011 0 0 1+ U D @0 A ; @ 1 A 1 1

*0 1 1 001+ und W D @ 0 A ; @1A 1 1

gilt dim U D 2 und dim W D 2. Wegen U \ W D he 1 C e 2 i gilt dim.U \W / D 1. Mit der Dimensionsformel für Untervektorräume folgt nun dim.U C W / D dim U C dim W  dim.U \ W / D 3: 9

Beweis Es sei B D fb1 ; : : : ; br g eine Basis des VektorDer triviale Durchschnitt kennzeichnet raums U \ W  U; W . Wir ergänzen B zu einer Basis BU direkte Summen von U und zu einer Basis BW von W ,

BU D fb1 ; : : : ; br ; u1 ; : : : ; us g ; BW D fb1 ; : : : ; br ; w1 ; : : : ; w t g :

Ein K-Vektorraum V heißt direkte Summe der Untervektorräume U und W , in Zeichen V DU ˚W ;

Nun begründen wir, dass BU [ BW D fb1 ; : : : ; br ; u1 ; : : : ; us ; w1 ; : : : ; w t g eine Basis von U C W ist. (i) BU [ BW erzeugt U C W , da, wie oben gezeigt, gilt hBU [ BW i D U C W :

falls (i) V D U C W , (ii) U \ W D f0g. Der Vektorraum V ist somit die Summe von U und W , wobei U und W einen trivialen Durchschnitt haben.

3 (ii) BU [ BW ist linear unabhängig: Sind 1 ; : : : ; r , Beispiel Der R ist die direkte Summe einer Ebene und einer Geraden: 1 ; : : : ; s und 1 ; : : : ;  t aus K gegeben, und gilt *011 001+ *001+ r s t X X X R 3 D @1 A ; @1 A ˚ @0 A : 9 i bi C i ui C i wi D 0 ; ( ) 0 1 1 i D1

i D1

i D1

so erhalten wir r X i D1

i bi C

s X i D1

i ui D 

t X i D1

i wi :

Ist V D U C W , so kann man jeden Vektor v 2 V als eine Summe v D u C w schreiben. Eine solche Darstellung ist aber im Allgemeinen nicht eindeutig, wie das einfache Beispiel v D e 1 im Fall U D he 1 i D W zeigt. Im Fall einer direkten Summe ist die Situation anders:

4

116

Kapitel 4  Vektorräume – von Basen und Dimensionen

Lemma Ist V die direkte Summe zweier Untervektorräume

U und V , so existiert zu jedem v 2 V genau eine Darstellung der Form v DuCw mit u 2 U und w 2 W .

4

Ein Faktorraum ist ein Vektorraum, dessen Elemente Äquivalenzklassen sind

Beweis Aus

u C w D v D u0 C w0 0

0

mit u; u 2 U und w; w 2 W folgt 0 w u  u0 D w „ƒ‚… …: „ ƒ‚ 2U

Im 7 Abschn. 6.5 bestimmen wir in einem ausführlichen Beispiel ein Komplement des Untervektorraums der symmetrischen Matrizen im Vektorraum aller quadratischer Matrizen über einem Körper K.

2W

Wegen U \ W D f0g gilt also u  u0 D 0 D w0  w. Das liefert u D u0 und w D w0 :



Ein Komplement ist ein direkter Summand

Wir schildern die Konstruktion eines Vektorraums V =U aus einem Vektorraum V mithilfe eines Untervektorraums U . Dazu benutzen wir die Äquivalenzrelationen aus 7 Abschn. 1.4. Gegeben sind ein K-Vektorraum V und ein (beliebiger) Untervektorraum U von V . Wir führen eine Äquivalenzrelation  auf der Menge V ein. Dabei nennen wir zwei Elemente v und w aus V äquivalent, wenn die Differenz v  w im vorgegebenen Untervektorraum U liegt, d. h., für v; w 2 V gilt: v w , vw2U :

?Selbstfrage 4.14 Ist U ein Untervektorraum eines K-Vektorraums V , so Warum ist  eine Äquivalenzrelation? heißt ein Untervektorraum W von V ein Komplement von U in V , wenn V D U ˚ W . Wir betrachten nun eine Äquivalenzklasse bezüglich dieser Relation . Für ein v 2 V ist Satz über die Existenz von Komplementen Ist U ein Untervektorraum eines K-Vektorraums V , so besitzt U ein Komplement in V .

Beweis Es sei BU eine Basis von U . Nach dem Basisergän-

Œv D fw 2 V j w  vg D fw 2 V j w  v 2 U g D fw 2 V j w  v D u; u 2 U g D fw 2 V j w D v C u; u 2 U g DvCU :

zungssatz können wir die linear unabhängige Menge BU mittels einer linear unabhängigen Menge BU0 zu einer Ba- Die Äquivalenzklassen haben somit die Form 0 sis BU [ BU0 von V ergänzen. ˝ 0 ˛ Die Menge BU erzeugt einen Œv D v C U : Unterrvektorraum W D BU . Wir begründen, dass W ein Komplement von U in V ist. Wegen Für die Quotientenmenge V = , das ist die Menge aller Äquivalenzklassen, ist die Schreibweise V =U üblich, U C W D hBU [ BU0 i D V ist V die Summe der beiden Untervektorräume U und W V =U D fŒv j v 2 V g D fv C U j v 2 V g : von V . Ist v 2 U \ W , so ist v eine Linearkombination von BU und von BU0 . Somit gibt es 1 ; : : : ; r ; 1 ; : : : ; s 2 K Für das Zeichen V =U verwendet man die Sprechweise V nach U oder V modulo U . Wegen der Form der Äquiund v1 ; : : : ; vr 2 BU , w1 ; : : : ; ws 2 BU0 mit valenzklasse nennt man v C U auch (Links-)Nebenklasse 1 v1 C    C r vr D v D 1 w1 C    C r ws : von v nach U und spricht anstelle von der Quotientenmenge V =U auch von der Menge der (Links-)Nebenklassen. Nun stellen wir diese Gleichung um: Die Äquivalenzklassen bilden eine Zerlegung der Menge V in disjunkte, nichtleere Teilmengen, wie wir in 1 v1 C    C r vr  .1 w1 C    C r ws / D 0 : 7 Abschn. 1.4 gezeigt haben. Wir arbeiten nun mit diesen Äquivalenzklassen als EleWegen der linearen Unabhängigkeit von BU und BU0 folgt hieraus i D 0 D j für alle vorkommenden i und j . mente der Quotientenmenge weiter. Unser Ziel ist es, V =U Dies zeigt v D 0, d. h. U \ W D f0g. Also ist W ein zu einem K-Vektorraum zu machen. Dazu führen wir nun eine Addition von Nebenklassen und eine Multiplikation Komplement von U in V . 

4

117 4.5  Summe und Durchschnitt von Untervektorräumen

von Nebenklassen mit Skalaren ein. Wir setzen für v C gegeben. Es folgt v0  v 2 U . Daher gilt U; w C U 2 V =U und  2 K  v0   v D  .v0  v/ 2 U : .v C U / C .w C U / D .v C w/ C U Nun folgt aber  v0   v, d. h.   .v C U / D . v/ C U : Zwei Nebenklassen werden also miteinander addiert, indem man die Repräsentanten addiert und davon die Nebenklasse bildet, und eine Nebenklasse wird mit einem Skalar multipliziert, indem der Repräsentant mit dem Skalar multipliziert wird und davon die Nebenklasse gebildet wird. Die Definition ist nur dann sinnvoll, wenn sie unabhängig von der Wahl der Repräsentanten v und w ist. Würde nämlich etwa v C U D v0 C U für verschiedene Elemente v ¤ v0 aus V gelten, aber . v/ C U ¤ . v0 / C U möglich sein, so wäre  K V =U ! V =U W .; v C U / 7! . v/ C U

. v0 / C U D . v/ C U : Dass V =U mit dieser Addition eine abelsche Gruppe ist, wurde im 7 Abschn. 2.2 gezeigt. Das neutrale Element bezüglich dieser Addition ist die Nebenklasse 0CU DU :

Die Gültigkeit der Vektorraumaxiome (V1)–(V4) ist offensichtlich, da diese Axiome ja in V erfüllt sind. Es bleibt also nur noch die Formel zur Dimension nachzuweisen. Dazu setzen wir nun voraus, dass V die Dimension n 2 N0 hat. Der Untervektorraum U habe die Dimension r  n. Wir wählen ein Komplement W  V zu U , V D W ˚ U . Die keine Abbildung, da einem Element v C U der Definitions- Dimension von W ist nr, es sei fb1 ; : : : ; bnr g eine Basis menge verschiedene Elemente der Wertemenge zugeordnet von W . Wenn wir zeigen können, dass die Menge werden. B D fb1 C U; : : : ; bnr C U g Um also nachzuweisen, dass unsere Definitionen sinnvoll sind, müssen wir zeigen, dass unabhängig von der Wahl eine Basis von V =U ist, folgt die Behauptung des Repräsentanten stets dasselbe Element bei der Addition dim V =U D n  r D dim V  dim U : und der Multiplikation entsteht, wir zeigen mehr:

Der Vektorraum V =U Für jeden Untervektorraum U eines K-Vektorraums V ist

Es ist B ein Erzeugendensystem von V =U : Es sei v C U 2 V =U . Wegen v 2 V D W C U existieren Skalare 1 ; : : : ; nr 2 K und ein u 2 U mit v D 1 b1 C    C nr bnr C u :

V =U D fv C U j v 2 V g

Es folgt durch Übergang zu Nebenklassen

mit der Addition

v C U D 1 b1 C    C nr bnr C U D 1 .b1 C U / C    C nr .bnr C U / 2 hBi :

.v C U / C .w C U / D .v C w/ C U ; v; w 2 V und der Multiplikation mit Skalaren

Es ist B linear unabhängig: Es gelte

  .v C U / D . v/ C U ;  2 K ; v 2 V

1 .b1 C U / C    C nr .bnr C U / D 0 D U

ein K-Vektorraum. Ist V endlichdimensional, so gilt

für Skalare 1 ; : : : ; nr 2 K. Wegen

dim V =U D dim V  dim U :

Beweis Die Addition ist v; v0 ; w; w0 2 V mit

v C U D v0 C U

1 .b1 C U / C    C nr .bnr C U / D 1 b1 C    C nr bnr C U wohldefiniert: Es

seien

und w C U D w0 C U

gegeben. Es folgt v0  v; w0  w 2 U . Daher gilt .v0 C w0 /  .v C w/ D .v0  v/ C .w0  w/ 2 U : Nun folgt aber .v0 C w0 /  .v C w/, d. h. 0

0

.v C w / C U D .v C w/ C U : Die Multiplikation mit Skalaren ist wohldefiniert: Es seien  2 K und v; v0 2 V mit v C U D v0 C U

(4.5)

besagt Gleichung (4.5): 1 b1 C    C nr bnr 2 U : Da hBi D W aber das Komplement von U in V ist, ist nur der Fall 1 D    D nr D 0 möglich.  Beispiel Wir betrachten den Untervektorraum U D he 1 i des R3 . Da he 2 ; e 3 i ein Komplement zu U in R3 ist, erhalten wir

R3 =U D he 2 C U; e 3 C U i und dim R3 =U D 2. 9

118

4

Kapitel 4  Vektorräume – von Basen und Dimensionen

Kommentar Das Prinzip der Konstruktion des Vektorraums V =U aus V und U findet sich in der Algebra immer wieder. Z. B. wird aus einer Gruppe G mit einem Normalteiler U die Faktorgruppe G=U gebildet, und aus einem Ring R kann mit einem Ideal I den Faktorring R=I konstruieren. Das Ziel einer solchen Konstruktion ist es oftmals, aus Gruppen, Ringen oder Vektorräumen neue Strukturen zu gewinnen, die vorgegebene Eigenschaften erfüllen. Aber nicht nur in der Algebra, auch in allen weiteren Gebieten der Mathematik werden ähnliche Konstruktionen durchgeführt, die aus einer gegebenen Struktur mithilfe von Äquivalenzrelationen eine neue Struktur schaffen. Zum Beispiel werden auch die reellen Zahl aus den rationalen Zahlen mit diesem Prinzip gewonnen.

4.4 

Folgt aus der linearen Unabhängigkeit der drei Vektoren u; v; w eines K-Vektorraums auch die lineare Unabhängigkeit der drei Vektoren u C v C w; u C v; v C w?

4.5  Geben Sie zu folgenden Teilmengen des RVektorraums R3 an, ob sie Untervektorräume sind, und begründen Sie 80dies: 9 1 < v1 = (a) U1 D @v2 A 2 R3 j v1 C v2 D 2 : ; v3 80 1 9 < v1 = (b) U2 D @v2 A 2 R3 j v1 C v2 D v3 : ; v3 80 1 9 < v1 = (c) U3 D @v2 A 2 R3 j v1 v2 D v3 : ; v3 80 1 9 Aufgaben < v1 = (d) U4 D @v2 A 2 R3 j v1 D v2 oder v1 D v3 : ; v3 Gelegentlich enthalten die Aufgaben mehr Angaben, als für die Lösung erforderlich sind. Bei einigen anderen dagegen werden Daten aus dem Allgemeinwissen, aus anderen 4.6  Welche der folgenden Teilmengen des R-VekQuellen oder sinnvolle Schätzungen benötigt. torraums RR sind Untervektorräume? Begründen Sie Ihre Aussagen.

einfache Aufgaben mit wenigen Rechenschritten (a) U1 D ff 2 RR j f .1/ D 0g

mittelschwere Aufgaben, die etwas Denkarbeit und (b) U2 D ff 2 RR j f .0/ D 1g unter Umständen die Kombination verschiedener (c) U3 D ff 2 RR j f hat höchstens endlich viele Konzepte erfordern Nullstelleng

anspruchsvolle Aufgaben, die fortgeschrittene Kon(d) U4 D ff 2 RR j für höchstens endlich viele x 2 R ist zepte (unter Umständen auch aus späteren Kapiteln) f .x/ ¤ 0g oder eigene mathematische Modellbildung benötigen (e) U5 D ff 2 RR j f ist monoton wachsendg (f) U6 D ff 2 RR j die Abbildung g 2 RR mit g.x/ D f .x/  f .x  1/ liegt in U g, wobei U  RR ein vorgegebener Untervektorraum ist. Verständnisfragen

Gibt es für jede natürliche Zahl n eine Menge Gelten in einem Vektorraum V die folgenden 4.7  A mit n C 1 verschiedenen Vektoren v1 ; : : : ; vnC1 2 Rn , Aussagen? (a) Ist eine Basis von V unendlich, so sind alle Basen von sodass je n Elemente von A linear unabhängig sind? Geben Sie eventuell für ein festes n eine solche an. V unendlich.

4.1 

(b) Ist eine Basis von V endlich, so sind alle Basen von V endlich. (c) Hat V ein unendliches Erzeugendensystem, so sind alle Basen von V unendlich. (d) Ist eine linear unabhängige Menge von V endlich, so ist es jede.

4.8  Da dim.U CV / D dim U Cdim V dim.U \V / gilt, gilt doch sicher auch analog zu Mengen dim.U C V C W / D dim U C dim V C dim W  dim.U \ V /  dim.U \ W /  dim.V \ W / C dim.U \ V \ W /? Beweisen oder widerlegen Sie die Formel für dim.U C V C W /!

4.2  Gegeben sind ein Untervektorraum U eines KVektorraums V und Elemente u; w 2 V . Welche der fol- Rechenaufgaben genden Aussagen sind richtig? (a) Sind u und w nicht in U , so ist auch u C w nicht in U . 2 4.9   Wir (b) Sind u und w nicht in U , so ist u C w in U .  betrachten  im  R  die  drei Untervektorräume   1 1 1 1 (c) Ist u in U , nicht aber w, so ist u C w nicht in U . , U2 D ; und U3 D . U1 D 2 1 2 3 4.3  Folgt aus der linearen Unabhängigkeit von u und Welche der folgenden  Aussagen ist richtig? 2 v eines K-Vektorraums auch die linearen Unabhängigkeit (a) Es ist ein Erzeugendensystem von U1 \ U2 . 4 von u  v und u C v?

119 Antworten zu den Selbstfragen

(b) Die leere Beweisaufgaben Menge  ; ist eine Basis von U1 \ U3 . 1 (c) Es ist eine linear unabhängige Teilmenge von 4 4.15  Begründen Sie, dass sich die Kommutativität der U2 . Vektoraddition aus den restlichen Axiomen folgern lässt. (d) Es gilt hU1 [ U3 i D R2 . 4.10 

Prüfen Sie, ob die Menge (

    1 0 1 1 ; v2 D ; B D v1 D 0 1 0 0    ) 0 1 0 0 ; v4 D v3 D  R2 2 1 0 1 0 eine Basis des R2 2 bildet. 4.11 

Bestimmen Sie eine Basis des von der Menge

4.16  Es seien U1 ; U2 ; U3 Untervektorräume eines KVektorraums V . Weiter gelte

U1 C U3 D U2 C U3 ; U1 \ U3 D U2 \ U3 und U1  U2 : Zeigen Sie U1 D U2 . 4.17  Eine Funktion f W R ! R heißt gerade (bzw. ungerade), falls f .x/ D f .x/ für alle x 2 R (bzw. f .x/ D f .x/ für alle x 2 R). Die Menge der geraden (bzw. ungeraden) Funktionen werde mit G (bzw. U ) bezeichnet. Beweisen Sie: Es sind G und U Untervektorräume von RR , und es gilt RR D G ˚ U .

80 1 0 1 0 1 0 1 0 1 0 19 0 1 1 1 1 2 > ˆ ˆ

= 4.18  Es seien K ein Körper mit jKj D 1 und V ein C ; B C ; B C ; B C ; B C ; B C K-Vektorraum. Ferner seien n 2 N und U ; : : : ; U UnterXD B 1 n @ 0 A @ 1 A @ 0 A @ 1 A @1A @1A> ˆ ˆ > : ; vektorräume von V mit Ui ¤ V für i D 1; : : : ; n. Zeigen 1 2 1 0 1 0 Sie: erzeugten Untervektorraums U D hXi des R4 . 4.12 

Begründen Sie, dass für jedes n 2 N die Menge

9 8 0 1 u1 > ˆ = < B :: C n U D u D @ : A 2 R j u1 C    C un D 0 > ˆ ; : un einen R-Vektorraum bildet, und bestimmen Sie eine Basis und die Dimension von U . 4.13 

n [

Ui ¤ V:

i D1

(Anders formuliert: Ist jKj D 1, so lässt sich V nicht als Vereinigung endlich vieler echter Untervektorräume schreiben.)

Antworten zu den Selbstfragen vAntwort 4.1

Bestimmen Sie die Dimension des Vektorraums

hf1 ; f2 ; f3 i  RR : mit f1 W x 7! sin.x/; f2 W x ! 7 sin.2x/; f3 W x ! 7 sin.3x/: 4.14 

Es seien a; b verschiedene, linear unabhängige Elemente eines K-Vektorraums V . Wir setzen für Skalare ; ; ;  2 K: c D  a C  b und d D  a C  b:

Unter welcher Bedingung an ; ; ;  2 K sind c; d linear unabhängig?

Für alle u; v; w aus V gilt: (AG1) v C w 2 V (Abgeschlossenheit). (AG2) .u C v/ C w D u C .v C w/ (Assoziativität). (AG3) Es gibt ein Element 0 2 V mit vC0 D v (Existenz eines neutralen Elements). (AG4) Es gibt ein v0 2 V mit v C v0 D 0 (Existenz eines entgegengesetzten Elements). (AG5) v C w D w C v (Kommutativität).

vAntwort 4.2 Da Matrizen Abbildungen sind, sind diese genau dann gleich, wenn sie dieselbe Definitions- und Wertemenge und dieselben Bilder haben: Zwei m n-Matrizen A D .aij / und B D .bij / über K sind also genau dann gleich, wenn aij D bij für alle i; j gilt.

vAntwort 4.3

Natürlich ist auch für jeden Körper K die Menge K; ein K-Vektorraum, obiger Beweis gilt für jede Menge M . Die Menge K; besteht aber nur aus einem Element, nämlich

4

120

Kapitel 4  Vektorräume – von Basen und Dimensionen

der leeren Menge – es ist ; die einzige existierende Abbildung von ; in K (beachte die Definition einer Abbildung auf Seite 12). Der Vektorraum K; ist somit der triviale Vektorraum f;g, das einzige Element ; ist der Nullvektor.

v Antwort 4.4

4

Neben den trivialen Untervektorräumen sind für alle v ¤ 0 ¤ w und w … R v die Mengen R v und R v C R w D f v C  w j ;  2 Rg Untervektorräume. Tatsächlich gibt es keine weiteren Untervektorräume im R3 .

v Antwort 4.5

! a a Von denen ! gibt es nur die trivialen a a . Ist nämlich a b ein solches magisches Quadrat, so folgt aus c d aCb D cCd D aCc DbCd DaCd DbCc

vAntwort 4.10 Ja! Dass B ein Erzeugendensystem von V ist, folgt aus der Tatsache, dass sich jeder Vektor als Linearkombination von B darstellen lässt. Zu überlegen bleibt also nur, dass B linear unabhängig ist. Es seien v1 ; : : : ; vn irgendwelche Vektoren aus B. Aus der Gleichung 1 v1 C    C n vn D 0 mit 1 ; : : : ; n 2 K folgt wegen der eindeutigen Darstellbarkeit des Nullvektors sogleich 1 D    D n D 0, da natürlich der Nullvektor trivial dargestellt werden kann, 0 v1 C    C 0 vn D 0 :

vAntwort 4.11 Der R-Vektorraum R hat die Dimension 1, und jede von null verschiedene Zahl ist als Basisvektor wählbar.

sofort a D b D c D d .

vAntwort 4.12 v Antwort 4.6 Ja. Der Vektorraum V selbst ist stets ein Erzeugendensystem, es gilt V D hV i.

v Antwort 4.7 Ja, dies folgt aus der Definition.

v Antwort 4.8 Der Nullvektorraum f0g besitzt die einzige Basis ; und der Z2 -Vektorraum Z2 besitzt die einzige Basis f1g. Jeder KVektorraum besitzt im Fall K ¤ Z2 mehr als eine Basis, da man einen Basisvektor b nämlich stets durch  b mit  2 K n f0g ersetzen kann, man erhält so wieder eine Basis.

v Antwort 4.9

˝ ˛ 1. Nein, der R2 ist keine Basis von R2 D R2 . 2. Ja, jede linear unabhängige Menge X ist Basis von hXi.

Es ist U C W nicht leer, weil der Nullvektor 0 in U C W liegt. Weiter liegen mit zwei Elementen uCw; u0 Cw0 2 U und  2 K stets auch uCwCu0 Cw0 D .uCu0 /C.wCw0 / und  .u C w/ D  u C  w wieder in U .

vAntwort 4.13 Nein, man wähle etwa zwei verschiedene Basen MU und MW eines Vektorraumes U D W .

vAntwort 4.14 (i) Wegen v  v D 0 2 U für alle v 2 V gilt v  v für alle v 2 V . (ii) Da mit jedem Element u 2 U auch u in U liegt, folgt aus v  w, d. h v  w 2 U , auch w  v 2 U , d. h w  v. (iii) Da mit je zwei Elementen aus U auch deren Summe in U liegt, folgt aus u  v und v  w, d. h. u  v; v  w 2 U sogleich u  w 2 U , d. h. u  w.

121

Analytische Geometrie – Rechnen statt Zeichnen

Inhaltsverzeichnis 5.1

Punkte und Vektoren im Anschauungsraum – 122

5.2

Das Skalarprodukt im Anschauungsraum – 126

5.3

Weitere Produkte von Vektoren im Anschauungsraum – 134

5.4

Abstände zwischen Punkten, Geraden und Ebenen – 143

5.5

Wechsel zwischen kartesischen Koordinatensystemen – 152 Aufgaben – 164 Antworten zu den Selbstfragen – 166

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_5

5

122

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

n Sie finden unter anderem Antworten zu . . .

4 Was bedeutet die Koordinateninvarianz des Vektorprodukts und des Spatprodukts? 4 Was versteht man unter der Hesse’schen Normalform einer Ebene? 4 Wie erfolgt die Umrechnung zwischen einem geozentrischen und einem heliozentrischen Koordinatensystem?

5

Historisch gesehen hat sich die Geometrie aus einer Idealisierung unserer physikalischen Welt entwickelt. Zunächst war allein die Zeichnung die Grundlage für geometrische Fragestellungen, für deren Analyse und deren Lösung. Es bedeutete zweifellos einen besonderen Durchbruch, als man begann, geometrische Elemente durch Zahlen zu beschreiben und damit die zeichnerische Lösung eines Problems durch eine rechnerische zu ersetzen. Dieser für die moderne Wissenschaft so bedeutende Schritt ist vor allem René Descartes und Pierre de Fermat zu verdanken und führte zur Entwicklung der analytischen Geometrie. Ohne diese gäbe es keine Computergrafik, keine Robotik und keine Raumfahrt, um nur einige wenige unserer heute so selbstverständlichen Errungenschaften zu nennen. Das Verhältnis zwischen Zeichnung und Rechnung hat sich neuerdings geradezu umgekehrt: Wenn heute jemand auf dem Computer mit Geometrie-Software, also mit „virtuellen Zeicheninstrumenten“ konstruiert, so läuft im Hintergrund die Rechnung ab. Nicht die Rechnung ersetzt die Zeichnung, sondern jetzt dient die Zeichnung auf dem Bildschirm der benutzerfreundlichen Eingabe von Daten und Ausgabe von errechneten Resultaten. In diesem Kapitel konzentrieren wir uns auf die analytische Geometrie des R3 , genauer des dreidimensionalen euklidischen Raums. Dies deshalb, weil der R3 unseren physikalischen Raum idealisiert und wir uns die notwendigen Begriffe geometrisch veranschaulichen können. Die ebene Geometrie ist dabei selbstverständlich enthalten. Mit der Kenntnis der zwei- und dreidimensionalen Geometrie fällt es uns auch leichter, so manche n-dimensionale Fragestellung oder allgemeine mathematische Prinzipien zu verstehen. Im R3 gibt es neben der im vorhergehenden Kapitel behandelten Vektorraumstruktur noch andere Verknüpfungen, die eine geometrische Bedeutung haben. Wir werden uns nach einer Analyse der Begriffe Punkt und Vektor vor allem auf diese zusätzlichen Produkte konzentrieren und deren geometrische Bedeutung hervorkehren. Mit den zugehörigen Formeln schaffen wir uns das Werkzeug, um auch die vorstellungsmäßig oft recht anspruchsvollen Umrechnungen zwischen räumlichen Koordinatensystemen übersichtlich zu gestalten. Bei unserer Betrachtung des R3 greifen wir gelegentlich auf die Elementargeometrie zurück, wie sie aus der Schule her bekannt ist. So setzen wir etwa den pythagoreischen Lehrsatz oder den Kosinussatz als bekannt voraus. Dabei verstehen wir die hier auftretenden trigonometri-

schen Funktionen im Sinn ihrer geometrischen Definition. Das Ziel des vorliegenden Kapitels ist es jedenfalls, die Eleganz und Nützlichkeit der Vektor- und Matrizenrechnung im R3 zu demonstrieren. Über das formale Rechnen hinaus wollen wir aber die geometrische Bedeutung der einzelnen Operationen stets im Auge behalten, um auf Verallgemeinerungen in späteren Kapiteln vorzubereiten. 5.1

Punkte und Vektoren im Anschauungsraum

Wir haben uns schon in den 7 Kap. 3 und 4 mit dem Anschauungsraum befasst. Damit meinen wir den R3 als die geometrische Idealisierung des uns umgebenden physikalischen Raums. Nach Einführung eines Koordinatensystems im Anschauungsraum sind die Punkte a mit 0 1 a1 den Koordinatentripeln @a2 A zu identifizieren und als Veka3 toren des Vektorraums R3 aufzufassen. Somit stehen als Verknüpfungen die Addition von Punkten und die skalare Multiplikation von a mit  2 R zu a zur Verfügung. Im Folgenden wird gezeigt, dass Vektoren im Anschauungsraum noch eine andere Bedeutung haben.

Vektoren im Anschauungsraum können sowohl Punkte als auch Pfeile bedeuten In 7 Kap. 4 wurde die Summe der Vektoren a; c 2 R3 definiert als 1 0 1 0 1 0 a1 c1 a1 C c1 a C c D @a2 A C @c2 A D @a2 C c2 A : a3 c3 a3 C c3 Dies bedeutet geometrisch, dass im Anschauungsraum je zwei Punkten a; c ein Summenpunkt b D a C c zugeordnet werden kann. Und zwar ergänzt dieser die drei Punkte a, 0 und c zu einem Parallelogramm (. Abb. 5.1). b DaCc

x3

a

c

x2

x1 0 . Abb. 5.1 Die Summe b D a C c der Punkte a und c ergänzt das Dreieck a 0 c zu einem Parallelogramm

5

123 5.1  Punkte und Vektoren im Anschauungsraum

x3 b q a v

p

x2

x1 0 . Abb. 5.2 Der Vektor v ist sowohl gleich b  a als auch gleich q  p

Somit sind alle Punktepaare .a; b/, .p; q/ mit demselben Differenzvektor ba D q p Elementepaare ein und derselben Translation. Es liegt nahe, diese Translation grafisch durch Pfeile darzustellen, deren Endpunkt b das Bild des jeweiligen Anfangspunkts a ist (. Abb. 5.2). Dies führt uns im Anschauungsraum zu einer neuen Interpretation von Vektoren: Wir verstehen unter einem Vektor v 2 R3 die Gesamtheit der Pfeile, deren Anfangspunkt a und Endpunkt b jeweils der Bedingung v D b  a genügen. Alle diese Pfeile sind gleich lang und gleich gerichtet. Kennt man einen, so kennt man alle. Dahinter steht eine Äquivalenzrelation: Wir nennen zwei Paare .p; q/; .a; b/ 2 .R3 R3 / äquivalent, wenn qp Dba gilt. Diese Relation auf R3 R3 ist offensichtlich reflexiv, symmetrisch und transitiv. Die Äquivalenzklassen heißen Vektoren des Anschauungsraums. Natürlich ist jeder Vektor v bereits durch einen Repräsentanten eindeutig bestimmt, und so schreiben wir kurz v D b  a 2 R3 . Kommentar Der Anschauungsraum ist ein affiner Raum

und wird zunächst als Menge von Punkten verstanden. Jede Äquivalenzklasse von Punktepaaren mit derselben Differenz ist ein Vektor, und diese bilden den zum affinen Raum gehörigen Vektorraum. Umgekehrt legt jeder Vektorraum V einen affinen Raum fest als Menge aller affinen Teilräume a C U mit a 2 V und U als Untervektorraum von V (siehe 7 Abschn. 4.3). Die Punkte des affinen Raums sind die nulldimensionalen affinen Teilräume fag D a C f0g von V . Der Vektor v D b  a des Anschauungsraums wird also durch einen Pfeil mit Anfangspunkt a und Spitze b repräsentiert, doch kann dieser Pfeil im Raum noch beliebig parallel verschoben werden, ohne dabei den Vektor zu verändern (. Abb. 5.3). Nun sind im Anschauungsraum sowohl die Punkte, als auch die durch Pfeile repräsentierten Vektoren jeweils durch

. Abb. 5.3 Eine Äquivalenzklasse gleich langer und gleich orientierter Pfeile ist ein Vektor

drei Koordinaten festgelegt. Punkte wie Vektoren werden daher auch auf dieselbe Weise durch fett gedruckte Symbole bezeichnet. Dies kann manchmal verwirren. In der Regel ist aus dem Zusammenhang klar, was gemeint ist: Wenn wir z. B. eine Gerade darstellen als G D fx D a C t u j t 2 Rg; so sind a und x Punkte, während u ein Vektor ist (. Abb. 5.4). Zur besseren sprachlichen Unterscheidung werden wir die durch Pfeile repräsentierten Vektoren auch Richtungsvektoren nennen. Und den „Punkt p“ nennen wir gelegentlich auch den „Punkt mit dem Ortsvektor p“. Dabei verstehen wir unter dem Ortsvektor des Punkts p die Differenz p  0, die repräsentiert wird durch den vom Koordinatenursprung 0 zum Punkt p weisenden Pfeil. Zudem werden wir die Symbole a, b, p, q, x zumeist für Punkte reservieren und u, v, w und n für Richtungsvektoren. Wenn wir auch die Ortsvektoren p; q zweier Punkte durch Pfeile darstellen, so lässt sich die Bildung der Vektor-

x3 G u

x D a C tu b

a

x2 x1 . Abb. 5.4 Parameterdarstellung der Geraden G

124

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

x3 v

u

uCv v u

v u

0

p x2

5

x1

Eine Teilmenge A des Vektorraums V heißt affiner Teilraum , wenn A darstellbar ist als a C U mit a 2 V und U als Untervektorraum von V . Wir definieren die Dimension von A durch die Gleichung dim A D dim U und nennen den Unterraum U die Richtung von A. Nachdem es sich bei U um eine Untergruppe der kommutativen Gruppe .V; C/ handelt, ist der affine Teilraum A eine Nebenklasse von U im Sinne von 7 Abschn. 2.1. Im Folgenden wenden wir uns den ein- und zweidimensionalen affinen Teilräumen des Anschauungsraums R3 zu, den Geraden und Ebenen.

. Abb. 5.5 Summe u C v und Differenz u  v von Richtungsvektoren

Affin- und Konvexkombinationen im R3 summe p C q auch ohne das Parallelogramm in . Abb. 5.1 als spezielle Linearkombinationen geometrisch beschreiben. Wir können nämlich einheitlich formulieren: Zwei Vektoren werden addiert, indem zugehörige Pfeile Wir betrachten die Gerade G D a C Ru, also ausführlich aneinandergehängt werden. Zur Bestimmung der Differenz G D fx D a C t u j t 2 Rg: zweier Vektoren wählen wir zwei repräsentierende Pfeile mit demselben Anfangspunkt und legen dann den Differenzvektor als Pfeil nach der Regel „Endpunkt minus Ru ist die Richtung dieses affinen Teilraums und u ein Richtungsvektor von G. Anfangspunkt“ fest (. Abb. 5.5). Ist b ein weiterer Punkt von G neben a, so können wir sagen, G wird von den Punkten a und b aufgespannt, was Beispiel Gegeben sind die drei Punkte man gelegentlich mit dem Symbol G D spanfa; bg aus0 1 0 1 0 1 1 4 3 drückt. Wählen wir nun u D b  a als Richtungsvektor von a D @2A ; b D @3A ; c D @4A : G, so können wir die Punkte x von G auch darstellen als 1 3 2 x D a C .b  a/ D .1  /a C b mit  2 R: Gesucht ist derjenige Punkt d, welcher die drei Punkte a; b; c zu einem Parallelogramm abcd ergänzt. Damit diese vier Punkte in der angegebenen Reihenfol- x ist eine sogenannte Affinkombination von a und b, also ge ein Parallelogramm bilden, müssen die Pfeile von a nach eine Linearkombination, für welche die Summe der verb sowie von d nach c gleich lang und gleich gerichtet sein. wendeten Skalare .1  / C  genau 1 ergibt. Wird zudem  auf 0    1 eingeschränkt, so durchDies bedeutet läuft x genau die abgeschlossene Strecke von a bis b, und b  a D c  d; dann heißt die Affinkombination Konvexkombination . Analog können wir bei den Ebenen vorgehen. Wird die also durch den Punkt a gehende Ebene E von den zwei linear unabhängigen Vektoren u und v aufgespannt, so lautet ihre d D a  b C c: Parameterdarstellung: Somit lautet die Lösung: 0 1 0 1 0 1 0 1 E D fx D a C u C v j .; / 2 R2 g: 1 4 3 0 d D @2A  @3A C @4A D @1A : Wir schreiben dafür auch E D p C Ru C Rv (. Abb. 5.6). 0 1 3 2 Angenommen, E enthält die drei nicht auf einer GeraWir erkennen: Die vier Punkte a b c d bilden genau dann den gelegenen Punkte a, b und c, kurz E D spanfa; b; cg. in dieser Reihenfolge ein Parallelogramm, wenn gilt: Dann können wir u D b  a und v D c  a setzen, und Punkte x von E sind darstellbar als a  b C c  d D 0: 9 ? Selbstfrage 5.1 Bestimmen Sie den Punkt f , welcher die obigen Punkte a; b; c zu einem Parallelogramm abf c ergänzt. Beachten Sie dabei die nun geänderte Reihenfolge. Überprüfen Sie, dass c in der Mitte zwischen f und dem vorhin berechneten Punkt d liegt.

x D a C .b  a/ C .c  a/ D .1    /a C  b C  c mit .; / 2 R2 . Wieder liegt eine Linearkombination mit der Koeffizientensumme 1 vor, und wir können sagen: x ist genau dann eine Affinkombination von a, b und c, wenn

125 5.1  Punkte und Vektoren im Anschauungsraum

Man nennt die Menge aller Konvexkombinationen einer gegebenen Punktmenge M auch die konvexe Hülle von M und verwendet dafür das Symbol conv M . Die konvexe Hülle enthält mit je zwei verschiedenen Punkten a; b auch deren konvexe Hülle convfa; bg, also die davon begrenzte Strecke. Mengen mit dieser Eigenschaft heißen konvex. Somit ist die konvexe Hülle conv M eine M umfassende konvexe Menge. Analog heißt die Menge der Affinkombinationen von M auch affine Hülle span M der Punktmenge M .

x3

v

c

E

a u

b x2

Beispiel Nach dem Beispiel von vorhin bilden die vier

Punkte x1 . Abb. 5.6 Die abgeschlossene Dreiecksscheibe ist gleich der Menge aller Konvexkombinationen von a, b und c, kurz: D convfa; b; cg

0

1 0 1 0 1 0 1 1 4 3 0 a D @2A ; b D @3A ; c D @4A ; d D @1A 1 3 2 0

ein Parallelogramm. Berechnen Sie dessen Mittelpunkt m. Der Mittelpunkt m der Diagonale ac hat die Eigenschaft m  a D c  m, also 2m D a C c. Wir erhalten x 2 spanfa; b; cg gilt. Die drei Skalare .; ; / mit der daraus die spezielle Konvexkombinationen Bedingung  C  C  D 1 werden manchmal als überzähli1 1 ge Punktkoordinaten in der Ebene E verwendet; sie heißen m D .a C c/ D .b C d/; baryzentrische Koordinaten des Punktes x D aCbCc. 2 2 In Hinblick auf die vorhin betonte Unterscheidung zwi- nachdem a C c D b C d kennzeichnend ist für das Paralschen Punkten und Vektoren im Anschauungsraum müssen lelogramm abcd. Durch Einsetzen der obigen Koordinaten wir festhalten, dass Affinkombinationen auf Punkte anzu- folgt: 0 1 0 1 wenden sind und wiederum Punkte liefern. 2 4 1@ A @ A 2 D 1 : 9 mD ? Selbstfrage 5.2 2 3 3 2 Beweisen Sie, dass eine Affinkombination von Affinkombinationen wieder eine Affinkombination ist und dass die analoge Eigenschaft für Konvexkombinationen gilt.

Welche Punktmenge ist nun durch die Menge aller Konvexkombinationen von a, b und c beschrieben, wenn diese Punkte nach wie vor nicht auf einer Geraden liegen? Wir untersuchen also D fy D  a C  b C  c j ; ;   0 und  C  C  D 1g:

?Selbstfrage 5.3 Welche der folgenden Aussagen ist richtig? 4 Liegt der Punkt x auf der Verbindungsgeraden von a und b, so ist x eine Linearkombination von a und b. 4 Jede Linearkombination von a und b stellt einen Punkt der Verbindungsgeraden ab dar.

?Selbstfrage 5.4 Gegeben sind drei Punkte a; b; c. Deren arithmetisches Mittel s D 13 .a C b C c/ ist der Schwerpunkt des Punktetripels. 4 Angenommen, die drei Punkte a; b; c bilden ein Dreieck. Warum liegt s stets im Inneren dieses Dreiecks? 4 Zeigen Sie, dass s auf der Verbindungsgeraden von c mit dem Mittelpunkt von a und b liegt.

ist jedenfalls eine Teilmenge von E D spanfa; b; cg. Bei  D 0 ist  C  D 1 und daher y ein Punkt der abgeschlossenen Strecke ab. Bei  > 0 liegt y D a C .b  a/ C .c  a/ innerhalb E auf derjenigen Seite der Geraden ab, welcher auch c angehört. Analog folgt aus   0, dass y in E entweder der abgeschlossenen Strecke ac angehört oder auf derselben Seite der Geraden ac liegt wie b. Schließlich Im Anschauungsraum ist zwischen Rechtskönnen wir auch schreiben: y D b C .c  b/ C .a  b/; und bei  > 0 liegen a und y auf derselben Seite von bc. ist somit gleich der Menge aller Punkte der abgeschlossenen Dreiecksscheibe, also der Punkte, die bei ; ;  > 0 im Dreiecksinneren und sonst auf dem Rand liegen (. Abb. 5.6).

und Linkssystemen zu unterscheiden

Wollen wir unsere physikalische Welt mathematisch beschreiben, so müssen wir auch Distanzen und Winkel messen können. Was wir schon bisher stillschweigend angenommen haben, soll nun besonders betont werden: Wir verwenden im Folgenden ausschließlich Koordinatensyste-

5

126

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

. Abb. 5.7 Das orthonormierte Rechtskoordinatensystem .oI B/

Punkte, Vektoren und ihre Koordinaten

b3

b2 C90ı

o

b1

5 me, deren Basisvektoren fb1 ; b2 ; b3 g orthonormiert, d. h. paarweise orthogonal und von der Länge 1 sind. Derartige Koordinatensysteme heißen nach René Descartes kartesisch. Ist o der Koordinatenursprung und B D .b1 ; b2 ; b3 / die geordnete Basis, so bezeichnen wir das Koordinatensystem kurz mit dem Symbol .oI B/. Zudem fordern wir, dass die Basisvektoren in der Reihenfolge .b1 ; b2 ; b3 / ein Rechtssystem bilden, d. h. sich ihre Richtungen der Reihe nach durch den Daumen, Zeigefinger und Mittelfinger der rechten Hand angeben lassen. Man spricht dann auch von einem kartesischen Rechtssystem. Häufig werden wir uns den dritten Basisvektor und damit die dritte Koordinatenachse lotrecht, und zwar nach oben weisend vorstellen. Dann liegen b1 und b2 horizontal. Von oben gesehen erfolgt die Drehung von b1 nach b2 durch 90ı im mathematisch positiven Sinn (. Abb. 5.7). Spiegelbilder von Rechtssystemen sind Linkssysteme. Hier folgen die drei Basisvektoren aufeinander wie Daumen, Zeigefinger und Mittelfinger der linken Hand (. Abb. 5.8). Wir werden die Bezeichnung Rechtssystem später auch ausdehnen auf drei Vektoren, die nicht paarweise orthogonal sind, die aber trotzdem der Rechten-Hand-Regel folgen. Dabei dürfen wir voraussetzen, dass die von zwei Fingern eingeschlossenen Winkel zwischen 0ı und 180ı liegen. ? Selbstfrage 5.5 Angenommen, wir stellen ein Rechtssystem „auf den Kopf“, d. h., wir verdrehen es derart, dass der dritte Basisvektor nach unten weist. Wird das Rechtssystem dadurch zu einem Linkssystem?

Obwohl wir die Punkte und Vektoren vorhin über ihre Koordinaten eingeführt haben, werden wir den in der Theorie der Vektorräume üblichen Standpunkt einnehmen: Die Punkte und Vektoren sind geometrische Objekte unseres Raums, und diese existieren von vornherein. In diesem Raum können Koordinatensysteme willkürlich festgelegt werden. So kommt es, dass ein und derselbe Punkt oder Vektor je nach Wahl des Koordinatensystems verschiedene Koordinaten hat. Bei dieser Gelegenheit erinnern wir an 7 Kap. 4: Ist B eine geordnete Basis des n-dimensionalen K-Vektorraums V , so ist jeder Vektor v 2 V eindeutig als Linearkombination v D v1 b1 C    C vn bn von B darstellbar. Wir nennen die verwendeten Skalare v1 ; : : : ; vn die B-Koordinaten von v und schreiben das n-Tupel .v1 ; : : : ; vn / 2 Kn als Spaltenvektor. Für diesen Koordinatenvektor benutzen wir gelegentlich das Symbol B v, wenn ausdrücklich auch die zugrunde liegende Basis hervorgehoben werden soll. Im Fall des Anschauungsraums V D R3 können wir B D .b1 ; b2 ; b3 / setzen. Dann lautet der Vektor B u der B-Koordinaten des Vektors u 2 R3 : 0 1 u1 @ A B u D u2 u3 ” u D u1 b1 C u2 b2 C u3 b3 :

Wenn wir von einem Koordinatensystem .oI B/ für Punkte sprechen, so spielt auch die Wahl des Ursprungs o eine Rolle. Wir schreiben daher .oIB/ x, wenn wir ausdrücklich die Koordinaten des Punkts x bezüglich des genannten Koordinatensystems meinen, und diese sind wie folgt definiert: 0 1 x1 @ x 2A .oIB/ x D x3 ” x D o C x1 b1 C x2 b2 C x3 b3 :

b1

(5.2)

b1 b2

b2 b3

(5.1)

b3

. Abb. 5.8 Merkregel für die Anordnung der Basisvektoren: b1 = Daumen, b2 = Zeigefinger, b3 = Mittelfinger, wie wenn man mit den Fingern „1,2,3“ zählt. Die rechte Hand bestimmt ein Rechtssystem, die linke ein Linkssystem

5.2

Das Skalarprodukt im Anschauungsraum

Neben der Addition und skalaren Multiplikation gibt es im Anschauungsraum noch weitere nützliche Verknüpfungen. Das im Folgenden behandelte Skalarprodukt kann auf beliebige Dimensionen verallgemeinert werden (siehe 7 Kap. 9). Zunächst aber interessiert uns vor allem seine geometrische Bedeutung.

5

127 5.2  Das Skalarprodukt im Anschauungsraum

Definition des Skalarprodukts und der Norm im Anschauungsraum

x3

b

Definition des Skalarprodukts

b3

3 Für je0 zwei1Vektoren 0 u; 1 v 2 R mit kartesischen Koordiv1 u1 B C B C naten @u2 A bzw. @v2 A lautet das Skalarprodukt u3 v3

a x2 x1

u  v D u1 v1 C u2 v2 C u3 v3 :

Dieses Produkt legt eine Abbildung R3 R3 ! R mit .u; v/ 7! u  v

a3

b2

a2

jb1

a1 j

. p Abb. 5.9 Die Distanz der Punkte a und b ist ka  bk D .a1  b1 /2 C .a2  b2 /2 C .a3  b3 /2 , was sich auch aus dem Satz des Pythagoras ergibt

fest, welche jedem Paar von Vektoren aus R3 eine reelle Beispiel Als kleines Zahlenbeispiel zwischendurch berechZahl in Form des Skalarprodukts zuweist. Das Skalarprodukt u  v lässt sich auch als Matrizenpro- nen wir für die Vektoren dukt auffassen, so wie es uns bereits bei den Gleichungs0 1 0 1 2 1 systemen in 7 Abschn. 3.2 begegnet ist. Dazu müssen die @1A und v D @ 5A u D Koordinaten des ersten Vektors u als Zeile und jene des 2 3 zweiten Vektors v als Spalte geschrieben werden: 0 1 v1 deren Skalarprodukt > @ v2 A D u  v D .u u u / v: (5.3) u 1 2 3 „ƒ‚… „ƒ‚… u  v D 2  .1/ C .1/  5 C 2  3 D 2  5 C 6 D 1 v3 Skalarprodukt Matrizenprodukt von Vektoren

Aus Gründen der Einfachheit verwenden wir in (5.3) die Symbole u und v links für Vektoren und ebenso rechts für Matrizen mit drei Zeilen und einer Spalte. Das hochgestellte > bei u bedeutet die Transponierung, wodurch Zeilen mit Spalten vertauscht werden. Deshalb bezeichnet u> eine 1 3 -Matrix. Diese Doppelverwendung der Symbole u und v sollte aber kaum zu Schwierigkeiten führen. Der Punkt kennzeichnet jedenfalls das Skalarprodukt von zwei Vektoren. Bei der Auffassung als Matrizenprodukt wird kein Verknüpfungssymbol verwendet. Auf dem Skalarprodukt eines Vektors mit sich selbst beruht die Definition der Norm oder Länge q p kuk D u21 C u22 C u23 D u  u; die oft auch Standardnorm des R3 genannt wird. Die Abbildung R3 ! R0 mit u 7! kuk ordnet jedem Richtungsvektor die gemeinsame Länge der repräsentierenden Pfeile zu, denn bei u D a  b ist kuk D ka  bk p D .a1  b1 /2 C .a2  b2 /2 C .a3  b3 /2 genau die Distanz der Punkte a und b, wie anhand des Satzes von Pythagoras (. Abb. 5.9) sofort zu erkennen ist. Anstelle von uu schreibt man übrigens auch manchmal u2 .

sowie die Norm von u: p kuk D 22 C .1/2 C 22 p p D 4 C 1 C 4 D 9 D 3: 9 Nachdem das Quadrat der Norm eines Vektors gleich der Quadratsumme seiner Koordinaten ist, gilt: kuk D 0 ” u D 0:

(5.4)

Eine weitere wichtige Formel zur Norm lautet: kuk D jj kuk:

(5.5)

Beweis Es ist kuk2 D .u/  .u/ D 2 .u  u/. 

Normieren von Vektoren Jeder Vektor u ¤ 0 lässt sich durch skalare Multiplikation gemäß

b uD

1 u kuk

in einen Vektor mit der Norm 1, also in einen Einheitsvektor b u transformieren. Wir sagen dazu, wir normieren den Vektor u.

128

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

x3

x3

pC v

v uC

v

p

u u

pC

5

p

v

u

v

u v v

u u x2

x1

x2 x1

. Abb. 5.10 Der verallgemeinerte Satz des Pythagoras ku  vk2 D kuk2 C kvk2  2 .u  v/ gilt auch für nicht rechtwinklige Dreiecke

. Abb. 5.11 Die Parallelogrammgleichung liefert eine Beziehung zwischen den Längen der Seiten und der Diagonalen eines Parallelogramms

Beweis Mit (5.5) ist

Beweis Wir nutzen die Bilinearität und die Symmetrie des Skalarprodukts, um den Ausdruck auf der linken Seite wie folgt umzuformen:

ˇ ˇ ˇ 1 ˇ ˇ kuk D 1 kuk D 1: kb uk D ˇˇ kuk ˇ kuk

b u behält die Richtung von u ¤ 0 bei.



.u  v/  .u  v/ D u  u  u  v  v  u C v  v D u  u C v  v  2 .u  v/:

Auf der rechte Seite treten offensichtlich, wie behauptet, thematik (siehe auch 7 Kap. 9). Die hier definierte heißt die Quadrate der Normen auf.  Standardnorm oder 2-Norm. Für alle Normen gelten die zu Eine weitere Konsequenz der Bilinearität ist die folgen(5.4) und (5.5) analogen Gleichungen und dazu noch die de Parallelogrammgleichung: später folgende Dreiecksungleichung. (5.6) ku C vk2 C ku  vk2 D 2 .kuk2 C kvk2 /: Das Skalarprodukt ist offensichtlich symmetrisch, d. h., ?Selbstfrage 5.6 u  v D v  u: Beweisen Sie die Parallelogrammgleichung. Kommentar Es gibt viele verschiedene Normen in der Ma-

Zudem ist das Skalarprodukt linear in jedem Anteil und daDiese Gleichung besagt in Worten: In jedem Parallelomit bilinear, d. h., gramm ist die Quadratsumme der beiden Diagonalenlängen gleich der Quadratsumme der vier Seitenlängen. .u1 C u2 /  v D .u1  v/ C .u2  v/; Dabei wird das Parallelogramm von den Punkten p, .u/  v D .u  v/ p C u, p C u C v und p C v gebildet (siehe . Abb. 5.11 und analog für v. Später im 7 Kap. 9 werden wir Skalarpro- und auch . Abb. 5.5). Wir nennen dieses das von u und v dukte auch in anderen Vektorräumen definieren und dabei aufgespannte Parallelogramm, obwohl es wegen der freien zunächst nur die Bilinearität und Symmetrie fordern. Das Wahl der ersten Ecke p unendlich viele derartige Parhier definierte wird auch als kanonisches Skalarprodukt be- allelogramme gibt, die alle durch Parallelverschiebungen auseinander hervorgehen. zeichnet. Beispiel Wir beweisen die Formel

ku  vk D kuk C kvk  2 .u  v/: 2

2

2

Diese Formel wird manchmal verallgemeinerter Satz des Pythagoras genannt, weil damit in dem Dreieck der Punkte p, p C u und p C v (. Abb. 5.10) die Länge der dem Punkt p gegenüberliegenden Seite berechnet werden kann. Wir können bereits erraten, warum bei u  v D 0 genau der Satz des Pythagoras übrig bleibt. 9

?Selbstfrage 5.7 Bestätigen Sie, dass je zwei der folgenden vier Punkte a1 ; : : : ; a4 (siehe . Abb. 5.18) mit 1 0 1 0 ˙2 0 C B C B a1;2 D @ 0A ; a3;4 D @ ˙2A p p 2  2 dieselbe Distanz 4 einschließen. Welches Dreieck bilden demnach je drei dieser Punkte, welche geometrische Figur alle vier Punkte zusammengenommen?

129 5.2  Das Skalarprodukt im Anschauungsraum

Das Skalarprodukt hat eine geometrische Bedeutung

b v

Wir wenden uns nun der Frage zu, welcher Wert eigentlich mit dem Skalarprodukt ausgerechnet wird. Dazu tragen wir vom Anfangspunkt c die Vektoren u und v ab und erhalten die Punkte a D c C u und b D c C v:

a

c

hb

b

c

u

a

. Abb. 5.12 Der Kosinussatz c 2 D a2 C b 2  2 a b cos

Für die Distanz der Endpunkte a und b gilt: ka  bk2 D .u  v/  .u  v/ D D kuk2 C kvk2  2.u  v/ D D ka  ck2 C kb  ck2  2 .u  v/: Das ist offensichtlich wieder der bereits oben behandelte verallgemeinerte Satz des Pythagoras, den wir nun in der Form 2 .u  v/ D ka  ck2 C kb  ck2  ka  bk2 schreiben. Wir vergleichen dies mit dem aus der Elementargeometrie her bekannten Kosinussatz für das Dreieck abc, indem wir wie üblich die Seitenlängen mit a; b; c und die jeweils gegenüberliegenden Innenwinkel mit ˛, ˇ und bezeichnen (. Abb. 5.12). Der Kosinussatz lautet: c 2 D a2 C b 2  2 a b cos :

Wir haben das Skalarprodukt mithilfe eines Koordinatensystems berechnet, doch ist letzteres natürlich willkürlich festsetzbar. Ein Wechsel des Koordinatensystems bewirkt eine Änderung der Koordinaten von u und v. Dass trotzdem der Wert u1 v1 C u2 v2 C u3 v3 unverändert bleibt, folgt aus der obigen geometrischen Deutung. Das Skalarprodukt u v ist also eine geometrische Invariante, d. h. unabhängig von der Wahl des kartesischen Koordinatensystems, und dies beweist letztlich erst die Sinnhaftigkeit der obigen Definition. Aus unserer geometrischen Interpretation des Skalarprodukts folgt als Formel für die Berechnung des Winkels ' zwischen je zwei vom Nullvektor verschiedenen Vektoren u und v: cos ' D

uv : kuk kvk

?Selbstfrage 5.8 Berechnen Sie den Winkel ' zwischen den Vektoren

Er lässt sich beweisen, indem man das Dreieck durch die Höhe auf b zerlegt und aus einem der rechtwinkligen Teildreiecke die Seitenlänge c berechnet als c 2 D h2b C .b  a cos /2

0 1 1 B C u D @0A 1

und

0 1 0 B C v D @1A : 1

D .a sin /2 C .b  a cos /2 :

Kartesische Punkt- und Vektorkoordinaten sind Skalarprodukte

Wir stellen fest, dass sich in der Gleichung 2 a b cos D a2 C b 2  c 2

der Ausdruck auf der rechten Seite nur in der Bezeich- Es gibt aber noch weitere wichtige Folgerungen: Das Pronungsweise unterscheidet von der rechten Seite der obigen dukt kuk kvk cos ' ist genau dann gleich null, wenn mindestens einer der drei Faktoren verschwindet. Dabei tritt Formel für 2 .u  v/. Damit folgt die cos ' D 0 nur bei ' D 90ı oder ' D 270ı ein. Dies bedeutet: Geometrische Deutung des Skalarprodukts Das Skalarprodukt gibt den Wert u  v D kuk kvk cos '

Verschwindendes Skalarprodukt (5.7)

an, wobei ' der von u und v eingeschlossene Winkel ist mit 0ı  '  180ı .

Das Skalarprodukt u  v verschwindet genau dann, wenn entweder einer der beteiligten Vektoren der Nullvektor ist oder die beiden Vektoren u und v zueinander orthogonal sind.

5

130

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

? Selbstfrage 5.9 Gegeben sind die Gerade G D fx D a C t u j t 2 Rg und der Punkt b. Beweisen Sie, dass der von b zum Punkt u 2 G weisende Vektor zu u orthogonal f D a C .ba/u uu ist. f ist somit der Fußpunkt der aus b an G legbaren Normalen.

5

Kartesische Vektorkoordinaten als Skalarprodukte Ist die Basis B D .b1 ; b2 ; b3 / orthonormiert, so gilt für die zugehörigen Koordinaten des Vektors u: 0 1 u1 B C B u D @u2 A ” u3

ui D u  b i für i D 1; 2; 3:

(5.9)

Die Basisvektoren b1 ; b2 ; b3 kartesischer Koordinatensysteme sind paarweise orthogonale Einheitsvektoren. Also gilt z. B. b1  b1 D 1 sowie b1  b2 D b1  b3 D 0. Derartige Basen heißen orthonormiert , und wir können all die defiWir multiplizieren beide Seiten der Gleichung u D nierenden Gleichungen mithilfe des Kronecker-Deltas ıij Beweis P3 u bi skalar mit dem Vektor bj und erhalten: in einer einzigen Gleichung zusammenfassen: i i D1 bi  bj D ıij D

 1 bei i D j; 0 bei i ¤ j:

(5.8)

u  bj D

3 X

! ui b i

 bj D

i D1

3 X

ui .bi  bj /

i D1

Wir werden diese wichtige Gleichung noch mehrfach ver3 X wenden. Sie gilt insbesondere für die Standardbasis oder D ui ıij D uj kanonische Basis E des R3 bestehend aus i D1 0 1 0 1 0 1 1 0 0 für j D 1; 2; 3.  e 1 D @0A ; e 2 D @1A ; e 3 D @0A : 0 0 1 Beispiel Zeigen Sie, dass die durch ihre kartesischen Koordinaten gegebenen Vektoren Ein weiterer Sonderfall der geometrischen Deutung des 0 1 0 1 0 1 Skalarprodukts verdient hervorgehoben zu werden: 1 2 2 1@ A 1@ A 1@ A 2 1 2 b1 D ; b2 D ; b3 D 3 2 3 2 3 Folgerung Bei kvk D 1 gibt u  v D kuk cos ' die vorzei1 chenbehaftete Länge des orthogonal auf den Einheitsvektor v projizierten Vektors u an (. Abb. 5.13). eine orthonormierte Basis B bilden, und berechnen Sie die Koeffizienten u1 ; u2 ; u3 in der Darstellung Die durch uv definierte Länge ist genau dann positiv, wenn 0 1 cos ' > 0 ist und daher der orthogonal auf v projizierte 1 Vektor u in dieselbe Richtung weist wie v. u D @1A D u1 b1 C u2 b2 C u3 b3 : Dies führt uns dazu, auch die kartesischen Koordinaten 1 als Skalarprodukte zu interpretieren. Es ist für jedes i 2 f1; 2; 3g x3

kbi k D

1p 1 C 4 C 4 D 1: 3

Zudem gilt: b1  b2 D b1  b3 D b2  b3 D 0:

u 1

v

u v x2 x1 . Abb. 5.13 Bei kvk D 1 gibt u  v die vorzeichenbehaftete Länge der Orthogonalprojektion von u auf den Einheitsvektor v an

Somit sind die Bedingungen (5.8) für die Orthonormiertheit von B erfüllt, und wir können zweckmäßig (5.9) benutzen, um die Koordinaten des Vektors u bezüglich B als Skalarprodukte zu berechnen: u1 D u  b1 D

1 5 1 ; u2 D u  b2 D ; u3 D u  b3 D : 3 3 3

Als Kontrolle empfiehlt P es sich natürlich zu überprüfen, dass nun tatsächlich u D 3iD1 ui bi gilt. 9

131 5.2  Das Skalarprodukt im Anschauungsraum

Die eben gezeigte Art der Berechnung der Vektorkoordinaten ist um Vieles einfacher als die Standardmethode, die ui als Unbekannte anzusehen und aus jenem linearen Gleichungssystem zu ermittelt, welches sich durch die koordinatenweise Aufsplittung der Vektorgleichung u D P 3 i D1 ui bi ergibt. Doch nur bei kartesischen Koordinatensystemen sind die Vektorkoordinaten zugleich Skalarprodukte mit den Basisvektoren. Als Gegenbeispiel betrachten wir die offensichtlich nicht orthonormierte R3 -Basis B bestehend aus 0 1 0 1 0 1 1 0 1 @ @ @ A A b1 D e 1 D 0 ; b2 D e 2 D 1 ; b3 D 1A : 0 0 1

b3

x x

o u

b2

o

b1

Bei der Wahl u D e 3 D b1  b2 C b3 ist 0

1 1 @ A B u D 1 ; aber u  b1 D u  b2 D 0: 1

. Abb. 5.14 Kartesische Koordinaten von Vektoren und Punkten sind Skalarprodukte

Kommentar In 7 Kap. 6 wird gezeigt, dass bei endlichdi-

mensionalen Vektorräumen die Abbildung der Vektoren v auf deren i-te B-Koordinate linear ist, und zwar ein Element b i der zur Basis B dualen Basis B . Im Sonderfall einer orthonormierten Basis B gilt b i W v 7! .bi  v/. Analog zur Berechnung der Vektorkoordinaten sind auch die Koordinaten eines Punkts x bezüglich eines kartesischen Koordinatensystems mit dem Ursprung o und den Basisvektoren b1 ; b2 ; b3 als Skalarprodukte auszudrücken, nämlich:

Skalarprodukt zur Erklärung der Längen- und Winkelmessung. Diese logisch höchst bedenkliche Vorgehensweise kommt daher, weil wir in diesem Abschnitt ein mathematisches Modell für unsere physikalische Umwelt entwickeln und von intuitiv vorhandenen Begriffen ausgehen. Später in 7 Kap. 9 vermeiden wir derartige Zirkelschlüsse: Wir werden in allgemeinen Vektorräumen ein Skalarprodukt definieren, indem wir dessen wichtigste Eigenschaften per Definition fordern. Und darauf bauen wir dann erst eine Längen- und Winkelmessung auf.

Die Dreiecksungleichung und andere wichtige Formeln

Kartesische Punktkoordinaten als Skalarprodukte Ist .oI B/ ein kartesisches Koordinatensystem, so gilt für die zugehörigen Koordinaten des Punkts x: 0 1 x1 B C .oIB/ x D @x2 A ” x3

xi D .x  o/  bi für i D 1; 2; 3:

Hinsichtlich der Norm gilt die

Cauchy-Schwarz’sche Ungleichung (5.10) ju  vj  kuk kvk: Dabei gilt Gleichheit genau dann, wenn die Vektoren u und v linear abhängig sind.

Dass die kartesischen Koordinaten von Punkten und Vektoren als Skalarprodukte berechenbar sind, wird auch aus . Abb. 5.14 klar. Zur Begründung muss man sich nur daran erinnern, dass mit . Abb. 5.13 das Skalarprodukt mit Beweis Diese Ungleichung ist trivialerweise richtig bei einem Einheitsvektor genau die Länge des auf diesen Ein- u D 0 oder bei v D 0. Bei u; v ¤ 0 gilt für den von u und v eingeschlossenen Winkel ' heitsvektor orthogonal projizierten Vektors angibt. u  v D kuk kvk cos '; Kommentar Dem aufmerksamen Leser wird nicht entgangen sein, dass wir noch vor der Definition des Skalarprodukts die Orthogonalität und Längenmessung als bekannt also vorausgesetzt haben, um damit ein kartesisches Koordiju  vj D kuk kvk j cos 'j  kuk kvk: natensystem zu erklären. Und jetzt verwenden wir das

5

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

132

Damit besteht Gleichheit genau bei j cos 'j D 1, also ' D 0ı oder ' D 180ı . Wir werden feststellen, dass diese Ungleichung auch noch unter viel allgemeineren Bedingungen gilt. Deshalb wird für v ¤ 0 noch eine zweite Beweismöglichkeit gezeigt: Für alle Linearkombinationen u C v von u und v gilt

uC

v

a

ku C vk2 D 2 kuk2 C 2.u  v/ C 2 kvk2  0:

5

c v

u

b

Wir betrachten diejenige Linearkombination, welche den Fußpunkt f der aus dem Ursprung auf die Gerade G D u C R v legbaren Normalen ergibt, also den Fall  D 1 und  D 

uv : vv

. Abb. 5.15 Die Dreiecksungleichung ku C vk  kuk C kvk im Anschauungsraum

Dann folgt für f D u C v: uv .u  v/2 .v  v/ .u  v/ C vv .v  v/2 .u  v/2  0; D kuk2  kvk2

Die Bezeichnung „Dreiecksungleichung“ erklärt sich aus dem Dreieck der Punkte a, b D aCu und c D aCuCv (. Abb. 5.15). Die Ungleichung besagt nun die offensichtliche Tatsache, dass der geradlinige Weg von a nach c niemals länger ist als der „Umweg“ über b, wo immer auch der Punkt b liegen mag. also kuk2 kvk2  .u  v/2 und damit weiter die CauchyWir können die Dreiecksungleichung auch in der Form Schwarz’sche Ungleichung. Nur bei f D 0 besteht Gleichheit. Genau dann geht die Gerade G durch den Ursprung, ka  ck  ka  bk C kb  ck und die beiden Vektoren u, v sind linear abhängig, denn eine nicht triviale Linearkombination u C v ergibt den schreiben. Dabei besteht Gleichheit genau dann, wenn b Nullvektor.  der abgeschlossenen Strecke convfa; cg angehört, wenn also (. Abb. 5.15) u und v linear abhängig sind bei Von der Cauchy-Schwarz’schen Ungleichung können wir u  v  0. auf die folgende wichtige Ungleichung schließen. kf k2 D kuk2  2

Kommentar Wir haben bereits betont, dass Normen auch

in viel allgemeineren Vektorräumen definierbar sind. Doch werden in der Regel nur derartige Normen zugelassen, für welche die Cauchy-Schwarz’sche Ungleichung und die Dreiecksungleichung gelten. In diesen Vektorräumen kann man dank der Cauchy-Schwarz’schen Ungleichung die Formel cos ' D kukuvkvk weiterhin zur Messung der Winkel verwenden (siehe 7 Kap. 9).

Dreiecksungleichung ku C vk  kuk C kvk:

Beweis Aus

Der Anschauungsraum R3 wird durch die Definition der Distanz d.a; b/ D ka  bk 2 R0 mit

ku C vk2 D .u C v/  .u C v/ D kuk2 C kvk2 C 2.u  v/ und der Cauchy-Schwarz’schen Ungleichung u  v  ju  vj  kuk kvk folgt: ku C vk2  kuk2 C kvk2 C 2kuk kvk D .kuk C kvk/2 ; und das ergibt die Dreiecksungleichung.



d.a; b/ D d.b; a/ und d.a; b/ D 0 ” aDb und durch die Gültigkeit der Dreiecksungleichung zum Musterbeispiel eines metrischen Raums (siehe Grundwissenbuch, Kapitel 19). In der folgenden Box wird gezeigt, dass das unseren Navigationssystemen zugrunde liegende Global Positioning System auf Distanzmessungen beruht.

5

133 5.2  Das Skalarprodukt im Anschauungsraum

Hintergrund und Ausblick: Die Geometrie hinter dem Global Positioning System (GPS)

Das Global Positioning System (GPS) hat die Aufgabe, jedem Benutzer, der über ein Empfangsgerät verfügt, dessen genaue Position auf der Erde mitzuteilen, wo auch immer er sich befindet. In der gegenwärtigen Form beruht das amerikanische GPS auf rund 30 Satelliten, welche die Erde ständig umkreisen und derart auf sechs Bahnebenen verteilt sind, dass mit Ausnahme der polnahen Gebiete für jeden Punkt der Erde stets mindestens vier Satelliten über dem Horizont liegen. Jeder Satellit Si , i 2 f1; 2; : : : g, kennt zu jedem Zeitpunkt seine genaue Raumposition si und teilt seine Bahndaten laufend den Empfängern per Funk mit. Andererseits kann das Empfangsgerät die scheinbare Distanz di zwischen seiner Position x und der augenblicklichen Satellitenposition si messen – und zwar erstaunlicherweise anhand der Dauer, welche das Funksignal vom Satelliten zum Empfänger braucht. Das ist vereinfacht so zu sehen: Der Satellit in der Position si funkt die Zeitansage 8:00 Uhr, und diese trifft beim Empfänger x gemäß dessen Uhr mit einer gewissen Zeitverzögerung ti ein, woraus durch Multiplikation mit der Lichtgeschwindigkeit c die scheinbare Distanz ksi  xk D di D c ti folgt. Dabei ist allerdings eine wesentliche Fehlerquelle zu beachten: Während die Atomuhren in den Satelliten sehr genau synchronisiert sind, ist dies bei den Empfängeruhren technisch nicht möglich. Geht etwa die Empfängeruhr um die Zeit t0 vor, so erscheinen alle Distanzen um dasselbe d0 D c t0 vergrößert. Deshalb lautet die wahre Distanz ksi  xk D di  d0 .

sen die vier Unbekannten die vier quadratische Gleichungen qi .x; d0 / D .si  x/2  .di  d0 /2 D 0 oder ausführlich x  x  2.s i  x/ C si  si  d02 C 2di d0  di2 D 0

( )

erfüllen. Wir zeigen, dass sich dieses nichtlineare Gleichungssystem über R auf drei lineare und eine einzige quadratische Gleichung zurückführen lässt: Wir subtrahieren von der ersten Gleichung die Gleichungen 2, 3 und 4 und erhalten: q1 .x; d0 /  qj .x; d0 / D 2.sj  s1 /  x  2.dj  d1 /d0 ( )  d12 C dj2 C ks1 k2  ksj k2 D 0 für j D 2; 3; 4. Dies sind drei lineare Gleichungen. Wenn für eine Lösung dieses linearen Systems neben q1 .x; d0 / D q2 .x; d0 / D q3 .x; d0 / D q4 .x; d0 / auch noch q1 .x; d0 / D 0 gilt, so sind alle vier quadratischen Gleichungen aus ( ) erfüllt. Sind die drei linearen Gleichungen in ( ) linear unabhängig, so gibt es nach 7 Abschn. 3.3 eine einparametrige Lösungsmenge, die wir mithilfe eines Parameters t darstellen können in der Form ! ! ! e x u x D e Ct bei t 2 R: v d0 d0 Dabei schreiben wir abkürzend ein Vektorsymbol anstelle des Koordinatentripels. Wir setzen diese Lösung in die quadratische Gleichung q1 .x; d0 / D 0 ein und erhalten als Bedingung für t

s2 s3

x k2 C 2.e x  u/t C kuk2 t 2  2.s 1  e x /  2.s 1  u/t C ks1 k2 ke s1

De d 20 C 2e d 0 vt C v 2 t 2  2d1e d 0  2d1 vt C d12 :

x s4

Nach Potenzen der verbleibenden Unbekannten t geordnet lautet diese quadratische Gleichung x  u/  .s1  u/  e d 0 v C d1 vt Œkuk2  v 2 t 2 C 2Œ.e x k2  2.s1  e x / C ks1 k2  e d 20 C 2d1e d 0  d12  D 0: C Œke

GPS: Es werden die scheinbaren Distanzen von vier oder mehr Satelliten si zum Empfänger x gemessen

Es gibt vier Unbekannte, nämlich die drei Koordinaten x1 ; x2 ; x3 von x und den durch die mangelnde Synchronisation der Empfängeruhr entstehenden Distanzfehler d0 Q 0. Stehen vier Satellitenpositionen si , i D 1; : : : ; 4, samt zugehörigen scheinbaren Distanzen di D ksi  xk zur Verfügung, so müs-

Die zwei Lösungen t1 und t2 dieser Gleichungen sind anstelle t in der obigen Parameterdarstellung einzusetzen und ergeben zwei mögliche Positionen x 1 und x 2 des Empfängers. Die richtige Lösung ist in der Regel leicht zu identifizieren, weil grobe Näherungswerte für x vorliegen. Zumeist wird bereits die Information ausreichen, dass sich der Empfänger auf der Erdoberfläche aufhält. Liegen noch weitere Satellitenpositionen samt zugehörigen scheinbaren Distanzen vor, so ist das Gleichungssystem . / überbestimmt. Dann aber kann man mittels Methoden der Ausgleichsrechnung (wie z. B. in 7 Abschn. 10.5) die bestapproximierende Lösung ermitteln und damit die Genauigkeit erhöhen.

134

5.3

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Weitere Produkte von Vektoren im Anschauungsraum

Es gibt im Anschauungsraum R3 neben dem Skalarprodukt noch andere Möglichkeiten, aus Vektoren Produkte mit einer koordinateninvarianten Bedeutung zu berechnen. Die im folgenden verwendeten Koordinaten beziehen sich ausschließlich auf kartesische Rechtssysteme.

5

Das Vektorprodukt zweier Vektoren liefert einen neuen Vektor In vielen geometrischen und physikalischen Anwendungen begegnet man der Aufgabe, einen Vektor zu finden, der orthogonal ist zu zwei gegebenen u; v 2 R3 mit 0 1 0 1 Vektoren v1 u1 kartesischen Koordinaten @u2 A bzw. @v2 A. Wir werden u3 v3 erkennen, dass das folgende Vektorprodukt eine spezielle Lösung für diese Aufgabe bietet.

Definition des Vektorprodukts 1 0 1 0 1 0 v1 u2 v3  u3 v2 u1 C B C B C B u v D @u2 A @v2 A D @u3 v1  u1 v3 A : u3 v3 u1 v2  u2 v1

Im Vektorprodukt stecken Determinanten zweireihiger Matrizen Zu jeder n n -Matrix A über dem Körper K gibt es eine Determinante det A. Es ist dies eine Zahl aus K, die Aufschluss über Eigenschaften der Matrix gibt und gewisse Forderungen erfüllt. So sind etwa die n Spaltenvektoren von A genau dann linear unabhängig, wenn det A von null verschieden ist, und die Determinante ändert ihr Vorzeichen, wenn zwei Spalten oder auch zwei Zeilen vertauscht werden. Unser Ausgangspunkt für die Definition der Determinante im Sonderfall n D 2 ist das folgende Kriterium für die lineare Abhängigkeit zweier Vektoren:     u1 v1 Lemma Die Vektoren u D und v D aus u2 v2 K2 sind genau dann linear abhängig, wenn D D u1 v2  u2 v1 D 0 ist. Beweis Sind u und v linear abhängig, so ist u D 0 oder v ein Vielfaches von u, also vi D  ui für i D 1; 2. In beiden Fällen gilt D D 0. Ist umgekehrt D D 0, so unterscheiden wir drei Fälle: 4 Bei u1 u2 ¤ 0 können wir durch u1 u2 dividieren. Wir erhalten v1 =u1 D v2 =u2 . Also ist v ist ein Vielfaches von u. 4 Bei u1 D 0 und u2 ¤ 0 muss auch v1 D 0 sein und daher ebenfalls v D  u gelten mit  D v2 =u2 . Analog für u1 ¤ 0 und u2 D 0. 4 Bei u D 0 folgt keinerlei Bedingung für v.

Dieses Produkt, das wegen des Verknüpfungssymbols In allen drei Fällen sind jedenfalls u und v linear oder wegen der kreuzweisen Berechnung der Koordinaten abhängig.  oft auch Kreuzprodukt genannt wird, legt eine Abbildung   a11 a12 Um festzustellen, ob die Matrix 2 K2 2 linear a21 a22 R3 R3 ! R3 mit .u; v/ 7! u v abhängige Spaltenvektoren hat, muss man also nur überprüfest, welche im Gegensatz zum Skalarprodukt je zwei fen, ob a11 a22  a12 a21 D 0 ist. Dabei hat der Ausdruck Vektoren aus dem R3 nunmehr einen Vektor zuweist. Es auf der linken Seite die zusätzliche Eigenschaft, bei einer handelt sich also diesmal um eine Verknüpfung im R3 (sie- Vertauschung der beiden Spalten das Vorzeichen zu wechhe 7 Abschn. 2.1). Auch hier werden wir zeigen können, seln. All dies sind Gründe für die folgende Definition. dass der Vektor u v mit seinen Faktoren u und v auf eine vom Koordinatensystem unabhängige Art verbunden ist. Es genügt für das Berechnen eines Vektorprodukts, sich die Formel für die erste Koordinate zu merken, denn die weiteren Koordinaten folgen durch zyklische Vertauschung 1 7! 2 7! 3 7! 1. Die Formeln für die einzelnen Koordinaten werden besonders einprägsam, wenn man mit dem Begriff der Determinante einer zweireihigen Matrix vertraut ist. Deshalb unterbrechen wir hier kurz mit einem Vorgriff auf das 7 Kap. 7 über Determinanten.

Determinante einer ! 2  2-Matrix Ist A D

a11 a21

a12 a22

2 K2 2 , so nennen wir

det A D a11 a22  a12 a21 2 K die Determinante von A.

135 5.3  Weitere Produkte von Vektoren im Anschauungsraum

Abkürzend schreiben wir auch ˇ ˇ   ˇa11 a12 ˇ ˇ D det a11 a12 ˇ ˇa21 a22 ˇ a21 a22 und sprechen kurz von einer zweireihigen Determinante statt von der Determinante einer 2 2 -Matrix. Man kann sich die Formel für eine 2 2 -Matrix leicht merken: Die Determinante ist gleich der Differenz der Produkte der Diagonalen, und zwar kurz Hauptdiagonale minus Nebendiagonale, also: a11 a21

a12 D a22

C

a11

a12

a21

a22

gilt e1 e 2 D e3;

e2 e3 D e1;

e3 e1 D e2:

Andererseits ist wegen der Schiefsymmetrie e 2 e 1 D e 3 ; e 3 e 2 D e 1 ; e 1 e 3 D e 2 : 9

Verschwindendes Vektorprodukt Es ist u v D 0 genau dann, wenn die Vektoren u und v linear abhängig sind.

Beweis u v D 0 ist äquivalent zur Aussage Die drei Koordinaten des Vektors .u v/ sind mit geeigneten Vorzeichen versehene Determinanten. Die zugehörigen u2 v3  u3 v2 D u3 v1  u1 v3 D u1 v2  u2 v1 D 0: zweireihigen Matrizen entstehen durch Streichung je einer Zeile aus der 3 2 -Matrix Dies bedeutet, wie im obigen Lemma gezeigt, dass die 1 0 durch Weglassung der i-ten Koordinate verkürzten Vektou1 v1 ren linear abhängig sind für i D 1; 2; 3. @u2 v2 A Sind demnach u und v linear abhängig, d. h., u D 0 oder u3 v3 v D  u, so trifft dies auch auf die durch Weglassung einer welche von den Koordinatenspalten der beteiligten Vekto- Koordinate entstehenden Vektoren zu, und es verschwinden alle drei Determinanten. ren u und v gebildet wird. Verschwinden umgekehrt die drei Determinanten, so Nachdem die Vertauschung der beiden Spalten das Vorzeichen aller drei Determinanten ändert, ist das Vek- müssen wir unterscheiden: torprodukt nicht symmetrisch, sondern schiefsymmetrisch 4 Bei u D 0 besteht jedenfalls die behauptete lineare Abhängigkeit. oder alternierend, d. h. es gilt: 4 Bei u ¤ 0 ist mindestens eine Koordinate von u von null verschieden. Angenommen, es ist u1 ¤ 0: Dann v u D u v: gilt für  D uv11 wegen u1 v2  u2 v1 D 0 zugleich v2 D u2 und wegen u3 v1  u1 v3 D 0 auch v3 D u3 und Beispiel daher v D  u. 4 Als erstes Zahlenbeispiel berechnen wir für die Vekto4 Ist bei u ¤ 0 zwar u1 D 0, aber dafür u2 ¤ 0 oder ren u3 ¤ 0, so gehen wir analog vor mit  D uv22 bzw.  D 0 1 0 1 2 1 v3 . Wieder folgt v D  u. u3 u D @1A und v D @ 5A 2 3 u v D 0 hat somit stets die lineare Abhängigkeit von u und v zur Folge.  das Vektorprodukt. Es ist

0

1 0 1 2 1 u v D @1A @ 5A 2 3 0 1 0 1 .1/  3  2  5 13 D @ 2  .1/  2  3 A D @ 8A : 2  5  .1/  .1/ 9 4 Für die Vektoren der Standardbasis des R3 , also für 0 1 0 1 0 1 1 0 0 e 1 D @0A ; e 2 D @1A und e 3 D @0A ; 0 0 1

Eine Eigenschaft des Vektorprodukts wurde bereits in 7 Kap. 2 besprochen: Das Vektorprodukt ist nicht assoziativ, d. h. von Sonderfällen abgesehen gilt .u v/ w ¤ u .v w/: Als Begründung genügt ein einziges Beispiel, etwa .e 1 e 2 / e 2 D e 3 e 2 D e 1 ; hingegen e 1 .e 2 e 2 / D e 1 0 D 0:

5

136

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Das Vektorprodukt hat eine geometrische Bedeutung Das Vektorprodukt ist linear in jedem Anteil, denn .u1 C u2 / v D .u1 v/ C .u2 v/; .u/ v D .u v/:

5

Mit einiger Mühe lässt sich auch das Vektorprodukt u v als ein Matrizenprodukt schreiben. Dazu muss allerdings der erste Vektor u zu einer alternierenden oder schiefsymmetrischen Matrix S u umgeformt werden, also zu einer quadratischen Matrix, bei der sich die bezüglich der Hauptdiagonale symmetrischen Einträge ai k und aki genau durch das Vorzeichen unterscheiden. Für die Einträge auf der Hauptdiagonale, also mit k D i, bedeutet dies ai i D ai i und somit ai i D 0. Nach den Regeln für die Bildung des Matrizenprodukts ist 0 1 0 1 0 1 u1 v1 u2 v3  u3 v2 u v D @u2 A @v2 A D @u3 v1  u1 v3 A u3 v3 u1 v2  u2 v1 (5.11) 10 1 0 v1 0 u3 u2 0 u1 A @v2 A D S u v: D @ u3 u2 u1 0 v3 Kommentar Es besteht offensichtlich eine bijektive Ab-

Beweis 1) Wir erkennen durch Ausrechnen, dass

u  .u v/ D u1 .u2 v3  u3 v2 / C u2 .u3 v1  u1 v3 / C u3 .u1 v2  u2 v1 / D 0: Damit ist das vom Nullvektor verschieden vorausgesetzte Vektorprodukt u v zu u orthogonal. Nach Vertauschung von u mit v folgt: v  .v u/ D v  .u v/ D 0: Also ist das Vektorprodukt u v auch orthogonal zu v und wegen der Bilinearität sogar orthogonal zu jeder Linearkombination von u und v, also zu allen Vektoren der von u und v aufgespannten Ebene. Sucht man umgekehrt einen Vektor x, der zu u v orthogonal ist, so müssen dessen 3 Koordinaten eine lineare homogene Gleichung lösen, deren Koeffizienten nicht alle null sind. Nach den Ergebnissen von 7 Abschn. 3.3 gibt es eine zweiparametrige Lösungsmenge. Nachdem u und v bereits zwei linear unabhängige Lösungen sind, ist x eine Linearkombination von u und v. Somit ist ein verschwindendes Skalarprodukt mit u v äquivalent zur linearen Abhängigkeit von u und v. 2) Wir bestätigen die Behauptung durch direktes Ausrechnen, wobei wir zwischendurch einmal geeignet erweitern müssen:

bildung zwischen Vektoren u 2 R3 und den schiefsymmetrischen dreireihigen Matrizen S u 2 R3 3 . Dies ist aber wirklich nur im Dreidimensionalen möglich, denn eine schiefsymmetrische n-reihige Matrix enthält n.n  1/=2 unabhängige Einträge, während Vektoren des Rn n Koordinaten umfassen.

ku vk2 D .u2 v3  u3 v2 /2 C .u3 v1  u1 v3 /2

Bei linear abhängigen Vektoren u und v ist deren Vektorprodukt gleich dem Nullvektor. Bei linearer Unabhängigkeit ist der Vektor u v durch die folgenden Eigenschaften gekennzeichnet.

 u21 v12  u22 v22  u23 v32

C .u1 v2  u2 v1 /2 D u21 v22 C u21 v32 C u22 v12 C u22 v32 C u23 v12 C u23 v22  2u1 u2 v1 v2  2u1 u3 v1 v3  2u2 u3 v2 v3 C u21 v12 C u22 v22 C u23 v32 D .u21 C u22 C u23 /.v12 C v22 C v32 /  .u1 v1 C u2 v2 C u3 v3 /2 D kuk2 kvk2  .kuk kvk cos '/2 D kuk2 kvk2 .1  cos2 '/

Geometrische Deutung des Vektorprodukts 1) Sind die Vektoren u und v linear unabhängig, so ist der Vektor u v orthogonal zu der von u und v aufgespannten Ebene. 2) Es gilt: ku vk D kuk kvk sin ':

(5.12)

Dabei ist ' der von u und v eingeschlossene Winkel mit 0ı  '  180ı . ku vk ist somit gleich dem Flächeninhalt des von u und v aufgespannten Parallelogramms. 3) Die drei Vektoren .u; v; .u v// bilden in dieser Reihenfolge ein Rechtssystem.

D kuk2 kvk2 sin2 ': Nun betrachten wir das von u und v aufgespannte Parallelogramm (siehe . Abb. 5.11 und 5.16). Dessen Flächeninhalt ist nach der Formel „Grundlinie mal Höhe“ zu berechnen. Dabei lesen wir für die Höhe auf u ab: h D kvk sin '. Also ist ku vk D kuk kvk sin ' gleich dem Inhalt des von u und v aufgespannten Parallelogramms. 3) Aufgrund der bisher nachgewiesenen geometrischen Eigenschaften des Vektorprodukts u v bleibt nur mehr offen, nach welcher Seite der Vektor zeigt. Um dies zu klären, denken wir uns das von u und v aufgespannte Parallelogramm als Kartonscheibe

137 5.3  Weitere Produkte von Vektoren im Anschauungsraum

?Selbstfrage 5.10

b3 u

Beweisen Sie die Aussage: Der Punkt x gehört genau dann der von u und v aufgespannten Ebene E durch den Punkt p an (. Abb. 5.16), wenn .x  p/  .u v/ D 0 ist.

v

Kommentar Im 7 Abschn. 5.5 werden wir erst kennenlernen, wie eine derartige „Verlagerung“ mathematisch beschreibbar ist. Die Formeln zeigen dann unmittelbar, dass sich bei eine Verlagerung von zwei Vektoren deren Vektorprodukt mit verlagert und dass dabei die Eigenschaft, ein Rechtssystem zu bilden, unverändert bleibt.

v ' p u E

b2

b1 . Abb. 5.16 Die geometrische Deutung des Vektorprodukts u v

Als Sonderfall halten wir fest: Für die beiden Vektoren 0 1 0 1 u1 v1 u D @u2 A ; v D @v2 A 0 0

in der von den Basisvektoren b1 und b2 aufgespannten Ebene gibt die zweireihige Determinante (. Abb. 5.16). Nun verlagern wir diese im Raum. Und zwar 0 1 verlegen wir u in die Richtung des ersten Vektors b1 unse  0 u1 v1 rer kartesischen Basis. Hingegen soll v derart in die von b1 @ mit u v D 0 A D D det u2 v2 und b2 aufgespannte Ebene gelegt werden, dass die zweite D Koordinate von v positiv ausfällt. Bei dieser anschaulich vorzustellenden Verlagerung än- den vorzeichenbehafteten Flächeninhalt des von u und v dern sich die Koordinaten von u und v stetig. Daher ändern aufgespannten Parallelogramms an. Dabei ist dieser Inhalt sich auch die daraus definitionsgemäß errechneten Koor- genau dann positiv, wenn u, v und der dritte Basisvektor dinaten des Vektorprodukts u v stetig. Hingegen bleibt b3 ein Rechtssystem bilden. Jetzt erkennen wir „im Hindessen Norm nach 2) unverändert, denn während der Verla- sehen“, was in dem obigen Lemma behauptet wurde, dass gerung der Kartonscheibe wurden weder die Längen von u nämlich D D 0 die lineare Abhängigkeit der zwei Vektoren und v, noch der eingeschlossene Winkel ' abgeändert. Am kennzeichnet. Ende dieses Vorgangs ist ?Selbstfrage 5.11 0 1 0 1 u1 v1 Beweisen Sie die folgende Aussage: Die drei Punkte u D @ 0 A ; v D @v2 A mit u1 ; v2 > 0 a; b; c liegen genau dann nicht auf einer Geraden, wenn 0 0 gilt: .a b/ C .b c/ C .c a/ ¤ 0:

und somit 1 0 u v D @ 0 A: u1 v2 0

Also zeigt nach dieser stetigen Verlagerung von u und v in die b1 b2 -Ebene das Vektorprodukt u v in die Richtung von b3 . Die Vektoren u, v und u v folgen somit der Rechten-Hand-Regel, wobei wir gegenüber . Abb. 5.8 nur den Winkel zwischen Daumen und Zeigefinger dem ' mit 0  '  180ı anzupassen haben. Wie schon früher vereinbart, nennen wir dies weiterhin ein Rechtssystem. Die genaue Definition von Rechtssystemen folgt nach wenigen Seiten. Die Eigenschaft, ein Rechtssystem zu bilden, muss bereits vor der Verlagerung bestanden haben, denn die Stetigkeit des Vorgangs, bei dem zudem ku vk ¤ 0 bleibt, schließt ein plötzliches Umspringen von einem Rechtssystem zu einem Linkssystem aus. 

Die geometrischen Deutungen des Skalarprodukts u  v und des Vektorprodukts ergeben: u  v D kuk kvk cos '

und ku vk D kuk kvk sin ':

Daraus folgt unmittelbar die Gleichung .u  v/2 C .u v/2 D kuk2 kvk2 : Man beachte: Im ersten Summanden wird eine reelle Zahl quadriert, dagegen im zweiten Summenden ein Vektor skalar mit sich selbst multipliziert.

Dreireihige Determinanten sind die Grundlage für ein Produkt dreier Vektoren Bevor wir uns einem weiteren Produkt zuwenden, und zwar einem von drei Vektoren, befassen wir uns mit den De-

5

138

5

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

terminanten dreireihiger Matrizen. Wir gehen ähnlich wie welches man auch die Regel von Sarrus nennt: bei den zweireihigen Matrizen vor und können nur darauf C C C a13 a12 a13 a11 a11 a11 a12 a13 verweisen, dass erst im 7 Kap. 7 das gemeinsame BilD a a a 21 22 23 a23 a21 a22 a23 a21 dungsgesetz aller Determinanten vorgestellt wird. a31 a32 a33 Wir beginnen mit einer Kennzeichnung der linearen Aba33 a31 a32 a33 a31 hängigkeit von drei Vektoren aus R3 : Wir fügen rechts den ersten Spaltenvektor an und links Lemma Die Vektoren u; v; w 2 R3 sind genau dann linear den letzten Spaltenvektor. Dann gibt es zusammen mit der Hauptdiagonalen drei blaue, nach rechts abfallende abhängig, wenn D D u  .v w/ D 0 ist. Diagonalen und ebenso drei rote, nach links abfallende Diagonalen, die Nebendiagonale mit eingeschlossen. Nun Beweis Wir unterscheiden zwei Fälle: werden ähnlich zum zweireihigen Fall die Produkte der 4 v und w sind linear unabhängig: Nun spannen v und w eine Ebene auf, und alle Linear- Einträge in den blauen „Hauptdiagonalen“ addiert und jene kombinationen von v und w und nur diese, haben ein der roten „Nebendiagonalen“ subtrahiert. Aber Achtung: Diese Regel gilt nicht für vier- oder verschwindendes Skalarprodukt mit dem Normalvektor v w. Demnach drückt D D 0 aus, dass u eine Linear- mehrreihige Determinanten, die wir im 7 Kap. 7 einführen werden: kombination von v und w ist. Die Regel von Sarrus verdeutlicht eine weitere Eigen4 v und w sind linear abhängig: Nun sind auch fu; v; wg linear abhängig, und gleichzei- schaft der Determinante: Wenn wir die Spaltenvektoren von A zyklisch vertauschen, also 1 7! 2 7! 3 7! 1, so rücken tig ist v w D 0 und daher auch D D 0. die Haupt- und Nebendiagonalen jeweils nach rechts um eiDemnach gilt für beide Fälle: Sind fu; v; wg linear abhän- ne weiter, und die letzte wird zur ersten. Die Determinante gig, so ist D D 0. Ist umgekehrt D D 0, so sind die 3 bleibt offensichtlich unverändert. Vektoren linear abhängig. 

Das Spatprodukt dreier Vektoren liefert

In Koordinaten ausgedrückt ist D D u1 .v2 w3  v3 w2 / C das Volumen des aufgespannten u2 .v3 w1 v1 w3 /Cu3 .v1 w2 v2 w1 /. Die im Folgenden definierte Determinante einer 3 3 -Matrix A entsteht aus dem Parallelepipeds Wert D, indem lediglich die bisherigen Vektoren u; v; w durch die Spaltenvektoren a1 ; a2 ; a3 von A ersetzt werden. Wir kehren zurück zu den Produkten von Vektoren. Determinante einer 3 03-Matrix

a11 B Ist A D .a1 ; a2 ; a3 / D @a21 a31 nennen wir

a12 a22 a32

1 a13 a23 C A 2 K3 3 , so a33

det A D a1  .a2 a3 / D a11 a22 a33 C a12 a23 a31 C a13 a21 a32  a13 a22 a31  a12 a21 a33  a11 a23 a32 2 K

Definition des Spatproduktes Das Spatprodukt der Vektoren R3 mit 1w 2 0 1 kar0 1 0u; v; v1 w1 u1 B C B C B C tesischen Koordinaten @u2 A, @v2 A und @w2 A wird u3 v3 w3 definiert als 0 1 u1 v1 w1 B C det.u; v; w/ D det @u2 v2 w2 A : u3 v3 w3

die Determinante von A.

Dies führt auf eine Abbildung Abkürzend schreiben wir auch ˇ ˇ 0 ˇa11 a12 a13 ˇ a11 a12 ˇ ˇ ˇa21 a22 a23 ˇ D det @a21 a22 ˇ ˇ ˇa31 a32 a33 ˇ a31 a32

.R3 R3 R3 / ! R mit .u; v; w/ 7! det.u; v; w/: 1 a13 a23 A a33

und sprechen kurz von einer dreireihigen Determinante statt von der Determinante einer 3 3 -Matrix. Man kann die Formel zur Berechnung einer dreireihigen Determinante durch das folgende Schema darstellen,

Offensichtlich ist das Spatprodukt det.u; v; w/ gleich dem im obigen Lemma definierten Wert D, dessen Verschwinden die lineare Abhängigkeit der Vektoren charakterisiert.

Verschwindendes Spatprodukt Genau dann ist det.u; v; w/ D 0, wenn die drei Vektoren u, v und w linear abhängig sind, also komplanar liegen.

139 5.3  Weitere Produkte von Vektoren im Anschauungsraum

Wir haben D als u  .v w/ eingeführt. Dies zeigt, dass eine Vertauschung von v mit w das Vorzeichen von D ändert. Andererseits bleibt die Determinante bei zyklischen Vertauschungen der Spaltenvektoren erhalten. Somit verhält sich das Spatprodukt bei Änderungen der Reihenfolge gemäß u

det.u; v; w/ D det.v; w; u/ D det.w; u; v/ D  det.u; w; v/ D  det.v; u; w/ D  det.w; v; u/:

v w

'

h

v p

u

Auch bei der Darstellung des Spatprodukts D als gemischtes Produkt u  .v w/ können wir zyklisch vertauschen, ohne den Wert zu verändern. Also ist auch D D w  .u v/.

Das Spatprodukt als gemischtes Produkt Das Spatprodukt lässt sich auch als Skalarprodukt mit einem Vektorprodukt ausdrücken: det.u; v; w/ D u  .v w/ D w  .u v/

. Abb. 5.17 Das Spatprodukt det.u; v; w/ gibt das orientierte Volumen des von u, v und w aufgespannten Parallelepipeds an

(5.13)

Wir berechnen das Volumen des Parallelepipeds nach der Formel „Grundfläche mal Höhe“. Dabei wählen wir das von u und v aufgespannte Parallelogramm als Grundfläche Wie die bisherigen Produkte ist auch das Spatprodukt linear des genannten Parallelepipeds. Der Inhalt der Grundfläche in jedem Anteil, also z. B. beträgt demnach det ..u1 C u2 /; v; w/ D det.u1 ; v; w/ C det.u2 ; v; w/: Dass das Spatprodukt eine vom Rechts-Koordinatensystem unabhängige Bedeutung hat, folgt einerseits aus der Darstellung als Skalarprodukt mit einem Vektorprodukt und der bereits bewiesenen Invarianz dieser beiden Produkte. Aber das Spatprodukt hat auch eine einfache geometrische Deutung.

F# D ku vk: Die Höhe des Parallelepipeds ist gleich dem Wert h D kwk cos ', wenn ' den Winkel zwischen w und einer zur Grundfläche orthogonalen Geraden angibt. Nach unseren bisherigen Ergebnissen gilt nun offensichtlich: j det.u; v; w/j D j.u v/  wj D ku vk kwk cos ' D F#  h;

Geometrische Deutung des Spatprodukts

wie behauptet wurde.

Der Absolutbetrag j det.u; v; w/j des Spatprodukts ist gleich dem Volumen des von den Vektoren u, v und w aufgespannten Parallelepipeds.

?Selbstfrage 5.12

Beweis Wir haben bereits früher erklärt, dass die vier Punkte 0, u, u C v und v das von u und v aufgespannte Parallelogramm bestimmen. Nehmen wir noch die durch Verschiebung längs w entstehenden Ecken w, u C w, u C vCw und vCw dazu, so entsteht das von den Vektoren u, v und w aufgespannte Spat oder Parallelepiped. Fassen wir dieses als Vollkörper auf, so ist es gleich der Punktmenge



Welche der oben angeführten Eigenschaften des Spatprodukts sind aufgrund dieser geometrischen Deutung unmittelbar ersichtlich?

Werden die drei linear unabhängigen Vektoren stetig verlagert, so kann sich auch deren Spatprodukt nur stetig ändern. Das Volumen des Parallelepipeds und damit der Absolutbetrag des Spatprodukts bleiben dabei konstant. Die Stetigkeit ohne Nulldurchgang lässt beim Spatprodukt keinen Vorzeichenwechsel zu. Nicht nur der Betrag, sondern das Spatprodukt selbst muss konstant bleiben. Wie früher beim Vektorprodukt können wir nach stetifu C v C w j 0  ; ;   1g: ger Verlagerung die spezielle Position 0 1 0 1 Wie bei Parallelogrammen lassen wir zu, dass der Anfangsu1 v1 punkt 0 durch einen beliebigen anderen Punkt p ersetzt @ 0 A ; v D @v2 A mit u1 ; v2 > 0 u D wird, also das Parallelepiped im Raum parallel verschoben 0 0 wird (. Abb. 5.17).

5

140

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

erreichen. Dann aber ist 0

u1 @ det.u; v; w/ D det 0 0

v1 v2 0

x3

1

w1 w2 A D u1 v2 w3 : w3

a2

Somit gilt hier:

a1

det.u; v; w/ > 0 ” w3 > 0:

5

Bei positivem Spatprodukt zeigt w auf dieselbe Seite der b1 b2 -Ebene wie b3 . Damit folgen dann die Vektoren u, v und w der Rechten-Hand-Regel. Deshalb wollen wir für beliebige Vektortripel folgende Definition aufstellen.

x1

Definition eines Rechts- bzw. Linkssystems

a4

x2

a3

Die drei Vektoren u, v und w bilden ein Rechtssystem, wenn det.u; v; w/ > 0 ist. Hingegen sprechen wir bei det.u; v; w/ < 0 von einem Linkssystem.

Dies legt nahe, das Spatprodukt det.u; v; w/ ohne Betragszeichen als orientiertes Volumen des von u, v und w aufgespannten Parallelepipeds zu definieren. Dessen Absolutbetrag ist, wie eben gezeigt, gleich dem elementaren Volumen. Das orientierte Volumen ist positiv oder negativ je nachdem, ob die linear unabhängigen Vektoren in der angegebenen Reihenfolge ein Rechtssystem oder ein Linkssystem bilden. Kommentar Wenn wir ein Rechtssystem mithilfe der De-

terminante definieren, die selbst ja über Koordinaten berechnet wird, so genügt es nur dann der Rechten-HandRegel, wenn auch die den Koordinaten zugrunde liegende kartesische Basis der Rechten-Hand-Regel genügt. Beispiel

4 Für die Vektoren e 1 ; e 2 ; e 3 der Standardbasis gilt: 0 1 1 0 0 det.e 1 ; e 2 ; e 3 / D det @0 1 0A D 1: 0 0 1 Allgemein hat jede orthonormierte Basis .b1 ; b2 ; b3 /, die ein Rechtssystem bildet, als Spatprodukt den Wert C1, denn nach (5.13) ist det.b1 ; b2 ; b3 / D .b1 b2 /  b3 D b3  b3 D kb3 k D 1: 2

Das von b1 , b2 und b3 aufgespannte Parallelepiped ist ein Einheitswürfel. 4 Die vier Punkte 1 0 1 0 ˙2 0 ˙2A a1;2 D @p0A ; a3;4 D @ p 2  2

. Abb. 5.18 Die Punkte a1 bis a4 bilden ein reguläres Tetraeder

bilden eine dreiseitige Pyramide, deren Kanten alle dieselbe Länge 4 aufweisen. Es handelt sich also um ein reguläres Tetraeder (. Abb. 5.18). Gesucht ist dessen Volumen V . Zu dessen Berechnung wählen wir etwa das Dreieck a1 a2 a3 als Grundfläche und berechnen das Pyramidenvolumen nach der Formel 13 Grundfläche mal Höhe. Wenn wir die Grundfläche zu dem Parallelogramm a1 a2 p a3 ergänzen bei p D a2 C .a3  a1 /, so verdoppeln wir deren Flächeninhalt. Dann aber stellt das Produkt Grundfläche Höhe den Inhalt des von den Differenzvektoren a2  a1 , a3  a1 und a4  a1 aufgespannten Parallelepipeds dar. Somit gilt für das Tetraedervolumen: 1 jdet Œ.a2  a1 /; .a3  a1 /; .a4  a1 /j 6 ˇ 0 1ˇ ˇ 4 2 2 ˇ ˇ ˇ 1 2 2 Aˇ D ˇˇdet @ 0 ˇ p p 6ˇ 0 2 2 2 2 ˇ p ˇˇ p 1 ˇˇ D ˇ.4/.4 2  4 2/ˇ 6 p 16 2 : D 3

V D

Alternativ dazu zeigt die Cayley-Menger’sche Determinante im 7 Abschn. 7.4, wie das Volumen einer dreiseitigen Pyramide aus deren sechs Kantenlängen berechenbar ist. 9 In der nächsten Box wird anhand eines Beispiels demonstriert, wie der Grundaufgabe der analytischen Geometrie entsprechend jede geometrische Aussage äquivalent ist zu einer in Koordinaten formulierbaren mathematischen Aussage.

141 5.3  Weitere Produkte von Vektoren im Anschauungsraum

Beispiel: Analytische Formulierung einer geometrischen Bedingung

Gegeben seien vier Raumpunkte s1 ; : : : ; s4 . Welche Gleichung muss ein Raumpunkt x erfüllen, damit dessen Verbindungsgeraden mit den gegebenen Punkten auf einem Drehkegel liegen?

Zur Formulierung der entsprechenden analytischen Bedingung wenden wir eine Parallelverschiebung an, die x in den Koordinatenursprung verlegt. Die Spitzen der längs der Geraden abgetragenen Einheitsvektoren werden zu Punkten mit den Ortsvektoren

Problemanalyse und Strategie si  x Liegen diese Geraden auf einem Drehkegel, so enden die von b ; i D 1; : : : ; 4: vi D ksi  xk x längs dieser Geraden abgetragenen Einheitsvektoren in vier Punkten p 1 ; : : : ; p 4 eines Kreises auf diesem Drehkegel (siehe Abbildung unten) und damit in einer Ebene. Liegen umgekehrt Diese liegen genau dann in einer Ebene, wenn die Diffevj  b v1 für j D 2; 3; 4 komplanar, also linear diese vier Punkte im Abstand 1 von x in einer Ebene, so ge- renzvektoren b hören sie dem Schnitt dieser Ebene mit der in x zentrierten abhängig sind. Dies kann mithilfe des Spatprodukts ausgeEinheitskugel an, also einem Kreis. Dessen Verbindungsgera- drückt werden: den mit der Kugelmitte bilden einen Drehkegel oder, falls die   Ebene durch die Kugelmitte geht, eine Ebene, also den Grenz- det .b v2  b v1 /; .b v3  b v1 /; .b v4  b v1 / D 0: ( ) fall eines Drehkegels mit 180ı Öffnungswinkel. Lösung

Will man den Grenzfall eines in eine Ebene entarteten Drehkegels ausschließen, so muss man bedenken, dass in diesem v1 ; : : : ; b v4 in einer Ebene liegen, sonFall nicht nur x und b dern auch die Ausgangspunkte s1 ; : : : ; s4 . Dieser Fall kann also überhaupt nur auftreten, wenn det ..s2  s1 /; .s3  s1 /; .s4  s1 // D 0 ist. Wenn dann bei .s2  s1 / .s3  s1 / ¤ 0 zusätzlich zu ( ) noch die Bedingung det ..s2  s1 /; .s3  s1 /; .x  s1 // ¤ 0 gefordert wird, so sind nur „echte“ Drehkegel möglich.

Einige nützliche Formeln für gemischte Produkte Wir stellen in der Folge einige Formeln zusammen, die beim Rechnen mit Vektoren im R3 hilfreich sind, und beginnen mit der Grassmann-Identität: .u v/ w D .u  w/v  .v  w/u:

Wir geben auf der rechten Seite u1 v1 w1 u1 v1 w1 D 0 dazu und erhalten: y1 D v1 .u3 w3 C u2 v2 C u1 w1 /  u1 .v3 w3 C v2 w2 C v1 w1 / D .u  w/v1  .v  w/u1 :

Zyklische Vertauschung liefert die restlichen Koordinaten und damit genau die obige Formel. Beweis Wir bestätigen die Richtigkeit, indem wir die KoorAbschließend noch eine Bemerkung zu diesem eher undinaten ausrechnen: Setzen wir vorübergehend x D u v, eleganten Beweis: Das Skalarprodukt von y D .u v/ w so lautet die erste Koordinate des gesuchten Vektors y D mit .u v/ muss verschwinden. Ebenso ist u  .u v/ D .u v/ w D x w: v.u v/ D 0. Somit muss bei linear unabhängigen u und v der Vektor y eine Linearkombination von u und v sein, also y1 D x2 w3  x3 w2 y D u C v. Aber wie die Koeffizienten  und  tatsächD .u3 v1  u1 v3 /w3  .u1 v2  u2 v1 /w2 lich aussehen, das ist doch nur durch explizites Ausrechnen D v1 .u3 w3 C u2 v2 /  u1 .v3 w3 C v2 w2 /: zu bestimmen. 

5

142

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Übersicht: Produkte von Vektoren im R3

Für die analytische Geometrie im Anschauungsraum stehen drei verschiedene Produkte von Vektoren zur Verfügung. 4 Das Skalarprodukt u  v der Vektoren u; v 2 R3 mit kartesischen Koordinaten .u1 ; u2 ; u3 /> bzw. .v1 ; v2 ; v3 /> lautet: u  v D u1 v1 C u2 v2 C u3 v3 :

5

p – Es ist kuk D u  u die Norm oder Länge des Vektors u und ka  bk die Distanz der Punkte a und b. – Jeder Vektor u ¤ 0 lässt sich durch skalare Multi1 plikation gemäß b u D kuk u auf einen Einheitsvektor normieren. – Das Skalarprodukt u  v ist symmetrisch, v  u D u  v, und in jedem Anteil linear, also .u1 C u2 /  v D .u1  v/ C .u2  v/ und .u/  v D .u  v/. – Das Produkt u  v ist vom verwendeten kartesischen Koordinatensystem unabhängig, denn es gilt u  v D kuk kvk cos ' mit ' als dem von u und v eingeschlossenen Winkel bei 0  '  . – Eine orthonormierte Basis .b1 ; b2 ; b3 / des R3 ist durch bi  bj D ıij gekennzeichnet. – Es gelten die Cauchy-Schwarz’sche Ungleichung ju  vj  kuk kvk und die Dreiecksungleichung ku C vk  kuk C kvk. 4 Das Vektorprodukt oder Kreuzprodukt u v ist ein Vektor und aus den kartesischen Koordinaten von u und v nach der Formel u v D .u2 v3  u3 v2 ; u3 v1  u1 v3 ; u1 v2  u2 v1 /> zu berechnen. – Das Vektorprodukt ist schiefsymmetrisch, also v u D u v, und linear in jedem Anteil, d. h., .u1 Cu2 / v D .u1 v/ C .u2 v/ und u v D  .u v/.

? Selbstfrage 5.13 Beweisen Sie unter Benutzung der Grassmann-Identität die folgende Variante: u .v w/ D .u  w/v  .u  v/w:

Mithilfe der Grassmann-Identität lassen sich die folgenden Formeln für weitere gemischte Produkte herleiten: 1. Jacobi-Identität Œu .v w/ C Œv .w u/ C Œw .u v/ D 0: 2. Lagrange-Identität .u v/  .w x/ D .u  w/.v  x/  .u  x/.v  w/: 3. Vektorprodukt zweier Vektorprodukte .u v/ .w x/ D det.u; w; x/ v  det.v; w; x/ u:

– Lineare Abhängigkeit von u und v ist durch u v D 0 gekennzeichnet. – Bei linear unabhängigen u; v steht u v auf der von u und v aufgespannten Ebene normal; die Norm ku vk ist gleich dem Flächeninhalt kuk kvk sin ' des von u und v aufgespannten Parallelogramms; der Vektor u v bildet mit u und v ein Rechtssystem, sofern sich die Koordinaten auf ein Rechtskoordinatensystem beziehen. 4 Das Spatprodukt det.u; v; w/ ist eine reelle Zahl und zwar die Determinante derjenigen 3 3 -Matrix, welche die kartesischen Koordinaten von u, v und w der Reihe nach als Spaltenvektoren besitzt. – Das Spatprodukt ist linear in jedem Anteil, also det.u1 C u2 ; v; w/ D det.u1 ; v; w/ C det.u2 ; v; w/ und det.u; v; w/ D  det.u; v; w/. – Die Vertauschung zweier Vektoren ändert das Vorzeichen; es ist det.u; v; w/ D det.v; w; u/ D det.v; u; w/. – Das Spatprodukt det.u; v; w/ gibt das orientierte Volumen des von den drei Vektoren aufgespannten Parallelepipeds an und ist somit unabhängig von dem zugrunde liegenden Rechtskoordinatensystem. – Genau bei det.u; v; w/ > 0 bilden die drei Vektoren in dieser Reihenfolge ein Rechtssystem. – Ein verschwindendes Spatprodukt kennzeichnet lineare Abhängigkeit. – Es ist det.u; v; w/ D u  .v w/ D w  .u v/. Ferner gelten : – die Grassmann-Identität .u v/ w D .u  w/v  .v  w/u, – die Jacobi-Identität Œu .v w/ C Œv .w u/ C Œw .u v/ D 0, – die Lagrange-Identität .u v/  .w x/ D .u  w/.v  x/  .u  x/.v  w/ – sowie für das Vektorprodukt von Vektorprodukten .u v/ .w x/ D det.u; w; x/ v  det.v; w; x/ u.

Die erste Gleichung folgt aus der GrassmannIdentität durch zyklische Vertauschung, also den Ersatz .u; v; w/ 7! .v; w; u/ 7! .w; u; v/, und durch anschließende Addition. Die Langrange-Identität ergibt sich aus (5.13) wie folgt: Beweis

.u v/  .w x/ D det ..u v/; w; x/ D Œ.u v/ w  x D Œ.u  w/v  .v  w/u  x: Die Formel ku vk D kuk kvk sin ' aus (5.12) ist wegen (5.7) ein Sonderfall der Lagrange-Identität. Dasselbe trifft auf die Gleichung .u  v/2 C .u v/2 D kuk2 kvk2 zu. Schließlich folgt aus der Grassmann-Identität .u v/ .w x/ D .u  .w x// v  .v  .w x// u D det.u; w; x/ v  det.v; w; x/ u; womit auch die letzte Gleichung gezeigt ist.



143 5.4  Abstände zwischen Punkten, Geraden und Ebenen

Kommentar Ein K-Vektorraum V mit einer zusätzlichen Verknüpfung W V V ! V und

a .b C c/ D .a b/ C .a c/; .a C b/ c D .a c/ C .b c/;  .a b/ D . a/ b D a . b/ heißt K-Algebra. Offensichtlich ist der R3 zusammen mit dem Vektorprodukt eine R-Algebra. Diese Verknüpfung ist allerdings weder assoziativ, noch kommutativ. Hingegen ist der Polynomring aus dem 7 Abschn. 2.4 ein Beispiel für eine K-Algebra, wenn die Multiplikation von Polynomen bedeutet, und diese Verknüpfung ist sowohl assoziativ, als auch kommutativ. Eine K-Algebra, in welcher die Jacobi-Identität gilt und ferner a a D 0 für alle a 2 V , heißt übrigens Lie-Algebra.

u

.a p/ a

a

p

d p

u

b

G

. Abb. 5.19 Der Abstand d des Punkts a von der Geraden G

Die obige Übersicht zeigt gesammelt die bisherigen Pro- mit a und b ein rechtwinkliges Dreieck, und dessen Hypodukte sowie die damit zusammenhängenden wichtigsten tenuse ax ist stets länger als die Kathete ab. Also ist die Formeln. Kathetenlänge 5.4

Abstände zwischen Punkten, Geraden und Ebenen

ka  bk D minf ka  xk j x 2 Gg D dist.a; G/:

Zur Berechnung des Abstands dist.a; G/ bestimmen wir zuerst einen Normalvektor der Verbindungsebene aG, In diesem Abschnitt zeigen wir, wie mithilfe der im An- nämlich (. Abb. 5.19): schauungsraum verfügbaren Produkte von Vektoren Abn D u .a  p/: stände zwischen Punkten, Geraden und Ebenen oder auch zwischen zwei Geraden berechenbar sind. Dabei gehen wir Dann ist knk gleich dem Inhalt des von u und a  p von folgender Definition aus: Sind M und N zwei nichtleere Punktmengen des R3 , aufgespannten Parallelogramms. Die Höhe dieses Parallelogramms gegenüber u ist gleich der gesuchten Distanz. so heißt dist.M; N / D inf f kx  yk j x 2 M und y 2 N g

Folgerung Für den Abstand des Punkts a von der Geraden G D p C Ru gilt:

Abstand oder Distanz der Punktmengen M und N: Wegen kx  yk  0 ist die Menge der Distanzen k.a  p/ uk dist.a; G/ D : kx  yk durch 0 nach unten beschränkt; also gibt es stets kuk dieses Infimum. Dieses braucht allerdings kein Minimum zu sein. Sind die Mengen M und N affine Teilräume des Der Fußpunkt b der Normalen aus dem Punkt a an die GeR3 , also Punkte, Geraden oder Ebenen, so werden sich die rade G D p C Ru lautet: gegenseitigen Abstände doch als Minima herausstellen; es gibt dann nämlich stets Punkte a 2 M und b 2 N mit .a  p/  u bDpC u; dist.M; N / D ka  bk. uu

Abstände eines Punkts von Geraden oder Ebenen sind mittels Vektorprodukt zu berechnen Angenommen, es sind die Gerade G D p C Ru und der Punkt a außerhalb von G gegeben (. Abb. 5.19). Der Punkt b 2 G sei der Fußpunkt der aus a an G legbaren Normalen. Dann bildet jeder Punkt x 2 G n fbg zusammen

wie schon in 7 Abschn. 5.2 festgestellt worden ist. Bei der Bestimmung des Abstand des Punkts a von der Ebene E D p CR uCR v gehen wir analog vor: Wir legen durch a die Normale N D a C R.u v/ zur Ebene E und suchen deren Schnittpunkt b mit E (siehe . Abb. 5.22). Jeder von b verschiedene Punkt x 2 E bildet mit b und a ein rechtwinkliges Dreieck, denn .x  b/  .u v/ D det.x  b; u; v/ D 0 wegen der linearen Abhängigkeit der beteiligten Vektoren. Die Hypotenuse ax ist natürlich länger als die Kathete ab. Somit ist dist.a; E/ D kb  ak.

5

144

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Der Normalenfußpunkt b 2 .E \ N / hat die beiden Darstellungen b D p C  u C  v und b D a C  .u v/ mit gewissen ; ;  2 R. Das Skalarprodukt beider Darstellungen mit u v führt wegen .u v/u D .u v/v D 0 auf die Gleichung p  .u v/ D a  .u v/ C .u v/2 ;

5

y

N

H

b d

H0 x G

a

EG

. Abb. 5.20 Die gemeinsame Normale N der Geraden G und H

also nach (5.13): Sind G und H nicht parallel, also deren Richtungsvektoren u und v linear unabhängig, so muss eine gemeinsame Normale N von G und H die Richtung des Vektors n D u v haben. Nun gibt es eine zu n normale Ebene EG Aus b  a D  .u v/ folgt kb  ak D jj ku vk. durch G, und H ist parallel dazu. Durch die Orthogonalprojektion von H auf die Ebene EG entsteht die Gerade H 0 Folgerung Für den Abstand des Punkts a von der Ebene (. Abb. 5.20). Diese ist parallel zum Urbild H und schneiE D p C Ru C Rv gilt: det G in einem Punkt a. Die Verbindungsgerade von a mit dessen Urbild b 2 H ergibt das in diesem Fall eindeutige j det.p  a; u; v/j Gemeinlot N . : dist.a; E/ D ku vk Lemma Sind die zwei Geraden G und H nicht parallel, so gibt es ein eindeutiges Gemeinlot N . Für die Schnittpunkte Wir erkennen zugleich: Zu jedem Raumpunkt a gibt es ei- a; b von N mit G bzw. H gilt: nen Normalenfußpunkt dist.G; H / D kb  ak: det.p  a; u; v/ .u v/ (5.14) bDaC ku vk2 Beweis Für beliebige Punkte x D a C  u 2 G und y D b C  v 2 H ist in E. Wir nennen die Abbildung R3 ! E mit a 7! y  x D .b  a/ C . v   u/ bei .b  a/ ? u; v: b die Orthogonalprojektion oder Normalprojektion auf die Ebene E (. Abb. 5.22 und 5.23). Später werden wir Wegen .b  a/  u D .b  a/  v D 0 folgt: eine Matrizendarstellung dieser Abbildung kennenlernen. ky  xk2 D kb  ak2 C k v   uk2  kb  ak2 : D

det.p  a; u; v/ .p  a/  .u v/ D : 2 ku vk ku vk2

Der Abstand zweier Geraden wird längs des Gemeinlots gemessen Als Nächstes wenden wir uns dem Abstand zweier Geraden G D p C Ru und H D q C Rv zu. Zuerst zeigen wir, dass es stets ein Gemeinlot gibt, also eine Gerade N , welche G und H unter rechtem Winkel schneidet (. Abb. 5.20). Bei G D H ist die Aussage trivial. Sind die beiden Geraden G und H parallel und verschieden, so liegen sie in der von q  p und u aufgespannten Ebene. Dann kann so wie vorhin aus jedem Punkt a 2 G eine Normale N an H gelegt werden, die wegen der Parallelität zwischen H und G auch zu G normal ist. Der Schnittpunkt b von N mit H bestimmt dist.G; H / D ka  bk. Durch Translationen in der Richtung von G und H entstehen aus N unendlich viele gemeinsame Normalen.

Gleichheit besteht genau dann, wenn  v   u D 0 ist. Wegen der geforderten linearen Unabhängigkeit von u und v bleibt für das Minimum nur  D  D 0, also x D a und y D b.  Wie können wir die Fußpunkte a und b und die Distanz dist.G; H / berechnen, wenn die Geraden in der Form G D p C Ru und H D q C Rv gegeben sind? Wir setzen die beiden Fußpunkte von N an in der Form a D p C u; b D q C v bei b  a D  n; n D u v: Dann ist dist.G; H / D k nk D jj knk, wobei die Vektorgleichung b  a D  n, also q  p  u C v D n

( )

5

145 5.4  Abstände zwischen Punkten, Geraden und Ebenen

zu erfüllen ist. In Koordinaten ausgeschrieben sind dies drei lineare Gleichungen in den drei Unbekannten ,  und . Durch Bildung von Skalarprodukten lassen sich die Unbekannten sogar explizit angeben: Wir multiplizieren die auf der linken und rechten Seite der Gleichung . / stehenden Vektoren skalar mit n und erhalten

x3

n

b v

E x

p u a

.q  p/  n  .u  n/ C .v  n/ D .n  n/ und weiter wegen u  n D v  n D 0 D

.q  p/  n : knk2

x2

x1

. Abb. 5.21 Die Ebene E D p C Ru C Rv geht durch p und wird von den Vektoren u und v aufgespannt

Wenn wir andererseits das Skalarprodukt der Vektoren aus . / mit v n bilden, so fallen wegen der Orthogonalität die sind (. Abb. 5.21). Genau dann verschwindet deren Spatprodukt, d. h. Produkte mit v und n weg, und es bleibt nach (5.13) det ..q  p/; v; n/   det.u; v; n/ D 0;

oder mit n D u v als Normalvektor zu E:

somit D

det ..x  p/; u; v/ D .x  p/  .u v/ D 0;

det.q  p; v; n/ : det.u; v; n/

n  x D n  p D k D konst. Dies bedeutet ausführlich:

Analog folgt nach Bildung des Skalarprodukts mit u n: det.q  p; u; n/ : D det.u; v; n/

n1 x1 C n2 x2 C n3 x3 D k:

Die Ebenengleichung

Die Distanz zweier nicht paralleler Geraden G D p C Ru und H D q C Rv lautet: Folgerung

dist.G; H / D

j det ..q  p/; u; v/ j : ku vk

Die Punkte a 2 G und b 2 H mit dist.G; H / D ka  bk lauten: a D p C u b D q Cv

Œ.q  p/ v  .u v/ und ku vk2 Œ.q  p/ u  .u v/ mit  D : ku vk2

Eine Ebene ist die Lösungsmenge einer linearen Gleichung n1 x1 C n2 x2 C n3 x3 D k. Dabei sind die in dieser Gleichung auftretenden Koeffizienten .n1 ; n2 ; n3 / ¤ 0 die Koordinaten eines Normalvektors n von E.

Wir können den Normalvektor normieren, und zwar sogar 1 auf zwei Arten, als b n D ˙ knk n.

mit  D

Der Mittelpunkt der Gemeinlotstrecke ab ist gleichzeitig eine optimale Näherung für den „Schnittpunkt“ zweier einander „beinahe“ schneidenden Geraden, wie die kommende Beispielbox zeigt.

Die Hesse’sche Normalform ist mehr als nur die Gleichung einer Ebene

Definition der Hesse’schen Normalform einer Ebene Ist n ein normierter Normalvektor der Ebene E, d. h., knk D 1, so heißt die zugehörige Ebenengleichung l.x/ D n  x  k D n1 x1 C n2 x2 C n3 x3  k D 0 nach L. O. Hesse (1811–1874) Hesse’sche Normalform der Ebene E.

Dabei gibt jkj D jn  pj nach der geometrischen Deutung des Skalarprodukts (siehe . Abb. 5.13) den Abstand Der Punkt x liegt genau dann in der Ebene E D p C Ru C des Koordinatenursprungs o von der Ebene E an, also Rv, wenn die Vektoren .x  p/, u und v linear abhängig dist.o; E/ D jkj.

146

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Beispiel: Optimale Approximation des Schnittpunkts zweier Geraden

5

Es gibt numerische Verfahren, um aus zwei Fotos desselben Objektes das dargestellt Objekt zu rekonstruieren, also die Koordinaten der in beiden Bildern sichtbaren Punkte zu berechnen, sofern die tatsächliche Länge einer in beiden Bildern ersichtlichen Strecke bekannt ist. Ist dann die gegenseitige Lage der Kameras zum Zeitpunkt der Aufnahmen bestimmt, so denken wir uns die beiden Fotos der Aufnahmesituation entsprechend im Raum platziert (siehe Skizze rechts). Seien z1 bzw. z2 die Aufnahmezentren, also die Brennpunkte der Objektive, und x 1 bzw. x 2 die beiden Bilder eines Raumpunkts x. Zur Rekonstruktion des Urbildpunkts x sind dann offensichtlich die beiden Projektionsgeraden z1 C R.x 1  z1 / und z2 C R.x 2  z2 / miteinander zu schneiden.

stimmen demnach die gemeinsame Normale der beiden Projektionsgeraden und darauf den Mittelpunkt m zwischen den beiden Normalenfußpunkten a und b, also m D 12 .a C b/ (siehe Abbildung unten). Dazu verwenden wir die obigen Formeln. Inwiefern ist dieser Punkt optimal? 1) Angenommen p ist ein beliebiger Raumpunkt und x 2 G und y 2 H sind die zugehörigen Normalenfußpunkte auf G bzw. H . Dann ist jedenfalls nach der Dreiecksungleichung kp  xk C kp  yk  kx  yk  ka  bk: Die Summe der Entfernungen des Punkts p von G und H ist genau dann minimal, wenn beide Male das Gleichheitszeichen gilt, und dies trifft für alle Punkte der abgeschlossenen Strecke ab zu (. Abb. 5.20).

5

2. Bil d

6

3

4

m

x2

8

11 9

1 7

x1

12

2

13

10

2) Verlangt man hingegen eine minimale Quadratsumme der Entfernungen, so bleibt der Mittelpunkt m von ab als einzige Lösung. Zur Begründung wählen wir ein spezielles Koordinatensystem mit m als Ursprung und der gemeinsamen Normalen als x3 -Achse. Dann können wir ansetzen: 0 1 0 1 0 0 B0C B0C a D @ A ; b D @ A mit 2c D ka  bk: c c

14

5 6

3

4

1

8 11

9 7 2

12 10

1. Bild

z2

13

14

Ein Problem der Computer-Vision: Die Rekonstruktion zweier Fotos mithilfe von 14 Passpunkten

Die Punkte x 2 G und y 2 H seien x D a C  u, y D b C  v, wobei 0 1 0 1 0 1 v1 p1 u1 Bv C Bp C Bu C u D @ 2 A ; v D @ 2 A und p D @ 2 A : 0 0 p3 Dann ist kp  xk2 C kp  yk2 D kp  a   uk2 C kp  b   vk2

Problemanalyse und Strategie Nachdem die zi und x i durch Messungen und numerische Berechnungen ermittelt worden sind, kann man nicht erwarten, dass die beiden Projektionsgeraden einander wirklich schneiden. Man muss also die bestmögliche Näherung für den Schnittpunkt ausrechnen. Lösung Setzt man voraus, dass die beiden Projektionsgeraden G und H nicht parallel sind, so wird man diese Näherung intuitiv dort wählen, wo G und H einander am nächsten kommen. Wir be-

D .p1  u1 /2 C .p2  u2 /2 C .p3  c/2 C .p1  v1 /2 C .p2  v2 /2 C .p3 C c/2  .p3  c/2 C .p3 C c/2 D 2 p32 C 2 c 2  2 c 2 : Gleichheit in beiden Fällen ist nur möglich bei ! ! ! p1 u1 v1 p3 D 0 und D D : p2 u2 v2 Wegen der linearen Unabhängigkeit von u und v bleibt  D  D 0, also x D a, y D b und p D m.

147 5.4  Abstände zwischen Punkten, Geraden und Ebenen

Wegen l.x/ D n  x  k folgt weiter: l.x/ D n  Πa C .1  / b  k D .n  a/ C .1  /.n  b/  k D  .l.a/ C k/ C .1  / .l.b/ C k/  k D  l.a/ C .1  / l.b/:

N a

n a

x

l .a/

b x E

. Abb. 5.22 Die Bedeutung der Hesse’schen Normalform: d D l.a/ ist der orientierte Abstand des Punkts a von der Ebene E. Dabei kann d positiv, negativ oder gleich null sein

Die Werte l.x/ durchlaufen wegen 0    1 das abgeschlossene Intervall Œ l.a/; l.b/  in R. Haben l.a/ und l.b/ gleiche Vorzeichen, so haben auch alle Zwischenwerte l.x/ dieses Vorzeichen. Deshalb sind die offenen Halbräume konvex. Sind l.a/ und l.b/ nicht negativ bzw. nicht positiv, so gilt jeweils dasselbe für alle Zwischenwerte. Damit ist auch die Konvexität der abgeschlossenen Halbräume bewiesen.  Beispiel Die vier Punkte

Setzen wir einen beliebigen Raumpunkt a in die Ebenengleichung ein, so ist bei x 2 E (. Abb. 5.22) l.a/ D n  a  k D n  a  n  x D n  .a  x/:

1 ˙2 D @p0A ; 2 0

a1;2

1 0 ˙2A D@ p  2 0

a3;4

Somit gibt l.a/ die vorzeichenbehaftete Länge der Probestimmen eine dreiseitige Pyramide mit lauter Kanten derjektion des Vektors a  x auf n an. Dies eröffnet die selben Länge, also ein reguläres Tetraeder (. Abb. 5.18). Möglichkeit, den Abstand dist.a; E/ zusätzlich mit einem Gesucht sind spezielle Normalvektoren der vier SeitenfläVorzeichen zu versehen. chen, und zwar diejenigen Einheitsvektoren, welche nach außen weisen. Auch soll das Innere dieses Tetraeders durch Ungleichungen gekennzeichnet werden. Eigenschaften der Hesse’schen Normalform Ein auf der Verbindungsebene von a1 , a2 und a3 normal Ist l.x/ D 0 die Hesse’sche Normalform der Ebene E, so stehender Vektor ist als Vektorprodukt zu berechnen: gibt l.a/ den orientierten Abstand des Punkts a von E an. Dabei ist dieser Abstand l.a/ genau dann positiv, wenn a auf jener Seite von E liegt, auf welche der Normalvektor n zeigt.

n123 D .a2  a1 / .a3  a1 / 1 0 1 0 1 0 0 2 4 p D @ 0 A @ 2p A D @8 2A : 0 8 2 2

Die Ebene E zerlegt den Raum R3 n E in zwei offene Halbräume, deren Punkte x durch l.x/ > 0 bzw. durch Wir normieren zu 0 1 l.x/ < 0 gekennzeichnet sind. Die durch l.x/  0 bzw. 0 1 @p A l.x/  0 charakterisierten Punktmengen heißen abge2 b n123 D p schlossene Halbräume. 3 1 Lemma Halbräume sind stets konvexe Mengen, ob sie nun und haben damit eine von zwei möglichen Richtungen ausoffen sind oder die Punkte der Begrenzungsebene einschliegewählt. Um festzustellen, ob b n123 nach außen oder innen ßen. zeigt, berechnen wir die Gleichung der Ebene a1 a2 a3 als Beweis Nach der Definition der Konvexität in l.x/ D b n123  x  k mit l.a1 / D 0; 7 Abschn. 5.1 müssen wir beweisen, dass ein offener bzw. p abgeschlossener Halbraum mit zwei Punkten a und b stets n123  a1 D 2=3. Nun gilt für den Ursprung, also die ganze Strecke ab enthält. Unsere Anschauung zeigt uns, also k D b dass dies offensichtlich richtig ist. Trotzdem soll vorgeführt für einen Innenpunkt des Tetraeders p werden, wie sich dies durch Rechnung beweisen lässt: l.0/ D k D  2=3 < 0: Die Punkte der abgeschlossenen Strecke ab sind als Konvexkombinationen von a und b darstellbar als Dieser orientierte Abstand ist negativ; der Vektor b n123 weist convfa; bg D f x D  a C .1  / b j 0    1 g: somit wie gewünscht nach außen.

5

148

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Der Normalvektor n124 der Ebene span.a1 a2 a4 / unterscheidet sich von n123 durch das Vorzeichen der zweiten Koordinate. Dies ergibt für den richtig orientierten Einheitsvektor: 0 1 0 p 1 b n124 D p @ 2A : 3 1

5

Analog berechnen wir: 0p 1 2 1 @ A 0 b n134 D p 3 1

und b n234

0 p 1  2 1 @ 0 A: Dp 3 1

A heißt Darstellungsmatrix dieser Abbildung. Wir werden uns sehr ausführlich im 7 Kap. 6 mit derartigen Abbildungen befassen und dort eine elegantere Definition kennenlernen, nämlich eine anhand ihrer beiden Eigenschaften '.x C y/ D '.x/ C '.y/ und '.x/ D  '.x/: Diese bewirken, dass Linearkombinationen wieder auf Linearkombinationen mit denselben Koeffizienten abgebildet werden, also ! n n X X ' i x i D i '.x i /: i D1

i D1

Dabei weisen auch diese beiden Vektoren nach außen, denn Hier beschränken wir uns auf die linearen Abbildungen wir erhalten für den in beiden Ebenen gelegenen   pPunkt a3 3 3 positive Skalarprodukte a3  b n134 D a3  b n234 D 2=3 > 0. 'W R ! R . Deren Darstellungsmatrizen A D ai k sind 3 3 Die Punkte im Inneren dieses Tetraeders sind somit aus R . Damit lautet ' ausführlich: durch die folgenden vier linearen Ungleichungen beschrie10 1 0 01 0 x1 x1 a11 a12 a13 ben: 0A A @ @ @ x a a a x D 21 22 23 2A 2 p p 2 x2 C x3  2 < 0 x30 a31 a32 a33 x3 p p 0 1 0 1 0 1 a12 a13 a11  2 x2 C x3  2 < 0 p p A A @ @ @ D a21 x1 C a22 x2 C a23 A x3 : 2 x1  x3  2 < 0 a31 a32 a33 p p  2 x1  x3  2 < 0 Wählen wir als Urbild x den Vektor e 1 der Standardbasis Hier haben wir p die Hesse’schen Normalformen jeweils mit des R3 , also mit x1 D 1, x2 D x3 D 0, so ist der Bildvekdem Faktor 3 erweitert. tor x 0 gleich dem ersten Spaltenvektor s1 von A. Analog Die Bestimmung der Lösungsmenge von Systemen sind die restlichen Spaltenvektoren Bilder von e bzw. e . 2 3 derartiger linearer Ungleichungen gehört übrigens zum Die Abbildung ' ist somit durch die Bilder '.e / D s der i i Fachgebiet lineare Optimierung (siehe Grundwissenbuch, Standardbasis eindeutig festgelegt. Abschnitt 24.1). Nach dem obigen Lemma ist die LösungsAuch die identische Abbildung idR3 ist eine lineare menge der Durchschnitt endlich vieler konvexer Mengen Abbildung. Wegen id 3 .e / D e lautet die zugehörige i i R und somit ebenfalls konvex. 9 Darstellungsmatrix ? Selbstfrage 5.14 Welches geometrische Objekt wird von den Punkten mit n123 , b n124 , b n134 , b n234 gebildet? den Ortvektoren b

Die Orthogonalprojektion ist Anlass für eine Vorschau auf lineare Abbildungen Bevor wir uns im Anschauungsraum genauer mit Orthogonalprojektionen auf Ebenen oder Geraden befassen, sind einige Zwischenbemerkungen über lineare Abbildungen und über das Rechnen mit Matrizen notwendig. Eine Abbildung ' von einem K-Vektorraum V in einen K-Vektorraum V 0 heißt linear, wenn sie sich nach Einführung von Koordinaten in V und V 0 durch Multiplikation mit einer Matrix mit Einträgen aus K beschreiben lässt, also von folgender Bauart ist: 'W V ! V 0 mit x 7! x 0 D A x:

0

1 1 0 0 E 3 D @0 1 0 A : 0 0 1 Diese heißt (dreireihige) Einheitsmatrix, und es ist E3 x D x für alle x 2 R3 . Die obige Zerlegung des Matrizenprodukts A x in eine Summe von Spaltenvektoren zeigt, dass alle Bildvektoren x 0 Linearkombinationen der Spaltenvektoren s1 ; s2 ; s3 von A sind. Die Menge der Bildvektoren ist somit die Hülle der Spaltenvektoren von A und damit ein Unterraum von R3 . Die Dimension dieses Unterraums, des Bildes '.R3 /, heißt Rang rg.'/ der linearen Abbildung ' und auch Rang rg A der Darstellungsmatrix A. Bei rg.A/ D 3 sind die Spaltenvektoren s1 ; s2 ; s3 linear unabhängig; daher ist det A ¤ 0. In diesem Fall bilden die Spaltenvektoren von A eine Basis des R3 . Nachdem jeder Vektor x 0 des R3 eine eindeutige Darstellung als Linearkombination dieser Basisvektoren besitzt, gibt es zu jedem

149 5.4  Abstände zwischen Punkten, Geraden und Ebenen

Bildvektor ein eindeutiges Urbild x. Die Abbildung ' ist in diesem Fall bijektiv; es gibt die Umkehrabbildung ' 1 . Hat man die Urbilder y i der Vektoren e i der Standardbasis bereits berechnet, etwa durch Auflösen der zugehörigen linearen Gleichungssysteme A y i D e iP , so ist das P Urbild von x 0 D 3iD1 xi0 e i gleich ' 1 .x 0 / D 3iD1 xi0 y i , denn für jedes i 2 f1; 2; 3g ist

Zurück zu den linearen Abbildungen R3 ! R3 : Werden zwei lineare Abbildungen hintereinander ausgeführt, also 'W x 7! x 0 D A x und ' 0 W x 0 7! x 00 D A 0 x 0 ;

so gilt für die Abbildung des Vektors e i der Standardbasis: Der i-te Spaltenvektor si von A ist gleich '.e i /. Daher ist ' 0 ı '.e i / D A 0 si der i-te Spaltenvektor in dem Matri0 0 0 0 A .xi y i / D xi .A y i / D xi e i : zenprodukt A 0 A. Andererseits folgt aus Linearität der Pder 3 Einzelabbildungen, dass auch für x D x i D1 i e i gilt: Dies zeigt, dass auch ' 1 eine lineare Abbildung ist; die

X zugehörige Darstellungsmatrix A 1 heißt inverse Matrix ' 0 ı '.x/ D ' 0 xi s i von A. Deren Spaltenvektoren y 1 ; y 2 ; y 3 haben die EigenX schaft A y i D e i . Wird also die Matrix A der Reihe nach D xi .A 0 A/ e i D .A 0 A/ x: 1 mit den Spaltenvektoren von A multipliziert, so entstehen die Spalten der Einheitsmatrix. Wir schreiben dies kurz Damit ist auch die Zusammensetzung ' 0 ı ' wieder eine als Matrizenprodukt lineare Abbildung R3 ! R3 . Die Darstellungsmatrix der

Produktabbildung ' 0 ı ' ist gleich dem Produkt der beiden Darstellungsmatrizen. Nachdem bei bijektivem ' die Zusammensetzungen Dahinter steht die folgende Erweiterung der im 7 Abschn. 3.2 eingeführten Multiplikation einer Matrix ' 1 ı ' und ebenso ' ı ' 1 die identische Abbildung idR3 ergeben, folgt für die zugehörigen Darstellungsmatrizen ermit einem Spaltenvektor: Wir bilden das Matrizenprodukt D D B C einer Ma- gänzend zu oben: trix B 2 Km n mit einer Matrix C 2 Kn p , indem wir der A 1 A D A A 1 D E3 : Reihe nach B mit den p Spaltenvektoren von C multiplizieren und diese als Spalten in D zusammenfassen. 3 3 Man beachte: Das Produkt kann nur gebildet werden, Die bijektiven linearen Abbildungen 'W R ! R bilwenn die Spaltenanzahl n des ersten Faktors B gleich der den eine Gruppe, und zwar3 eine Untergruppe der Gruppe Zeilenanzahl des zweiten Faktors C ist. Dann lautet das aller Permutationen des R3 3(siehe 7 Abschn. 2.1). Jedem mit det A ¤ 0 bijektiv zuElement di k der Produktmatrix für i 2 f1; : : : ; mg und ' ist eine Matrix A 2 R geordnet, wobei der Hintereinanderausführung ' 0 ı ' das k 2 f1; : : : ; pg: 0 Produkt A A entspricht. Deshalb bilden auch die dreirein X higen reellen Matrizen A mit det A ¤ 0 eine Gruppe mit bij cj k : di k D E3 als neutralem Element und A 1 als zu A inversem Elej D1 ment. Diese Gruppe heißt allgemeine lineare Gruppe des 3 In Worten: Das Element an der Stelle .i; k/ der Produktma- R und wird mit GL3 .R/ bezeichnet. Die Matrizen aus trix B  C entsteht aus der i-ten Zeile von B und der k-ten GL3 .R/ heißen auch invertierbar oder regulär. Später im 7 Abschn. 7.4 werden wir erkennen, dass die Matrizen A Spalte von C durch „skalare Multiplikation“. Die folgende Illustration zeigt die Größenverhältnisse mit det A D 1 eine Unterguppe bilden, die spezielle lineare der an diesem Matrizenprodukt beteiligten Matrizen B, C Gruppe SL3 .R/. Sie umfasst diejenigen linearen Abbildungen, welche das orientierte Volumen unverändert lassen. und D. A  A 1 D E3 :

p

n

D

m

D

D

m

p

 B 

Affine Abbildungen bilden Affinkombinationen wieder auf Affinkombinationen ab

n

C

Der Punkt, der hier zur Verdeutlichung als Verknüpfungszeichen für die Matrizenmultiplikation dient, wird aller- Abschließend noch zu einer Verallgemeinerung der lineadings in Zukunft meist weglassen. Er ist nicht üblich. ren Abbildungen R3 ! R3 : Wird zu allen Bildvektoren noch ein konstanter Vektor t addiert, liegt also eine Abbil? Selbstfrage 5.15 dung mit der Darstellung Berechnen Sie das Produkt D der Matrizen 0 1 0 2 1 2 2 1 B1 2 C B1 2 2 BD@ A und C D @ 2 2 1 2 2

1 2 2C A 1

AW x 7! x 0 D t C A x

vor, so spricht man von einer affinen Abbildung . Dabei nennt man x 7! A x die zu A gehörige lineare Abbildung.

5

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

5

Affine Abbildungen A sind als Punktabbildungen aufzufassen, also als Abbildungen zwischen affinen Räumen. Richtungsvektoren u D x  y gehen durch A in A.x/  A.y/ D A u über, werden also der zu A gehörigen linearen Abbildung unterworfen. Die Zusammensetzung zweier affiner Abbildungen ist wieder eine affine Abbildung. Die bijektiven affinen Abbildungen bilden eine Gruppe, die affine Gruppe AGL3 .R/. Beispiele affiner Abbildungen sind bei t D 0 die linearen Abbildungen sowie die Translationen x 7! x 0 D x C t. Bei Letzteren ist A D E3 ; die zugehörige lineare Abbildung ist die Identität; der Vektor t heißt Schiebvektor t der Translation. Offensichtlich ist jede affine Abbildung A das Produkt aus der zugehörigen linearen Abbildung und der anschließenden Translation mit dem Schiebvektor A.0/. Affine Abbildungen haben die Eigenschaft, Affinkombinationen (siehe 7 Abschn. 5.1) wieder auf AffinkombinaP tionen abzubilden, denn unter der Voraussetzung i D 1 ist n

X

A

i x i

D t CA

i D1

D

n

X

n

X

D

i x i

n X i t C i A x i i D1

i .t C A x i / D

i D1

n X

b a

E

Ma the ma tik

. Abb. 5.23 Der Normalenfußpunkt b von a in der Ebene E sowie das Spiegelbild a0 von a. Auch der blaue Schriftzug wurde an E gespiegelt (grün) sowie normal in die Ebene E projiziert (rot)

Zu dieser Darstellung des Fußpunkts b kommen wir eigentlich auch ohne jede Rechnung, denn l.a/ gibt den im Sinn von n orientierten Normalabstand des Punkts a von E an. Wir haben somit nur vom Punkt a aus längs n die Länge l.a/ zurückzulaufen, um die Ebene E im Fußpunkt b zu erreichen.

i D1

i D1

n X



a0

kit taM kitaammeh

150

i A.x i /: ?Selbstfrage 5.16

i D1

Daher gehen affine Teilräume wieder in affine Teilräume über.

Zeigen Sie, dass die Formel für b aus (5.14) in jene aus u v durch n ersetzt wird und n  p (5.15) übergeht, wenn ku vk durch k.

Das dyadische Produkt vereinfacht die Darstellung der Orthogonalprojektionen

Die Formel (5.15) für b zeigt erneut, dass b unter allen Punkten x 2 E derjenige ist, welcher dem Punkt a am nächsten liegt, für den also die Gleichung dist.a; E/ D kb  ak gilt. Aus a D b C  n, n2 D 1 und n  .b  x/ D 0 Wir kehren nochmals zu der vorhin definierten Orthogoergibt sich nämlich: nalprojektion des R3 auf eine Ebene E zurück, die jedem Raumpunkt a den Fußpunkt b 2 E der durch a gehenden ka  xk2 D . n C .b  x//2 D 2 C .b  x/2  2 : Ebenennormalen zuordnet (. Abb. 5.23). Im Gegensatz zu (5.14) geben wir die Ebene E diesmal in der Hesse’schen Normalform an, und wir fassen die Orthogonalprojektion Gleichheit tritt nur bei b  x D 0, also bei x D b ein. Nun schreiben wir die Abbildung auf als Abbildung R3 ! R3 , auch wenn das Bild nur der affine Teilraum E ist. Neben der OrthogonalprojektiN W a 7! b D a  Œ.n  a/  k n on N W a ! b auf E soll auch die Spiegelung SW a 7! a0 an E in Matrizenform dargestellt werden. D k n C Œa  .n  a/ n Wir geben E durch die Gleichung l.x/ D n  x  k D 0 mit knk D 1 vor und können daher ansetzen: b D a C  n mit l.b/ D .n  a/ C .n  n/  k D 0: Es folgt  D Œ k  .n  a/ D l.a/ und damit als Lösung b D a  l.a/ n:

(5.15)

in Matrizenform um. Dazu ersetzen wir das auftretende Skalarprodukt n  a 2 R gemäß (5.3) durch ein Matrizenprodukt. Nun ist die Matrizenmultiplikation generell assoziativ. Das wird zwar erst im 7 Abschn. 6.5 allgemein bewiesen; im vorliegenden Fall lässt sich die Gültigkeit aber durch einfaches Ausrechnen bestätigen. Demnach ist .n  a/ n D n .n> a/ D .n n> / a:

151 5.4  Abstände zwischen Punkten, Geraden und Ebenen

Hier tritt eine symmetrische Matrix auf, nämlich 0

n21 > N D n n D @n 2 n 1 n3 n1

n1 n2 n22 n3 n2

1 n1 n3 n2 n3 A n23

Dabei heißt eine Matrix symmetrisch, wenn die bezüglich der Hauptdiagonale symmetrisch gelegenen Einträge ai k und aki stets gleich sind, wenn also N > D N ist. Wir schreiben nun noch x statt a sowie x E statt b und stellen die Orthogonalprojektion auf E wie folgt dar.

Darstellung der Orthogonalprojektion auf eine Ebene Die Orthogonalprojektion auf die Ebene E mit der Hesse’schen Normalform n  x  k D 0 lautet x 7! x E D k n C .E3  N / x mit N D n n> und E3 als dreireihiger Einheitsmatrix.

Der Normalvektor n von E spannt eine durch den Ursprung gehende Ebenennormale G auf, und nun wollen wir den Raumpunkt x auch normal auf diese Gerade G projizieren. Für das Bild x 3 von x gilt wegen der geometrischen Bedeutung des Skalarprodukts (. Abb. 5.13) x 3 D .x  n/ n: Auch diese Abbildung x 7! x 3 ist eine lineare Abbildung R3 ! R3 , denn sie kann ebenfalls durch eine 3 3-Darstellungsmatrix beschrieben werden. Zu deren Herleitung schreiben wir ähnlich wie vorhin bei der Orthogonalprojektion nach E die obige Vektordarstellung von x 3 auf ein Matrizenprodukt um: x 3 D .x  n/ n D n .n> x/ D .n n> / x: Die Darstellungsmatrix der Orthogonalprojektion auf die durch den Ursprung gehende Gerade G ist gleich dem schon vorhin verwendeten dyadischen Quadrat N D n n> des normierten Richtungsvektors von G. Nun ist (. Abb. 5.24) x D x E C x 3 mit x E als Normalenfußpunkt von x in E, also x E D x  x 3 D x  .n n> / x D .E3  n n> / x:

Allgemein nennt man die aus zwei Vektoren u; v 2 R3 beWir haben erneut die obige Darstellung der Orthogonalprorechnete symmetrische 3 3 -Matrix jektion hergeleitet, allerdings nur für den Fall k D 0. Dafür 1 0 1 0 verstehen wir jetzt aber die Bauart der Darstellungsmatrix u1 u1 v1 u1 v2 u1 v3 .E3  n n> / besser. u v> D @u2 A .v1 v2 v3 / D @u2 v1 u2 v2 u2 v3 A Schreiben wir nun n3 anstelle n und ergänzen wir u3 u3 v1 u3 v2 u3 v3 diesen Einheitsvektor zu einem orthonormierten Dreibein das dyadische Produkt von u und v. In dieser Matrix sind .n1 ; n2 ; n3 / (. Abb. 5.24): Dann gilt nach (5.9) der Reihe nach alle möglichen Produkte zwischen einer Koordinate von u und einer von v angeordnet.

xD

3 X

.x  ni / ni D

3

X

i D1

? Selbstfrage 5.17

.ni n> i / x D E3 x:

i D1

Die Summe der dyadischen Quadrate lautet also

Welchen Rang hat das dyadische Produkt?

> > .n1 n> 1 / C .n2 n2 / C .n3 n3 / D E3 : Die Orthogonalprojektion auf eine Ebene E ist ein Beispiel für eine affine Abbildung. Nur im Sonderfall k D 0, bei Die Orthogonalprojektion auf die Ebene E kann daher im dem die Ebene E durch den Ursprung geht (. Abb. 5.24), Fall k D 0 auch als handelt es sich um eine lineare Abbildung.   > (5.16) x E D .n1 n> 1 / C .n2 n2 / x

x

n D n3 n2

x3

E x2

G

xE

0 x1

n1

geschrieben werden. Diese Darstellung von x E ist nunmehr auch unmittelbar aus . Abb. 5.24 ablesbar, nämlich als Summe x 1 Cx 2 der Orthogonalprojektionen auf die von n1 bzw. n2 aufgespannten Geraden. ?Selbstfrage 5.18 1. Warum ist die bei der Orthogonalprojektion auftretende Darstellungsmatrix .E3  N / mit N D n n> bei knk D 1 idempotent, d. h., warum gilt: .E3  N /2 D .E3  N / .E3  N / D .E3  N /‹

. Abb. 5.24 Die Orthogonalprojektionen des Punkts x auf die Ebene E und auf die Ebenennormale G

2. Ist det.E3  N / D 0?

5

152

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Die Orthogonalprojektion auf eine Ebene und die Spiegelung an dieser Ebene hängen eng zusammen

b3

x

b03

b02

Für das Spiegelbild x 0 von x bezüglich der Ebene E mit dem normierten Normalvektor n gilt (siehe . Abb. 5.23): 1 .x C x 0 / D x E ; also x 0 D 2 x E  x: 2

5

b01

o

b2

In Matrizenschreibweise bedeutet dies: x 0 D 2k n C 2.E3  N / x  x mit N als dyadischem Quadrat von n.

Darstellung der Spiegelung an einer Ebene Die Spiegelung an der Ebene E mit der Hesse’schen Normalform n  x  k D 0 lautet: x 7! x 0 D 2k n C .E3  2N / x mit N D n n> .

? Selbstfrage 5.19 Warum gilt für die Darstellungsmatrix der Spiegelung .E3  2N /.E3  2N / D E3 ‹

5.5

Wechsel zwischen kartesischen Koordinatensystemen

b1

. Abb. 5.25 Zwei kartesische Rechtskoordinatensysteme mit demselben Ursprung

.b01 ; b02 ; b03 / (. Abb. 5.25). Sind dann 0 1 x1 @ x2 A x D B x3

0 01 x1 und B 0 x D @x20 A x30

die Koordinaten desselben Punkts x, so bedeutet dies nach (5.2): xoD

3 X i D1

xi bi D

3 X

xj0 bj0 :

j D1

Wir stellen nun alle Vektoren dieser Gleichung im Koordinatensystem .oI B/ dar. Dazu brauchen wir die BKoordinaten der Basisvektoren bj0 . Wir setzen diese an als 0 1 a1j 0 A @ B bj D a2j . Dann lässt sich die Vektorgleichung a3j

Bei vielen Gelegenheiten ist es notwendig, von einem kar0 1 0 1 0 1 0 1 tesischen Koordinatensystem auf ein anderes umzurechnen. a11 a12 a13 x1 Ein Musterbeispiel bildet in der Astronomie die Umrech@x2 A D x10 @a21 A C x20 @a22 A C x30 @a23 A nung von einem in der Sonne zentrierten und nach Fixx3 a31 a32 a33 sternen orientierten heliozentrischen Koordinatensystem auf ein lokales System in einem Punkt der Erdoberfläche übersichtlich in Matrizenform schreiben als mit lotrechter x3 -Achse und der nach Osten orientierten 1 0 01 0 1 0 x1 -Achse. Erst damit ist es möglich vorauszuberechnen, a11 a12 a13 x1 x1 @x2 A D @a21 a22 a23 A @x20 A : wie die Bewegungen der Planeten oder des Mondes von der Erde aus zu beobachten sein werden. Wir werden uns x3 a31 a32 a33 x30 diesem Problem noch genauer widmen. Die Matrix .aij / ist eine Transformationsmatrix , und wir bezeichnen sie mit B T B 0 . Mit ihrer Hilfe transformieren wir Orthogonale Matrizen erledigen Koordinaten von einem Koordinatensystem auf ein andedie Umrechnung zwischen zwei res, in unserem Fall von B 0 -Koordinaten (rechter Index) auf B-Koordinaten (linker Index), also kartesischen Koordinatensystemen (5.17) B x D B T B 0 B 0 x: Es seien zwei kartesische Koordinatensysteme mit demselben Ursprung o gegeben, nämlich .oI B/ mit der ortho- In den Spalten von B T B 0 stehen die B-Koordinaten der Banormierten Basis B D .b1 ; b2 ; b3 / und .oI B 0 / mit B 0 D sisvektoren b01 , b02 , b03 . Da diese linear unabhängig sind,

153 5.5  Wechsel zwischen kartesischen Koordinatensystemen

hat B T B 0 den Rang 3. Die Gleichung (5.17) beschreibt eine bijektive lineare Abbildung B 0 x 7! B x; Transformationsmatrizen sind invertierbar. Nach (5.9) ist die i-te B-Koordinate von bj0 gleich dem Skalarprodukt bi  bj0 . Dies führt auf die Darstellung 0

B TB0

b1  b01 0 @ D b2  b1 b3  b01

b1  b02 b2  b02 b3  b02

1 b1  b03 b2  b03 A : b3  b03

(5.18)

Die Spaltenvektoren in dieser Matrix sind orthonormiert, also paarweise orthogonale Einheitsvektoren. Sollen umgekehrt die B 0 -Koordinaten aus den B-Koordinaten berechnet werden, so benötigen wir die Umkehrabbildung der linearen Abbildung B 0 x 7! B x, also die inverse Matrix. Demnach gilt: 0 01 x1 @x20 A D x30

B0 TB

0 1 x1 @x2 A mit B 0 T B D .B T B 0 /1 : x3 0

In den Spalten der Matrix B 0 T B stehen die B0-Koordinaten 1 bi  b01 0 der bi , also gemäß (5.9) die Skalarprodukte @bi  b2 A, und bi  b03 das sind genau die Zeilen der ursprünglichen Transformationsmatrix B T B 0 . Also gilt für die Transformationsmatrizen A zwischen kartesischen Koordinatensystemen, dass die inverse Matrix gleich ist der transponierten. Um diese zu invertieren, braucht man nur an der Hauptdiagonale zu spiegeln, also Spalten mit Zeilen zu vertauschen, kurz:

In den Spalten der Umrechnungsmatrix B T B 0 von den B 0 -Koordinaten zu den B-Koordinaten stehen die B-Koordinaten der bj0 und in den Zeilen die B 0 -Koordinaten der bi . Sind B und B 0 Rechtssysteme, so ist das Spatprodukt det.b1 ; b2 ; b3 / D det B 0 T B D det B T B 0 D C1. Derartige orthogonale Matrizen heißen eigentlich orthogonal. In der nächsten Beispielbox ist eine derartigen Matrix zu berechnen. Werden die Wechsel B x 7! B 0 x und B 0 x 7! B 00 x zwischen orthonormierten Basen hintereinander ausgeführt, so gibt es für den Wechsel B x 7! B 00 x erneut eine orthogonale Transformationsmatrix B 00 T B D B 00 T B 0  B 0 T B , nachdem darin die Spaltenvektoren, also die B 00 -Koordinaten von b1 ; b2 ; b3 , nach wie vor orthonormiert sind. Demnach ist das Produkt zweier orthogonaler Matrizen wieder orthogonal. Die dreireihigen orthogonalen Matrizen bilden hinsichtlich der Multiplikation eine Untergruppe von GL3 .R/, die orthogonale Gruppe O3 . Die eigentlich orthogonalen Matrizen bilden die Untergruppe SO3 von O3 . ?Selbstfrage 5.20 1. Ist die Matrix 0 1 1B @2 3 2

2 1 2

1 2 2C A 1

eigentlich orthogonal? 2. Man bestätige durch Rechnung, dass die bei der Spiegelung an einer Ebene auftretende symmetrische Matrix M D E3  2N orthogonal ist. Warum ist sie nicht eigentlich orthogonal?

A 1 D A > und damit auch A A > D A > A D E3 :

Wir wissen von der geometrischen Bedeutung des SkalarDerartige Matrizen heißen orthogonal. Mehr darüber gibt produkts u  v. Es hängt nur von der gegenseitigen Lage der jeweiligen Vektoren ab, muss also unverändert bleiben, es im 7 Abschn. 9.3. wenn wir das Koordinatensystem ändern. Wir sagen, dieses Produkt ist koordinateninvariant. Dies gilt sinngemäß auch für das Vektorprodukt .u v/ Orthogonale Transformationsmatrizen und das Spatprodukt det.u; v; w/ von Vektoren aus R3 , Die Transformationsmatrizen zwischen kartesischen Kosofern ausschließlich Rechtskoordinatensysteme verwenordinatensystemen sind orthogonal; sie genügen der Bedet werden. Eine Änderung des Rechtskoordinatensystems dingung wirkt sich auf die Koordinaten von .u v/ genauso aus wie auf u und v, während das Spatprodukt gleich bleibt. 1 > .B T B 0 / D .B T B 0 / ; d. h., Dies lässt sich in den folgenden Formeln ausdrücken. .B T B 0 />  B T B 0 D E3 :

Koordinateninvarianz der Produkte von Vektoren

Die Spaltenvektoren si in einer orthogonalen Matrix A sind nach (5.8) orthonormiert, d. h. paarweise orthogonale Einheitsvektoren, denn die Einträge in der Produktmatrix A > A D E3 sind identisch mit den Skalarprodukten si  sj D ıij : Damit ist umgekehrt jede orthogonale Matrix eine Umrechnungsmatrix zwischen kartesischen Basen, nämlich von .s1 ; s2 ; s3 / auf die kanonische Basis .e 1 ; e 2 ; e 3 /.

Ist A eine eigentlich orthogonale Matrix, so gilt: .A u/  .A v/ D u  v; .A u/ .A v/ D A .u v/; det .A u; A v; A w/ D det.u; v; w/:

5

154

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

Beispiel: Ein Würfel wird wie das Atomium in Brüssel aufgestellt

Wir stellen einen Einheitswürfel W derart auf, dass eine Raumdiagonale lotrecht wird, also in Richtung der x3 -Achse verläuft. Eine weitere Raumdiagonale soll in die Koordinatenebene x1 D 0 fallen. Wie lauten die Koordinaten der acht Ecken dieses aufgestellten Würfels? Problemanalyse und Strategie

5

Der Einheitswürfel W werde von den Basisvektoren b01 , b02 und b03 eines kartesischen Rechtskoordinatensystems aufgespannt. Wir verknüpfen nun mit dem Würfel ein zweites Rechtskoordinatensystem mit Basisvektoren b1 , b2 und b3 , welches der geforderten Würfelposition entspricht. Der Vektor b3 weist also in Richtung der Raumdiagonale, und der Vektor b2 spannt mit b3 eine Ebene auf, welche auch b01 enthält. Dabei entscheiden wir uns für die Lösung (siehe Abbildung unten rechts) mit positivem Skalarprodukt b01  b2 . Nun muss nur der Würfel mit den beiden Koordinatensystemen derart verlagert werden, dass B in Grundstellung kommt, also b3 lotrecht wird. Um also die gesuchten Koordinaten zu bekommen, brauchen wir nur die bekannten B 0 -Koordinaten der Würfelecken auf B-Koordinaten umzurechnen. Gemäß (5.17) gelten Umrechnungsgleichungen der Art B x D A B 0 x. In den Spalten der orthogonalen Transformationsmatrix A D B T B 0 aus (5.18) stehen die B-Koordinaten der Basisvektoren b01 ; b02 ; b03 des Würfels. Wegen A > D A 1 D B 0 T B stehen in den Zeilen die B 0 -Koordinaten der bi .

des Würfels, und dieser enthält auch den Vektor b2 : Der Vektor b1 ist zu dieser Ebene orthogonal, hat also die Richtung des Vektorprodukts 0 1 0 1 0 1 1 0 1 1 B C 1 B C B C b01 b3 D @0A p @1A D p @1A : 3 1 3 1 0 Durch Normierung erhalten wir: 0

1 0 1 B C B 0 b1 D ˙ p @1A : 2 1

b3 b03 b01

b02

b1 b2

Würfel W in der aufgestellten Position

Lösung Schließlich ist bei einem kartesischen Rechtskoordinatensystem stets b2 D b3 b1 , also 0 1 0 1 0 1 1 0 2 1 B C 1 B C B C B 0 b2 D ˙ p @1A @1A D ˙ p @1A : 6 1 6 1 1 Bei der Wahl des oberen Vorzeichens wird die erste B 0 -Koordinate von b2 , also b01  b2 positiv. Wir übertragen diese B 0 -Koordinaten von b1 , b2 und b3 in die Zeilen der Matrix A und erhalten 1 0 p1 0  p12 2 C B p2 A D @ 6  p16  p16 A p1 3

Das Atomium in Brüssel, ein auf die Raumdiagonale gestellter Würfel

Die durch den Ursprung verlaufende Raumdiagonale von W bestimmt die Richtung von b3 . Also entsteht b3 durch Normieren von b01 C b02 C b03 . Die B 0 -Koordinaten von b3plauten demnach .  /> mit 32 D 1. Die Wahl  D C1= 3 bedeutet, dass die dem Koordinatenursprung gegenüberliegende Würfelecke eine positive dritte Koordinate erhält. Die von b01 und b3 aufgespannte Ebene bestimmt einen Diagonalschnitt

p1 3

p1 3

Die „neuen“ Koordinaten der Ecken des aufgestellten Einheitswürfels W stehen in den Spalten der Produktmatrix 0 0 B A  @0 0

1 1 1 0 0 1 1 0 0 1 1 0 0 1 1C A 0 0 0 1 1 1 1 0 p1 0 0  p12  p12 2 B0 p2 p1  p16  p16 D@ 6 6 p2 p1 p1 0 p13 3 3 3

p1 2 p1 6 p2 3

0 0 p 3

0

1

 p26 C A: p2 3

155 5.5  Wechsel zwischen kartesischen Koordinatensystemen

Die erste dieser Gleichungen folgt wegen A > A D E3 auch unmittelbar aus (5.3), denn

Diese Bedingung ist bereits hinreichend für eine Bewegung, denn die vorhin festgestellte Invarianz der Produkte von Vektoren garantiert, dass dabei alle Distanzen kx  yk und wegen u  v D kuk kvk cos ' alle Winkelma.A u/  .A v/ D .A u/> .A v/ D u> A > A v D u> v: ße unverändert bleiben, wobei Rechtssysteme wieder in Hinsichtlich des Spatprodukts kann man auf die Formel Rechtssysteme übergehen. (5.13) zurückgreifen: det .A u; A v; A w/ D A u  .A v A w/ D A u  A.v w/ D u  .v w/ D det.u; v; w/:

Darstellung von Bewegungen Bei Verwendung kartesischer Koordinaten .oI B/ ist die affine Abbildung AW x 7! t C A x genau dann eine Bewegung, wenn die Matrix A eigentlich orthogonal ist.

In 7 Kap. 7 werden wir übrigens erkennen, dass allgemeiner bereits die Bedingung det A D 1 hinreicht für die Kommentar Die obige Definition einer Bewegung B lässt Invarianz des Spatprodukts. sich abschwächen. Es genügt zu fordern, dass für alle x; y 2 R3 kB.x/  B.y/k D kx  yk gilt und ein RechtsOrthogonale Matrizen beschreiben zugleich system wieder in ein Rechtssystem übergeht.

Bewegungen mit einem Fixpunkt

Die Zusammensetzung zweier Bewegungen ist wieder eine Bewegung. Deshalb bilden die Bewegungen eine UnterIm Folgenden verwenden wir den Begriff „Bewegung“ gruppe der affinen Gruppe AGL3 .R/, die Bewegungsgrupfür eine Verlagerung von Raumobjekten oder des ganzen pe ASO3 .R/. Die Gleichung Raums von einer Position in eine andere. Vorderhand interessieren uns allerdings nur die Anfangs- und Endlage, also (5.19) x 0 D A x bei A 1 D A > und det A D 1 weder der „Weg“ dazwischen noch der zeitliche Ablauf.

Definition einer Bewegung Eine affine Abbildung BW R3 ! R3 , x 7! x 0 D t C A x heißt Bewegung, wenn dabei alle Distanzen und Winkelmaße erhalten bleiben und Rechtssysteme wieder in Rechtssysteme übergehen.

Statt Bewegung sagt man auch gleichsinnige Kongruenz. Die zu einer Bewegung gehörige lineare Abbildung heißt auch gleichsinnige Isometrie. Offensichtlich sind die Translationen Beispiele von Bewegungen, und zwar diejenigen mit A D E3 . Definitionsgemäß muss die Bewegung BW x 7! x 0 D t C A x ein kartesisches Rechtssystem mit Ursprung o und orthonormierten Basisvektoren .b1 ; b2 ; b3 / wieder in ein kartesisches Rechtssystem mit Ursprung o0 D B.o/ und Basisvektoren .A b1 ; A b2 ; A b3 / überführen. Hier haben wir berücksichtigt, dass Richtungsvektoren durch die zu B gehörige lineare Abbildung transformiert werden. Eine Bewegung ist durch ein Paar zugeordneter Rechtssysteme .oI B/ und .o0 I B 0 / bereits eindeutig festgelegt, denn damit kennt man sowohl den Schiebvektor t D o0  o, als auch die zugehörige lineare Abbildung. Verwendet man B D .b1 ; b2 ; b3 / als Basis für kartesische Koordinaten, so bilden die B-Koordinaten der Bilder .A b1 ; A b2 ; A b3 / die Spaltenvektoren in der Matrix A. Also muss A eigentlich orthogonal sein.

beschreibt bei A D B T B 0 im Sinn von (5.17) die Umrechnung zwischen zwei kartesischen Rechtskoordinatensystemen, und zwar von .oI B 0 /-Koordinaten zu .oI B/Koordinaten. Das bedeutet, ein und derselbe Punkt oder auch Vektor erhält durch die beiden Koordinatensysteme verschiedene Koordinaten zugeordnet. Wir können die Gleichung (5.19) aber noch anders interpretieren: Es gibt eine Bewegung B, die das Achsenkreuz .oI B/ auf .oI B 0 / abbildet. Ein mit .oI B/ starr verbundener Punkt x kommt dadurch in die Lage x 0 (. Abb. 5.26). Wie lauten die .oI B/-Koordinaten des Bildpunkts x 0 ? Unsere Bewegung B führt die anfangs mit .b1 ; b2 ; b3 / identischen Basisvektoren in die Position .b01 ; b02 ; b03 / über. Diese bilden weiterhin ein kartesischen Rechtssystem. Der Punkt x wird mit dem Achsenkreuz mitgeführt. Daher hat sein Bildpunkt x 0 bezüglich des mitgeführten Koordinatensystems .oI B 0 / dieselben Koordinaten wie sein Urbild x bezüglich .oI B/. Zur Lösung unseres Problems haben wir somit nur die B-Koordinaten des Urbilds x als B 0 -Koordinaten des Bilds x 0 aufzufassen und auf B-Koordinaten umzurechnen, und dies erfolgt wie in (5.17) mithilfe einer eigentlich orthogonalen Matrix A D B T B 0 . Wir halten fest: Bezüglich eines festgehaltenen Koordinatensystems .oI B/ lässt sich jede Bewegung BW x 7! x 0 mit dem Fixpunkt o, also mit B.o/ D o, durch eine Gleichung (5.19) darstellen. Dabei stehen in den Spalten der eigentlich orthogonalen Matrix A die B-Koordinaten der Bilder .b01 ; b02 ; b03 / der Basisvektoren.

5

156

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

b3

b03 b3

b03

b02

x0 x0

'

b02

x

x

b01 o

5

o '

' b2

b2

b01

b1 b1

. Abb. 5.27 Drehung um die x3 -Achse 0

. Abb. 5.26 Die Bewegung B W x 7! x bringt die Vektoren b1 , b2 und b3 mit b01 , b02 bzw. b03 zur Deckung

denn der im Bogenmaß angegebenen Drehwinkel .t/ ergibt, nach der Zeit t differenziert, gerade  '  die gewünschte d D '. 9 Beispiel Der Punkt x werde um die dritte Koordinaten- Winkelschwindigkeit dt D ! und ! achse b3 durch den Winkel ' verdreht. Gesucht sind die Koordinaten der Drehlage x 0 . ?Selbstfrage 5.21 Wie eben festgestellt, wird die Drehung durch eine orWie sieht die Matrix der Drehung um die x1 -Achse thogonale Matrix dargestellt, in deren Spalten der Reihe durch den Winkel ' aus, wie jene einer Drehung um die nach die Koordinaten der verdrehten Basisvektoren stehen. x2 -Achse? Das Ergebnis ist übrigens auch durch zyklische Ist wie in unserem Fall die Drehachse orientiert, so Vertauschung der Koordinatenachsen zu gewinnen. ist der Drehsinn eindeutig: Blickt man gegen die Drehachse, somit bei uns von oben gegen die x3 -Achse, so Die folgende Beispielbox stellt die Euler’schen Drehwinkel erscheint eine Drehung mit einem positiven Drehwinkel vor. im mathematisch positiven Sinn, also gegen den Uhrzeigersinn. Damit haben die verdrehten Basisvektoren die Drehungen sind Bewegungen, welche B-Koordinaten 0

1 cos ' 0 @ sin ' A ; B b1 D 0

0

1  sin ' 0 @ cos ' A ; B b2 D 0

0 1 0 0 @ 0A : b D B 3 1

die Punkte einer Geraden fix lassen

Nach diesen Spezialfällen wenden wir uns der Darstellung einer Drehung zu, deren Achse durch den Ursprung geht und in Richtung eines vorgegebenen Vektors d verläuft. Diese brauchen nur mehr in einer Matrix zusammengefasst Wir wollen einen außerhalb der Achse gelegenen zu werden, und wir erhalten Punkt x um diese Achse durch den Winkel ' verdrehen (. Abb. 5.28). Um die Drehlage x 0 zu berechnen, zerlegen 0 01 0 10 1 cos '  sin ' 0 x1 x1 wir den Ortsvektor x in die Summe zweier Komponen@x20 A D @ sin ' cos ' 0A @x2 A ten x d und x E , von welchen x d parallel zu d ist und x E x30 x3 0 0 1 als Darstellung der Drehung um die x3 -Achse. Diesmal wollen wir auch den Ablauf der Bewegung von der Ausgangslage in die Endlage beschreiben. Angenommen, die Drehung von x nach x 0 erfolgt mit der konstanten Winkelgeschwindigkeit ! und beginnt zum Zeitpunkt t D 0. Damit wir dann zu jedem Zeitpunkt t wissen, wo sich der Punkt x gerade befindet, ersetzen wir in der obigen Matrizengleichung das ' durch den augenblicklichen Drehwinkel .t/ D ! t mit 0  t 

' ; !

x0 d

xE? x n0

xd

b2

b2 0

x

b1 0

' o

b1

xE

. Abb. 5.28 Die Drehung um die Achse d durch '

E

157 5.5  Wechsel zwischen kartesischen Koordinatensystemen

Beispiel: Euler’sche Drehwinkel

Um bei festgehaltenem Koordinatenursprung die Raumlage eines Rechtsachsenkreuzes B 0 relativ zu einem Rechtsachsenkreuz B eindeutig vorzugeben, kann man die eigentlich orthogonale Matrix A D B T B 0 benutzen. Diese stellt nach (5.19) gleichzeitig diejenige Bewegung B dar, welche B nach B 0 bringt. Eine orthogonale 3 3 -Matrix enthält neun Einträge, doch erfüllen diese sechs Gleichungen, nämlich die drei Normierungsbedingungen sowie die drei Orthogonalitätsbeziehungen der Spaltenvektoren. Es ist demnach eher mühsam, eine Raumposition auf diese Weise durch neun vielfältig voneinander abhängige Größen anzugeben. Im Gegensatz dazu bieten die Euler’schen Drehwinkel eine Möglichkeit, dieselbe Raumlage durch drei voneinander unabhängige Größen festzulegen, nämlich durch die drei Euler’schen Drehwinkel ˛; ˇ; (siehe Abbildung unten), und diese sind bei Einhaltung gewisser Grenzen fast immer eindeutig bestimmt. Wie sieht zu gegebenen Drehwinkeln ˛; ˇ;

die Transformationsmatrix aus?

nen wir die Matrix A, welche die Bewegung B darstellt, als Produkt von drei Drehmatrizen ausrechnen. In den folgenden Matrizen wurde aus Platzgründen der Sinus durch s abgekürzt und der Kosinus durch c: 0

10 10 1 c˛ s˛ 0 1 0 0 c s 0 B CB CB C A D @ s ˛ c ˛ 0A @0 c ˇ s ˇ A @ s c 0A 0 0 1 0 sˇ cˇ 0 0 1 1 0 10 c ˛ s ˛ c ˇ s ˛ s ˇ c s 0 C B CB D @ s ˛ c ˛ c ˇ c ˛ s ˇ A @ s c 0A 0 0 1 0 sˇ cˇ 0 1 c ˛ c  s ˛ c ˇ s c ˛ s  s ˛ c ˇ c s ˛ s ˇ B C D @s ˛ c C c ˛ c ˇ s s ˛ s C c ˛ c ˇ c c ˛ s ˇ A sˇ s

sˇc

cˇ Wenn umgekehrt eine Position des Rechtsachsenkreuzes .b01 ; b02 ; b03 / gegeben ist, so sind bei linear unabhängigen fb3 ; b03 g die zugehörigen Euler’schen Drehwinkel eindeutig bestimmt, sofern man deren Grenzen mit

Problemanalyse und Strategie Die Bewegung B, also der Übergang von .b1 ; b2 ; b3 / zu .b01 ; b02 ; b03 /, ist gemäß der unten gezeigten Abbildung die Zusammensetzung folgender drei Drehungen. 1. Die Drehung um b3 durch ˛ bringt b1 nach d. 2. Die Drehung um d durch ˇ bringt b3 bereits in die Endlage b03 und die b1 b2 -Ebene in die Position E. 3. Die Drehung um b03 durch bringt auch die restlichen Koordinatenachsen innerhalb von E in ihre Endlagen b01 bzw. b02 .

b3 b03 ˇ

0

b1

Die zu diesen Drehungen gehörigen eigentlich orthogonalen Matrizen sind bereits früher aufgestellt worden. Somit kön-

festsetzt. Der Vektor d (siehe Abbildung unten) hat nämlich die Richtung des Vektorprodukts b3 b03 , und d schließt mit b1 bzw. b01 die Winkel ˛ bzw. ein. Dabei sind diese Winkel als Drehwinkel zu vorgegebenen Drehachsen jeweils in einem bestimmten Drehsinn zu messen. In den Ausnahmefällen ˇ D 0ı .b03 D b3 / und ˇ D 180ı 0 .b3 D b3 / sind nur .˛ C / bzw. .˛  / eindeutig.

E

Lösung

0ı  < 360ı

0

Diese Zerlegung von B hat den Vorteil, dass stets um die ortsfesten Achsen b1 und b3 gedreht wird.

0ı  ˇ  180ı ;

b2

Aber Achtung: Die Reihenfolge dieser Drehungen darf nicht verändert werden; die Zusammensetzung von Bewegungen ist so wie die Multiplikation von Matrizen nicht kommutativ! Rechnerisch einfacher, allerdings nicht so unmittelbar verständlich, ist die folgende Zusammensetzung von B, bei welcher dieselben Drehwinkel, aber zumeist andere Drehachsen auftreten. 1. Wir drehen um b3 durch und bringen damit die Koordinatenachsen innerhalb der anfangs mit der b1 b2 -Ebene zusammenfallenden Ebene E in die gewünschte Position. 2. Wir drehen um b1 durch ˇ; damit bekommen die Ebene E und der zugehörige Normalvektor b03 bereits die richtige Neigung. 3. Wir drehen um b3 durch ˛ und bringen damit b03 und auch E in die jeweils vorgeschriebenen Endlagen.

0ı  ˛ < 360ı ;

0 ˛ b1

ˇ

b2

d

Die Euler’schen Drehwinkel ˛, ˇ und

Kommentar Diese Überlegungen beweisen: Jede Raumlage B 0 eines Achsenkreuzes ist aus deren Ausgangslage B durch die Zusammensetzung von drei Drehungen zu erreichen, nämlich der Reihe nach durch Drehungen um b3 , um b1 und schließlich nochmals um b3 . Mithilfe des Begriffes der Eigenvektoren (siehe 7 Kap. 8) lässt sich zeigen, dass es auch stets durch eine einzige Drehung geht, doch hat deren Drehachse eine allgemeine Lage.

5

158

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

normal dazu (vergleiche . Abb. 5.24). Bei kdk D 1 ist x d D .d  x/ d und x E D x  x d . Nachdem die zu d orthogonalen Ebenen bei der Drehung um d in sich bewegt werden, hat die Drehlage x 0 dieselbe Komponente x d in Richtung der Drehachse d wie x. Hingegen ist der zu d orthogonale Anteil x E durch den Winkel ' zu verdrehen, d. h., x 0 D x d C cos ' x E C sin ' x ? E;

Mithilfe des Begriffs der Eigenvektoren (siehe 7 Abschn. 8.2) kann man übrigens zeigen, dass jede eigentlich orthogonale dreireihige Matrix eine derartige Drehmatrix ist. Deshalb nennt man die von diesen Matrizen gebildete Gruppe SO3 auch die Drehungsgruppe des R3 . Der Ausblick in der folgenden Box zeigt die Darstellung der Drehungen mithilfe von Quaternionen. ?Selbstfrage 5.22

Warum ist R > D R d ;' D R d ;' ?

5

d;' ı wobei x ? E aus x E durch eine Drehung um d durch 90 im mathematisch positiven Sinn hervorgeht (. Abb. 5.28). Wegen der Orthogonalität zwischen d und x E ist nach Umrechnung zwischen zwei kartesischen (5.12)

x? E D d x E D d .x  x d / D d x:

Koordinatensystemen mit verschiedenen Nullpunkten

Dies führt zur Vektordarstellung

Nun seien zwei kartesische Koordinatensysteme gegeben, deren Koordinatenursprünge verschieden sind x 0 D .1  cos '/.d  x/ d C cos ' x C sin ' .d x/: (5.20) (. Abb. 5.29): Neben dem System .oI B/ mit B D .b1 ; b2 ; b3 / in gewohnter Position gibt es noch das System Um die Darstellungsmatrix der Abbildung x ! x 0 zu .pI B 0 / mit der orthonormierten Basis B 0 D .b01 ; b02 ; b03 /. erhalten, nutzen wir jene der Orthogonalprojektion. Bei Nun muss sorgfältig unterschieden werden, ob wir die Koordinaten von Punkten umrechnen oder jene von Vektoren. kdk D 1 ist Beginnen wir mit den Vektoren: Sie sind als Pfeile zu x d D .d d > / x und x E D x  x d D .E3  d d > / x: sehen, die im Raum beliebig parallel verschoben werden dürfen. Zur Ermittlung der B 0 -Koordinaten eines Vektors Andererseits ist d x D S d x, wobei S d die dem Vektor d u verwenden wir den Pfeil mit Anfangspunkt p. Dann im Sinn von (5.11) zugeordnete schiefsymmetrische Matrix sind die .pI B 0 /-Koordinaten des Endpunkts zugleich die ist. B 0 -Koordinaten von u. Die B-Koordinaten von u sind durch den parallelen Lemma Die Drehung durch den Winkel ' um die durch Pfeil mit dem Anfangspunkt o bestimmt. Gemäß (5.1) beden Koordinatenursprung verlaufende Drehachse mit dem steht also nur die Aufgabe, u einmal aus den b und dann i normierten Richtungsvektor d hat die eigentlich orthogo- aus den b0 linear zu kombinieren. Die beiden Koordinatenj nale Darstellungsmatrix tripel desselben Vektors u sind somit nach wie vor durch die Matrizengleichung (5.17) miteinander > 1 0verknüpft. 0 01 R d;' D .1  cos '/.d d / C cos ' E3 C sin ' S d : x1 x1 Anders ist es bei Punktkoordinaten: @x2 A bzw. @x20 A Die ersten zwei Summanden in dieser Darstellung sind x3 x30 symmetrische Matrizen, der dritte Summand ist schiefsym0 sind die .oI B/- bzw. .pI B /-Koordinaten desselben Raummetrisch. Deshalb lautet die transponierte Matrix > R> d;' D .1  cos '/.d d / C cos ' E3  sin ' S d ;

x

b03

woraus

b02

b3

R d;'  R > d;' D 2 sin ' S d b01

folgt. Auf diese Weise lässt sich aus der Drehmatrix der Vektor sin ' d herausfiltern. Nachdem die Einträge in der Hauptdiagonale der Drehmatrix R d;' nur von den symmetrischen Anteilen stammen, lautet die Summe der Hauptdiagonalglieder wegen kdk D 1: Sp A D .1  cos '/ C 3 cos ' D 1 C 2 cos ': Diese Summe heißt übrigens Spur der Matrix.

p

o b1

b2

. Abb. 5.29 Zwei Koordinatensysteme im R3 mit verschiedenen Nullpunkten

5

159 5.5  Wechsel zwischen kartesischen Koordinatensystemen

Hintergrund und Ausblick: Quaternionen zur Darstellung von Drehungen

Im 7 Abschn. 2.3 wurden die Quaternionen q D a C i b C j c C k d 2 H, also mit .a; b; c; d / 2 R4 , als Erweiterungen von komplexen Zahlen eingeführt. Wir können die Quaternion q aber auch als Summe aus dem Skalarteil a und der vektorwertigen Quaternion v D i b C j c C k d darstellen, also als q D a C v. Wir nennen den zweiten Summanden v einfachheitshalber einen Vektor und interpretieren dabei .i; j; k/ in gleicher Weise wie die Standardbasis .e 1 ; e 2 ; e 3 / des R3 als orthonormierte Basis des Anschauungsraums. Dies ist dann die Grundlage für eine Darstellung der Drehungen mittels Quaternionen. Es wird sich zeigen, dass die multiplikative Gruppe des Quaternionenschiefkörpers H homomorph ist zur Drehungsgruppe SO3 . Für vektorwertige Quaternionen (a D 0) gibt es ein Skalarprodukt, ein Vektorprodukt und auch ein Quaternionenprodukt. Um Verwechslungen zu vermeiden, verwenden wir von nun an ı als Verknüpfungssymbol der Quaternionenmultiplikation. Es gibt einen tieferen Grund für die Interpretation von .i; j; k/ als orthonormierter Basis. Den Vektorprodukten e 1 e 2 D e 3 , e 2 e 1 D e 3 usw. von Vektoren der Standardbasis stehen nämlich die Quaternionenprodukte i ı j D k, j ı i D k usw. gegenüber. Nachdem das Quaternionenprodukt distributiv gebildet wird, gilt für je zwei Vektoren v1 ; v2 2 H wegen i ı i D j ı j D k ı k D 1: v1 ı v2 D .v 1  v2 / C .v1 v2 /: Das Quaternionenprodukt zweier Vektoren aus H ist somit bei v1  v2 ¤ 0 nicht mehr vektorwertig. Aber es gilt umgekehrt: v1  v2 D v1 v2 D

 12 1 2

..v1 ı v2 / C .v2 ı v1 // ;

( )

..v1 ı v2 /  .v2 ı v1 // :

denn wegen der Assoziativität der Multiplikation in H ist .q1 ı q2 / ı .q1 ı q2 / D .q1 ı q2 / ı q 2 ı q 1 D q1 ı kq2 k2 ı q 1 D kq2 k2 kq1 k2 : Damit vermittelt die Abbildung q ! kqk einen Homomorphismus .H n f0g; ı/ ! .R>0 ; /. Die Menge H1 der Quaternionen mit der Norm 1, der Einheitsquaternionen, bildet den Kern dieses Homomorphismus und damit eine Untergruppe von .H n f0g; ı/. Bei q D a Cv 2 H1 gibt es wegen kqk2 D a2 Ckvk2 D 1 einen Winkel ˛ mit a D cos ˛. Deshalb können Einheitsquaternionen dargestellt werden als v mit kb vk D 1: q D cos ˛ C sin ˛ b Jede Einheitsquaternion q legt eine Vektorabbildung ıq W R3 ! R3

mit x 7! x 0 WD q ı x ı q

( )

fest. x0 ist tatsächlich wieder ein Vektor, denn x 0 D q ı x ı q D q ı .x/ ı q D x 0 : Mithilfe von ( ) lässt sich nachweisen, dass ıq linear ist und Skalarprodukte sowie Vektorprodukte unverändert lässt. Wir wollen hier allerdings gleich eine explizite Vektordarstellung von x0 herleiten. x 0 D q ı x ı q D .cos ˛ C sin ˛b v/ ı x ı .cos ˛  sin ˛b v/

v  x/ C .cos ˛ x C sin ˛.b v x// ı .cos ˛  sin ˛b v/ D sin ˛.b v  x/ C sin ˛ cos ˛.b v  x/ C sin2 ˛ det.b v;b v; x/ D  sin ˛ cos ˛.b 2 2 v  x/b v C cos ˛ x C sin ˛ cos ˛.b v x/ C sin ˛.b

 sin ˛ cos ˛.b v x/  sin2 ˛Œ.b v x/ b v :

Durch die Zerlegung der Quaternionen in Skalar- und Vektorteil wird das Produkt zweier Quaternionen qi D ai C vi , i D 1; 2, übersichtlicher, denn

Wegen .b v x/ b v D .b v b v/ x  .b v  x/b v nach der GrassmannIdentität und wegen 2 sin2 ˛ D 1cos2 ˛Csin2 ˛ D 1cos 2˛ folgt weiter:

.a1 C v1 / ı .a2 C v2 /

x 0 D 2 sin2 ˛.b v  x/b v C .cos2 ˛  sin2 ˛/ x C 2 sin ˛ cos ˛.b v x/

D .a1 a2  v1  v2 / C .a1 v2 C a1 v1 C .v1 v2 //: Die zu q D a C v konjugierte Quaternion ist q D a  v. Vektorwertige Quaternionen sind durch q D q gekennzeichnet. Ein gleichzeitiger Vorzeichenwechsel von v1 und v2 in der obigen Formel zeigt: .q1 ı q2 / D q 2 ı q 1 : Bei q ¤ 0 bestimmt q die zu q inverse Quaternion als q

1

1 D 2 q: a C b2 C c 2 C d 2

Im Nenner tritt die Standardnorm des R auf. Wir definieren diese gleichzeitig als Norm der Quaternion p p kqk D a2 C b 2 C c 2 C d 2 D q ı q; 4

wobei jene der Vektoren inkludiert ist. Es gilt: kq1 ı q2 k D kq1 k  kq2 k;

D .1  cos 2˛/.b v  x/b v C cos 2˛ x C sin 2˛ .b v x/:

Der Vergleich mit der Vektordarstellung (5.20) zeigt: Die Abv ist eine Drehung bildung ıq aus . / mit q D cos ˛ C sin ˛ b v als Einheitsvektor in Drehachsenrichtung und mit dem mit b Drehwinkel 2˛. Die Zusammensetzung der Drehungen ı1 W x 7! x 0 D q1 ı x ı q 1 und ı2 W x 0 7! x 00 D q2 ı x0 ı q 2 lautet: ı2 ı ı1 W x 7! x 00 D .q2 ı q1 / ı x ı .q2 ı q1 /: Die Abbildung W q 7! ıq ist somit ein Homomorphismus .H1 ; ı/ ! .SO3 ; ı/ mit dem Kern f1; 1g; neben q stellt auch q dieselbe Drehung dar. Ein weiterer Homomorphismus ist Inhalt der Aufgabe 7.22. In . / kann man anstelle q 2 H1 allgemeiner ein q 2 H n f0g verwenden, doch muss dann die rechten Seite noch durch kqk2 dividiert werden. Dies führt auf einen surjektiven Homomorphismus .H n f0g; ı/ ! .SO3 ; ı/ mit dem Kern R n f0g.

160

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

In der 4 4 -Matrix A sind die .oI B/-Koordinaten des Punkts p vereint mit der orthogonalen 3 3 -Matrix A, 3 3 während die erste Zeile immer völlig gleich aussieht. Wir X X xi bi D p C xj0 bj0 x DoC nennen diese die erweiterte Transformationsmatrix . i D1 j D1 Wir erkennen, dass die nullten Koordinaten stets unverändert bleiben, d. h. stets x0 D x00 ist. Vektorkoordinaten ist. Wir drücken diese Gleichung in .oI B/-Koordinaten 0 1 bleiben also Vektorkoordinaten, und das analoge gilt für x1 Punktkoordinaten. In den Spalten der erweiterten Trans@ x aus. Dann stehen auf der linken Seite die gesuchten 2 A. formationsmatrix .oIB/ T 0 stehen der Reihe nach die .pIB / x3 erweiterten .oI B/-Koordinaten des Punkts p und der Vek0 1 p1 toren bj0 . Rechts müssen wir die .oI B/-Koordinaten @p2 A von p p3 0 Transformation zwischen kartesischen und jene der Basisvektoren bj einsetzen. Dabei sind letztere die Spalten in der orthogonalen Matrix A D B T B 0 . Wir Koordinaten erhalten: Die Umrechnung vom kartesischen Koordinatensystem .pI B 0 / auf das kartesische Koordinatensystem .oI B/ er0 1 0 1 0 01 x1 p1 x1 folgt für die erweiterten Punkt- und Vektorkoordinaten @x2 A D @p2 A C A @x20 A mit A 1 D A > : nach (5.21). Dabei stehen in den Spalten der erweiter x3 p3 x30 ten Transformationsmatrix .oIB/ T .pIB 0 / der Reihe nach die punkts x, wenn gemäß (5.2)

5

erweiterten .oI B/-Koordinaten des Ursprungs p sowie die B-Koordinaten der Vektoren b01 ; b02 ; b03 der orthonormierten Basis B 0 . Die rechte untere 3 3-Teilmatrix in .oIB/ T .pIB 0 / ist orthogonal.

Erweiterte Koordinaten und Matrizen ermöglichen einheitliche Formeln für Punkte und Vektoren Die Umrechnungsgleichungen für Punktkoordinaten sind verschieden von jenen für Vektorkoordinaten. Das zwingt zu besonderer Sorgfalt. Zudem ist die Koordinatentransformation von Punkten nicht allein durch eine Matrizenmultiplikation ausdrückbar, sondern es ist zusätzlich ein konstanter Vektor zu addieren. Dies führt zu unübersichtlichen Formeln, wenn mehrere derartige Transformationen hintereinandergeschaltet werden müssen. Hier erweist sich nun folgender Trick als vorteilhaft: Wir fügen den drei Koordinaten eine weitere als nullte Koordinate hinzu. Bei Punkten wird diese gleich 1 gesetzt, bei Vektoren gleich 0. Wir nennen diese Koordinaten erweiterte Punkt- bzw. Vektorkoordinaten und kennzeichnen die zugehörigen Vektorsymbole durch einen Stern. Dann lassen sich die Umrechnungsgleichungen einheitlich schreiben in der Form .oIB/ x



D

0 1 0 01 x0 x0 0C B B C x1 C Bx1 C mit .oIB/ x D B @x2 A, .pIB 0 / x D @x20 A und x3 x30

A D

.oIB/ T .pIB 0 /

1 Bp1 DB @p2 p3

0 a11 a21 a31

?Selbstfrage 5.23 Beweisen Sie, dass auch bei Verwendung erweiterter Koordinaten jede Linearkombination von Vektoren wieder ein Vektor ist und jede Affinkombination von Punkten wieder ein Punkt ist.

Auch bei der Darstellung allgemeiner Bewegungen sind erweiterte Koordinaten zweckmäßig

Wie früher bei festgehaltenem Ursprung, so gestattet auch hier die Transformationsgleichung (5.21) eine zweite Interpretation, wenn wir diese unter Benutzung erweiterter (5.21) Koordinaten schreiben als

.oIB/ T .pIB 0 / .pIB 0 / x

0

Dass hinter der Erweiterung der Koordinaten mehr als nur ein formaler Trick steht, zeigt die kommende Box.

0 a12 a22 a32

1 0 a13 C C: a23 A a33



x0 D A x

(5.22)

mit der erweiterten Matrix A . Es gibt genau eine Bewegung B, welche o in p überführt und die Basisvektoren bi von B der Reihe nach in jene von B 0 . Angenommen, x geht in x 0 über (. Abb. 5.30). Dann hat das Urbild x bezüglich .oI B/ dieselben Koordinaten wie der Bildpunkt x 0 bezüglich .pI B 0 /. Wenn wir Urbild und Bildpunkt in demselben Koordinatensystem .oI B/ darstellen wollen, so müssen wir nur noch

161 5.5  Wechsel zwischen kartesischen Koordinatensystemen

Hintergrund und Ausblick: Euklidische, affine und projektive Geometrie

Vor mehr als 2000 Jahren erkannte man bereits, dass man nur dann eine Übersicht über die vielen geometrischen Einzelresultate gewinnen kann, wenn man gewisse Aussagen als Axiome an die Spitze stellt und alle anderen daraus herleitet. Dadurch wurde die Geometrie sehr früh zum Musterbeispiel einer deduktiven Wissenschaft. Ein Axiomensystem bringt nicht nur Ordnung, sondern es ist auch anregend. Will man sich zum Beispiel Klarheit über die Reichweite der einzelnen Axiomen verschaffen, so wird man gewisse Axiome abändern oder überhaupt weglassen. So entstanden verschiedene Geometrien, die ihrerseits wieder eine gewisse Gliederung erforderten. Eine tragfähige Basis hierfür stellte das von Felix Klein (1849–1925) entwickelte Erlanger Programm dar. Es empfiehlt, von den Gruppen der jeweiligen Automorphismen auszugehen und die Geometrien als Studium der zur jeweiligen Gruppe gehörigen Invarianten zu kennzeichnen. Um eine geometrische Aussage richtig einzuordnen, muss überprüft werden, hinsichtlich welcher größtmöglichen Gruppe von Automorphismen die dabei verwendeten Begriffe invariant sind. So anschaulich die Geometrie auch scheinen mag, man braucht deutlich mehr Axiome als etwa zur Definition eines Vektorraums, selbst wenn man sich nur auf die ebene Geometrie beschränkt. Die ersten Versuche für ein Axiomensystem der Geometrie gehen auf Euklid ( 365–300 v. Chr.) zurück. Das bekannteste Axiomensystem stammt von David Hilbert (1862–1943). Es umfasst Inzidenzaxiome über die gegenseitige Lage von Punkten und Geraden, Kongruenzaxiome, Distanzen und Winkelmaße betreffend, Anordnungsaxiome zu den Begriffen „Halbebene“ und „zwischen“, sowie ein Stetigkeitsaxiom, vergleichbar mit der Vollständigkeit der reellen Zahlen (siehe Grundwissenbuch, Abschnitt 4.3). Unter den Axiomen kam Euklids Parallelenpostulat eine besondere Rolle zu, nämlich der Forderung, dass durch jeden Punkt P außerhalb der Geraden G genau eine Parallele legbar ist, also eine Gerade, die G nicht schneidet. Dieses ist experimentell niemals nachprüfbar, denn was weiß man schon von Geraden, wenn man sie weit genug über unser Sonnensystem hinaus verlängert. Man versuchte 2000 Jahre lang vergeblich, dieses Axiom durch äquivalente und eher „überprüfbare“ Aussagen zu ersetzen, bis der Ungar János Bolyai (1802–1860) bestätigte, dass es auch eine widerspruchsfreie nichteuklidische Geometrie gibt, deren Axiomensystem sich von jenem der euklidischen Geometrie nur dadurch unterscheidet, dass das euklidische Parallelenpostulat ersetzt wird durch die Forderung: Durch P gibt es mindestens zwei verschiedene Parallelen zu G. Das Studium der Zentralprojektion zeigte, dass in perspektiven Bildern Fluchtpunkte auftreten, also Bilder von Punkten, die es in Wirklichkeit gar nicht gibt, nämlich von Schnittpunkten paralleler Geraden. Dies führte zur Erweiterung unseres Anschauungsraums durch unendlich ferne Punk-

te. Jede Gerade bekommt einen Fernpunkt dazu, was unserer Anschauung ein wenig widerspricht, denn man kommt zu demselben Fernpunkt, egal, ob man in der einen oder in der entgegengesetzten Richtung die Gerade entlang läuft. Interpretiert man die Menge der Fernpunkte einer Ebene als eine Gerade und jene des Raums als Ebene, so entsteht der projektive Raum. Die Geometrie in diesem Raum, die reelle projektive Geometrie, erfordert nur wenig Axiome und stellt eine übergeordnete Geometrie dar, aus welcher durch zusätzliche Forderungen sowohl die euklidische, als auch die nichteuklidische Geometrie entstehen. Die analytische Geometrie in dem durch Fernpunkte erweiterten Anschauungsraum verwendet die vorhin eingeführten erweiterten Koordinaten x bzw. u der Punkte und Vektoren. Man muss allerdings in Kauf nehmen, dass die vier Koordinaten der Punkte des projektiven Raums homogen, also nur bis auf einen Faktor eindeutig sind. Punkte des reellen projektiven Raums sind somit eindimensionale Unterräume des R4 , Geraden sind zweidimensionale und Ebenen dreidimensionale Unterräume. Die bijektiven linearen Selbstabbildungen des R4 induzieren Kollineationen, und diese spielen die Rolle von Automorphismen. Zeichnet man umgekehrt im projektiven Raum eine Ebene als Menge von „Fernpunkten“ aus und entfernt man diese, so bleibt ein affiner Raum, in welchem wieder Parallelitäten erklärbar sind. Kollineationen, welche die gewählte „Fernebene“ auf sich abbilden, induzieren dann im verbleibenden Raum affine Abbildungen. Die Gruppe der bijektiven affinen Abbildungen bestimmt die affine Geometrie. Dieser affinen Raum bestimmt einen Vektorraum. Die Einführung eines Skalarprodukts auf diesem Vektorraum ermöglicht die Definition von Distanzen und Winkelmaßen. Die zugehörigen Automorphismen sind die Kongruenzen; deren Gruppe ist isomorph zur Gruppe der orthogonalen Matrizen. Die zugehörige Geometrie ist die euklidische. Der pythagoräische Lehrsatz gehört demnach zur euklidischen Geometrie. Der Strahlensatz, wonach parallele Geraden auf zwei schneidenden Geraden Strecken proportionaler Längen ausschneiden, ist eine affine Aussage. Der im Bild unten gezeigte Satz von Pappus-Pascal zählt zur projektiven Geometrie. Seine Aussage lautet: Für je drei Punkte P1 ; P2 ; P3 auf der Geraden G und Q1 ; Q2 ; Q3 auf der Geraden H liegen die Schnittpunkte S1 ; S2 ; S3 auf einer Geraden K. P3

G P2 P1 S3 Q1

S2

S1

Q2

K H Q3

5

162

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

b03

b03e

x0

b3

b2l

b02

b3l

N

b01

b1l p

p

x

ze

o

5

ˇ

b2 b02e

b1 . Abb. 5.30 Die Bewegung B W x 7! x 0 bringt o mit p zur Deckung und die Vektoren bi für i D 1; 2; 3 mit b0i

b01e

. Abb. 5.31 Das lokale Koordinatensystem .pI B/ und das geozentri-

die .pI B 0 /-Koordinaten von x 0 auf .oI B/-Koordinaten sche .z I B 0 / e e umrechnen. Und genau dies wird in (5.22) ausgedrückt. Dabei stehen in den Spalten der erweiterten Matrix A D torebene die Sonne enthält und die Fortschreitungs.oIB/ T .pIB 0 / die erweiterten B-Koordinaten des Bilds p vom Ursprung o und der durch Verlagerung der Basis B entstanrichtung der Erde mit der zum Nordpol orientierten denen Vektoren .b01 ; b02 ; b03 /. Erdachse einen stumpfen Winkel einschließt. Umgekehrt ist jede Abbildung mit der Darstellung (5.22) und einer erweiterten Matrix A von dem oben ge- Gesucht ist die erweiterte Transformationsmatrix s T vom l zeigten Typ mit eigentlich orthogonaler 3 3 Teilmatrix lokalen Koordinatensystem auf das heliozentrische. Dabei eine Bewegung. Das wurde bereits früher gezeigt. treffen wir – abweichend von der Realität – die folgenden Vereinfachungen. 4 Die Erde wird als Kugel mit dem Radius r vorausgesetzt – und nicht durch ein Ellipsoid approximiert. Umrechnung von einem lokalen 4 Die Bahn der Erde um die Sonne wird als in der Sonne Koordinatensystem auf der Erde zentrierter Kreis mit dem Radius R angenommen – und zu einem heliozentrischen System nicht als Ellipse mit der Sonne in einem Brennpunkt. Die konstante Flächengeschwindigkeit bewirkt nun sogar eine konstante Bahngeschwindigkeit. In der Astronomie begegnen wir immer wieder der Auf4 Während der Umrundung der Sonne bleibt die Stelgabe, zwischen verschiedenen kartesischen Koordinatenlung der Erdachse unverändert; Präzession und Nutation systemen im Raum umzurechnen. In unserem Beispiel bleiben unberücksichtigt. verwenden wir die folgenden Systeme. 4 Wir beginnen mit einem lokalen Koordinatensystem .pI Bl / auf der Erde (. Abb. 5.31): Der Ursprung p Wir setzen die gewünschte Koordinatentransformation zu0 habe die geografische Länge  und Breite ˇ. Der erste sammen aus dem Wechsel von .pI Bl / zu .ze I Be /, der 0 Basisvektor b1l weise nach Osten, der zweite b2l nach Drehung von .ze I Be / gegenüber .ze I Be / um die gemeinsame dritte Koordinatenachse durch den Winkel ' und Norden. 4 Daneben betrachten wir ein im Erdmittelpunkt zentrier- schließlich der Umrechnung von .ze I Be / auf das angegetes, also ein geozentrisches Koordinatensystem .ze I Be0 / bene heliozentrische System .zs I Bs /. Für diesen letzten mit einem zum Nordpol weisenden dritten Basisvektor Schritt setzen wir voraus, dass der Erdmittelpunkt vom b03e . Der erste b01e zeige zum Äquatorpunkt des Nullme- Frühlingspunkt ausgehend innerhalb seiner Bahnebene den Kreisbogen zum Zentriwinkel zurückgelegt hat (siehe ridians. Dieses System macht die Erdrotation mit. 4 Schließlich sei ein in der Sonnenmitte zs zentrier- . Abb. 5.32). Demgemäß erhalten wir mithilfe der zugehörigen ertes, also heliozentrisches Koordinatensystem gegeben (. Abb. 5.32). Dessen Basisvektoren b1s und b2s span- weiterten Transformationsmatrizen nen die Bahnebene der Erde auf. Der dadurch fest ( ) gelegte mathematisch positive Drehsinn soll mit dem s T l D s T e . /  e T e0 .'/  e0 T l : Durchlaufsinn der Erdbahn übereinstimmen. Der erste Basisvektor b1s weise zum Frühlingspunkt. Dies ist Für die Transformationsmatrix e0 T l benötigen wir die erder Mittelpunkt jener Position der Erde, wo die Äqua- weiterten .ze I Be0 /-Koordinaten von p, b1l , b2l und b3l . Wir

163 5.5  Wechsel zwischen kartesischen Koordinatensystemen

b3s

23. 9.

b3e

b2s zs b3e b2e b1s

b1e 21. 3. . Abb. 5.32 Das von der Erdrotation „befreite“ geozentrische Koordinatensystem .ze I Be / und das heliozentrische System .zs I Bs /. Die Erde ist rund 2 500-fach vergrößert dargestellt

tags (wahre Sonnenzeit). Zu dieser Zeit geht die Ebene des Nullmeridians durch die Sonnenmitte. Nach einer 360ı -Drehung der Erde um ihre Achse ist diese Ebene des Nullmeridians zwar wieder zu ihrer Ausgangslage parallel. Sie wird aber nicht mehr durch die Sonnenmitte gehen, weil der Erdmittelpunkt inzwischen gewandert ist. Wir müssen bis 12 Uhr mittags noch etwas weiterdrehen, allerdings um die gegenüber der b1s b2s -Ebene geneigte Erdachse. Daher ist dieser zusätzliche Drehwinkel trotz unserer vereinfachenden Annahmen nicht konstant. Im täglichen Leben verwenden wir die mittlere Zeit, die auf der Annahme basiert, dass alle Tage gleich lang sind und das Jahr etwa 365:24 Tage umfasst. Das ermöglicht uns, den zusätzlichen Drehwinkel durch seinen Mittelwert 360ı =365:24 zu ersetzen. Die Differenz zwischen der wahren und mittleren Sonnenzeit heißt Zeitgleichung und beträgt bis zu ˙15 Minuten. Wir können ' D !e t C '0 setzen mit der WinkelgeDie Bewegung von .ze I Be / nach .ze I Be0 / ist eine Dreschwindigkeit hung um die gemeinsame dritte Koordinatenachse durch   den Winkel '. Somit ist ı 1 !e D 2 1 C .24  3 600/ 0 1 365:24 1 0 0 0 B 0 cos '  sin ' 0C pro Sekunde. '0 ist der Anfangswert zum Zeitpunkt t D 0. B C e T e0 .'/ D @ 0 sin ' cos ' 0A Übrigens ist r  6 371 km. Während der Bewegung der Erde um die Sonne behält 0 0 0 1 die Erdachse ihre Richtung bei. Nun ist die ÄquatorebeDie Vektoren aus Be behalten gegenüber dem heliozen- ne um den Winkel   23:45ı, der Schiefe der Ekliptik, trischen System ihre Richtungen bei, machen also die gegenüber der Bahnebene geneigt. Nachdem wir die erste Erdrotation nicht mit. Durch diese dreht sich die Erde ge- Koordinatenachse unseres heliozentrischen Systems durch genüber dem heliozentrischen System in 24 Stunden durch den Frühlingspunkt gelegt haben und diese daher der Äquahat mehr als 360ı , denn während dieser 24 Stunden wandert torebene der zugehörigen Erdposition angehört, 0 1 b3e 0 der Erdmittelpunkt ja auf seiner Bahn weiter. Betrachten wir dies etwas genauer: Angenommen, wir die von unabhängigen Bs -Koordinaten @ sin  A. Wir cos  beginnen unsere Winkelmessung genau um 12 Uhr mitgehen zunächst vom Nullmeridian aus, also von der Annahme  D 0. Wenn wir darauf die Drehung um die Erdachse b03e durch die gegebene geografische Länge  anwenden, erhalten wir die Spaltenvektoren der Transformationsmatrix e0 T l . Mit obiger Abbildung finden wir, wenn wir den Sinus und Kosinus zu s bzw. c abkürzen: 1 0 10 1 0 0 0 1 0 0 0 B0 c   s  0C Br c ˇ 0 s ˇ c ˇ C C B CB e0 T l D @ 1 0 0A 0 s  c  0A @ 0 r sˇ 0 cˇ sˇ 0 0 0 1 0 1 1 0 0 0 Br c ˇ c  s  s ˇ c  c ˇ c C C DB @r c ˇ s  c  s ˇ s  c ˇ s A r sˇ 0 cˇ sˇ

5

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

164

wählen die erste Koordinatenachse b1e des geozentrischen 5.3  Man füge in der folgenden Matrix M die durch Systems Be gleich dem b1s . Damit folgt: Sterne markierten fehlenden Einträge derart ein, dass eine eigentlich orthogonale Matrix entsteht. 0 1 1 0 0 0 0 1 BR cos 1 0 0 C 2 2 B C T . / D s e 1 @ R sin 0 cos   sin  A 1 A M D @ 3 0 0 sin  cos 

5

Nachdem die Erde in etwa 365:24 Tagen die Sonne einmal Wie viele verschiedene Lösungen gibt es? umrundet, können wir D !s t setzen mit der Winkelgeschwindigkeit 5.4  Der Einheitswürfel W wird um die durch den Koordinatenursprung gehende Raumdiagonale durch 60ı !s D 2 =.365:24  3 600  24/ gedreht. Berechnen Sie die Koordinaten der Ecken des verpro Sekunde. Wir können R  150 000 000 km annehmen, drehten Würfels W 0 . verzichten hier allerdings darauf, die in der Gleichung . / notwendige Matrizenmultiplikation zur Berechnung von 5.5  Man bestimme die orthogonale Darstellungs s T l explizit vorzuführen. matrix R der Drehung durch den Winkel ' um eine d;'

durch den Koordinatenursprung 0 1 laufende Drehachse mit d1 @ d dem Richtungsvektor d D 2 A bei kdk D 1. d3

Aufgaben

Gelegentlich enthalten die Aufgaben mehr Angaben, als für die Lösung erforderlich sind. Bei einigen anderen dagegen werden Daten aus dem Allgemeinwissen, aus anderen Rechenaufgaben Quellen oder sinnvolle Schätzungen benötigt.



einfache Aufgaben mit wenigen Rechenschritten mittelschwere Aufgaben, die etwas Denkarbeit und unter Umständen die Kombination verschiedener Konzepte erfordern

anspruchsvolle Aufgaben, die fortgeschrittene Konzepte (unter Umständen auch aus späteren Kapiteln) oder eigene mathematische Modellbildung benötigen

Verständnisfragen 5.1 

Angenommen, die Gerade G ist die Schnittgerade der Ebenen E1 und E2 , jeweils gegeben durch eine lineare Gleichung ni  x  ki D 0;

i D 1; 2:

Stellen Sie die Menge aller durch G legbaren Ebenen dar als Menge aller linearen Gleichungen mit den Unbekannten .x1 ; x2 ; x3 /, welche G als Lösungsmenge enthalten.

Im R3 sind zwei Vektoren gegeben, nämlich

5.6 

0

1 2 u D @2A 1

0

1 2 und v D @ 5 A : 14

Berechnen Sie kuk, kvk, den von u und v eingeschlossenen Winkel ' sowie das Vektorprodukt u v samt Norm ku vk. 5.7 

Stellen Sie die Gerade

0 1 0 1 3 2 G D @0A C R @2A 4 1 als Schnittgerade zweier Ebenen, also als Lösungsmenge zweier linearer Gleichungen dar. Wie lauten die Gleichungen aller durch G legbaren Ebenen? 5.8 

Im Raum R3 sind die vier Punkte

0 1 0 1 0 1 0 1 5.2  Welche eigentlich orthogonale 3 3 -Matrix 1 0 1 1 A ¤ E3 erfüllt die Eigenschaften @ A @ A @ A @ 0 ; bD 0 ; cD 2 ; d D 2A aD 0 1 0 1 1 2 0 x3 1 1 3 @ A @ A 1 1 A D AAA D E3 und A D : gegeben. Bestimmen Sie die letzte Koordinate x3 von d 1 1 derart, dass der Punkt d in der von a, b und c aufgespannWie viele Lösungen gibt es? Gibt es auch eine uneigentlich ten Ebene liegt. Liegt d im Inneren oder auf dem Rand des Dreiecks abc? orthogonale Matrix mit diesen Eigenschaften?

165 Aufgaben

Im Anschauungsraum R3 sind die zwei Geraden 5.15  Im Anschauungsraum R3 sind die „einander fast 0 1 0 1 0 1 0 1 schneidenden“ Geraden 2 3 2 1 0 1 0 1 0 1 0 1 G D @ 0A C R @ 1A ; H D @1A C R @ 1A 2 3 1 2 3 1 0 1 G1 D @3A C R @ 1A ; G2 D @0A C R @2A 3 4 2 1 gegeben. Bestimmen Sie die Gleichung derjenigen Ebe5.9 

ne E durch den Ursprung, welche zu G und H parallel ist. Welche Entfernung hat E von der Geraden G, welche gegeben. Für welchen Raumpunkt m ist die Quadratsumme der Abstände von G1 und G2 minimal. von H ? Im Anschauungsraum R3 sind die Gerade 0 1 0 1 0 1 1 2 1 @ A @ A @ 1 und der Punkt p D 1A G D 0 CR 2 2 1

5.10 

gegeben. Bestimmen Sie die Hesse’sche Normalform derjenigen Ebene E durch p, welche zu G normal ist.

5.16 

Die eigentlich orthogonale Matrix

1 2 1 1 p C p 1 B A D p @p0 p3 p 3A 6 2 2 2 0

ist die Darstellungsmatrix einer Drehung. Bestimmen Sie einen Richtungsvektor d der Drehachse und den auf die 5.11  Im Anschauungsraum R3 sind die zwei Geraden Orientierung von d abgestimmten Drehwinkel '. 0 1 0 1 0 1 0 1 3 2 2 1 G1 D @0A C R @2A ; G2 D @3A C R @ 1A 5.17  Die eigentlich orthogonale Matrix 4 3 1 2

gegeben. Bestimmen Sie die kürzeste Strecke zwischen den beiden Geraden, also deren Endpunkte a1 2 G1 und a2 2 G2 sowie deren Länge d . 5.12  Im Anschauungsraum R3 ist die Gerade G D 0 1 0 1 1 2 @1A C R @2A gegeben. Welcher Gleichung müssen die 2 1 Koordinaten x1 , x2 und x3 des Raumpunkts x genügen, damit x von G den Abstand r D 3 hat und somit auf dem Drehzylinder mit der Achse G und dem Radius r liegt?

0 1 2 1 2 1@ 1 2 2A AD 3 2 2 1 ist die Umrechnungsmatrix B T B 0 zwischen kartesischen Koordinatensystemen .oI B 0 / und .oI B/. Bestimmen Sie die zugehörigen Euler’schen Drehwinkel ˛, ˇ und . 5.18  Die drei Raumpunkte

0 1 0 a 1 D @0 A ; 1

0

1 2 a2 D @ 1A ; 2

0

1 1 a3 D @1A 3

Im Anschauungsraum R3 sind die zwei Geraden 0 1 0 1 0 1 0 1 3 2 2 1 G1 D @0A C R @2A ; G2 D @3A C R @ 2A bilden ein gleichseitiges Dreieck. Gesucht ist die erweiterte 4 3 1 2 Darstellungsmatrix derjenigen Bewegung, welche die drei gegeben. Welcher Gleichung müssen die Koordinaten x1 , Eckpunkte zyklisch vertauscht, also mit a1 7! a2 , a2 7! a3 x2 und x3 des Raumpunkts x genügen, damit x von den und a3 7! a1 : beiden Geraden denselben Abstand hat? Bei der Menge dieser Punkte handelt es sich übrigens um das Abstandsparaboloid von G1 und G2 , ein orthogonales hyperbolisches Beweisaufgaben Paraboloid (siehe 7 Abschn. 10.3). 5.13 

Im Anschauungsraum R30ist die 0 1 1 Gerade G D 1 2 p C Ru mit p D @1A und u D @2A gegeben. Wel2 1 cher Gleichung müssen die Koordinaten x1 , x2 und x3 des Raumpunkts x genügen, damit x auf demjenigen Drehkegel mit der Spitze p und der Achse G liegt, dessen halber Öffnungswinkel ' D 30ı beträgt? 5.14 

Man beweise: Zwei Vektoren u; v 2 R3 n f0g sind dann und nur dann zueinander orthogonal, wenn ku C vk2 D kuk2 C kvk2 ist. 5.19 

5.20  Man beweise: Für zwei linear unabhängige Vektoren u; v 2 R3 sind die zwei Vektoren u  v und u C v genau dann orthogonal, wenn kuk D kvk ist. Was heißt dies für das von u und v aufgespannte Parallelogramm?

5

166

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

5.21 

5

Das (orientierte) Volumen V des von drei Vektoren v1 , v2 und v3 aufgespannten Parallelepipeds ist gleich dem Spatprodukt det.v1 ; v2 ; v3 /. Zeigen Sie unter Verwendung des Determinantenmultiplikationssatzes und des Satzes über die Determinante der transponierten Matrix aus 7 Abschn. 7.1, dass das Quadrat V 2 des Volumens gleich ist der Determinante der von den paarweisen Skalarprodukten gebildeten (symmetrischen) Gram’schen Matrix 0 1 v 1  v1 v1  v 2 v 1  v3 G .v1 ; v2 ; v3 / D @v2  v1 v2  v2 v2  v3 A : v 3  v1 v3  v 2 v 3  v3 5.22  Die Quaternionen (siehe 7 Abschn. 2.3) bilden

einen vierdimensionalen Vektorraum über R. Sie sind aber auch als Elemente des Vektorraums C 2 über R aufzufassen dank der bijektiven linearen Abbildung 'W H ! C 2 mit     x a C ib 'W q D a C i b C j c C k d 7! D : y c C id Im Urbild ist i eine Quaternioneneinheit; das i im Bild ist die imaginäre   Einheit. Ignoriert man diesen Unterschied, so x ist ' 1 y D x C y ı j. Beweisen Sie, dass ' einen Isomorphismus von .H n f0g; ı/ auf .C 2 n f0g; / induziert, sofern ı die Quaternionenmultiplikation bezeichnet und die Verknüpfung auf C 2 definiert wird durch       x1 x2 x1 x2  y1 y2 D : y1 y2 x1 y2 C y1 x2 Der Querstrich  bedeutet hier die Konjugation in C. Wie x sieht das zu y hinsichtlich inverse Element aus? Beweisen Sie weiter, dass die Abbildung     x x y ! W C 2 ! C 2 2 ; y y x einen injektiven Homomorphismus von .C 2 n f0g; / in die multiplikative Gruppe der invertierbaren Matrizen aus C 2 2 induziert. Inwiefern bestimmt die Norm der Quaternion q die Determinante der Matrix . ı '/.q/? Damit ist dann bestätigt, dass die von den Einheitsquaternionen gebildete Gruppe .H1 ; ı/ isomorph ist zur multiplikativen Gruppe SU2 der Matrizen obiger Bauart mit der Determinante 1, der zweireihigen unitären Matrizen (siehe 7 Abschn. 9.4). 5.23  Man zeige: a) In einem Parallelepiped schneiden die vier Raumdiagonalen einander in einem Punkt. b) Die Quadratsumme dieser vier Diagonalenlängen ist gleich der Summe der Quadrate der Längen aller 12 Kanten des Parallelepipeds (siehe dazu die Parallelogrammgleichung (5.6)).

5.24  Angenommen, die Punkte p 1 ; p 2 ; p 3 ; p 4 bilden ein reguläres Tetraeder der Kantenlänge 1. Man zeige: a) Der Schwerpunkt s D 14 .p 1 C p 2 C p3 C p 4 / hat von allen Eckpunkten dieselbe Entfernung. b) Die Mittelpunkte der Kanten p 1 p2 , p 1 p 3 , p 4 p 3 und p 4 p 2 bilden ein Quadrat. Wie lautet dessen Kantenlänge? c) Der Schwerpunkt s halbiert die Strecke zwischen den Mittelpunkten gegenüberliegender Kanten. Diese drei Strecken sind paarweise orthogonal.

Antworten zu den Selbstfragen vAntwort 5.1 Nunmehr gilt b  a D f  c, also 0 1 6 B C f D b  a C c D @9A : 4 Die Gleichung f  c D c  d bestätigt c als Mittelpunkt der Strecke d f .

vAntwort 5.2 Wir beschränken uns im Beweis zunächst darauf, dass in einer Affinkombination einer der vorkommenden Vektoren selbst wieder eine Affinkombination ist: AngenomPn Pn  a mit men, c D iD1 iD1 i D 1 und a1 D Pmi i Pm  b bei  D 1. Dann ist c eine Linearj D1 j j j D1 j kombination von b1 ; : : : ; b m ; a2 ; : : : ; an , und die Summe Pm der Koeffizienten lautet 1 j D1 j C 2 C    C n D Pn iD1 i D 1. Im Fall von Konvexkombinationen gilt zudem i ; j  0, und das trifft auch auf die neuen Koeffizienten 1 j zu. Sollte nun eine Affin- bzw. Konvexkombination vorliegen, bei welcher zwei oder mehrere vorkommende Vektoren selbst wieder Affin- bzw. Konvexkombinationen sind, so braucht zum Beweis der obigen Behauptung nur das bisherige Ergebnis wiederholt angewendet zu werden.

vAntwort 5.3 Die erste ist richtig, denn die Affinkombinationen sind spezielle Linearkombinationen. Die zweite Aussage ist falsch, denn nicht jede Linearkombination ist eine Affinkombination, also eine mit der Koeffizientensumme 1.

vAntwort 5.4 s D 13 a C 13 b C 13 c ist eine Konvexkombination der drei Eckpunkte, denn 13 C 13 C 13 D 1 und 0  13  1. Nachdem keiner der Koeffizienten verschwindet, liegt s im Inneren. Wir finden noch eine weitere Affinkombination, nämlich   1 2 1 .a C b/ C c; sD 3 2 3 und diese beweist die zweite Behauptung.

167 Antworten zu den Selbstfragen

v Antwort 5.5 Nein, natürlich nicht! Die Eigenschaft, ein Rechtssystem zu sein, ist unabhängig von der Position im Raum. Ein rechter Schuh wird kein linker, wenn wir ihn umdrehen, also mit der Sohle nach oben hinlegen.

v Antwort 5.6 Nach der Definition der Norm ist kak2 D a  a D a2 . Aus der Bilinearität und Symmetrie des Skalarprodukts folgt:

D u C 2 .u  v/ C v C u  2 .u  v/ C v 2

2

2

D 2 .u2 C v2 / D 2 .kuk2 C kvk2 /:

v Antwort 5.7 Es ist ka1  a2 k D ka3  a4 k D 4; und für jedes i 2 f1; 2g und j 2 f3; 4g ist p kai  aj k D 22 C 22 C 22  2 D 4: Je drei dieser Punkte bilden ein gleichseitiges Dreieck. Alle vier sind die Eckpunkte einer speziellen dreiseitigen Pyramide, eines regulären Tetraeders.

v Antwort 5.8 cos ' D

vAntwort 5.12 Ein verschwindendes Spatprodukt kennzeichnet lineare Abhängigkeit. Der Absolutbetrag bleibt bei Vertauschungen der Reihenfolge unverändert.

vAntwort 5.13

ku C vk2 C ku  vk2 D .u C v/2 C .u  v/2 2

unabhängig sind, also bei .c a/ .ba/ ¤ 0. Wegen der Linearität des Vektorprodukts können wir die linke Seite dieser Ungleichung noch umformen zu .c b/  .a b/  .c a/C.a a/, wobei der letzte Summand verschwindet.

1 1 uv D p p D H) ' D 60ı : kuk kvk 2 2 2

Aus der Schiefsymmetrie des Vektorprodukts folgt: u .v w/ D .v w/ u D .v  u/w C .w  u/v:

vAntwort 5.14 Ebenfalls ein reguläres Tetraeder, und zwar eines, das der Einheitskugel eingeschrieben ist, nachdem es sich ausschließlich um Einheitsvektoren handelt.

vAntwort 5.15

0 4C1C4 2C24 B2 C 2  4 1 C 4 C 4 DD@ 422 24C2 0 1 9 0 0 B C D @0 9 0A D 9 E3 : 0 0 9

1 422 2  4 C 2C A 4C4C1

vAntwort 5.16 Nach (5.14) ist aufgrund der angegebenen Substitutionen

v Antwort 5.9 Wir zeigen, dass das Skalarprodukt .f  b/  u null ist:   .b  a/  u ub u .f  b/  u D a C uu .b  a/  u .u  u/ D .a  b/  u C uu D .a  b/  u C .b  a/  u D 0: Hier haben wir die Linearität des Skalarprodukts ausgenutzt. Bei b ¤ f beweist das verschwindende Skalarprodukt die Orthogonalität. Bei b D f muss b bereits als Punkt von G gewählt worden sein. Umgekehrt bedeutet b 2 G, dass f  b D  u ist und daher .f  b/  u D .u  u/ D 0 wegen u ¤ 0 nur bei  D 0, also bei f D b möglich ist.

v Antwort 5.10 x liegt genau dann in der Ebene E, wenn der Vektor x p eine Linearkombination von u und v ist. Und dies ist, wie vorhin gezeigt wurde, äquivalent zum Verschwinden des Skalarprodukts von x  p und dem Vektorprodukt u v.

v Antwort 5.11 Die Punkte a; b; c liegen genau dann nicht auf einer Geraden, wenn die Vektoren .b  a/ und .c  a/ linear

det.p  a; u; v/ .u v/ ku vk2 .p  a/  .u v/ u v DaC ku vk ku vk

bDaC

D a C Œ.p  a/  n n D a  Œ.a  n/  .p  n/ n D a  Œ.a  n/  k n D a  l.a/ n:

vAntwort 5.17 Im dyadischen Produkt sind die Spaltenvektoren der Reihe nach v1 u, v2 u und v3 u und somit skalare Vielfache von u. Sind u und v verschieden vom Nullvektor, so ist wenigstens einer der Spaltenvektoren vom Nullvektor verschieden und daher der Rang des dyadischen Produkts 1. Andernfalls ist der Rang 0, denn alle Einträge sind null.

vAntwort 5.18 1) Wegen knk D 1 ist N N D n .n> n/ n> D n n> D N und daher .E3  N /2 D E3  2N C N D E3  N . Dazu gibt es auch eine geometrische Erklärung: Geht die Ebene E durch den Ursprung .k D 0/, so beschreibt die Matrix .E3  N / die Orthogonalprojektion. Wird

5

168

Kapitel 5  Analytische Geometrie – Rechnen statt Zeichnen

nun der Normalenfußpunkt x E von x noch einmal normal nach E projiziert, so ändert er sich nicht mehr. Es bewirkt die zweimalige Ausführung der Orthogonalprojektion nichts anderes als die einmalige, und genau dies wird mit der Idempotenz der Matrix ausgedrückt . 2) Die Spaltenvektoren in der Darstellungsmatrix sind die Bilder der Standardbasis des R3 . Da diese drei Bildvektoren in E liegen, sind sie linear abhängig. Somit verschwindet die Determinante.

5

0 1 B A1 D @0 0

0 c' s'

1 0  s 'C A; c'

0 c' B A2 D @ 0 s'

0 1 0

1 s' 0 C A c'

Hier wurden die Symbole für die Sinus- und Kosinusfunktion durch s bzw. c abgekürzt.

vAntwort 5.22

v Antwort 5.19 Wegen N D N folgt durch Ausrechnen .E3  2N / D E3 . Diese Gleichung ist andererseits daraus zu folgern, dass die zweimalige Spiegelung an E alle Raumpunkte unverändert lässt. 2

die Matrizen der Drehungen um die x1 - bzw. x2 -Achse:

2

v Antwort 5.20 1) Nein, sie ist zwar orthogonal, aber die Spaltenvektoren .s1 ; s2 ; s3 / bilden ein Linkssystem; es ist det.s1 ; s2 ; s3 / D 1 und s1 s2 D s3 . Erst nach Vertauschung zweier Spalten oder auch Zeilen entstünde eine eigentlich orthogonale Matrix. 2) Die Matrix M ist symmetrisch, und wegen N 2 D N ist M M > D M M D E3 , wie bereits früher festgestellt worden ist. Die Spiegelung führt Rechtssysteme in Linkssysteme über. Daher ist die Matrix uneigentlich orthogonal.

v Antwort 5.21 In den Spalten der Transformationsmatrizen stehen die Koordinaten der verdrehten Basisvektoren. Daher lauten

1 Die Drehmatrix ist orthogonal. Daher gilt R > d ;' D R d ;' . Die zur Drehung durch den Winkel ' inverse Bewegung ist die Drehung um dieselbe Achse d durch ', also in dem entgegengesetztem Drehsinn. Dieselbe Bewegungsumkehr ist auch durch den Ersatz von d durch d zu erreichen. Natürlich ist dies auch anhand der Darstellung der Drehmatrix R d ;' aus dem obigen Lemma zu bestätigen: Wegen der Schiefsymmetrie von S d ist S d D S d D S > d. Ebenso bewirkt ein Vorzeichenwechsel von '; dass der schiefsymmetrische Summand in der Drehmatrix transponiert wird, wodurch R d ;' in R > d ;' übergeht, also invertiert wird.

vAntwort 5.23 Die verschwindende nullte Koordinate bei Vektoren bleibt auch nach beliebigen Linearkombinationen gleich null. Der Einser als nullte Koordinate für die Punkte geht bei Linearkombinationen in die Summe der Koeffizienten über; er bleibt somit genau bei den Affinkombinationen gleich 1:

169

Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Inhaltsverzeichnis 6.1

Definition und Beispiele – 171

6.2

Verknüpfungen von linearen Abbildungen – 176

6.3

Kern, Bild und die Dimensionsformel – 178

6.4

Darstellungsmatrizen – 185

6.5

Verknüpfungen von Matrizen – 194

6.6

Das Invertieren von Matrizen – 201

6.7

Elementarmatrizen – 207

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_6

6

6.8

Basistransformation – 211

6.9

Der Dualraum – 214 Aufgaben – 218 Antworten zu den Selbstfragen – 221

171 6.1  Definition und Beispiele

n Sie finden unter anderem Antworten zu . . .

4 Wie lassen sich lineare Abbildungen durch Matrizen darstellen? 4 Was besagt die Dimensionsformel? 4 Wie wirkt sich ein Basiswechsel auf die Matrix einer linearen Abbildung aus?

Den Begriff Homomorphismus haben wir bereits im Zusammenhang mit Gruppen, Ringen und Körpern im 7 Kap. 2 kennengelernt. Der Begriff ist also sehr allgemein. Ins Deutsche übersetzt man ihn wohl am besten mit strukturerhaltende Abbildung. Ein Homomorphismus ist also eine Abbildung zwischen Mengen, welche kompatibel ist mit der Struktur, d. h. die Verknüpfungen auf den zugrunde liegenden Mengen berücksichtigt. In einem Vektorraum haben wir zwei Verknüpfungen, die Addition von Vektoren und die Multiplikation von Vektoren mit Skalaren. Ein Homomorphismus, im Zusammenhang mit Vektorräumen sprechen wir auch von einer linearen Abbildung, ist hier eine additive und multiplikative Abbildung zwischen zwei Vektorräumen. In dieser Sichtweise ist ein Homomorphismus durchaus abstrakt. Jedoch gelingt es zumindest in endlichdimensionalen Vektorräumen, nach Wahl einer Basis jedem Homomorphismus eine sehr anschauliche und vertraute Gestalt zu geben. Zu jedem Homomorphismus gehört bezüglich gewählter Basen der Vektorräume eine Matrix – Matrizen haben sich bereits beim Lösen von linearen Gleichungssystemen als sehr nützlich erwiesen. Diese den Homomorphismus darstellende Matrix charakterisiert die Abbildung eindeutig. Wir können so Homomorphismen endlichdimensionaler Vektorräume bezüglich gewählter Basen mit Matrizen identifizieren. Das Abbilden ist dann letztlich eine einfache Matrizenmultiplikation. Durch diesen Prozess werden Homomorphismen bezüglich gewählter Basen durch Matrizen dargestellt. Die Eigenschaften eines Homomorphismus finden sich in der Darstellungsmatrix wieder. Wählt man verschiedene Basen, so erhält man im Allgemeinen verschiedene Matrizen. In den folgenden Kapiteln werden wir untersuchen, welche Eigenschaften der Darstellungsmatrizen bei verschiedenen Basen erhalten bleiben. Welche Basis vorzugsweise zu wählen ist, wird das Thema des 7 Kap. 8 sein. 6.1

Definition und Beispiele

Definition einer linearen Abbildung Eine Abbildung ' W V ! W zwischen K-Vektorräumen V und W heißt K-lineare Abbildung oder Homomorphismus, wenn für alle v; w 2 V und  2 K gilt: 4 '.v C w/ D '.v/ C '.w/ (Additivität), 4 '. v/ D  '.v/ (Homogenität).

Anstelle von einer K-linearen Abbildung spricht man oft auch kurz von einer linearen Abbildung, wenn klar ist, welcher Körper zugrunde liegt. ?Selbstfrage 6.1 Wieso muss V und W derselbe Körper K zugrunde liegen? Anders gefragt: Was sollte ein Homomorphismus zwischen einem komplexen und einem reellen Vektorraum sein?

Eine K-lineare Abbildung ' W V ! W zwischen K-Vektorräumen V und W heißt 4 Monomorphismus, wenn ' injektiv ist, 4 Epimorphismus, wenn ' surjektiv ist, 4 Isomorphismus, wenn ' bijektiv ist, 4 Endomorphismus, wenn V D W ist, 4 Automorphismus, wenn V D W und ' bijektiv ist. Ist ' W V ! W ein Isomorphismus zwischen den K-Vektorräumen V und W , so sagt man, die beiden Vektorräume V und W sind isomorph zueinander. Man schreibt dann V Š W – zwei zueinander isomorphe Vektorräume unterscheiden sich nur in der Bezeichnung der Elemente.

Wie erkennt man die Linearität einer Abbildung? Jede lineare Abbildung ' W V ! W bildet den Nullvektor 0V von V auf den Nullvektor 0W von W ab, d. h., '.0V / D 0W : Dies sieht man etwa wie folgt: Wegen der Additivität von ' gilt:

'.0V / D '.0V C 0V / D '.0V / C '.0V / : Der zentrale Begriff dieses Kapitels ist der Begriff der liDie Behauptung folgt nun nach Subtraktion von '.0V /, nearen Abbildung. d. h. Addition von '.0V / auf beiden Seiten. Dieses Ergebnis eignet sich gut, um viele Abbildungen Lineare Abbildungen sind jene Abbildungen als nicht linear zu erkennen: Die Abbildung

zwischen Vektorräumen, die additiv und homogen sind

Lineare Abbildungen existieren nur zwischen Vektorräumen über dem gleichen Körper.

8 R2 ! R3 ; ˆ ˆ 0 1  a c a b D ; Es gilt also insbesondere die Isomorphie b d c d 0 1 K Š .K/  Kn n :  > 1 4 1 2 3 D @2 5 A Wie so oft unterscheidet man zueinander isomorphe Struk4 5 6 3 6 turen nicht und fasst somit K als einen Teilring (und damit als einen Teilkörper) von Kn n auf.   1 0 Mit der Multiplikation  und der Addition C von MatriD 2 R2 2 transponierte Matrix ist 4 Die zu E n n 2 zen ist .K ; C; / ein Ring. Wir entscheiden im nächsten 0 1   Abschnitt, welche Matrizen in diesem Ring invertierbar 1 0 > . E2 D sind, geben verschiedene Kriterien an und besprechen Ver0 1 1 0 fahren, wie man gegebenenfalls das Inverse einer quadrati1 2 i p schen Matrix bestimmen kann. Natürlich wird das Inverse 4 Die zu A D @ 2 1 2 i C 1A 2 C 3 3 transpoder Darstellungsmatrix einer linearen Abbildung dann die iC1 3 11 Darstellungsmatrix der inversen Abbildung sein. p 0 1 2 iC1 1 Bevor wir uns diesen Themen zuwenden, besprechen 1 3 A. 9 nierte Matrix ist A> D @2 wir noch kurz das Transponieren von Matrizen. i 2i C1 11

Beim Transponieren vertauscht man Zeilen und Spalten einer Matrix Durch das Transponieren wird eine m n-Matrix zu einer n m-Matrix:

Ist A quadratisch, so geht also A> aus A D .aij /n;n durch Spiegeln an der Hauptdiagonale .a11 ; : : : ; ann/ hervor: 1 1> 0 B C B C C B C D B @ A @ A 0

Transponieren einer Matrix Zu A D .aij / 2 Km n bezeichnet A > D .aj i / 2 Kn m die zu A transponierte Matrix oder das Transponierte von A: 0 1 1 0 a11    am1 a11    a1n B : B : :: C :: C :: :: > B C C : ADB : : : A ! A D @ :: : A: @ : am1    amn a1n    amn

Mit den Zeilenvektoren z1 ; : : : ; zm und den Spaltenvektoren s1 ; : : : ; sn kann man das Transponieren auch folgendermaßen ausdrücken: 0 >1 s1 B :: C > .s1 ; : : : ; sn / D @ : A ; s> n 0 1> z1 B :: C > > @ : A D .z1 ; : : : ; zm / zm Aus der k-ten Spalte wird die k-te Zeile bzw. aus der k-ten Zeile wird die k-te Spalte.

Wir führen einfache Merkregeln zum Transponieren quadratischer Matrizen an.

Regeln zum Transponieren Für Matrizen A; B 2 Km n und  2 K gilt: 4 .A C B/> D A > C B > . 4 . A/> D  A > . 4 .A > /> D A. Für Matrizen A 2 Km n und B 2 Kn r gilt: 4 .A B/> D B > A > . Man beachte die Reihenfolge!

i Bei der letzten Merkregel darf man die Reihenfolge im Allgemeinen nicht vertauschen. So gilt!nämlich etwa für! die reellen Matrizen A D 0 1 1 0 und B D : 0 0 0 0 0 .A B/ D 0 >

0 0

!>

0 ¤ 1

! 0 D A> B > 0

201 6.6  Das Invertieren von Matrizen

Den Unterschied zwischen r > r und r r > für ein r 2 Kn nur die letzte ist zu beweisen: Die Matrix A habe die Zeilen verdeutlicht die folgende Illustration: n z1 ; : : : ; zn und die Matrix B habe die Spalten s1 ; : : : ; sr , 1 0 1  D 1 ,  D n z1 B:C r >  r 2 R, r  r > 2 Rn n A D @ :: A und B D .s1 ; : : : ; sr / : zn

Beweis Die ersten drei Merkregeln sind selbstverständlich,

6.6

Wegen .A B/> D .zi sj /> i;j steht an der Stelle .k; l/ der Matrix .A B/> 2 Kr m Zahl p D zl sk . Und wegen > B > A > D .s> i zj /i;j

Das Invertieren von Matrizen

Wie wir gesehen haben, lässt sich ein reelles lineares Gleichungssystem mit n Gleichungen in n Unbestimmten kurz die in der Form Ax D b mit einer Matrix A 2 Rn n und b 2 Rn sowie der Unbestimmten x schreiben. Die entsprechende Gleichung im die Fall n D 1 lautet

steht an der Stelle .k; l/ der Matrix B > A > 2 Kr m > Zahl q D s> k zl . Offenbar gilt p D q. Da die beiden Matrizen (mit gleiax D b cher Zeilen- und Spaltenzahl) an allen Stellen die gleichen mit reellen Zahlen a und b. Die Lösung dieser letzten GleiEinträge haben, ist damit die Gleichheit gezeigt.  chung ist bekannt: Ist a ¤ 0, so ist a1 b die eindeutig bestimmte Lösung. Und ist a D 0, so ist diese Gleichung Symmetrische Matrizen ändern sich nicht nur für b D 0 lösbar; die Lösungsmenge ist in diesem Fall ganz R. durch Transponieren Tatsächlich liegt für das System A x D b mit einer quadratischen Matrix A eine ähnliche Situation vor: Ist die Eine besondere Art von Matrizen bilden die symmetrischen Matrix A invertierbar, d. h., existiert eine Matrix A 1 mit Matrizen wie etwa A 1 A D E n , so folgt durch Multiplikation der Gleichung 0 1 A x D b von links mit A 1 : 1 2 3 A D @2 3 4 A : x D A 1 b ; 3 4 5 Die Symmetrie bedeutet dabei, dass die erste Zeile gleich also die eindeutig bestimmte Lösung des Systems A x D der ersten Spalte ist, analog für die zweite Zeile und zweite b. Ist die Matrix A nicht invertierbar, so ist dieses System nur dann lösbar, wenn rg A D rg.A j b/ gilt, die LösungsSpalte usw. menge ist in diesem Fall unendlich groß. Symmetrische Matrizen Man nennt eine Matrix A 2 Kn n symmetrisch, wenn A > D A gilt.

Beispiel

4 Die Einheitsmatrix En 2 Kn n ist symmetrisch. 1 0 1 2 i p 4 Die Matrix A D @ 2 1 2 i C 1A 2 C 3 3 ist i C01 3 11 1 1 2 i nicht symmetrisch. 4 Die Matrix B D @2 1 3 A 2 C 3 3 ist i 3 11 symmetrisch. 9 ? Selbstfrage 6.18 Sind die Potenzen A k einer symmetrischen Matrix A wieder symmetrisch? Gilt etwa .A k /> D .A > /k ?

Die zu A inverse Matrix A 1 ist eindeutig durch A A 1 D En D A 1 A bestimmt In K gibt es zu jedem Element a 2 K n f0g genau ein Element a0 2 K mit a a0 D 1 D a0 a, wobei das Einselement in K durch die Eigenschaft 1 a D a D a 1 ausgezeichnet ist. Es gibt auch ein solches Einselement in Kn n , nämlich die Einheitsmatrix En , sie erfüllt für jedes A 2 Kn n die Gleichung En A D A D A En : Aber im Gegensatz zum Körper K, existiert zu einer Matrix A 2 Kn n n f0g im Allgemeinen kein Inverses A 0 , d. h. eine Matrix A 0 mit A A 0 D En D A 0 A.

6

202

Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beispiel: Symmetrische und schiefsymmetrische Matrizen

Eine quadratische Matrix A 2 Kn n heißt symmetrisch, wenn A D A > erfüllt ist; sie heißt schiefsymmetrisch, wenn A D A > gilt. Im Folgenden sei die Charakteristik von K ungleich 2, d. h., es gelte 1 C 1 ¤ 0. Die Menge der symmetrischen bzw. schiefsymmetrischen n n-Matrizen über K bezeichnen wir mit S.n; K/ bzw. A.n; K/. Wir zeigen, dass S.n; K/ und A.n; K/ komplementäre Untervektorräume des Kn n sind mit n .n  1/ n .n C 1/ und dim A.n; K/ D : 2 2 Somit besitzt jede Matrix M 2 Kn n genau eine Darstellung

dim S.n; K/ D

6

M DS CA

mit S 2 S.n; K/; A 2 A.n; K/ :

Problemanalyse und Strategie Wir zeigen, dass Kn n die direkte Summe der Untervektorräume S.n; K/ und A.n; K/ ist und bestimmen Basen dieser Untervektorräume. Lösung Bevor wir den allgemein Fall behandeln, sehen wir uns zunächst exemplarisch den Fall n D 2 an. Es gilt dim K2 2 D 4. Die Standardbasis des K2 2 ist B D fE11 ; E12 ; E21 ; E22 g mit ! ! 1 0 0 1 ; E12 D ; E11 D 0 0 0 0 ! ! 0 0 0 0 E21 D ; E22 D : 1 0 0 1 ! a b Die Darstellung von A D 2 K2 2 als Linearkombic d nation der kanonischen Basis ist A D a E11 C b E12 C c E21 C d E22 : Wir setzen S D

0 1

!

0 1 D E12 C E21 ; T D 1 0

!

1 D E12 C E21 : 0

Weil S und T linear unabhängig sind, ist fE11 ; E22 ; S ; T g eine Basis des K2 2 . Die Symmetrie bzw. Schiefsymmetrie von A lässt sich folgendermaßen ausdrücken:

Weise als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben: ! ! ! bCc bc a b a 0 2 2 D bCc C c d d  bc 0 2 2 „ ƒ‚ … „ ƒ‚ … 2S.2;K/

2A.2;K/

bc bCc S T: D a E11 C d E22 C 2 2 Sind nun A; B 2 S.n; K/, d. h. A > D A, B > D B, so folgt .A C B/> D A > C B > D A C B, d. h. A C B 2 S.n; K/, und . A/> D  A > D  A für  2 K, d. h.  A 2 S.n; K/. Die Menge S.n; K/ ist demnach ein Untervektorraum des Kn n . Der Beweis für schiefsymmetrische Matrizen geht genauso. So folgt etwa aus A > D A, B > D B sogleich .A C B/> D A > C B > D A  B D .A C B/. Wir gehen von der Standardbasis B D fEij j 1  i; j  ng des Kn n aus. Eine Matrix A D .aij / 2 Kn n ist genau dann symmetrisch, wenn aij D aj i für i < j gilt. In diesem P Fall kann man in der Darstellung A D ni;j D1 aij Eij die beiden Summanden aij Eij C aj i Ej i zu einem einzigen, nämlich aij .Eij C Ej i / zusammenfassen. Somit ist S D fEi i j 1  i  ng [ fEij C Ej i j 1  i < j  ng eine Basis von S.n; K/, und es gilt dim S.n; K/ D jSj D n.n C 1/=2. Die Matrix A ist genau dann schiefsymmetrisch, wenn ai i D ai i , d. h. ai i D 0 für alle Elemente in der Hauptdiagonalen von A gilt und aij D aj i für i < j . Man sieht dann analog, dass A D fEij  Ej i j 1  i < j  ng eine Basis von A.n; K/ ist. Es folgt dim A.n; K/ D jAj D n.n  1/=2. Für eine beliebige Matrix M 2 Kn n gilt M D 12 .M C M > / C 12 .M  M > / „ ƒ‚ … „ ƒ‚ … DS

DA

mit S > D 12 .M > C .M > /> / D 12 .M > C M / D S , d. h. S 2 S.n; K/, und A > D 12 .M > .M > /> / D 12 .M > M / D A, d. h., A 2 A.n; K/. Ist M D S 0 CA 0 eine weitere solche Darstellung, so gilt S C A D S 0 C A 0 , und folglich ist

A D A> , b D c ! a b ,AD b d S  S 0 D A 0  A 2 S.n; K/ \ A.n; K/ ! ! ! 1 0 0 0 0 1 Da Cd Cb 2 hE11 ; E22 ; Si; eine Matrix, die zugleich symmetrisch und schiefsymmetrisch 0 0 0 1 1 0 ist. Da die Nullmatrix 0 2 Kn n die einzige Matrix mit dieser Eigenschaft ist, folgt S D S 0 , A D A 0 , und wir haben auch A D A > , a D d D 0 und b D c ! ! die Eindeutigkeit der Darstellung gezeigt. 0 c 0 1 Es gilt etwa ,AD Dc 2 hT i: c 0 1 0 ! ! ! 6 13 6 9 0 4 Demnach ist fE11 ; E22 ; S g eine Basis von S.2; K/, also D C : 5 11 9 11 4 0 dim S.2; K/ D 3, und fT g ist eine Basis von A.2; K/, al„ ƒ‚ … „ ƒ‚ … so dim A.2; K/ D 1. Jede Matrix lässt sich auf genau eine 2S.n;R/ 2A.n;R/

203 6.6  Das Invertieren von Matrizen

  1 0 Die reelle Matrix A D ist so ein Beispiel. Ist 0 0 A 0 D .aij0 / 2 R2 2 , so gilt:   0 1 0 a11 A A0 D 0 0 0 a21

0 a12 0 a22





a0 D 11 0

0  a12 ¤ E2 : 0

Ist nun umgekehrt 'A invertierbar, so gilt nach dem Darstellungssatz linearer Abbildungen für die Umkehrabbildung von 'A : D 'B mit einem B 2 Kn n : Nun folgt aus

'A B D 'A ı 'B D idKn D 'B ı 'A D 'B A Die Nullzeile in A erzeugt im Produkt A A 0 stets eine Nullzeile – und zwar in derselben Zeile. sogleich Wir untersuchen in diesem Abschnitt, welche Matrizen invertierbar sind, führen aber erst die entsprechenden BeA B D En D B A ; griffe ein. Man nennt eine quadratische Matrix A 2 Kn n inver- sodass also B D A 1 gilt.  tierbar oder regulär, wenn es eine Matrix A 0 2 Kn n mit der Eigenschaft Kommentar Eigentlich haben wir für das Inverse A 1 einer Matrix A 2 Kn n zu viel gefordert. Wir verlangen, dass die 0 0 beiden Gleichungen A A D En D A A A A 0 D En D A 0 A gibt. Die Matrix A 0 wird durch diese Eigenschaft eindeutig bestimmt, ist nämlich A 00 eine zweite solche Matrix, so gilt erfüllt sind. Tatsächlich folgt aber aus der Gleichung nach dem Assoziativgesetz: A A 0 D En mit einem A 0 die Gleichung A 0 A D En für dieses gleiche A 0 . In der Aufgabe 6.22 sollen Sie das beA 0 D A 0 En D A 0 .A A 00 / D .A 0 A/ A 00 D En A 00 D A 00 : weisen. Man nennt diese Matrix A 0 die zu A inverse Matrix und Beispiel Wir zeigen an Beispielen, dass nicht jede Matrix schreibt A 1 anstelle von A 0 : invertierbar ist und geben Inverse einiger invertierbarer Matrizen an: A A 1 D En D A 1 A : 4 Die folgende reelle Matrix A ist nicht invertierbar:   4 3 Eine Matrix, die nicht invertierbar ist, nennt man auch sinAD 0 0 gulär. Wir stellen gleich einen Zusammenhang zwischen einer Die zweite Zeile von A, also die Nullzeile, erzwingt eiinvertierbaren Matrix A und der Invertierbarkeit des Endone Nullzeile in jedem Produkt A A 0 , insbesondere kann morphismus 'A her. für keine Matrix A 0 die Gleichung A A 0 D E2 erfüllt sein. Lemma Eine Matrix A 2 Kn n ist genau dann invertierbar, Allgemeiner ist jede Matrix, die eine Nullzeile enthält, wenn der Endomorphismus 'A W Kn ! Kn invertierbar ist. nicht invertierbar. In diesem Fall gilt: 4 Es ist E2 2 K2 2 zu sich selbst invers, da      1 D 'A 1 : 'A 1 0 1 0 1 0 E2 E2 D D D E2 : 0 1 0 1 0 1 Beweis Ist A 2 Kn n invertierbar mit dem Inversen A 1 ,

so gilt 'A1 ı 'A D 'A 1 A D 'En D idKn und analog: 'A ı 'A 1 D idKn ; sodass 1 D 'A 1 : 'A

4 Auch E2 2 K2 2 ist zu sich selbst invers, da    1 0 1 0 .E2 / .E2 / D 0 1 0 1   1 0 D D E2 : 0 1     2 1 1 1 2 2 4 Zu A D 2 R ist das Inverse, 1 1 1 2 da      2 1 1 1 1 0 D D E2 : 1 1 1 2 0 1

6

204

Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

0

6

0 1 1 i 1 0 i i 1 4 Zu A D @0 1 i A 2 C 3 3 ist @ 0 1 iA das 0 0 1 0 0 1 Inverse, da 0 10 1 0 1 i 1 0 i i 1 1 0 0 @0 1 i A @ 0 1 iA D @0 1 0A D E3 : 0 0 1 0 0 1 0 0 1   1 1 4 Die Matrix A D 2 K2 2 ist nicht invertierbar, 1 1 da die Gleichung      1 1 a b 1 0 D D E2 1 1 c d 0 1 zu dem nicht lösbaren Gleichungssystem aCc D1 bCd D0 aCc D0 bCd D1

Beweis (i) Wegen En D A A 1 D A 1 A ist A das Inver-

se zu A 1 , d. h., .A 1 /1 D A. (ii) Wir weisen nach, dass .B 1 A 1 / das Inverse zu A B ist, es gilt dann .A B/1 D B 1 A 1 . Wegen der Assoziativität der Matrizenmultiplikation gilt folgende Gleichung: .A B/ .B 1 A 1 / D A .B B 1 / A 1 D A En A 1 D A A 1 D En : (iii) Das gilt wegen En En D En .



?Selbstfrage 6.19 Sind A und B invertierbare n n-Matrizen, so ist 'A ı 'B eine invertierbare Abbildung. Was ist die Umkehrabbildung von 'A ı 'B ?

Da die Multiplikation von quadratischen Matrizen assoziativ ist, ist auch die Multiplikation von invertierbaren Matrizen assoziativ. Somit gilt:

führt. Allgemeiner sind Matrizen mit zwei gleichen ZeiFolgerung Die Menge len niemals invertierbar. 4 Wir betrachten für ein ˛ 2 Œ0; 2 Œ die Matrix GLn .K/ D fA 2 Kn n j A ist invertierbarg   cos ˛  sin ˛ der invertierbaren n n-Matrizen über dem Körper K ist AD 2 R2 2 : sin ˛ cos ˛ mit der Multiplikation von Matrizen eine Gruppe   cos.˛/  sin.˛/ Dann ist das Inverse von A i Im Allgemeinen gilt: sin.˛/ cos.˛/ .A B/1 ¤ A 1 B 1 : (man beachte cos.˛/ D cos ˛ und sin.˛/ D  sin ˛), da Als Beispiel betrachten wir    ! ! cos ˛  sin ˛ cos.˛/  sin.˛/ 2 1 1 1 sin ˛ cos ˛ sin.˛/ cos.˛/ AD ; BD : 1 1 0 1   1 0 D D E2 : 9 Dann gilt: 0 1 Bevor wir zeigen, wie man das Inverse einer invertierbaren Matrix bestimmt, geben wir noch wichtige Eigenschaften invertierbarer Matrizen an.

Eigenschaften invertierbarer Matrizen (i) Wenn A 2 Kn n invertierbar ist, so auch A 1 , und es gilt:

A

(ii) Wenn A und B aus Kn n invertierbar sind, so ist auch A B invertierbar, und es gilt: .A B/1 D B 1 A 1 – man beachte die Reihenfolge! (iii) Es ist En 2 Kn n invertierbar, und es gilt: E1 n D En :

1 D 1

! 1 1 ; B 1 D 2 0

1 1

!

:

Nun rechnen wir nach: ! 2 2 3 AB D ; .A B/1 D B 1 A 1 D 1 1 2 und A

.A 1 /1 D A :

1

1

B

1

1 D 1

3 2

!

! 2 ¤ .A B/1 : 3

Das Inverse einer n  n-Matrix bestimmt man durch Lösen von n linearen Gleichungssystemen Bei den bisherigen Beispielen invertierbarer Matrizen hatten wir das Inverse der jeweiligen Matrix gegeben. Nun beschreiben wir ein Verfahren, wie man das Inverse einer invertierbaren Matrix bestimmen kann. Es gibt ver-

205 6.6  Das Invertieren von Matrizen

schiedene Methoden. Die wohl einfachste entspringt dem Algorithmus von Gauß und Jordan zur Lösung von Gleichungssystemen. Ist 1 0 a11    a1n B : :: C n n A D @ :: : A2K an1

   ann

eine invertierbare Matrix mit dem Inversen 1 0 b11    b1n B : :: C n n A 1 D @ :: : A D .s1 ; : : : : sn / 2 K ; bn1    bnn so gilt die Gleichung 0

1 B :: A .s1 ; : : : ; sn / D @ : 0

 :: : 

1 0 :: C n n : A D En 2 K : 1

Diese Gleichung zerfällt in die n Gleichungen 0 1 0 B:C B :: C B C B C A sk D B1C D e k mit k D 1; : : : ; n : B:C B:C @:A 0

Beweis Ist ' bijektiv, so gilt ker ' D f0g. Nach dem Satz

vom Kern und Bild einer linearen Abbildung hat jede Darstellungsmatrix von ' den Rang n D dim V und ist somit invertierbar. Ist eine Darstellungsmatrix A von ' invertierbar, so ist ihr Rang gleich n D dim V . Wir wenden erneut den Satz vom Kern und Bild einer linearen Abbildung an und erhalten ker ' D f0g, d. h., ' ist injektiv. Da im vorliegenden endlichdimensionalen Fall Bijektivität und Injektivität gleichwertig sind, folgt hieraus die Bijektivität von '.  Zum Invertieren einer Matrix A 2 Kn n können wir die n Gleichungssysteme A x D e k für k D 1; : : : ; n simultan lösen, d. h., wir machen den Ansatz .A j En /, ausführlich 1 0 a11    a1n 1    0 B :: :: :: : : :C @ : : :: A : : an1    ann 0    1 und lösen diese n Gleichungssysteme mit dem bekannten Verfahren von Gauß und Jordan. Dabei bringen wir aber die Matrix A links der Hilfslinie nicht nur auf Zeilenstufenform, sondern gehen mit den elementaren Zeilenumformungen so weit, bis wir die Einheitsmatrix links der Hilfslinie erhalten, d. h., bis wir die Form 1 0 1    0 b11    b1n B :: : : : :: :: C @: : :: : : A 0    1 bn1    bnn

Die k-te Spalte von A 1 ist also Lösung des linearen Gleichungssystems erhalten. Dass dies möglich ist, besagt gerade das eben begründete Kriterium für Invertierbarkeit. A x D ek : Ist dies getan, so steht rechts der Hilfslinie das Inverse 1 D .bij / 2 Kn n von A, da für jedes k D 1; : : : ; n A Die Lösung sk ist eindeutig bestimmt, weil das Inverse die k-te Spalte sk der so nach allen Umformungen rechts einer Matrix eindeutig bestimmt ist. Dies gilt für alle n entstandenen Matrix der entsprechende Lösungsvektor der Gleichungen. Insbesondere hat die Matrix A den Rang n. n n k-ten Gleichung A x D e k ist. Ist eine Matrix A 2 K invertierbar, so hat diese MaBevor wir zu den Beispielen kommen, beantworten wir trix also den Rang n. Hat eine Matrix A andererseits den noch die Frage, wie man entscheiden kann, ob eine Matrix Rang n, so sind die n Gleichungssysteme A x D e k für überhaupt invertierbar ist. k D 1; : : : ; n eindeutig lösbar, d. h., es existiert das Inverse 1 Und in der Tat liefert das beschriebenen Verfahren hier A zu A. zugleich diese Antwort: Sieht man es der Matrix nicht an, ob sie invertierbar ist, so beginnt man einfach mit dem Invertieren, d. h., man macht den Ansatz .A j En / und bringt Kriterium für Invertierbarkeit die Matrix A durch elementare Zeilenumformungen auf Eine Matrix A 2 Kn n ist genau dann invertierbar, wenn obere Dreiecksgestalt, also auf die Form der Rang von A gleich n ist. 1 0 ::: ::: : C B :: B0 : :: : : : C C B Hieraus können wir folgern, dass zu den invertierbaren MaC B :: : : : : @: trizen die invertierbaren linearen Abbildungen gehören. : : : : A : 0 ::: 0 ::: ƒ‚ … „ Folgerung Es seien V und W endlichdimensionale VekDWD torräume mit dim V D dim W . Eine lineare Abbildung ' W V ! W ist genau dann bijektiv, wenn eine Darstel- Stellt sich hierbei heraus, dass der Rang von A kleiner als n lungsmatrix von ' invertierbar ist. ist, d. h., die links stehende Matrix D eine Nullzeile enthält,

6

206

Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

so ist nach dem Kriterium für Invertierbarkeit die Matrix A nicht invertierbar. Enthält D hingegen keine Nullzeile, so ist die Matrix invertierbar. Man setzt in diesem Fall die Zeilenumformungen fort und ermittelt das Inverse von A. Die geringfügige Mehrarbeit, die Zeilenumformungen an der rechts stehenden Einheitsmatrix im Ansatz .A j En / durchzuführen, sollte man in Kauf nehmen.

Das Bestimmen des Inversen einer Matrix A 2 Knn

6

1. Man schreibe .A j En /. 2. Mit elementaren Zeilenumformungen bringe man .A j En / auf die Form .D j B/, mit einer oberen Dreiecksmatrix D. 3. Enthält D eine Nullzeile, so ist A nicht invertierbar. Enthält D keine Nullzeile, so setze man mit elementaren Zeilenumformungen fort, um das Inverse A 1 von A zu erhalten: .A j En / !    ! .En j A 1 / :

Beispiel

4 Wir invertieren die Matrix   2 1 AD 2 R2 2 : 1 1

.z/-Fache der dritten Zeile und setzen schließlich die dritte Zeile als erste Zeile: 0 1 x y 1 1 0 0 @ z 1 0 0 1 0A ! 1 0 0 0 0 1 1 0 1 0 0 0 0 1 @0 y 1 1 0 x A : 0 1 0 0 1 z Wir addieren in einem zweiten Schritt das .y/-Fache der dritten Zeile zur zweiten und vertauschen schließlich diese beiden Zeilen: 1 0 1 0 0 0 0 1 @0 y 1 1 0 x A ! 0 1 0 0 1 z 1 0 1 1 0 0 0 0 @0 1 0 0 1 z A : 0 0 1 1 y y z  x Folglich ist 0 0 0 A 1 D @0 1 1 y

1 1 z A : yz  x

4 Wir versuchen das Inverse von 0 1 1 2 0 4 B1 1 0 2 C 4 4 C ADB @0 2 1 0 A 2 R Zuerst notieren wir .A j E2 /, vertauschen dann die Zei2 5 1 6 len und addieren zur zweiten Zeile das .2/-Fache der neuen ersten Zeile: zu bestimmen. Wir machen wieder den Ansatz .A j E4 /,     addieren zur zweiten Zeile das .1/-Fache der ersten 2 1 1 0 1 1 0 1 ! : Zeile und zur vierten Zeile das .2/-Fache der ersten 1 1 0 1 0 1 1 2 Zeile: 1 0 Weil die Matrix den Rang 2 hat, ist sie invertierbar. Wir 1 2 0 4 1 0 0 0 setzen nun das Invertieren fort. In einem zweiten Schritt B 1 1 0 2 0 1 0 0 C C B addieren wir zur ersten Zeile die zweite Zeile und mul@ 0 2 1 0 0 0 1 0 A ! tiplizieren dann die zweite Zeile mit dem Faktor 1: 2 5 1 6 0 0 0 1 1 0     1 0 0 0 1 2 0 4 1 0 1 1 1 1 0 1 ! : B 0 1 0 2 1 1 0 0 C 0 1 1 2 0 1 1 2 C: B @ 0 0 0 1 0 A 2 1 0   0 1 1 2 2 0 0 1 1 1 . Also ist A 1 D 1 2 Nun erkennt man, dass durch Addition der zweiten zur 4 Schließlich invertieren wir die Matrix dritten Zeile die vierte Zeile entsteht, d. h., der Rang von 0 1 A ist nicht vier. Die Matrix ist also nicht invertierbar. 9 x y 1 3 3 A D @ z 1 0A 2 R : Kommentar Beim Invertieren von Matrizen hat man bei 1 0 0 den Zeilenumformungen im Allgemeinen viele Wahlmöglichkeiten. Wir haben bei den Beispielen jeweils einen Weg Wieder notieren wir .A j E 3 /, addieren zur ersten Zeile vorgegeben. Natürlich gelangt man auch mit anderen Zeidas .x/-Fache der dritten Zeile, zur zweiten Zeile das lenumformungen zum Ziel.

207 6.7  Elementarmatrizen

Beispiel: Invertieren einer Matrix

Man bestimme das Inverse der Matrix 0 1 6 8 3 B C A D @4 7 3A 2 R3 3 : 1 2 1

Nun erkennen wir, dass A den Rang 3 hat, also auch tatsächlich invertierbar ist. Es folgt der letzte Schritt, in dem wir die dritte Zeile zur ersten Zeile addieren und zur zweiten Zeile das .1/-Fache der dritten Zeile hinzufügen:

Problemanalyse und Strategie

0 1 0 1 1 0 1 0 2 7 1 2 3 1 0 0 B0 1 B 1 0 1 4C 3 6C @ A ! @0 1 0 1 A 1 4 10 0 0 1 1 4 10 0 0 1

Man beachte das im Text beschriebene Verfahren. Lösung Wieder notieren wir zuerst .A j E3 /, tauschen dann die erste mit der dritte Zeile und addieren zur zweiten Zeile das .4/-Fache der neuen ersten Zeile und zur neuen dritten Zeile das .6/-Fache der neuen ersten Zeile: 1 0 1 0 1 1 2 1 0 0 6 8 3 1 0 0 B C B4 7 3 0 1 0C A ! @0 1 1 0 1 4A @ 1 2 1 0 0 1 0 4 3 1 0 6 In einem zweiten Schritt addieren wir zur ersten Zeile das 2-Fache der zweiten Zeile und zur dritten Zeile das .4/-Fache der zweiten Zeile und multiplizieren schließlich die zweite Zeile mit 1: 1 0 1 0 1 0 1 0 1 2 7 1 2 1 0 0 B B0 1 1 0 1 4C 4C 1 0 1 A ! @0 1 A @ 0 4 3 1 0 6 0 0 1 1 4 10

Wir heben zwei Merkregeln für das Inverse spezieller Matrizen hervor.

Die Inversen von 2 !2- und Diagonalmatrizen

a b 4 Die Matrix 2 K2 2 ist genau dann invertierc d bar, wenn a d ¤ b c. Es gilt in diesem Fall: a c

b d

!1

1 D ad bc

b a

d c

!

4 Die Matrix diag.a1 ; : : : ; an / 2 Kn n ist genau dann invertierbar, wenn alle ai ¤ 0 sind, und es gilt in diesem Fall: 0 a1 B B @ 0

0 ::

: an

11 C C A

0 1 a1 B DB @ 0

0 ::

: an1

1 C C A

Folglich ist 0

A 1

1 B D @1 1

1 3 6C A 10

Kommentar Beim Invertieren einer Matrix A 2 Kn n passieren leicht Rechenfehler. Man kann sein Ergebnis aber einfach überprüfen, da die Gleichung A A 1 D E n erfüllt sein muss. Diese Gleichung ist im Allgemeinen sehr leicht nachzuvollziehen, wir tun dies für unser Beispiel: 0 6 B4 @ 1

8 7 2

10 3 1 B 3C A @1 1 1

2 3 4

1 0 3 1 B 6C A D @0 0 10

0 1 0

1 0 0C A 1

?Selbstfrage 6.20 Ist mit zwei invertierbaren Matrizen A; B 2 Kn n auch die n n-Matrix A C B invertierbar? Kommentar Ist A x D b ein lineares Gleichungssystem

mit invertierbarer Matrix A, so ist die dann eindeutig bestimmte Lösung durch A 1 b gegeben. Tatsächlich ist es im Allgemeinen aber viel aufwendiger, erst A 1 zu bestimmen und diese Matrix dann mit b zu multiplizieren, als das Gleichungssystem mit dem Algorithmus von Gauß und Jordan zu lösen.

6.7

Elementarmatrizen

0 1 3 3 3 Wir betrachten die Matrix A D @3 3 3A 2 R3 3 . 3 3 3 Die folgende Multiplikation reeller Matrizen 0

Diese Aussagen prüft man einfach durch Multiplikation der jeweiligen Matrizen mit den angegebenen Inversen nach.

2 3 4

10 1 0 1 1 0 0 3 3 3 3 3 3 @0 1=3 0A @3 3 3A D @1 1 1A 0 0 1 3 3 3 3 3 3

6

208

Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Beispiel: Der Körper der komplexen Zahlen in Gestalt von Matrizen

Wir betrachten die Menge ( ! ) a b GD j a; b 2 R b a von 2 2-Matrizen über R und zeigen, dass wir diese Menge mit dem Körper C der komplexen Zahlen identifizieren können.

! a b 2 G eine Linearkombination der beiden ! ! b a 1 0 0 1 über R linear unabhängigen Matrizen und 0 1 1 0 ist, es gilt nämlich: ! ! ! a b 1 0 0 1 Da Cb ; b a 0 1 1 0

Element

(

Problemanalyse und Strategie

6

Man gebe eine bijektive additive und multiplikative Abbildung von C nach G an. Lösung Wir betrachten die Abbildung 8 C ! G; ˆ < ! a b 'W ˆ :z D a C i b 7! b a und überzeugen uns von den folgenden vier Tatsachen: 1. ' ist injektiv: Aus '.a C i b/ D '.a0 C i b 0 / folgt sogleich a D a0 und b D b 0 . 2. ' ist surjektiv: ! a b Zu 2 G wähle z D a C i b 2 C. b a 3. Für alle z; z 0 2 C gilt '.z C z 0 / D '.z/ C '.z 0 /: Sind z D a C i b und z 0 D a0 C i b 0 2 C, so ist ! a C a0 .b C b 0 / 0 D '.z/ C '.z 0 / : '.z C z / D a C a0 b C b0 4. Für alle z; z 0 2 C gilt '.z z 0 / D '.z/ '.z 0 /: Sind z D a C i b und z 0 D a0 C i b 0 2 C, so ist '.z z 0 / D '..a a0  b b 0 / C i .b a0 C a b 0 // ! a a0  b b 0 .b a0 C a b 0 / D b a0 C a b 0 a a0  b b 0 ! ! a b a0 b 0 D D '.z/ '.z 0 / : b a b0 a0 Wir können nun die Elemente aus C durch jene aus G ausdrücken. Zu jedem Element aus C gehört genau ein Element aus G. Der Summe bzw. dem Produkt zweier komplexer Zahlen z und z 0 entspricht die Summe bzw. das Produkt der beiden Matrizen '.z/ und '.z 0 /. Also sind G und C von der Bezeichnung der Elemente abgesehen dasselbe. Aber in G taucht die imaginäre Einheit ! i nicht explizit auf. Zu i gehört die Matrix 0 1 '.i/ D , und der haftet nichts Imaginäres mehr an. 1 0 Der Körper der komplexen Zahlen kann!also gedeutet wera b den als die Menge aller Matrizen 2 R2 2 . b a Die Menge G bildet einen Untervektorraum von R2 2 . Es ist also G insbesondere ein reeller Vektorraum. Weil jedes

! !) 1 0 0 1 bildet die Menge ; eine Basis von G. 0 1 1 0 Es folgt erneut dimR .C/ D 2. Wir heben ein weiteres Resultat hervor: Weil die Multiplikation in C kommutativ ist, ist es auch jene in G, denn zu beliebigen g; g 0 2 G gibt es z; z 0 2 C mit '.z/ D g und '.z 0 / D g 0 . Damit erhalten wir g g 0 D '.z/ '.z 0 / D '.z z 0 / D '.z 0 z/ D '.z 0 / '.z/ D g 0 g : Also ist die Multiplikation in G kommutativ, wenngleich die Multiplikation in R2 2 nicht kommutativ ist. Da wir komplexe Zahlen auch als Vektoren des R2 interpretieren können, haben wir für jede komplexe Zahl z 2 C die drei Schreibweisen ! ! a a b z D a C i b; z D ; zD b b a Die Multiplikation einer komplexen Zahl z D a C i b mit der imaginären Einheit i ist die Drehung der komplexen Zahl z im ! b 2 R um =2, also z D b C i a, da hierzu der Vektor a gehört: a

iz

z

b

a

b

Dasselbe leistet in G die zu i gehörige Matrix '.i/: ! ! ! 0 1 a b b a D ; 1 0 b a a b ! b da hierzu ebenso der Vektor gehört. a Schließlich entspricht dem Inversen einer komplexen Zahl z D a C i b ¤ 0 das Inverse der zu z gehörigen Matrix '.z/, da E 2 D '.1/ D '.z z 1 / D '.z/ '.z 1 / a b

b a

dem Inversen '.z/1 D '.z 1 / D

1 a2 Cb 2

gilt. D. h., die Matrix '.z/ D

! ist invertierbar mit ! a b . b a

209 6.7  Elementarmatrizen

bewirkt eine elementare Zeilenumformung an A, nämlich das Multiplizieren der zweiten Zeile von A mit dem Faktor 1=3. Vertauscht man die Matrizen, berechnet man also 0 10 1 0 1 3 3 3 1 0 0 3 1 3 @3 3 3A @0 1=3 0A D @3 1 3A 3 3 3 0 0 1 3 1 3

Wir untersuchen nun, welche Matrizen diese Zeilen- bzw. Spaltenumformungen an der Matrix A 2 Km n durch Multiplikation von rechts bzw. links bewirken. Für  2 K und i; j 2 f1; : : : ; mg mit i ¤ j nennt man die m m-Matrizen der Form 0 1 1 B C :: B C : B C B C 1 B C B C so bewirkt diese Multiplikation eine elementare Spaltenum D i ./ D B i C B C formung an A. 1 B C B C Man kann auch das Addieren eines Vielfachen einer B :: C : Zeile zu einer anderen Zeile durch eine Matrizenmultipli@ A kation ausdrücken, so ist etwa 1 0 10 1 0 1 " 1 0 0 3 3 3 3 3 3 i @1=3 1 0A @3 3 3A D @2 2 2A 0 0 1 3 3 3 3 3 3 und 1 0 1 die Addition des .1=3/-fachen der ersten Zeile zur zweiC B :: ten. C B : C B C B i 1  C B ? Selbstfrage 6.21 C B : C :: N i;j ./ D B Welche Zeile ändert sich, wenn der Faktor 1=3 an der C B C B Stelle .3; 1/ dieser Matrix steht? 1 C B C B C B :: : A @ Ein Vertauschen der Matrizen bewirkt wieder eine entsprechende Umformung an den Spalten: 1 0 10 1 0 1 " 3 3 3 1 0 0 2 3 3 j @3 3 3A @1=3 1 0A D @2 3 3A : 3 3 3 0 0 1 2 3 3 m m-Elementarmatrizen. ? Selbstfrage 6.22 An welcher Stelle muss der Faktor 1=3 stehen, damit die zweite Spalte des Produkts nur 2 als Komponenten hat?

Kommentar Die Matrizen D i ./ für  2 K n f0g und N i;j ./ für  2 K sind invertierbar, so ist D i .1 / das Inverse zu D i ./ und N i;j ./ jenes zu N i;j ./.

0 1 In der Tat lässt sich jede elementare Zeilenumformung bzw. z1 m n elementare Spaltenumformung an einer Matrix A 2 K B :: C Für die m n-Matrix A D @ : A mit den Zeilenvektoren durch Multiplikation einer Matrix von rechts bzw. von links zm darstellen. Matrizen, die dies bewirken, werden wir Elen z ; : : : ; z 2 K erhält man die folgenden Matrizenprodukmentarmatrizen nennen. 1 m te: 0 0 1 1 z1 z1 B : C B C :: Elementarmatrizen stellen elementare B :: C B C : B B C C Zeilenumformungen bzw. Bz C B z C i 1 B i 1 C B C B z C Bz C  z C Spaltenumformungen dar D i ./ A D B i C und N i;j ./ A D B i jC : B B C C Bzi C1 C B zi C1 C B : C B C :: B : C B C Die elementaren Zeilenumformungen bzw. elementaren @ : A @ A : m n Spaltenumformungen an einer Matrix A 2 K sind die zm zm Umformungen: (i) zwei Zeilen bzw. Spalten von A werden vertauscht, Also bewirkt die Matrizenmultiplikation von D i ./ von (ii) eine Zeile bzw. Spalte wird mit einem Faktor  ¤ 0 links an A die Multiplikation der i-ten Zeile von A mit  bzw. die Matrizenmultiplikation von N i;j ./ von links multipliziert, (iii) zu einer Zeile bzw. Spalte wird das Vielfache einer an- an A die Addition des -Fachen der j -ten Zeile zur i-ten Zeile. deren Zeile bzw. Spalte addiert.

6

210

6

Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

Diese beiden Multiplikationen bewirken also gerade für  ¤ 0 im ersten Fall die elementaren Zeilenumformungen der Art (ii) und (iii) an A. Wir überlegen uns nun, welche Matrix das Vertauschen zweier Zeilen zi und zj für i ¤ j von A bewirkt. Wir multiplizieren an A von links Elementarmatrizen: 0 0 1 0 1 1 :: :: :: : : : B B C B C C Bz C z C Bz C B C zi C zj jC B i B iC B C B : C B:C B C : B B B C C C : : : ADB:C!B : C!B : C B B C B C C B zj C Bzj C Bzj C .1/ .zi C zj /C @ : A @:A @ A :: :: :: : „ „ ƒ‚ … ƒ‚ … 0

1

DN i;j .1/ A

:: B : C Bz C z C jC B i B : C B D B :: C C! B C B zi C @ : A ::

DN j;i .1/ N i;j .1/ A

0

1 :: : B C Bz C z C .z /C j i C B i B C :: B C : B C B C zi B C @ A :: : „ ƒ‚ …

0 1 :: B:C Bz C B jC Dj .1/ B : C C ! B B :: C : B C B zi C @:A ::

Damit führen also die Elementarmatrizen auch zum Vertauschen der Zeilen zi mit zj also zur elementaren Zeilenumformung (i). Diese Vertauschung bewirkt also letztlich die Matrix

" i

Eine invertierbare Matrix A 2 Kn n hat, wie wir gezeigt haben, den Maximalrang n. Dann kann A mit elementaren Zeilenumformungen auf 1 0 1 C B :: die Form @ : A gebracht werden und mit weite0 1 ren solchen Umformungen schließlich in die Einheitsmatrix En umgewandelt werden. Jede Umformung bedeutet eine Multiplikation von links mit einer Elementarmatrix. Daher existieren zu der invertierbaren Matrix A Elementarmatrizen T 1 ; : : : ; T k mit T k    T 1 A D En ; sodass T k    T 1 D T k    T 1 En D A 1 :

Invertieren von Matrizen

DN i;j .1/N j;i .1/ N i;j .1/ A

P i;j D Dj .1/ N i;j .1/ N j;i .1/ N i;j .1/ 1 0 1 C B :: C B : C B C B 0 1 C B C B : C B :: DB C C B 1 0 C B C B C B :: : A @ 1

Das Invertieren von Matrizen kann man auch mit Elementarmatrizen beschreiben

i j

Jede invertierbare Matrix A lässt sich mittels elementarer Zeilenumformungen in die Einheitsmatrix E n überführen. Wendet man dieselben Umformungen in derselben Reihenfolge auf En an, so erhält man A 1 .

Dieses Vorgehen zum Invertieren einer invertierbaren Matrix ist genau dasselbe, das wir in der Merkbox Das Bestimmen des Inversen einer Matrix A 2 Kn n geschildert haben. Man schreibt En rechts neben A, also .A j En / und wendet die Umformungen, die A in En überführen, gleichzeitig auf E n an, man erhält also .En j A 0 /. Die Matrix A 0 ist dann das Inverse A 1 von A. Wir haben damit auch gezeigt:

" j

Folgerung Jede invertierbare Matrix ist ein Produkt von Elementarmatrizen, d. h., die Gruppe GLn .K/ der invertierbaren n n-Matrizen über dem Körper K wird von den Man nennt P i;j eine Permutationsmatrix, sie vertauscht Elementarmatrizen erzeugt. durch Multiplikation von links an A die Zeilen zi und zj .

Wir halten eine weitere Folgerung fest: Da jede invertierbare Matrix S 2 Kn n ein Produkt von Elementarmatrizen Warum gilt P 2 D En für jede n n-Permutationsmatrix? ist, S D T 1    T k , bewirkt die Multiplikation von S an n n von links bzw. von rechts, Analog kann man nun auch elementare Spaltenumformun- eine Matrix A 2 K gen von A durch Multiplikation von n n-ElementarmatriS A bzw. A S ; zen von rechts an A 2 Km n darstellen. So bewirkt die n n-Matrix D i ./ mit  ¤ 0 durch entsprechende elementare Zeilen- bzw. SpaltenumformunMultiplikation von rechts an A eine Multiplikation der gen an A, da jede Elementarmatrix T i eine solche Umfori-ten Spalte von A mit dem Faktor . Und die Multipli- mung darstellt. Da elementare Zeilen- bzw. Spaltenumforkation von N i;j ./ von rechts an A bewirkt die Addition mungen den Rang der Matrix A nicht ändern, erhalten wir damit: des -Fachen der i-ten Spalte zur j -ten Spalte. ? Selbstfrage 6.23

211 6.8  Basistransformation

Übersicht: Die linearen Abbildungen 'A W v 7! A v mit einer Matrix A

Jede Matrix A D .s1 ; : : : ; sn / 2 Km n induziert eine lineare Abbildung 'A vom K-Vektorraum Kn in den K-Vektorraum Km : ( Kn ! Km ; 'A W v 7! A v: Diese Abbildungen verdienen eine besondere Beachtung, weil letztlich jede Abbildung von einem n-dimensionalen K-Vektorraum in einen m-dimensionalen K-Vektorraum von dieser Art ist. Wir fassen wesentliche Ergebnisse aus den 7 Kap. 3, 4 und 6 zu einer Übersicht zusammen. 0 1 v1 B:C n :C 4 Für jeden Vektor v D B @ : A 2 K gilt: vn 'A .v/ D A v D v1 s1 C    C vn sn ; insbesondere gilt für die Standard-Einheitsvektoren e 1 ; : : : ; e n des Km : 'A .e i / D A e i D si für i D 1; : : : ; m : Die i-te Spalte der Matrix A ist das Bild des i-ten Standardbasis-Einheitsvektors e i . 4 Das Bild von 'A ist die Menge aller Linearkombinationen von s1 ; : : : ; sn , also der Spaltenraum von A: 'A .Kn / D hs1 ; : : : ; sn i : 4 Die Dimension des Bildes von A ist die Dimension des Spaltenraums von A: dim.'A .Kn // D rg A :

Folgerung Ist A 2 Kn n eine beliebige und S 2 Kn n

eine invertierbare Matrix, so gilt: rg.S A/ D rg.A/ D rg.A S / :

4 Ein Element v 2 Kn liegt genau dann im Kern von 'A , wenn A v D 0 gilt: 1 'A .f0g/ D fv 2 Kn j A v D 0g :

Der Kern von 'A ist die Lösungsmenge des homogenen linearen Gleichungssystems A v D 0. Wegen dieses Zusammenhangs nennt man den Kern der linearen Abbildung 'A auch den Kern der Matrix A. 4 Für die Dimension des Kerns von 'A gilt: 1 dim 'A .f0g/ D n  rg.A/ :

Dies folgt unmittelbar aus der Dimensionsformel. In der Sprechweise der linearen Gleichungssysteme lautet dies: Ist A 2 Km n , so ist die Dimension des Lösungsraums des homogenen linearen Gleichungssystems Av D 0 gleich n  rg.A/. Insbesondere ist ein lineares homogenes Gleichungssystem mit einer Koeffizientenmatrix A 2 Km n genau dann eindeutig lösbar, wenn n D rg.A/ ist. 4 Für eine quadratische Matrix A 2 Kn n sind die folgenden Aussagen äquivalent: – A ist invertierbar, – rg.A/ D n, – 'A ist bijektiv, – 'A ist surjektiv, – 'A ist injektiv, 1 .f0g/ D f0g. – 'A

0 1 v1 B :: C so erhält man den Koordinatenvektor B '.v/ D @ : A des vn Bildes eines Vektors v unter der Abbildung ' durch eine sehr einfache Multiplikation: 1 1 v1 B : C B '.v/ D B M .'/B B v D @ :: A : n vn 0

6.8

Basistransformation

Das wesentliche Ziel von 7 Kap. 8 wird es sein, zu einer gegebenen Abbildung ' eine Basis B zu bestimmen, be- Auch Potenzen von Diagonalmatrizen sind sehr einfach zu züglich der die Darstellungsmatrix B M .'/B eine besonders bilden – dies hat in den Anwendungen der linearen Algebra einfache Gestalt, etwa Diagonalgestalt, hat. Der Vorteil ei- eine fundamentale Bedeutung; wir gehen darauf noch ein. ner solchen einfachen Gestalt liegt auf der Hand: Ist die Darstellungsmatrix eine Diagonalmatrix, also 0

1 B :: B M .'/B D @ : 0

 :: : 

1

0 :: C :A n

Je zwei Darstellungsmatrizen einer linearen Abbildung sind ähnlich

In den bisherigen Beispielen zu Darstellungsmatrizen haben wir mehrfach ein und dieselbe lineare Abbildung be-

6

212

6

Kapitel 6  Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen

züglich verschiedener Basen dargestellt. Darstellungsmatri- Beweis Es gilt: zen bezüglich verschiedener Basen sehen im Allgemeinen C M .'/C D C M .idV ı ' ı idV /C D ganz unterschiedlich aus. D C M .idV /B B M .'/B B M .idV /C : Wir untersuchen nun, welcher algebraische Zusammenhang zwischen den verschiedenen Darstellungsmatrizen besteht. In der Tat ist dies ein sehr einfacher. Die zwei im Wegen Allgemeinen verschiedenen Darstellungsmatrizen ein und C M .idV /B B M .idV /C D B M .idV /B D En derselben linearen Abbildung bezüglich verschiedener Basen sind sich nämlich ähnlich; dabei sagt man, dass eine erhalten wir also .B M .idV /C /1 D C M .idV /B . Wir kürzen n n-Matrix A zu einer n n-Matrix B ähnlich ist, wenn B M .idV /C mit S ab und erhalten die Behauptung.  es eine invertierbare n n-Matrix S mit Wir stellen die Situation der Basistransformationsformel in A D S 1 B S einem Diagramm dar: gibt. Wir schreiben hierfür auch kurz A  B. Der Begriff der Ähnlichkeit besagt schon, dass der geschilderte Zusammenhang zwischen diesen Matrizen ein sehr enger ist – man braucht solche Matrizen kaum zu unterscheiden, sie stellen ja auch dieselbe lineare Abbildung dar, nur eben bezüglich verschiedener Basen. Lemma Für jeden Körper K und für jede natürliche Zahl n

Kn

C M .'/C

Kn S 1 DC M .id/B

S DB M .id/C

Kn

B M .'/B

Kn

definiert die Ähnlichkeit  von Matrizen eine Äquivalenz- Man nennt S D B M .idV /C auch Basistransformationsmatrix. Die i-te Spalte von S ist der Koordinatenvektor relation auf der Menge Kn n . bezüglich der Basis B des i-ten Basisvektors der Basis C . Aus der Basistransformationsformel ergibt sich FolgenBeweis Reflexivität: Für jedes A 2 Kn n gilt: des: E1 n A En D A ; d. h., dass A zu sich selbst ähnlich ist, A  A. Symmetrie: Ist A zu B ähnlich, A  B, so existiert eine invertierbare Matrix S 2 Kn n mit A D S 1 B S . Es folgt:

Ähnlichkeit von Darstellungsmatrizen Je zwei Darstellungsmatrizen B M .'/B und C M .'/C einer linearen Abbildung ' bezüglich der Basen B und C sind zueinander ähnlich.

B D S A S 1 ; Andererseits stellen je zwei ähnliche n n-Matrizen über d. h., dass also auch B zu A ähnlich ist, B  A. 1 Transitivität: Es sei A zu B ähnlich, A D S B S , K ein und dieselbe lineare Abbildung dar. Somit gehört zu jeder linearen Abbildung ' eines n-dimensionalen Kund B zu C , B D T 1 C T . Dann folgt: Vektorraums V in sich eine Äquivalenzklasse ŒM  von 1 Matrizen bezüglich der Äquivalenzrelation . Ist M die A D .T S / C .T S / ; Darstellungsmatrix von ' bezüglich einer Basis B, so gilt: d. h., dass A zu C ähnlich ist, A  C .  ŒM  D fN 2 Kn n j N  M g ? Selbstfrage 6.24 Welche Matrizen sind zu En ähnlich?

Die Basistransformationsformel Sind ' W V ! V eine lineare Abbildung und B und C zwei geordnete Basen von V , so gilt: C M .'/C

D S 1 B M .'/B S ;

wobei S D B M .idV /C gilt.

D fN 2 Kn n j N D S 1 M S für ein S 2 GLn .K/g : Jedes N 2 ŒM  ist Darstellungsmatrix von ' bezüglich einer Basis C von V . Unser Ziel im 7 Kap. 8 wird es sein, aus jeder Äquivalenzklasse einen möglichst einfachen Repräsentanten zu bestimmen. Beispiel Wir bestimmen alle zu

! 0 0 MD 2 Z2 2 2 1 1

213 6.8  Basistransformation

ähnliche Matrizen, d. h. die Äquivalenzklasse ŒM  von M bezüglich . In Z2 2 sind genau die Matrizen 2 ! ! ! 1 0 1 1 1 0 AD ;B D ;C D ; 0 1 0 1 1 1 ! ! ! 1 1 0 1 0 1 ;E D ;F D DD 1 0 1 0 1 1 invertierbar. ? Selbstfrage 6.25 Warum sind das genau die invertierbaren Matrizen?

Wegen

! 1 0 ; B MB D ; 1 0 ! ! 0 0 0 1 ; D 1 M D D ; C 1 M C D 0 1 0 1 ! ! 1 1 1 0 1 1 ; F MF D E ME D 0 0 0 0 0 0 A MA D 1 1 1

!

1

Dieses einfache Beispiel zeigt bereits, dass die Basistransformationsformel an sich nicht sehr geeignet ist, die Darstellungsmatrix bezüglich einer Basis C aus derjenigen bezüglich einer Basis B zu berechnen. Es sind die Basistransformationsmatrix, ihr Inverses und zudem das Produkt dreier Matrizen zu berechnen. Der Rechenaufwand steigt mit der Größe der Matrizen. Viel einfacher ist es zumeist, die Darstellungsmatrix bezüglich einer anderen Basis direkt zu ermitteln. So erhalten wir etwa bei der Spiegelung im Beispiel sogleich, wenn wir die Elemente der Basis C mit c 1 und c 2 bezeichnen:   1 0 M .'/ D . ' .c / ; ' .c // D C C C 1 C 2 0 1 Die Basistransformationsformel hat aber dennoch einen unschätzbaren Wert. Angenommen, es gibt eine Basis C , bezüglich der die Darstellungsmatrix eine Diagonalmatrix D D diag.1 ; : : : ; n / ist. Es ist dann einfach, für eine beliebige Darstellungsmatrix M jede Potenz M k zu berechnen: M k D .S 1 D S /k 1 D„ S 1 D S S 1 D ƒ‚S : : : S D S…

sind diese sechs Matrizen die Elemente der Äquivalenzklasse ŒM  . 9

DS

1

k-mal 1

D S DS k

diag.k1 ; : : : ; kn / S :

Die Basistransformationsformel gibt an, wie wir die Dar- Wir werden dies noch mehrfach vor allem im 7 Kap. 8 bestellungsmatrix einer linearen Abbildung bezüglich einer nutzen. Wir formulieren die Basistransformationsformel erneut Basis C erhalten, wenn wir diese bezüglich einer Basis B für den wichtigen Fall einer linearen Abbildung der Form: kennen. Wir schildern dies an einem einfachen Beispiel.  n K ! Kn ; Beispiel Wir betrachten die Abbildung ' D 'A W v 7! A v: 8 2 2 ;

b2B b2B i D b0 D '.b0 / : ı 'A / En 'A .e i / D En .e i ı 'A / D En .'e > i Somit stimmen die beiden linearen Abbildungen ' und D En .'e > A / D En .'.ai1 ::: ai n / / i auf der Basis B überein. Nach dem Prinzip der linearen 0 1 a i1 Fortsetzung gilt damit ' D . B : C Da die beiden K-Vektorräume V und V die gleiD @ :: A : che endliche Dimension haben, sind sie insbesondere ai n isomorph.  Somit gilt

? Selbstfrage 6.26 Können Sie auch explizit einen Isomorphismus angeben?

Zu jeder linearen Abbildung gibt es eine duale Abbildung Zu jedem Vektorraum gibt es den Dualraum, zu jeder Basis die Dualbasis. Es wundert nun nicht mehr, dass wir auch zu jeder linearen Abbildung zwischen Vektorräumen eine duale Abbildung angeben können. Zu einer linearen Abbildung ' W V ! W erklären wir die Abbildung  W ! V ; ' W 7! ı ':

Man nennt diese lineare Abbildung ' die zu ' duale Abbildung. Die duale Abbildung ' ordnet also jeder Linearform aus W eine Linearform aus V zu. Die Linearform aus V wird dabei durch ihre Wirkung auf einen Vektor aus V definiert: ' . / angewandt auf v ist per Definitionem gleich .'.v//. Beispiel Zu einer Matrix A 2 K lineare Abbildung



Kn ! Km ; 'A W v 7! A v:

m n

betrachten wir die

En M .'A /Em

D A> : 9

Der Dualraum zum Dualraum ist der Bidualraum Für jeden K-Vektorraum V ist V wieder ein K-Vektorraum. Daher können wir den Dualraum zum Dualraum V bilden. Anstelle von .V / schreiben wir einfacher V und nennen diesen K-Vektorraum den Bidualraum zu V . Ein Element des Bidualraums zu V ordnet damit jeder Linearform ' von V jeweils ein Körperelement .'/ zu,  V ! K; W ' ! .'/:

Satz vom Bidualraum Es sei V ein K-Vektorraum. Die Abbildung

˚W

8 ˆ ? mit nur endlich vielen b 2 K n f0g, mit ' D ˚.v/. Wegen (c) Ist die Summe invertierbarer Matrizen stets invertier˚.v/.b / D b .v/ D b bar? (d) Ist das Produkt invertierbarer Matrizen stets invertiernimmt ˚.v/ nur für endliche viele b von null verschiedene bar? Werte an. Das ist ein Widerspruch zu . /. 9

Aufgaben

Rechenaufgaben

Gelegentlich enthalten die Aufgaben mehr Angaben, als für 6.5  die Lösung erforderlich sind. Bei einigen anderen dagegen werden Daten aus dem Allgemeinwissen, aus anderen (a) '1 Quellen oder sinnvolle Schätzungen benötigt.

der folgenden Abbildungen sind linear? 8 Welche 2 2 ; 1, sind Multilinearformen? Begründen Sie Ihre Antso gilt worten. (a) Es sei V D K, ' W V n ! K, .a1 ; : : : ; an /> 7! det.A/ D 0 D det.B/ : a1    an . (b) Es sei V D K, ' W V n ! K, .a1 ; : : : ; an /> 7! a1 C 7.2  Hat eine Matrix A 2 Rn n mit n 2 2N C 1 und : : : C an . A D A > die Determinante 0? (c) Es sei V D R2 2 , ' W V 3 ! R, .X ; Y ; Z / 7! Sp.X Y Z /. Dabei ist die Spur Sp.X / einer n 7.3  Folgt aus der Invertierbarkeit einer Matrix A n-Matrix X D .aij / die Summe der Diagonalelemenstets die Invertierbarkeit der Matix A > ? te: Sp.X/ D a11 C a22 C    C ann.

A B D 0 ; aber A ¤ 0 und B ¤ 0 ;

7.9 

Rechenaufgaben 7.4 

0

Bestimmen Sie die Determinante der Matrix 0

0 B0 ADB @0 d

0 a 0 0 c 0 0 0

Berechnen Sie die Determinante der reellen n

n-Matrix

1 0 bC C 2 R4 4 0A 0

0 B :: B: ADB B @0 dn

1 : : : 0 d1 C : :: d2 C C : : :: C : : : : :A :::

Es sei V D R2 2 sowie ' WV ! V definiert 1 2 durch X 7! .A X  2 X > / mit A D 2 R2 2 . 0 1 Bestimmen Sie det.'/. 7.10 

mittels der Leibniz’schen Formel. 7.5 

Berechnen Sie die Determinanten der folgenden reellen Matrizen: 0

1 B2 ADB @0 0

2 1 0 0

0 0 3 4

0 2 1 0 B0 B 0C C ; B D B0 B 4A @0 3 2

0 2 0 2 0

0 0 2 0 0

0 2 0 2 0

1 2 0C C 0C C 0A 2

Beweisaufgaben 7.11  Zeigen Sie, dass für invertierbare Matrizen A; B 2 Kn n gilt:

ad.A B/ D ad.B/ ad.A/ :

7

Kapitel 7  Determinanten – Kenngrößen von Matrizen

246

7.12  Zu jeder Permutation  W f1; : : : ; ng ! Antworten zu den Selbstfragen f1; : : : ; ng wird durch f .ej / D e  .j / für 1  j  n ein Isomorphismus f W Kn ! Kn erklärt. Es sei P  2 Kn n vAntwort 7.1 die Matrix mit f .x/ D P  x. Zeigen Sie P  P D P  , Wegen sgn.id/ D 1 und der Homomorphie von sgn gilt 1 > 1 P  D P  1 D P  und P  .aij /P  D .a .i / .j //. Welche Determinante kann P  nur haben? 1 1 sgn.

7.13  Für Elemente r1 ; : : : ; rn eines beliebigen Körpers K sei die Abbildung f W K ! K, durch f .x/ D .r1  x/.r2  x/    .rn  x/ erklärt. Zeigen Sie:

7

ˇ ˇr1 ˇ ˇb ˇ ˇb ˇ ˇ ˇ ˇb

a r2 b b

a a r3  b

   

ˇ aˇ ˇ aˇ ˇ af .b/  bf .a/ a ˇˇ D ab ˇ ˇ rn ˇ

für a ¤ b:

Zeigen Sie, dass jede Permutation  2 Sn ein Produkt von Transpositionen ist, d. h., es gibt Transpositionen 1 ; : : : ; k 2 Sn mit 7.14 

 D 1 ı    ı k : 7.15  Es seien K ein Körper und A 2 Km m , B 2

Kn n . Die Blockmatrix A ˝ B D .aij B/i;j D1;:::;m 2 Kmn mn heißt das Tensorprodukt von A und B. Zeigen Sie det A ˝ B D .det A/n .det B/m (a) zunächst für den Fall, dass A eine obere Dreiecksmatrix, ist; (b) für beliebiges A. Es sei x ein Element eines Körpers K, und A n D ..x  1/ıij C 1/i;j D1;:::;n 2 Kn n . Hierbei ist ıij das Kronecker-Symbol: ıij D 0 für i ¤ j , und ıi i D 1. Zeigen Sie: 7.16 

det.A n / D .x  1/n1 .x C n  1/:

/ sgn./ D sgn.

ı / D sgn.id/ D 1 :

Damit erhalten wir sgn. 1 / D sgn./.

vAntwort 7.2 Mithilfe des Untergruppenkriteriums kann man einfach zeigen, dass An eine Untergruppe von Sn ist. Noch einfacher geht es mit dem folgenden Trick: An ist der Kern des Homomorphismus sgn und als solcher eine Untergruppe von Sn .

vAntwort 7.3 Ja. Die Determinante ist das Produkt der Diagonalelemente; das folgt aus der Regel von Sarrus.

vAntwort 7.4 Nein. Man wähle etwa A D E2 und B D E2 .

vAntwort 7.5 Ja, sie stellen lineare Abbildungen eines n-dimensionalen Raums in einen n-dimensionalen Vektorraum dar. Damit ist jede Darstellungsmatrix eine n n-Matrix.

vAntwort 7.6 Durch elementare Zeilen- oder Spaltenumformungen kann man eine Nullzeile oder Nullspalte erzeugen. Die Determinante der Matrix mit einer Nullzeile oder Nullspalte ist null, folglich ist auch die Determinante der ursprünglichen Matrix A null.

vAntwort 7.7 Ja, man wende den Determinantenmultiplikationssatz an: 0 ¤ det.A B/ D det.A/ det.B/ : Somit gilt det.A/; det.B/ ¤ 0.

vAntwort 7.8 Jene mit Determinante j det 'j D 1 lassen die Volumina unverändert. Jene mit det ' D 1 bilden übrigens die spezielle lineare Gruppe SLn .K/. Lineare Abbildungen mit det ' D 1 ändern nur das Vorzeichen der orientierten Volumina.

247

Normalformen – Diagonalisieren und Triangulieren

Inhaltsverzeichnis 8.1

Diagonalisierbarkeit – 249

8.2

Eigenwerte und Eigenvektoren – 252

8.3

Berechnung der Eigenwerte und Eigenvektoren – 255

8.4

Algebraische und geometrische Vielfachheit – 261

8.5

Die Exponentialfunktion für Matrizen – 269

8.6

Das Triangulieren von Endomorphismen – 272

8.7

Die Jordan-Normalform – 277

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_8

8

8.8

Die Berechnung einer Jordan-Normalform und Jordan-Basis – 283

8.9

Das Minimalpolynom einer Matrix – 296 Aufgaben – 300 Antworten zu den Selbstfragen – 302

249 8.1  Diagonalisierbarkeit

n Sie finden unter anderem Antworten zu . . .

4 Wie berechnet man auf einfache Art Potenzen von Matrizen? 4 Welche Matrizen sind diagonalisierbar? 4 Wodurch unterscheidet sich eine Jordan-Normalform von einer Diagonalform?

Lineare Abbildungen von Vektorräumen in sich sind im Allgemeinen nicht einfach zu beschreiben. Bei endlichdimensionalen Vektorräumen ist es möglich, solche Abbildungen bezüglich einer gewählten Basis des Vektorraums durch Matrizen darzustellen. Zu jedem Endomorphismus eines endlichdimensionalen Vektorraums gehört eine Äquivalenzklasse von zueinander ähnlichen Matrizen. Wir wollen aus jeder Äquivalenzklasse einen Repräsentanten bestimmen, der eine möglichst einfache Form hat. Als besonders einfach betrachten wir dabei eine Diagonalmatrix. Leider lässt sich nicht jeder Endomorphismus so diagonalisieren, jedoch kann oft ein Repräsentant bestimmt werden, der zumindest eine obere Dreiecksgestalt hat. Die Ursache dafür, ob es eine solche einfache Form gibt oder nicht, ist im zugrunde gelegten Körper K des Vektorraums zu suchen: Ist K algebraisch abgeschlossen, d. h. zerfällt jedes nicht konstante Polynom über K in Linearfaktoren, so ist die Existenz einer einfachen Form gesichert. Insbesondere werden Polynome (siehe 7 Abschn. 2.4) eine wesentliche Rolle im vorliegenden Kapitel spielen. Die Vorteile von Diagonal- oder Dreiecksmatrizen liegen auf der Hand – die Rechnung mit solchen Matrizen ist deutlich einfacher als mit vollen Matrizen. Und wenn man bedenkt, dass das Rechnen mit (Darstellungs-)Matrizen nichts weiter ist, als das Anwenden von linearen Abbildungen, so sieht man, dass sich damit der Kreis zu den Anwendungen der Mathematik schließt. Tatsächlich werden die erzielten Ergebnisse in zahlreichen Gebieten der Naturwissenschaften aber auch innerhalb der Mathematik, z. B. bei den Differenzialgleichungssystemen, benutzt. Die Schlüsselrolle beim Diagonalisieren bzw. Triangulieren spielen Vektoren v, die durch einen Endomorphismus auf skalare Vielfache  v von sich selbst abgebildet werden – man nennt v einen Eigenvektor und  einen Eigenwert. Wir bezeichnen in diesem Kapitel mit K einen Körper. 8.1

Diagonalisierbarkeit

Um unser Vorgehen zu motivieren, zeigen wir, welche Vorteile Matrizen in Diagonalgestalt gegenüber anderen quadratischen Matrizen haben.

Mit Diagonalmatrizen wird vieles einfacher Die Multiplikation einer Diagonalmatrix D 2 Kn n mit einem Vektor v D .vi / 2 Kn ist sehr einfach: 0

1 B :: Dv D@ : 0

 :: : 

10 1 0 1 v1 1 v1 0 :: C B :: C B :: C : A @ : A D @ : A: n vn n vn

Entsprechend einfach ist die Multiplikation einer Diagonalmatrix D D diag.1 ; : : : ; n / mit einer Matrix A. Die i-te Zeile des Produkts DA ist das i -Fache der i-ten Zeile zi von A: 0 1 0 1 1 z1 z1 B : C B:C A D @ :: A ) D A D @ :: A : zn

n zn

Und Potenzen einer Diagonalmatrix zu bilden, bedeutet Potenzen der Diagonaleinträge zu bilden, denn es gilt für jedes k 2 N: 0 1 1 0 k 1    0 1    0 B: B: :C :C D D @ :: : : : :: A ) D k D @ :: : : : :: A 0    n 0    kn   1:8 0:8 Für die reelle Matrix A D gilt 0:2 1:2     17 12 1 33 28 ; A3 D I A 2 D 1=5 3 8 5 7 12 bei Diagonalmatrizen ist es viel einfacher Potenzen zu bilden. Die Matrizenmultiplikation wird also mit Diagonalmatrizen deutlich erleichtert. Es gibt noch einen weiteren Anlass, bei dem man sich Diagonalmatrizen wünscht, bei Darstellungsmatrizen linearer Abbildungen – letztlich ist es aber auch hier wieder nur die Vereinfachung der Matrizenmultiplikation, die man sich dabei zum Ziel setzt.

Ein Endomorphismus heißt diagonalisierbar, wenn es eine Basis gibt, bezüglich der die Darstellungsmatrix diagonal ist Eine lineare Abbildung nennen wir auch Endomorphismus, wenn die Bildmenge gleich der Definitionsmenge ist. Wir betrachten nun einen Endomorphismus ' eines n-dimensionalen Vektorraums V , n 2 N:  V ! V; 'W v 7! '.v/:

8

250

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Die Darstellungsmatrix des Endomorphismus ' bezüglich einer geordneten Basis A D .a1 ; : : : ; an / bezeichnen wir kurz mit A: A D A M .'/A D .A '.a1 /; : : : ; A '.an // : Die i-te Spalte der Darstellungsmatrix ist der Koordinatenvektor des Bildes des i-ten Basisvektors. Nehmen wir nun an, es gibt zur linearen Abbildung ' eine solche geordnete Basis B D .b1 ; : : : ; bn /, für die gilt:

x2 2

b2 D

1 1

2

1

1

8

B D B M .'/B D .B '.b1 /; : : : ; B '.bn // 1 0 1    0 B: :C D @ :: : : : :: A 0    n weil die Koordinatenvektoren der Bilder der Basisvektoren b1 ; : : : ; bn bezüglich der Basis B eine solche einfache Gestalt haben. Und wir haben weiterhin den Zusammenhang 1 0 1    0 B: :C B D @ :: : : : :: A D S 1 A S 0    n

2

1 b2 D

1

'.b1 / D 1 b1 ; : : : ; '.bn / D n bn mit 1 ; : : : ; n 2 K; d. h., jeder Basisvektor wird auf ein Vielfaches von sich abgebildet. Dann erhalten wir als Darstellungsmatrix von ' bezüglich einer solchen geordneten Basis B die Diagonalmatrix

b1

x1

1 1

2 . Abb. 8.1 Bei einer Spiegelung an der Geraden x2 D x1 wird der Vektor b1 auf 1 b1 und b2 auf 1 b2 abgebildet

Nicht zu jedem Endomorphismus existiert eine solche Basis, bei der jeder Basisvektor auf ein Vielfaches von sich abgebildet wird. Ein einfaches Beispiel für einen solchen nicht diagonalisierbaren Endomorphismus ist eine Drehung um den Ursprung um einen Winkel ˛ 2 .0; /. Beispiel Bei einer Drehung ı˛ um den Ursprung im R2

um einen Winkel ˛ 2 .0; / gibt es keinen vom Nullvektor verschiedenen Vektor, der auf ein Vielfaches von sich selbst abgebildet wird (. Abb. 8.2). Die Darstellungsmatrix dieser Drehung ı˛ bezüglich der Standardbasis E2 erhalten wir einfach durch Angabe der Koordinatenvektoren der Bilder der Basisvektoren: mit der Darstellungsmatrix A von ' bezüglich der Basis A   cos ˛  sin ˛ und : 9 E2 M .ı˛ /E2 D sin ˛ cos ˛ S D A M .id/B D .A b1 ; : : : ; A bn / ; beachte die Transformationsformel für quadratische Matrizen in 7 Abschn. 6.8. Die Matrix A D A M .'/A ist somit zu der Diagonalmatrix B D B M .'/B ähnlich. Die Spiegelung  an der Geraden x2 D x1 (. Abb. 8.1) hat bezüglich der Standardbasis E2 die Darstellungsmatrix   0 1 A D E2 M . /E2 D 1 0     1 1 Für die Elemente b1 D und b2 D gilt: 1 1

?Selbstfrage 8.1 Was ist mit den Winkeln ˛ D 0 und ˛ D ?

x2

Beispiel

 .b1 / D 1 b1

und  .b2 / D 1 b2 ;

d. h., dass für die geordnete Basis B D .b1 ; b2 / gilt:     1 0 0 1 1 DS S B M . /B D 0 1 1 0   1 1 mit S D 9 1 1

˛ ˛

˛

˛

˛

x1

. Abb. 8.2 Jeder Vektor wird um den gleichen Winkel um den Ursprung herum gedreht

251 8.1  Diagonalisierbarkeit

Nicht alle Endomorphismen lassen sich durch eine Diagonalmatrix darstellen, aber jene, für die das möglich ist, nennen wir diagonalisierbare Endomorphismen, genauer:

Diagonalisierbare Endomorphismen Ein Endomorphismus ' W V ! V eines n-dimensionalen Vektorraums, n 2 N, heißt diagonalisierbar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn / von V gibt, bezüglich der die Darstellungsmatrix B M .'/B Diagonalgestalt hat.

Andererseits könnte man einwenden, dass wir die Matrizen nicht extra zu betrachten brauchen und anstelle von der Matrix A nur noch vom Endomorphismus 'A sprechen sollten. Aber tatsächlich hat man es in den Anwendungen fast immer mit Matrizen zu tun, sodass es etwas weltfremd wäre, wenn wir nur noch mit Endomorphismen hantieren würden. Außerdem haben die Begriffe in der Sprache der Matrizen teils ein Eigenleben, wie bereits bei dem einfachen Begriff der Diagonalisierbarkeit oben. Wir werden im Folgenden daher viele Begriffe doppelt einführen, einmal für Endomorphismen, einmal für Matrizen. Die Begriffe für die Endomorphismen benötigen wir mehr für die Theorie, die für die Matrizen für das tatsächliche Rechnen und das Anwenden der Theorie.

Die obige Spiegelung im R2 ist damit ein diagonalisierbarer Endomorphismus, die Drehung im R2 um einen Winkel Beispiel ˛ 2 .0; / dagegen nicht. 4 Jede Diagonalmatrix D ist diagonalisierbar; man wähle S D En .   0 1 4 Die Matrix A D ist diagonalisierbar. Man Eine Matrix heißt diagonalisierbar, wenn sie 1 0   ähnlich zu einer Diagonalmatrix ist 1 1 wähle S D . 9 1 1 In den Aufgaben und Anwendungen zur Diagonalisierbarkeit werden wir seltener Endomorphismen, sondern viel- Nicht jeder Endomorphismus bzw. jede Matrix ist diagonamehr Matrizen diagonalisieren. Dabei nennen wir eine lisierbar (siehe das Beispiel oben zu den Drehungen). Zwei Matrix A 2 Kn n diagonalisierbar, wenn der Endomor- grundlegende Fragen tauchen auf: 4 Welche Endomorphismen bzw. Matrizen sind diagonaphismus lisierbar?  n 4 Wenn der Endomorphismus ' bzw. die Matrix A diagon K !K ; 'A W nalisierbar ist, wie bestimmt man effizient die Basis B v 7! A v mit B M .'/B D D bzw. die Matrix S mit S 1 A S D D, wobei D eine Diagonalmatrix ist? des Kn diagonalisierbar ist, d. h., dass es eine geordnete Ban sis B D .b1 ; : : : ; bn / des K gibt, bezüglich der B M .'A /B Einen ersten Hinweis liefert das folgende Kriterium: Diagonalgestalt hat. Dies können wir nach der Transformationsformel für quadratische Matrizen aus 7 Abschn. 6.8 auch unabhängig vom Endomorphismus 'A formulieren: 1. Kriterium für Diagonalisierbarkeit

Diagonalisierbare Matrizen Eine Matrix A 2 Kn n heißt diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix D ist, d. h., wenn es eine invertierbare Matrix S 2 Kn n gibt, sodass D D S 1 A S eine Diagonalmatrix ist.

Nun könnte man zum einen meinen, dass wir die Endomorphismen unter den Tisch fallen lassen und nur noch von der Diagonalisierbarkeit von Matrizen sprechen könnten. Tatsächlich aber sind die Endomorphismen für die Theorie von großer Bedeutung, vor allem dann, wenn wir zu den nicht diagonalisierbaren Matrizen eine dennoch möglichst einfache Darstellungsmatrix bestimmen werden.

4 Ein Endomorphismus ' W V ! V eines n-dimensionalen Vektorraums V ist genau dann diagonalisierbar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn / von V mit der Eigenschaft '.b1 / D 1 b1 ; : : : ; '.bn / D n bn gibt. In diesem Fall ist D D B M .'/B eine Diagonalmatrix mit den Diagonalelementen 1 ; : : : ; n . 4 Eine Matrix A 2 Kn n ist genau dann diagonalisierbar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn / des Kn mit der Eigenschaft A b1 D 1 b1 ; : : : ; A bn D n bn gibt. In diesem Fall ist die Matrix D D S 1 A S mit S D .b1 ; : : : ; bn / eine Diagonalmatrix mit den Diagonalelementen 1 ; : : : ; n .

8

252

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beweis Es sei ' ein Endomorphismus eines n-dimensio-

Diese Gleichung besagt nalen K-Vektorraums V . Der Endomorphismus ' ist genau dann diagonalisierbar, wenn eine geordnete Basis B D A D S D S 1 ; .b1 ; : : : ; bn / von V existiert mit also gilt für jedes k 2 N: 1 0 0 1 C B :: 1 1 1 A A k D .S D S 1 /k D S B M .'/B D @ : „ DS S DS ƒ‚    S D S … k-mal 0 n D S D k S 1 : Dies ist gleichwertig mit '.b1 / D 1 b1 ; : : : ; '.bn / D n bn :

8

Wir erhalten in diesem Fall die k-te Potenz von A durch Bilden der k-ten Potenz einer Diagonalmatrix und Bilden Für eine Matrix A 2 Kn n folgt die Aussage aus dem ersten des Produkts dreier Matrizen. Teil, indem man den Endomorphismus 'A W Kn ! Kn Diesen Trick wenden wir z. B. bei den Fibonacci-Zahbetrachtet. len an, um eine explizite Formel für die k-te Fibonacci-Zahl Die Aussage D D S 1 A S mit S D .b1 ; : : : ; bn / herzuleiten. Aber dazu müssen wir erst herausfinden, wie steht bereits in der Transformationsformel für quadratische man zu einer nicht diagonalen, aber diagonalisierbaren MaMatrizen.  trix A die auf Diagonalform transformierende Matrix S bestimmt. Dazu dienen Eigenwerte und Eigenvektoren. Kommentar Übrigens folgt aus der Gleichung D D S 1 A S mit einer Diagonalmatrix D D diag.1 ; : : : ; n / und einer invertierbaren Matrix S D .b1 ; : : : ; bn / durch 8.2 Eigenwerte und Eigenvektoren Multiplikation mit S die Gleichung S D D A S , d. h., .1 b1 ; : : : ; n bn / D .A b1 ; : : : ; A bn / ; also A b1 D 1 b1 ; : : : ; A bn D n bn .

Im Mittelpunkt aller bisherigen Überlegungen standen Vektoren v 2 V nf0g, für die '.v/ D  v für ein  2 K gilt. Wir geben diesen Vektoren v wie auch den zugehörigen Körperelementen  Namen.

Beispiel Wie in den bisherigen Beispielen bereits gezeigt,

ist die Matrix   0 1 AD 1 0

Eigenwerte und Eigenvektoren machen nur gemeinsam einen Sinn

diagonalisierbar, die Matrix   cos ˛  sin ˛ BD sin ˛ cos ˛

Wir definieren Eigenwerte und Eigenvektoren gleichzeitig für Endomorphismen und Matrizen.

für ˛ 2 .0; / jedoch nicht. 9

Von diagonalisierbaren Matrizen lassen sich ganz einfach beliebig hohe Potenzen bilden

Eigenwerte und Eigenvektoren 4 Man nennt ein Element  2 K einen Eigenwert eines Endomorphismus ' W V ! V , wenn es einen Vektor v 2 V n f0g mit '.v/ D  v

Eine der wichtigsten Eigenschaften von Diagonalmatrizen ist es, dass man Potenzen davon auf sehr einfache Art und Weise bestimmen kann. Ist A 2 Kn n eine nicht notwendig diagonale, aber diagonalisierbare Matrix, so kann man sich mit einem Trick behelfen, um Potenzen von A zu berechnen. Da A 2 Kn n diagonalisierbar ist, existiert eine invertierbare Matrix S 2 Kn n mit 1 0 1 0 C B :: D D S 1 A S D @ A : 0 n

gibt. Der Vektor v heißt in diesem Fall Eigenvektor von ' zum Eigenwert . 4 Man nennt ein Element  2 K einen Eigenwert der Matrix A 2 Kn n , wenn es einen Vektor v 2 Kn n f0g mit Av D v gibt. Der Vektor v heißt in diesem Fall Eigenvektor von A zum Eigenwert .

253 8.2  Eigenwerte und Eigenvektoren

i Der Nullvektor 0 ist kein Eigenvektor – für keinen Eigenwert. Eine solche Definition wäre auch nicht sinnvoll, da der Nullvektor sonst wegen '.0/ D 0 D  0 für alle  2 K Eigenvektor zu jedem Eigenwert wäre. Es ist jedoch durchaus zugelassen, dass 0 2 K ein Eigenwert ist. Beispiel

dessen einzige 2 ¤ 1 für alle  2 R  Lösung   wegen  v1 0 der Vektor D ist. Weil der Nullvektor aber 0 v2 kein Eigenvektor ist, gibt es keine Eigenvektoren und folglich keine Eigenwerte. 9 ?Selbstfrage 8.2 Welche Eigenwerte und Eigenvektoren hat die Nullmatrix 0 2 Kn n ?

1. Die Einheitsmatrix En 2 Kn n hat den Eigenwert 1, da Mit dem Begriff des Eigenvektors können wir das Kritefür jeden Vektor v 2 Kn gilt: rium für die Diagonalisierbarkeit einer Matrix A kürzer fassen. En v D 1 v : Damit kann En auch keine weiteren Eigenwerte haben, da bereits jeder vom Nullvektor verschiedene Vektor des Kn Eigenvektor 1 ist.  zum Eigenwert  3 1 2 2 2. Die Matrix A D 2C hat wegen 1 1 A

      1 2 1 D D2 1 2 1

  1 den Eigenwert 2 und den Eigenvektor zum Eigen1   1 wert 2. Ebenso ist jedes Vielfache  ,  2 C n f0g, 1 wegen       1 2 1 A D D 2 1 2 1 ein Eigenvektor zum Eigenwert 2. ! 0 1 3. Die Matrix A D hat wegen 2 Z2 2 2 1 0 ! 1 D1 A 1

1 1

!

! 1 den Eigenwert 1 und den Eigenvektor zum Eigen1 wert 1. 4. Nicht jede reelle Matrix besitztEigenwerte. So gibt es 0 1 etwa zur Matrix A D 2 R2 2 keine Eigen1 0 vektoren und damit auch keine Eigenwerte, denn die Gleichung     v1 v1 D A v2 v2 liefert das System v2 D  v1 ;

v1 D  v2 ;

2. Kriterium für Diagonalisierbarkeit 4 Ein Endomorphismus ' W V ! V eines n-dimensionalen Vektorraums V ist genau dann diagonalisierbar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn / von V aus Eigenvektoren von ' gibt. In diesem Fall ist D D B M .'/B eine Diagonalmatrix mit den Eigenwerten 1 ; : : : ; n auf der Diagonalen. 4 Eine Matrix A 2 Kn n ist genau dann diagonalisierbar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn / des Kn aus Eigenvektoren von A gibt. In diesem Fall ist die Matrix D D S 1 A S mit S D .b1 ; : : : ; bn / eine Diagonalmatrix mit den Eigenwerten 1 ; : : : ; n auf der Diagonalen.

Der Eigenraum zu einem Eigenwert besteht aus allen Eigenvektoren plus dem Nullvektor Zu einem Eigenwert  eines Endomorphismus ' W V ! V bzw. einer Matrix A 2 Kn n gehören im Allgemeinen viele verschiedene Eigenvektoren. Ist nämlich v ein Eigenvektor zu , d. h. '.v/ D  v bzw. A v D  v, so gilt für jedes beliebige  2 K n f0g: '. v/ D  '.v/ D   v D  . v/ : bzw. A . v/ D  A v D   v D  . v/ : Somit ist mit einem Eigenvektor v zu  auch jedes vom Nullvektor verschiedene Vielfache  v wieder ein Eigenvektor zu . Sind v und w Eigenvektoren zu dem Eigenwert , so auch deren Summe, falls nur v C w ¤ 0 gilt, da '.v C w/ D '.v/ C '.w/ D  v C  w D  .v C w/

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

254

Bald werden wir klären, wie wir den Eigenraum zu einem Eigenwert  bestimmen können. Zuerst untersuchen wir, wie wir sämtliche Eigenwerte bestimmen können.

x2 '.v/ v

?Selbstfrage 8.3 x1

Unter welchem anderen Namen ist Ihnen Eig' .0/ bzw. EigA .0/ noch bekannt?

v

Zu den bekannten Invertierbarkeitskriterien einer Matrix gesellt sich nun ein weiteres. v/ D

v/

. Abb. 8.3 Ist v ein Eigenvektor, so auch  v, wenn nur  ¤ 0 gilt

vCw

Invertierbarkeitskriterium Eine Matrix A 2 Kn n ist genau dann invertierbar, wenn 0 2 K kein Eigenwert von A ist.

x2

w

8

v x1 '.v/ '.w/ '.v C w/ D '.v/ C '.w/ D v C w/ . Abb. 8.4 Sind v und w Eigenvektoren, so auch deren Summe v C w

Beweis Die Matrix A hat genau dann den Eigenwert 0, wenn das lineare Gleichungssystem .A j 0/ vom Nullvektor verschiedene Lösungen besitzt. Das ist genau dann der Fall, wenn A einen Rang echt kleiner als n hat. Und das ist wiederum gleichwertig damit, dass A nicht invertierbar ist.  Beispiel

4 Es ist 1 der einzige Eigenwert des Endomorphismus idV bzw. der Einheitsmatrix En 2 Kn n , und es gilt: EigidV .1/ D V bzw. EigEn .1/ D Kn :

bzw. A .v C w/ D A v C A w D  v C  w D  .v C w/ : Fassen wir alle Eigenvektoren zu einem Eigenwert  eines Endomorphismus ' bzw. einer Matrix A zusammen und ergänzen diese Menge noch mit dem Nullvektor, so erhalten wir also einen Vektorraum – den sogenannten Eigenraum zum Eigenwert .

  1 0 2 K2 2 hat im 0 2 Fall  D 1 D 2 den Eigenraum

4 Die Diagonalmatrix D D

EigD ./ D K2 und im Fall 1 ¤ 2 die jeweiligen Eigenräume EigD .1 / D

Der Eigenraum zum Eigenwert  Ist  2 K ein Eigenwert des Endomorphismus ' W V ! V bzw. der Matrix A 2 Kn n , so nennt man den Untervektorraum ˚  Eig' ./ D v 2 V j '.v/ D  v

    1 0 und EigD .2 / D : 0 1 

 3 1 2 C 2 2 können wir 1 1 bisher nur folgende Aussage treffen

4 Für die Matrix A D   1  EigA .2/ 1

von V bzw. ˚  EigA ./ D v 2 Kn j A v D  v von Kn den Eigenraum zum Eigenwert .

(man beachte obiges Beispiel). 9 Tatsächlich gilt in dem letzten Beispiel sogar Gleichheit. Wir werden nun Methoden kennenlernen, wie wir dies feststellen können.

255 8.3  Berechnung der Eigenwerte und Eigenvektoren

8.3

Berechnung der Eigenwerte und Eigenvektoren

In diesem Abschnitt zeigen wir, wie man die Eigenwerte, die Eigenräume und damit die Eigenvektoren eines Endomorphismus ' W V ! V bzw. einer Matrix A 2 Kn n systematisch berechnen kann. Dabei behandeln wir zuerst den Fall einer Matrix A 2 Kn n . Die Eigenwerte, Eigenräume und Eigenvektoren eines Endomorphismus ' W V ! V eines endlichdimensionalen K-Vektorraums V erhalten wir, indem wir die Eigenwerte, Eigenräume und Eigenvektoren einer den Endomorphismus darstellenden Matrix bezüglich irgendeiner geordneten Basis B von V bestimmen. Wir werden sehen, dass es dabei egal ist, welche Basis man wählt. Das wesentliche Hilfsmittel für die Bestimmung der Eigenwerte einer Matrix ist das charakteristische Polynom, das wir mithilfe der Determinante erklären werden.

Die Eigenwerte sind die Nullstellen des charakteristischen Polynoms

ein Polynom in der Unbestimmten X über dem Körper K, d. h., det.A  X En / 2 KŒX, und die Nullstellen dieses Polynoms sind die Eigenwerte.

Das charakteristische Polynom einer Matrix Das Polynom A D det.A  X En / D .1/n X n C cn1 X n1 C    C c1 X C c0 2 KŒX vom Grad n heißt charakteristisches Polynom der Matrix A 2 Kn n . Es gilt:  2 K ist ein Eigenwert von A , A ./ D 0 : Die Matrix A hat höchstens n Eigenwerte.

Die letzte Behauptung ist klar, da A als Polynom vom Grad n über einem Körper K nicht mehr als n Nullstellen haben kann.

Wir zeigen nun, dass  2 K genau dann ein Eigenwert einer Kommentar In anderen Büchern findet man auch die DefiMatrix A 2 Kn n ist, wenn det.A   En / D 0 gilt: nition  ist ein EW von A , , , ,

A v D  v; v ¤ 0 A v   v D 0; v ¤ 0 .A  En / v D 0; v ¤ 0 det.A  En / D 0 :

Für diese letzte Äquivalenz beachte man das Invertierbarkeitskriterium im 7 Abschn. 7.3. Um also die Eigenwerte einer Matrix A zu bestimmen, können wir den Ansatz det.A  X En / D 0 in der Unbestimmten X machen. Man beachte, dass die Komponenten der Matrix A  X En Elemente des kommutativen Polynomrings KŒX sind, d. h. A  X En 2 KŒXn n : Somit ist die Determinante ˇ ˇ a12 ::: a1n ˇ ˇa11  X ˇ ˇ :: ˇ ˇ ˇ ˇ a21 a22  X : ˇ ˇ det.A  X En / D ˇ ˇ :: :: ˇ ˇ : : ˇ ˇ ˇ a ::: ann  X ˇ n1

A D det.X En  A/ : Wegen det.X En  A/ D .1/n det.A  X En / ist das für ungerades n zwar im Allgemeinen nicht das gleiche Polynom, aber die Nullstellen, also die Eigenwerte, sind die gleichen. Es folgen nun Beispiele für das Berechnen der Eigenwerte einer Matrix A 2 Kn n . Man berechnet hierzu das charakteristische Polynom A und ermittelt dessen Nullstellen – dies sind die Eigenwerte von A. Beispiel

4 Wir berechnen die Eigenwerte der Matrix ! 3 4 AD 2 Z2 2 5 : 1 1 Es gilt: ˇ ˇ3  X ˇ A D det.A  X E2 / D ˇ ˇ 1

ˇ 4 ˇˇ ˇ 1  Xˇ

D .3  X/.1  X/ C 1 D .2  X/2 : Da 2 die einzige Nullstelle des charakteristischen Polynoms von A ist, ist 2 der einzige Eigenwert von A.

8

256

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

4 Wir berechnen die Eigenwerte der Matrix 0

1 1 2 2 A D @2 2 1 A 2 R3 3 : 2 1 2 Zuerst bestimmen wir wieder das charakteristische Polynom, indem wir nach der ersten Zeile entwickeln. ˇ ˇ ˇ1  X 2 2 ˇ ˇ ˇ 2  X 1 ˇˇ A D det.A  X E3 / D ˇˇ 2 ˇ 2 1 2  X ˇ ˇ ˇ ˇ2  X 1 ˇˇ D .1  X / ˇˇ 1 2  X ˇ ˇ ˇ ˇ ˇ ˇ2 ˇ2 2  X ˇ 1 ˇˇ ˇ ˇ ˇ C .2/ ˇ C2ˇ 2 2  X ˇ 2 1 ˇ

8

D X 3  3 X 2 C 9 X C 27 D .3  X/ .3  X/2 :

etwa eine obere Dreiecksmatrix, so sind wegen D D .11  X/ .22  X/    .nn  X/ gerade die Diagonalelemente von D die Eigenwerte von D. Das gilt analog für untere Dreiecksmatrizen. 9

Die Summe der Hauptdiagonalelemente einer Matrix ist die Spur der Matrix Insgesamt drei Koeffizienten des charakteristischen Polynoms A lassen sich mithilfe von Größen der Matrix A genau angeben, es gilt nämlich: Lemma Für jede Matrix A D .aij / 2 Kn n gilt:

A D .1/n X n C .1/n1 Sp A X n1 C    C det.A/ ;

Da 3 und 3 die einzigen Nullstellen des charakteristischen Polynoms von A sind, sind 3 und 3 auch die wobei Sp A D a11 C    C ann die Spur von A bezeichnet. einzigen Eigenwerte von A. 4 Wir berechnen die Eigenwerte der Matrix Beweis Wir berechnen das charakteristische Polynom A , d. h. die Determinante der Matrix .bij / D A  X En mit 0 1 3 1 0 0 0 der Leibniz’schen Formel: B1 1 0 0 0C B C B C 2 R5 5 : 3 1 2 1 1 ADB A D det.A  X E/ C @2 1 0 2 1 A n X Y 1 1 0 0 2 sgn. / bi  .i / D  2Sn

Zum Berechnen des charakteristischen Polynoms nutzen wir aus, dass die Matrix eine Blockdreiecksmatrix ist: A D det.A  X E3 / ˇ ˇ ˇ 3  X 1 0 0 0 ˇ ˇ ˇ ˇ 1 1  X 0 0 0 ˇ ˇ ˇ 1 2  X 1 1 ˇˇ D ˇˇ 3 ˇ 2 1 0 2  X 1 ˇˇ ˇ ˇ 1 1 0 0 2  X ˇ ˇ ˇ ˇ ˇ ˇ 2  X 1 1 ˇ ˇ 3  X ˇˇ ˇ 1 ˇˇ 0 2  X 1 ˇˇ D ˇˇ ˇ ˇ 1 1  X ˇ 0 0 2  X ˇ D .2  X/ : 5

D sgn.id/

i D1 n Y

bi

id.i /

i D1 n Y D .ai i  X/ C i D1

X

C

sgn. /

sgn. /

 2Sn nfidg

bi  .i /

i D1

 2Sn nfidg

X

n Y

n Y

bi  .i / :

i D1

Wir betrachten diese beiden Terme näher, dabei interessieren uns nur die Koeffizienten vor X n und X n1 . Der erste Term hat die Form n Y

.ai i  X/

i D1

D .1/n X n C .1/n1 .a11 C    C ann /X n1 C Polynome vom Grad kleinergleich n  2 :

Der einzige Eigenwert von A ist also 2. 4 Besonders einfach ist die Bestimmung der Eigenwerte Die Summanden des zweiten Terms von Dreiecks- bzw. Diagonalmatrizen. Ist nämlich n Y X sgn. / bi  .i / 0 1 11 : : : i D1  2Sn nfidg :: C B : B 0 22 : : : C B C 2 Kn n DDB : haben die Form C :: :: @ :: : : A 0 : : : 0 nn ˙ b1  .1/    bn  .n/ :

257 8.3  Berechnung der Eigenwerte und Eigenvektoren

Für  ¤ id sind dies aber alles Polynome vom Grad kleinergleich n  2. Man beachte: nur die Faktoren bi i D ai i  X liefern Beiträge zu den Graden der Summanden, und falls bi  .i / D bi i bereits .n  1/-mal in einem Summanden auftaucht, so gilt bi  .i / D bi i schon n-mal, d. h.,  D id, da  eine Permutation ist. Damit sind die beiden höchsten Koeffizienten des Polynoms A bereits bestimmt. Für den konstanten Koeffizienten c0 des charakteristischen Polynoms gilt: c0 D A .0/ D det.A  0 En / D det.A/ ;

Das charakteristische Polynom eines Endomorphismus ist das charakteristische Polynom einer Darstellungsmatrix Es sei ' W V ! V ein Endomorphismus eines n-dimensionalen Vektorraums V mit einer geordneten Basis B D .b1 ; : : : ; bn /. Unter dem charakteristischen Polynom des Endomorphismus ' von ' versteht man das charakteristische Polynom der Darstellungsmatrix A D B M .'/B : ' D A D det.A  X En / :

d. h., dass der konstante Koeffizient von A die DetermiDamit diese Definition sinnvoll ist, muss noch gezeigt wernante von A ist.  den, dass die Wahl der Basis B keine Rolle spielt; anders formuliert: Wählt man irgendwelche Basen B und C von Für die restlichen Koeffizienten des charakteristischen PoV , so müssen die charakteristischen Polynome lynoms lassen sich keine solch prägnanten Formeln angeben. B M .'/B D det.B M .'/B  X En / und Die Spur einer (quadratischen) Matrix A, das ist die  C M .'/C D det.C M .'/C  X En / Summe a11 C    C ann der Hauptdiagonalelemente von n n A D .aij / 2 K , hat wichtige Eigenschaften. So gilt etwa Sp A D Sp S 1 A S für jede invertierbare Matrix S , gleich sein. Da je zwei Darstellungsmatrizen A und B ein und desselben Endomorphismus zueinander ähnliche Dard. h.: stellungsmatrizen haben, d. h., da Lemma

Zueinander ähnliche Matrizen haben dieselbe

B D S 1 A S

Spur. Es seien A und B zueinander ähnliche n n-Matrizen über einem Körper K, d. h.,

Beweis

S 1 A S D B

mit einer invertierbaren Matrix S gilt, reicht es dazu aus, folgendes Lemma zu beweisen: Lemma Zueinander ähnliche Matrizen haben dasselbe charakteristische Polynom.

für eine invertierbare Matrix S 2 Kn n . Wir zeigen zuerst Beweis Die zwei n n-Matrizen A und B mit Einträgen aus einem Körper K seien zueinander ähnlich; d. h., es gelte für beliebige n n-Matrizen M ; N die Formel B D S 1 A S für eine invertierbare Matrix S 2 Kn n . Nun berechnen wir das charakteristische Polynom von B, wobei Sp.M N / D Sp.N M / : wir S 1 S D En und den Determinantenmultiplikationssatz benutzen. Für die Matrizen M D .mij / und N D .nij / gilt: B D det.B  X En / D det.S 1 A S  X S 1 S / 0 1 ! n n n n X X X X D det.S 1 / det.A  X En / det.S / @ A Sp.M N / D mij nj i D nj i mij D det.S 1 / det.S / det.A  X En / i D1 j D1 j D1 i D1 D det.A  X En / D A : D Sp.N M / : Nun folgt mit M D S 1 und N D A S : Sp B D Sp S 1 A S D Sp A S S 1 D Sp A :

Damit ist gezeigt, dass die charakteristischen Polynome ähnlicher Matrizen übereinstimmen. 

Übrigens folgt aus diesem Lemma erneut, dass zueinander ähnliche Matrizen dieselbe Spur und dieselbe Determinante haben. Wir erläutern das ausführlich: Sind A und B Das ist die Behauptung.  ähnliche n n-Matrizen, so gilt für die charakteristischen Ähnliche Matrizen A und B haben viel gemeinsam. Wir Polynome A und B nach dem eben bewiesenen Lemma stellen ihre wesentlichen gemeinsamen Eigenschaften in eiA D B : ner Übersicht in diesem Kapitel zusammen.

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

258

Ist  ein Eigenwert der quadratischen Matrix A, so gibt es einen Vektor v 2 Kn , v ¤ 0 mit A v D  v. Also ist die A D .1/n X n C .1/n1 Sp A X n1 C    C det.A/ ; Dimension des Eigenraums EigA ./ mindestens 1.

Wegen

B D .1/n X n C .1/n1 Sp B X n1 C    C det.B/ : liefert ein Koeffizientenvergleich nun Sp A D Sp B

und

det.A/ D det.B/ :

?Selbstfrage 8.4 Wie lautet das System .A   En / x D 0

Da die Nullstellen des charakteristischen Polynoms A die Eigenwerte von A sind, erhalten wir außerdem:

in den Fällen A D En bzw. A D 0 für die entsprechenden Eigenwerte der Einheits- bzw. Nullmatrix, und was sind die entsprechenden Eigenräume?

Folgerung Zueinander ähnliche Matrizen haben dieselben Eigenwerte.

Wir bestimmen für die Beispiele weiter oben die jeweiligen Eigenräume. Beispiel

8

4 Wir berechnen die Eigenräume der Matrix Den Eigenraum und damit die ! Eigenvektoren erhält man durch Lösen eines 3 4 AD 2 Z2 2 homogenen linearen Gleichungssystems 5 : 1 1 Hat eine Matrix A nicht gerade Dreiecks- oder Diagonalgestalt, so bestimmt man im Allgemeinen die Eigenwerte von A systematisch durch Berechnen der Nullstellen des charakteristischen Polynoms A von A. Wir gehen nun einen Schritt weiter und erklären, wie wir die Eigenräume und damit die Eigenvektoren zu den Eigenwerten von A bestimmen können. Ist  2 K ein Eigenwert der Matrix A 2 Kn n , so besteht der Eigenraum aus dem Nullvektor und aus allen Eigenvektoren zum Eigenwert , und es gilt: ˚  EigA ./ D v 2 Kn j A v D  v  ˚ D v 2 Kn j .A   En / v D 0 : Also erhält man den Eigenraum EigA ./ zum Eigenwert  durch Lösen des homogenen linearen Gleichungssystems

Wegen A D .2  X/2 hat A den einzigen Eigenwert 2. Den Eigenraum EigA .2/ von A zum Eigenwert 2 erhalten wir also als Lösungsmenge des homogenen Systems ! 32 4 0 .A  2 En / v D 0 ; d. h. 1 12 0 Durch eine Zeilenumformung erhalten wir ! ! 1 4 0 1 4 0 ! : 1 4 0 0 0 0 Damit erhalten wir den Eigenraum zum Eigenwert 2: * !+ 1 EigA .2/ D : 1

.A   En / x D 0 :

4 Wir bestimmen die Eigenräume der Matrix 0 1 1 2 2 Die Lösungsmenge dieses Systems ist der Eigenraum des Eigenwertes , und jeder vom Nullvektor verschiedene A D @2 2 1 A 2 C 3 3 : Vektor dieses Eigenraums ist ein Eigenvektor zu dem Ei2 1 2 genwert . Wegen A D .3  X/ .3  X/2 hat A die beiden verschiedenen Eigenwerte 3 und 3. Wir berechnen zuerst den Eigenraum EigA .3/ von A Bestimmung des Eigenraums zum Eigenwert  zum Eigenwert 3. Wir erhalten ihn als Lösungsmenge Ist  ein Eigenwert von A, so ist die Lösungsmenge des des homogenen Systems homogenen linearen Gleichungssystems .A   En / x D 0 der Eigenraum zum Eigenwert .

.A  3 En / v D 0 ; d. h. 1 0 0 13 2 2 @ 2 0A 2  3 1 2 1 2  3 0

8

259 8.3  Berechnung der Eigenwerte und Eigenvektoren

Durch Zeilenumformungen erhalten wir

Durch Zeilenumformungen erhalten wir

0 2 @2 2

0

1 1 0 2 2 0 1 1 1 0 5 1 0A ! @ 0 3 3 0A 1 5 0 0 3 3 0 1 0 1 0 2 0 ! @0 1 1 0A 0 0 0 0

1 B1 B B3 B @2 1

1 1 1 1 1

0 0 0 0 0

0 0 1 0 0

0 0 1 1 0

1 0 0 1 B0 0C C B B 0C C ! B3 A @2 0 0 0

1 0 1 1 0

0 0 0 0 0

0 0 1 0 0

0 0 1 1 0

1 0 0C C 0C C 0A 0

Also ist der Eigenraum Also erhalten wir als Eigenraum *021+ EigA .3/ D @1A : 1

0 1 0 1 1 0 *B1C B0C+ B C B C C B C EigA .2/ D B B1C ; B1C : 9 @1A @0A 1 0

Nun berechnen wir noch den Eigenraum EigA .3/ von A zum Eigenwert 3. Wir erhalten ihn als LösungsWenn  2 K ein Eigenwert der Matrix A 2 Kn n ist, so menge des homogenen Systems hat das Gleichungssystem .AC3 En / v D 0 ; d. h. 1 0 0 1C3 2 2 @ 2 0A 2C3 1 2 1 2C3 0 Durch Zeilenumformungen erhalten wir 1 0 1 0 2 1 1 0 4 2 2 0 @2 1 1 0A ! @0 0 0 0A 2 1 1 0 0 0 0 0 Also gilt für den Eigenraum: *011

0

1 1 + EigA .3/ D @ 0 A ; @ 2 A : 2 0 4 Wir berechnen die Eigenräume der Matrix 1 3 1 0 0 0 B1 1 0 0 0C C B C 2 C 5 5 : 3 1 2 1 1 ADB C B @2 1 0 2 1 A 1 1 0 0 2 0

.A   En / x D 0 vom Nullvektor verschiedene Lösungen, da ja gerade die Eigenwerte jene Elemente sind, für welche der Rang der Matrix A   En echt kleiner als n ist. Dies kann zur Kontrolle der Rechnung benutzt werden, da die Berechnung des Kerns von A   En stark anfällig für Rechenfehler ist. Erhält man nach einer Rechnung als Eigenraum den Nullraum, so hat man sich zwangsläufig verrechnet. Es ist auch leicht, seine Ergebnisse zu überprüfen. Erhält man EigA ./ D hb1 ; : : : ; br i, so überprüfe man, ob die Gleichungen A bi D  bi für alle i D 1; : : : ; r erfüllt sind. Dies kann man oft im Kopf nachrechnen. ?Selbstfrage 8.5 Prüfen Sie die Gleichungen A bi D  bi für einige i D 1; : : : ; r und EigA ./ D hb1 ; : : : ; br i in den eben aufgeführten Beispielen nach.

Den Eigenraum eines Endomorphismus – und damit die Eigenvektoren – erhält man mit dem Eigenraum Wegen A D .2  X/5 ist 2 der einzige Eigenwert einer Darstellungsmatrix

von A. Den Eigenraum EigA .2/ von A zum Eigenwert 2 erhalten wir als Lösungsmenge des homogenen Systems Ist ' W V ! V ein Endomorphismus des n-dimensionalen Vektorraums V mit der geordneten Basis B D .A C 2 E5 / v D 0 ; d. h. .b1 ; : : : ; bn /, so erhält man die Eigenwerte von ' als die 1 Nullstellen des charakteristischen Polynoms der Darstel0 0 3 C 2 1 0 0 0 B 1 0C lungsmatrix B M .'/B , die wir einfacher mit A bezeichnen, 1 C 2 0 0 0 C A D M .'/ : B B 3 B B 0C 1 2 C 2 1 1 C B A @ 2 0 1 0 2 C 2 1 ' D det.A  X En / : 1 1 0 0 2 C 2 0

260

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Es seien 1 ; : : : ; r 2 K die verschiedenen Eigenwerte von '. Nun berechnen wir die Eigenräume und damit die Eigenvektoren der Matrix A:

?Selbstfrage 8.6 Prüfen Sie nach, dass die angegeben Vektoren tatsächlich Eigenvektoren von ' sind.

.1/

EigA .1 / D hb1 ; : : : ; b.1/ s1 i ; :: :

Komplexe Eigenwerte und Eigenvektoren reeller Matrizen treten paarweise auf

.r/

EigA .r / D hb1 ; : : : ; b.r/ sr i :

8

Damit haben wir die Eigenvektoren der Darstellungsmatrix Es ist oftmals mühsam und langwierig, die Eigenwerte und A D B M .'/B des Endomorphismus ' W V ! V be- Eigenräume einer Matrix zu bestimmen. Gerne greift man .i / daher auf jeden Trick zurück, durch den man die Rechnunstimmt, d. h. Vektoren bj 2 Kn mit gen vereinfachen oder abkürzen kann. Einen solchen Trick .i / .i / gibt es bei komplexen Matrizen mit reellen Komponenten, B M .'/B bj D i bj : d. h. bei den Matrizen der Form Gesucht sind aber die Eigenvektoren des Endomorphismus '. Aber die findet man nun einfach wie folgt: Wir A D .aij / 2 C n n mit aij 2 R : .i / interpretieren die oben erhaltenen Eigenvektoren bj der Darstellungsmatrix A D B M .'/B als die Koordinatenvek- Zur Bestimmung der komplexen Eigenwerte und komple.i / .i / toren bj D B bj der Eigenvektoren von ' bezüglich der xen Eigenvektoren einer solchen Matrix A ist das folgende Ergebnis nützlich. Basis B, damit gilt dann: .i / B M .'/B B bj

.i /

D i B bj :

Lemma Für jede Matrix A 2 C n n mit reellen Komponen-

Beispiel Die Darstellungsmatrix des Endomorphismus ' W

R2 2 ! R2 2 ,



1 1 '.X / D M X  X M mit M D 1 1



bezüglich der geordneten kanonischen Basis E .E11 ; E12 ; E21 ; E22 / von R2 2 ist 0 1 0 1 1 0 B1 0 0 1C C A D E M .'/E D B @1 0 0 1A 0 1 1 0 Die Eigenwerte dieser Matrix A sind

Beweis Das charakteristische Polynom A einer Matrix A mit reellen Komponenten hat nur reelle Koeffizienten a0 ; : : : ; an , wie man der Leibniz’schen Formel für die Determinante entnimmt, d. h.:

A D a0 C a1 X C : : : C an X n 2 RŒX : Ist  2 C ein Eigenwert von A, so gilt A ./ D 0. Wegen

1 D 0; 2 D 2; 3 D 2 : Als Eigenräume erhalten wir 0 1 0 1 0 1 0 + * 1 + * 1 B0 C B1 C B C B C ; B C ; B1C ; @0 A @1 A @1A 1 1 0 ƒ‚ … „ ƒ‚ … „

D

ten aij gilt: (i) Ist  2 C ein Eigenwert von A, so ist auch  ein Eigenwert von A. (ii) Ist v D .vj / 2 C n ein Eigenvektor von A zum Eigenwert , so ist v D .vj / ein Eigenvektor von A zum Eigenwert .

0 D 0 D A ./ D a0 C a1  C : : : C an n n

0

D a 0 C a1  C : : : C a n 

1

1 + B1C B C : @1A 1 „ ƒ‚ … *

n

D a0 C a1  C : : : C an  D A ./

ist auch das konjugiert Komplexe  eine Nullstelle von A , also auch ein Eigenwert von A. Ist v D .vj / 2 C n ein Eigenvektor von A D .aij / zum Wir betrachten diese die Eigenräume erzeugenden Spaltenvektoren als Koordinatenvektoren von 2 2-Matrizen Eigenwert , so gilt A v D  v. Da die Komponenten aij bezüglich der Basis E, damit erhalten wir die Eigenräume von A reell sind, gilt: von ': 1 1 0Pn 0Pn         j D1 a1j vj j D1 a1j vj 1 1 1 1 1 0 0 1 C C B B :: :: C: ; ; : 9 ; .aij / .vj / D @ ADB : : 1 1 1 1 1 0 0 1 @ A P P n ƒ‚ … „ ƒ‚ … „ ƒ‚ … „ n a v j D1 nj j j D1 anj vj DEig .0/ DEig .2/ DEig .2/ DEigA .0/

'

DEigA .2/

'

DEigA .2/

'

261 8.4  Algebraische und geometrische Vielfachheit

mit 1 ; : : : ; r 2 K folgt durch 4 Multiplikation der Gleichung (8.1) mit der Matrix A:

Damit gilt A v D A v und daher Av D Av D v D v: Somit ist der komplexe Vektor v ein Eigenvektor zum Eigenwert .  ? Selbstfrage 8.7 Bestimmen Sie die komplexen ! Eigenwerte und Eigenvek0 1 toren der Matrix . 1 0

8.4

Algebraische und geometrische Vielfachheit

0 D A 0 D A .1 v1 C    C r vr / D 1 A v 1 C    C r A v r D 1 1 v1 C    C r r vr und durch 4 Multiplikation der Gleichung (8.1) mit dem Eigenwert r : 0 D r 0 D r .1 v1 C    C r vr / D 1 r v1 C    C r r vr : Durch Gleichsetzen erhalten wir 1 1 v1 C    C r r vr D 1 r v1 C    C r r vr :

Im Folgenden formulieren wir alle Aussagen für Matrizen. Die entsprechenden Aussagen für Endomorphismen endlichdimensionaler Vektorräume erhält man dann durch Übergang zu Darstellungsmatrizen von Endomorphismen. Wir haben bereits gezeigt, dass eine Matrix A 2 Kn n genau dann diagonalisierbar ist, wenn es eine Basis des Kn aus Eigenvektoren von A gibt. Wir wollen nun ein Kriterium dafür herleiten, wann eine solche Basis aus Eigenvektoren von A existiert. Dazu ordnen wir jedem Eigenwert  einer Matrix A zwei natürliche Zahlen zu, zum einen die algebraische Vielfachheit, zum anderen die geometrische Vielfachheit. Der Fall, dass diese beiden Zahlen für jeden Eigenwert  von A übereinstimmen, liefert die wesentliche Aussage für die Existenz einer Basis des Kn aus Eigenvektoren von A. Dass wir dabei die Eigenwerte einzeln, also unabhängig voneinander betrachten dürfen, liegt an den folgenden Ausführungen.

Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig

.r  1 / 1 v1 C    C .r  r1 / r1 vr1 D 0 : Nach Induktionsvoraussetzung sind die Vektoren v1 ; : : : ; vr1 linear unabhängig, sodass wegen r  i ¤ 0 für alle i D 1; : : : ; r  1 die Koeffizienten 1 ; : : : ; r1 allesamt null sind: 1 D    D r1 D 0 : Aus der Gleichung (8.1) folgt nun r D 0, da vr ¤ 0 gilt. Damit ist bewiesen:

Lineare Unabhängigkeit von Eigenvektoren Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig.

?Selbstfrage 8.8 Welche Konsequenz hat dieses Ergebnis für eine Matrix A 2 Kn n mit n verschiedenen Eigenwerten?

Es seien v1 ; : : : ; vr Eigenvektoren zu verschiedenen Eigenwerten 1 ; : : : ; r einer Matrix A 2 Kn n : A v1 D 1 v1 ; : : : ; A vr D r vr : Wir zeigen mit vollständiger Induktion nach der natürlichen Zahl r, dass die Vektoren v1 ; : : : ; vr linear unabhängig sind. Induktionsanfang: Die Behauptung ist korrekt, da v1 ¤ 0 linear unabhängig ist. Induktionsvoraussetzung: Die Behauptung sei für r  1 Eigenvektoren zu verschiedenen Eigenwerten 1 ; : : : ; r1 korrekt. Induktionsschritt: Es seien v1 ; : : : ; vr Eigenvektoren zu verschiedenen Eigenwerten 1 ; : : : ; r . Aus der Gleichung 1 v 1 C    C r v r D 0

Es gilt somit:

Die algebraische Vielfachheit eines Eigenwerts  ist die Vielfachheit der Nullstelle  im charakteristischen Polynom Wir zerlegen das charakteristische Polynom A einer Matrix A 2 Kn n soweit wie möglich in Linearfaktoren .i  X/, wobei wir gleiche Linearfaktoren unter Exponenten ki sammeln: A D .1  X/k1    .r  X/kr p 2 KŒX :

Dabei ist p 2 KŒX der nicht weiter durch Linearfaktoren teilbare Anteil des Polynoms A . Das bedeutet, dass p keine weiteren Nullstellen in K hat. Die Nullstellen 1 ; : : : ; r (8.1) von  sind die Eigenwerte von A. A

8

262

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Man nennt die Vielfachheit k der Nullstelle  im cha- Polynom eine Nullstelle in C hat. Damit können wir für jerakteristischen Polynom A die algebraische Vielfachheit de komplexe n n-Matrix A mit dem charakteristischen des Eigenwerts , und man sagt auch  ist ein k-facher Ei- Polynom A 2 CŒX folgern: genwert der Matrix A. Für die algebraische Vielfachheit k des Eigenwerts  benutzen wir auch die Schreibweise ma ./, der Buchstabe m steht dabei für multiplicity. Zur Anzahl der Eigenwerte komplexer Matrizen Es ist manchmal nützlich, die Eigenwerte mit ihren entJede komplexe n n-Matrix A 2 C n n , n 2 N, hat n sprechenden algebraischen Vielfachheiten zu zählen, d. h., nicht notwendig verschiedene Eigenwerte. man fasst einen k-fachen Eigenwert , k  2, auch auf als k (nicht verschiedene) Eigenwerte. Beispiel

4 Ist A D X 4  2 X 3 C 2 X 2  2 X C 1 2 RŒX, so gilt: A D .1  X/2 .1 C X 2 /

8

Die geometrische Vielfachheit ist stets kleiner oder gleich der algebraischen Vielfachheit

mit p D X 2 C 1. Die Matrix A hat also den einzigen Eigenwert 1 der algebraischen Vielfachheit 2 oder kürzer: Die Matrix A hat den zweifachen Eigenwert 1 oder ma .1/ D 2. 4 Ist A D X 4  2 X 3 C 2 X 2  2 X C 1 2 CŒX, so gilt:

Die algebraische Vielfachheit eines Eigenwerts  ist die Vielfachheit der Nullstelle  im charakteristischen Polynom A . Es gilt ein enger Zusammenhang zwischen der algebraischen und der geometrischen Vielfachheit. Unter der geometrischen Vielfachheit des Eigenwerts A D .1  X/2 .i C X/ .i C X/ :  einer Matrix A versteht man die Dimension des Eigenraums EigA ./, also dim EigA ./, wir schreiben mg ./ für In diesem Fall hat die Matrix A den zweifachen Eigen- die geometrische Vielfachheit. wert 1 und die jeweils einfachen Eigenwerte i und i, Das kann man sich einfach merken: Geometrie spielt d. h., ma .1/ D 2; ma .i/ D 1; ma .i/ D 1. sich in Räumen ab, daher ist es klar, den Dimensionsbegriff 4 Ist A D X 2 C 1 2 Z2 ŒX, so gilt: mit der geometrischen Vielfachheit zu verknüpfen. Die Algebra beschäftigt sich mit dem Auflösen von Polynomen, A D .1 C X/2 : daher wird man den Exponenten eines Linearfaktors eines In diesem Fall hat die Matrix A den zweifachen Eigen- Polynoms mit der algebraischen Vielfachheit bezeichnen. Der Zusammenhang zwischen geometrischer und algewert 1. 9 braischer Vielfachheit eines Eigenwerts ist folgender: ? Selbstfrage 8.9 Welche algebraischen Vielfachheiten haben die Eigenwerte der komplexen Matrix A mit dem charakteristischen Polynom A D .1  X/2 .3 C X/4 .X 2 C X C 1/ 2 CŒX ‹

Geometrische und algebraische Vielfachheit Ist  ein Eigenwert der Matrix A, so ist die geometrische Vielfachheit von  zwar größer gleich 1, aber stets kleiner oder gleich der algebraischen Vielfachheit von , d. h.,

Ist ein Polynom vollständig zerlegbar, d. h., ist der weiter 1  mg ./  ma ./ : nicht zerlegbare Faktor p ein Polynom vom Grad 0, so ist die folgende suggestive Sprechweise üblich: Wir sagen, das charakteristische Polynom A einer n n-Matrix A 2 Kn n Beweis Es sei  2 K ein Eigenwert der Matrix A 2 Kn n vom Grad n zerfällt über K in Linearfaktoren, falls mit der algebraischen Vielfachheit ma ./ und der geomek1 kr trischen Vielfachheit r D mg ./. Wir wählen eine Basis A D .1  X/    .r  X/ fv1 ; : : : ; vr g des Eigenraums EigA ./ der Dimension r D mit verschiedenen 1 ; : : : ; r 2 K gilt. mg ./ und ergänzen diese durch Vektoren vrC1 ; : : : ; vn zu In dieser Situation gilt für die Summe der Exponenten einer Basis B des Vektorraums Kn . Die Darstellungsmak1 C  Ckr D n. Die Matrix A hat dann die verschiedenen trix B M .'A /B der linearen Abbildung 'A W Kn ! Kn , Eigenwerte 1 ; : : : ; r mit den jeweiligen algebraischen v 7! A v bezüglich dieser Basis B hat die Form Vielfachheiten k1 ; : : : ; kr , insgesamt also n nicht notwen0 1  0 dig verschiedene Eigenwerte, die genau dann verschieden B C :: sind, wenn n D r gilt. BC B : C B M .'A /B D B Im Fall K D C zerfällt für jede Matrix A 2 C n n @0 A  das Polynom A in Linearfaktoren, da wegen des Funda0 C mentalsatzes der Algebra jedes nicht konstante komplexe

263 8.4  Algebraische und geometrische Vielfachheit

mit passenden Matrizen B 2 Kr .nr/ , C 2 K.nr/ .nr/ Zerfällt A , und ist die algebraische und 0 2 K.nr/ r . Vielfachheit für jeden Eigenwert gleich der Da zueinander ähnliche Matrizen das gleiche charakte- geometrischen, so ist A diagonalisierbar ristische Polynom haben gilt wegen der Blockdreiecksgestalt der Matrix B M .'A /B : Wir nehmen an, dass das charakteristische Polynom A eiA D B M .'A /B D .  X/r C : ner Matrix A 2 Kn n über K in Linearfaktoren zerfällt, Somit ist die algebraische Vielfachheit m ./ mindestens d. h., a

r; mindestens deswegen, da evtl. C noch durch   X teilbar ist.  Der Extremfall, nämlich dann wenn bei der zweiten Ungleichung Gleichheit anstelle von kleiner oder gleich gilt, d. h., mg ./ D ma ./, liefert das wesentliche Kriterium für die Existenz einer Basis des Kn , bestehend aus Eigenvektoren einer Matrix A 2 Kn n . Bevor wir dieses Kriterium formulieren, halten wir noch ein Ergebnis für zueinander ähnliche Matrizen fest. Wie wir bereits wissen, haben zueinander ähnliche Matrizen das gleiche charakterisitsche Polynom und damit auch die gleichen Eigenwerte. Es gilt noch mehr: Lemma Die Eigenwerte zueinander ähnlicher Matrizen haben die gleichen algebraischen und geometrischen Vielfachheiten.

A D .1  X/k1    .r  X/kr mit verschiedenen 1 ; : : : ; r 2 K. Es sind 1 ; : : : ; r die Eigenwerte von A mit den jeweiligen algebraischen Vielfachheiten k1 ; : : : ; kr , wobei k1 C    C kr D n. Ist nun für jeden der Eigenwerte 1 ; : : : ; r die geometrische Vielfachheit gleich der algebraischen, so ist die Summe der Dimensionen der Eigenräume gerade die Dimension des Vektorraums Kn . Weil Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind (siehe den Satz zur linearen Unabhängigkeit von Eigenvektoren, erhalten wir in dieser Situation die Existenz einer Basis B des Kn ), die aus Eigenvektoren v1 ; : : : ; vn der Matrix A besteht. Dabei trägt jeder Eigenraum genauso viele linear unabhängige Vektoren zu dieser Basis bei, wie die algebraische Vielfachheit dieses Eigenwerts angibt.

Beweis Die Matrizen A und B aus Kn n seien zueinander

ähnlich, es gelte S 1 A S D B mit der invertierbaren Matrix S . Die charakteristischen Polynome A und B dieser beiden Matrizen stimmen nach obiger Bemerkung überein. Wir zerlegen das Polynom A D B soweit wie möglich in verschiedene Linearfaktoren A D .X  1 /ki    .X  r /kr p D B mit einem weiter nicht über K in Linearfaktoren zerfallenden Polynom p 2 KŒX. Hieraus folgt bereits die Behauptung für die algebraischen Vielfachheiten ki . Wir begründen, dass auch die geometrischen Vielfachheiten übereinstimmen, d. h., dass B mA g .i / D dim EigA .i / D dim EigB .i / D mg .i /

3. Kriterium für Diagonalisierbarkeit Eine Matrix A 2 Kn n ist genau dann diagonalisierbar, wenn 4 das charakteristische Polynom A in Linearfaktoren zerfällt: A D .1  X/ma .1 /    .r  X/ma .r / ; und 4 für jeden Eigenwert die algebraische Vielfachheit gleich der geometrischen Vielfachheit ist: ma .1 / D mg .1 /; : : : ; ma .r / D mg .r / :

für i D 1; : : : ; r gilt. Für ein solches i gilt: mA g .i / D dim.EigA .i // D dim.ker.A  i En // D dim.ker.S

1

B S  i S

1

S //

D dim.ker.S 1 .B  i En / S // D dim.ker.B  i En // D dim.EigB .i // D mB g .i / :

Beweis Es ist nur noch ) zu begründen. Die Matrix A

sei also diagonalisierbar, und es seien 1 ; : : : ; r die verschiedenen Eigenwerte von A. Nach dem 2. Kriterium für Diagonalisierbarkeit existiert eine Basis fb1 ; : : : ; bn g des Kn aus Eigenvektoren von A, und weil die geometrische Vielfachheit stets kleiner gleich der algebraischen ist, gilt: nD

r X

mg .i / 

r X

ma .i /  deg.A / D n : Dabei haben wir benutzt, dass wegen der Invertierbarkeit i D1 i D1 von S und S 1 die Dimensionen der Kerne von S 1 .B  i En / S und B  i En übereinstimmen (siehe die Folge- Anstelle der beiden  gilt also sogar D. Aus der ersten entrung im 7 Abschn. 6.7).  stehenden Gleichheit folgt sogleich mg .i / D ma .i / für

8

264

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Übersicht: Diagonalisieren einer Matrix

Gegeben ist eine diagonalisierbare Matrix A 2 Kn n . Das Bestimmen einer invertierbaren Matrix S , die die Eigenschaft hat, dass D D S 1 A S eine Diagonalmatrix ist, nennt man auch Diagonalisieren von A. Als Spalten der Matrix S wählt man dabei die Vektoren einer Basis des Kn aus Eigenvektoren von A. Zum Diagonalisieren dieser Matrix A geht man meistens wie folgt vor: 4 Bestimme das charakteristische Polynom A von A. 4 Zerlege A in Linearfaktoren A D .1  X/ma .1 /    .r  X/ma .r / :

8

Die r verschiedenen Nullstellen 1 ; : : : ; r sind die Eigenwerte der Matrix A. 4 Bestimme Basen B1 ; : : : ; Br der r Eigenräume EigA .1 /; : : : ; EigA .r /, dabei gilt:

4 Ordne die Basisvektoren der Basis B D

r S

Bi des Kn

iD1

aus Eigenvektoren der Matrix A zu einer geordneten Basis B D .b1 ; : : : ; bn /. 4 Mit der Matrix S D .b1 ; : : : ; bn / gilt dann die Gleichung: 0 1 B: B: @: 0

 :: : 

1 0 :: C 1 C : ADS AS : n

Diese Gleichung muss nicht nachgeprüft werden, sie gilt bereits nach Konstruktion. Es ist dabei bi ein Eigenvektor zum Eigenwert i – man achte also auf die Anordnung der Basisvektoren.

jB1 j D ma .1 /; : : : ; jBr j D ma .r / :

alle i D 1; : : : ; r und aus der zweiten entstehenden Gleichheit folgt, dass das Polynom A zerfällt.  Wir erhalten hieraus die Folgerung: Folgerung Hat eine n n-Matrix n verschiedene Eigen-

werte, so ist sie diagonalisierbar.

gilt mit den Vektoren 0 1 0 1 0 1 2 1 1 @ @ @ A A 1 0 b1 D ; b2 D ; b3 D 2 A 1 2 0 und

S D .b1 ; b2 ; b3 / Das folgt aus obigem Kriterium, weil in diesem Fall das charakteristische Polynom zerfällt und für jeden Eigenwert die Gleichung: die algebraische Vielfachheit, die gleich 1 ist, mit der geo0 1 3 0 0 metrischen Vielfachheit, die größer gleich 1 sein muss, S 1 A S D @0 3 0 A übereinstimmt. n n 0 0 3 Um eine diagonalisierbare Matrix A 2 K zu diagonalisieren, geht man zweckmäßigerweise so vor, wie wir es 4 Die Matrix in einer Übersicht schildern. ! Wir führen das Verfahren an Beispielen durch. 3 4 2 Z2 2 AD 5 1 1 Beispiel 4 Für die Matrix 0 1 1 2 2 A D @2 2 1 A 2 R3 3 2 1 2 haben wir bereits in die Eigenwerte und Eigenräume bestimmt. Wir erhielten *021+ *011 011+ EigA .3/ D @1A ; EigA .3/ D @ 0 A ; @ 2 A : 1 2 0 Damit existiert eine Basis des R3 aus Eigenvektoren der Matrix A. Die Matrix ist also diagonalisierbar, und es

hat wegen A D .2  X/2 den einzigen Eigenwert 2 der algebraischen Vielfachheit 2. Der Eigenraum EigA .2/ von A lautet * !+ 1 : EigA .2/ D 1 Damit hat der Eigenwert 2 die geometrische Vielfachheit 1. Weil die geometrische Vielfachheit des Eigenwerts 2 echt kleiner der algebraischen ist, ist die Matrix nicht diagonalisierbar.

265 8.4  Algebraische und geometrische Vielfachheit

4 Die Matrix 0 1 1 3 6 A D @3 5 6A 3 3 4

gilt: 0

1 2 0 0 S 1 A S D @ 0 2 0A : 9 0 0 4

hat das charakteristische Polynom A D .2CX/2 .4 X/, also den zweifachen Eigenwert 2 und einfachen ?Selbstfrage 8.10 Eigenwert 4. Wir erhalten als Eigenräume Prüfen Sie dies nach, indem Sie S 1 A S tatsächlich be*011 021+ *0 1 1+ rechnen. EigA .2/ D @ 1 A ; @ 0 A ; EigA .4/ D @1A : ?Selbstfrage 8.11 0 1 1 Wie ändert sich die Diagonalmatrix, wenn man in der Ma-

Damit stimmen für jeden Eigenwert geometrische und trix S zwei Spalten vertauscht? algebraische Vielfachheit überein, d. h., dass die Matrix A diagonalisierbar ist. Mit der Matrix Kennt man bereits einige Eigenwerte einer Matrix, etwa durch geometrische Überlegungen, so kann man gelegentS D .b1 ; b2 ; b3 / ; lich mit einer einfachen Rechnung die restlichen Eigenwobei werte dieser Matrix bestimmen. Das liegt daran, dass das 0 1 0 1 0 1 1 2 1 Produkt aller Eigenwerte und die Summe aller Eigenwerte b1 D @ 1 A ; b2 D @ 0 A ; b3 D @1A ; einer Matrix A bekannte bzw. oftmals leicht bestimmbare 0 1 1 Kenngrößen von A sind.

Beispiel: Die Fibonacci-Zahlen und ihre Näherungen

Wir möchten eine explizite Formel für die Fibonacci-Zahlen a0 ; a1 ; a2 ; : : : bestimmen, die rekursiv definiert sind durch a0 D 1; a1 D 1; anC1 D an C an1 für n 2 N : Problemanalyse und Strategie Wir geben diese Rekursionsvorschrift durch eine Matrix A 2 R2 2 wieder und gelangen durch Berechnen von Potenzen von A zu einer guten Näherungslösung für hinreichend große n. Lösung Wir bestimmen zunächst die Matrix A 2 R2 2 mit ! ! a0 an n DA ; n2N anC1 a1 und berechnen anschließend explizit die Potenzen A n . Es gilt: an anC1

! D

0 1

1 1

insbesondere also ! 0 1 AD : 1 1

!

an1 an

! D  D

0 1

!n ! 1 a0 ; a1 1

Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms ˇ ˇ ˇX 1 ˇˇ ˇ A D ˇ ˇ D X2  X  1 1  Xˇ ˇ 1 ! ! p p 1 5 1C 5 X X : D 2 2 Die Eigenvektoren erhalten wir als Lösungen der Gleip chungsysteme .A  1˙2 5 E2 j 0/, und zwar erhalten wir b1 D b2 D

!

p 1C 5 und zum Eigenwert 1C 5 2 2 ! p 1 1 5 p : zum Eigenwert 1 5 2 2 1

p

Wir setzen S D .b1 ; b2 / und erhalten S

1

AS D

p 1C 5 2

0

0

p 1 5 2

! DD:

Und nun kommt der entscheidende Trick. Wegen A D S D S 1 gilt: 1 1 A n D .S D S 1 /n D „ S D S 1 S D S ƒ‚ : : : S D S … n-mal D S D n S 1 :

8

266

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Und dieses Produkt S D n S 1 ist nun wegen der Diagonalform von berechnen. Zur Abkürzung setzen wir p D einfach zu p a D 1C2 5 und b D 12 5 . Wir erhalten A n durch Berechnen des Matrixprodukts, wobei wir a b D 1 berücksichtigen: 1 1 p 5 a

1 b

!

an 0

0 bn

!

1 an1  b n1 D p an  b n 5

!

an  b n nC1 a  b nC1

Daraus liest man 0 p !nC1 1 @ 1C 5 an D p  2 5

8

1 1

b a

!

p !nC1 1 1 5 A; 2

für n 2 N ab, und zwar durch Berechnung von ! ! ! an a0 1 n n DA DA anC1 a1 1 oder einfacher durch die Beobachtung, dass die durch b0 D 0, b1 D 1 und bn D bn1 C bn2 für n  2 definierte Folge .bn / die Bedingung bnC1 D an erfüllt, woraus folgt: an1 an

!

bn D bnC1

! DA

n

b0 b1

! DA

n

n 0 1 2 3 4 5 6 7 8 9 10

an 1 1 2 3 5 8 13 21 34 55 89

Näherung 0:723 606 798 0 1:170 820 394 1:894 427 192 3:065 247 586 4:959 674 780 8:024 922 370 12:984 597 15 21:009 519 52 33:994 116 68 55:003 636 24 88:997 752 90 p

Kommentar Die Zahl a D 1C2 5 ist übrigens das Verhältnis des Goldenen Schnitts: Wegen der linearen Abhängigkeit   1 erhält man der Zeilen der Matrix A  a e2 D a 1 1a a W 1 D 1 W .a  1/. nC1 nC1 folgt weiter Aus der obigen Formel an D a pb5 an limn!1 an1 D a, d. h., dass sich das Verhältnis aufeinanderfolgender Fibonacci-Zahlen dem Verhältnis des Goldenen Schnitts nähert (siehe auch . Abb. 8.5).

! 0 : 1

13 21

Ein Vorteil dieser Matrizendarstellung der Fibonacci-Zahlen besteht darin, dass man an ihr das Wachstumsverhaltenpvon an gut erkennen kann. Da der zweite Summand wegen . 5  1/=2  0:618 sehr schnell vernachlässigbar klein wird, gilt: 1 an  p 5

p !nC1 1C 5 2

in guter Näherung, und an ergibt sich für jedes n aus dieser Näherung durch Runden zur nächsten ganzen Zahl:

Die Determinante ist das Produkt der Eigenwerte, die Spur die Summe der Eigenwerte

3

5

a11 D 144

a10 D 89 8

21

13 8

a9 D 55 34

. Abb. 8.5 Aus Viertelkreisen zusammengesetzte Fibonacci-Spirale

Es sei A 2 Kn n zu einer Diagonalmatrix D ähnlich: 1 0 1 0 1 a11    a1n 0 C B :: :: C B :: :: A @ : : : : A@ 0 n an1    ann „ ƒ‚ … „ ƒ‚ …

Wenn zwei Matrizen zueinander ähnlich sind, so haben sie DA DD dieselbe Determinante und dieselbe Spur. Wir betrachten nun die Situation, dass eine dieser beiden Matrizen eine so erhalten wir: Diagonalmatix ist. Die Determinante und die Spur einer det A D det D D 1    n und Diagonalmatrix sind gerade das Produkt und die Summe der Diagonaleinträge. Sp A D Sp D D 1 C    C n :

267 8.4  Algebraische und geometrische Vielfachheit

Beispiel: Eigenwerte und Eigenvektoren von Spiegelungen und Drehungen im R2

Spiegelungen an Geraden durch den Nullpunkt und Drehungen um den Nullpunkt des R2 sind lineare Abbildungen. Somit lassen sich diese Abbildungen durch Matrizen A aus R2 2 bezüglich der Standardbasis darstellen. Problemanalyse und Strategie Wir bestimmen die Eigenwerte und Eigenvektoren der darstellenden Matrizen. Lösung Ist ˛ W !+R2 ! R2 die Spiegelung an der Geraden * cos. ˛2 / , die mit der x1 -Achse einen Winkel ˛2 2 Œ0; Œ sin. ˛2 / einschließt, so gilt ! cos ˛ sin ˛  D 'A mit A D ; also .x/ D A x : sin ˛  cos ˛ x2

a b

e2

 !+  sin ˛2 ˛ vercos 2 läuft analog. Wir halten fest: Für ! jedes ˛ 2 Œ0; Œ ist die cos ˛ sin ˛ Matrix A D diagonalisierbar, und zwar sin ˛  cos ˛  ˛ !  ! cos 2  sin ˛2     und b2 D sowie gilt mit b1 D sin ˛2 cos ˛2 S D .b1 ; b2 / die Gleichung: ! 1 0 1 S AS D 0 1 *

Die Berechnung von EigA .1/ D

Wir kommen zur Drehung. Ist ı˛ W R2 ! R2 die Drehung um den Winkel ˛ 2 Œ0; 2 Œ um den Ursprung, so gilt: ! cos ˛  sin ˛ ı D 'A mit A D ; also ı.x/ D A x : sin ˛ cos ˛ b a

x2 a b

e2 ˛

˛=2

e1

x1

˛

e1

x1

b a

Zwar wissen wir durch das Bild, dass die Spiegelung  genau zwei Geraden des R2 durch 0 auf sich selbst abbildet, nämlich die Spiegelungsachse und die dazu senkrechte Gerade. Die Vektoren v auf der Spiegelungsachse sind Fixpunkte von , d. h., A v D v, während die Vektoren auf der dazu senkrechten Geraden durch  auf ihre entgegengesetzten Vektoren abgebildet werden, d. h., A v D v. Also besitzt A die beiden Eigenwerte 1 und 1 mit zugehörigen Eigenräumen. Wir wollen dies nun auch rechnerisch nachweisen. Dazu bestimmen wir das charakteristische Polynom der Matrix A. ˇ ˇ ˇ ˇcos ˛  X sin ˛ ˇ ˇ A D ˇ ˇ  cos ˛  X ˇ ˇ sin ˛ D X 2  cos2 ˛  sin2 ˛ D .1  X/ .1  X/ : Also hat A die beiden einfachen Eigenwerte 1 und 1. Insbesondere ist also A diagonalisierbar. Wir bestimmen die Eigenräume zu den beiden Eigenwerten: ! cos ˛  1 sin ˛ .˛ ¤ 0/ EigA .1/ D ker sin ˛  cos ˛  1      ! 2 sin2 ˛2 2 sin ˛2 cos ˛2 D ker 0 0 ˛  ˛ !  sin 2 cos 2 D ker 0 0 *  ˛ !+ cos 2   Also ist EigA .1/ D auch für ˛ D 0. sin ˛2

Wir wissen bereits, dass die Drehung ı˛ – abgesehen von zwei Ausnahmefällen – keine Gerade durch 0 auf sich selbst abbildet und somit keine Eigenwerte besitzt. Die beiden Ausnahmen sind! die Drehung um den Winkel ˛ D 0, d. h., 1 0 AD , und die Drehung um den Winkel ˛ D , d. h., 0 1 ! 1 0 A D . In diesen beiden Fällen ist die Matrix A 0 1 bereits diagonal, die Eigenräume sind in beiden Fällen jeweils der ganze R2 . Für ˛ … f0; g bestätigen wir unsere Vermutung nun rechnerisch und bestimmen das charakteristische Polynom A : ˇ ˇ ˇcos ˛  X  sin ˛ ˇˇ ˇ A D ˇ ˇ D X 2  2 cos ˛ X C 1 : cos ˛  X ˇ ˇ sin ˛ Für die Nullstellen 1=2 dieses Polynoms gilt:  1 1=2 D cos ˛ ˙ cos2 ˛  1 2 : Für ˛ … f0; g gilt aber j cos ˛j < 1 und damit cos2 ˛ 1 < 0. Also hat das Polynom A D X 2  2 cos ˛ X C 1 im Fall ˛ … f0; g keine reellen Nullstellen, und damit hat in diesem Fall die Matrix A auch keinen Eigenwert. Wir halten fest: Für ! cos ˛  sin ˛ jedes ˛ 20; 2 Œ n f g ist die Matrix A D sin ˛ cos ˛ nicht diagonalisierbar, und in den Fällen ˛ D 0 und ˛ D hat A bereits Diagonalform.

8

268

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Damit ist gezeigt:

Der Zusammenhang zwischen Spur, Determinante und den Eigenwerten einer Matrix Es seien 1 ; : : : ; n die nicht notwendig verschiedenen Eigenwerte einer diagonalisierbaren n n-Matrix A 2 Kn n . Dann gilt: Sp A D 1 C    C n ;

det A D 1    n :

Kommentar Dieses Ergebnis gilt sogar noch etwas allge-

meiner für alle Matrizen, deren charakteristisches Polynom in Linearfaktoren zerfällt. Wir begründen das später in diesem Kapitel.

8

? Selbstfrage 8.12 Man prüfe diese beiden Formeln an einigen bisher betrachteten Matrizen, deren charakteristische Polynome in Linearfaktoren zerfallen.

Diese Formeln sind nützlich. Zum einen hat man eine Kontrollmöglichkeit zu den berechneten Eigenwerten, zum anderen kann man gelegentlich ohne Bestimmung des charakteristischen Polynoms unbekannte Eigenwerte einer Matrix erschließen, wenn man bereits Informationen über die Matrix hat. Zum Beispiel hat die Matrix AD

  1 1 2 2

Es ist natürlich mühsam, all diese Eigenschaften nachzuprüfen. Es wäre sehr nützlich, wenn wir einer Matrix noch viel schneller, quasi ohne jede Rechnung ansehen könnten, dass sie diagonalisierbar ist. Und das geht oftmals, z. B. gilt: Jede reelle symmetrische Matrix ist diagonalisierbar. Wir werden diese Tatsache in 7 Kap. 7 begründen.

Die Matrix A ist Nullstelle ihres charakteristischen Polynoms Wir betrachten zu einer Matrix A 2 Kn n das charakteristische Polynom A D .1/n X n C cn1 X n1 C    C    C c1 X C c0 2 KŒX : Wir können den Körper K als einen kommutativen Teilring des Rings Kn n auffassen. Dabei identifizieren wir jedes Element  2 K mit der Diagonalmatrix  En 2 Kn n : 1 0  0 C B ::  ! ./ D @ A: : 0  Nach dem Satz zum Einsetzen in Polynome im 7 Abschn. 2.4 (wir setzen in diesem Satz R D K D .K/ und S D Kn n ) dürfen wir daher quadratische Matrizen M aus Kn n in das charakteristische Polynom A für X einsetzen: A .M / D .1/n M n C cn1 M n1 C    C    C c1 M C c0 M 0 ;

aufgrund der linearen Abhängigkeit der Zeilen offensicht- dabei ist A .M / 2 Kn n . Hierbei ist nun die Addition lich den Eigenwert 0. Wegen Sp A D 3 muss der zweite bzw. Multiplikation die Matrizenaddition bzw. Matrizenmultiplikation. Eigenwert 3 sein. Wir führen ein weiteres Beispiel an. Es gibt einen berühmten Satz, der besagt, dass das Beispiel Wir betrachten als Beispiel eine komplexe 4 charakteristische Polynom A einer Matrix A eben diese 4-Matrix A, von der wir wissen, dass sie die Eigenwer- Matrix als Nullstelle hat, d. h. A .A/ D 0. te 1 und 1 hat – eine solche Information hat man etwa   dann, wenn es vom Nullvektor verschiedene Vektoren gibt, Beispiel Die Matrix A D 0 1 hat das charakteristi1 0 die auf sich bzw. auf ihr Negatives abgebildet werden. Gilt 2 etwa det A D 9 und Sp A D 6, so folgt mit den angege- sche Polynom A D X C 1, und es gilt:     benen Formeln für die beiden unbekannten Eigenwerte 1 1 0 1 0 und 2 C A .A/ D A 2 C E2 D 0 1 0 1   0 0 1 2 D 9 und 1 C 2 D 6 ; D D 0: 9 0 0 woraus man 1 D 6  2 und 22  6 2  9 D 0, also 2 D 3 D 1 erhält. 9 Der Satz von Cayley-Hamilton Für jede Matrix A 2 Kn n gilt: Kommentar Wir haben ein Kriterium für die Diagonalisierbarkeit einer Matrix A hergeleitet: Wenn das charakteristiA .A/ D 0 ; sche Polynom A in Linearfaktoren zerfällt und für jeden wobei 0 die Nullmatrix aus Kn n bezeichnet. Eigenwert die algebraische Vielfachheit mit der geometrischen übereinstimmt, so ist die Matrix A diagonalisierbar.

8

269 8.5  Die Exponentialfunktion für Matrizen

Von den vielen verschiedenen Beweisen, die es gibt, entscheiden wir uns für den wohl kürzesten. Dabei benutzen wir wiederholt das Kronecker-Symbol  1 für i D j; ıij D 0 für i ¤ j:

?Selbstfrage 8.13

Beweis Mithilfe der Matrix A D .aij / bilden wir die Ma-

Kommentar Der von uns geführte Beweis des Satzes von

Wieso ist der folgende „Beweis“ des Satzes von CayleyHamilton falsch? A D det.A  X En / ) A .A/ D jA  AEn j D j0j D 0 :

Cayley-Hamilton wirkt für einen Neuling in der Mathematik sicher ein bisschen wie algebraische Zauberei. Aber 0 1 die Umformungen und Schlüsse sind völlig korrekt, und es a11  X    an1 kommt das gewünschte Ergebnis heraus. Auf einen solchen B C :: :: :: BD@ A D .aj i  ıij X/ : : Beweis kommt ein Student des ersten Studienjahrs ziem: : lich sicher nicht selbstständig. Das erwartet man auch gar    ann  X a1n nicht. Ein Student sollte sich von der Korrektheit dieses BeUnd es sei C D .cij / die Adjunkte zu B (7 Abschn. 7.4); weises überzeugen können, das sollte im ersten Studienjahr vollkommen ausreichen. Tatsächlich stammt die Beweises gilt: idee aus einer völlig anderen algebraischen Theorie, der C B D det.B/ En D A En ; sogenannten Modultheorie. Bei dortigen Rechnungen hatte man zufällig festgestellt, dass entsprechende Rechnungen da A > und A das gleiche charakteristische Polynom haben. mit Matrizen über Körpern gerade den Satz von CayleyWir betrachten diese Gleichheit von Matrizen nun kompo- Hamilton beweisen. So wurde dieser kurze und prägnante nentenweise: Für alle j; k 2 f1; : : : ; ng gilt: Beweis dieses Satzes gefunden (siehe A Course in Commutative Algebra, G. Kemper, Springer). Jeder andere Beweis, n X der geometrische und naheliegende Beweisideen benutzt, cki bij D ıj k A : ist im Allgemeinen deutlich länger und unserer Auffassung i D1 nach komplizierter als der hier angegebene Beweis. Dies sind n2 Gleichungen im Polynomring KŒX. Wir setzen nun für die Unbestimmte X die Matrix A ein und 8.5 Die Exponentialfunktion für Matrizen erhalten >

trix B D A  X En D .bij / 2 KŒXn n:

n X

(8.2) Eine wesentliche Anwendung der Diagonalisierung von Matrizen ist das Lösen von Differenzialgleichungen. Dabei spielt die Exponentialfunktion für Matrizen eine wichtige Wegen bij .A/ D aj i En  ıij A gilt für alle i D 1; : : : ; n: Rolle. Dazu verallgemeinern wir den Ausdruck ea für eine komplexe Zahl a auf den Ausdruck eA für eine komplexe, n n X X quadratische Matrix A. bij .A/ ej D .aj i En  ıij A/ ej cki .A/ bij .A/ D ıj k A .A/ :

i D1

j D1

j D1 n X

D

(8.3) Die Exponentialfunktion für Matrizen ist

aj i ej  A e i D 0 :

durch eine Reihe definiert

j D1

Nun folgt für alle k 2 f1; : : : ; ng: A .A/ e k D

n X

Um die Exponentialfunktion für Matrizen zu definieren, benutzen wir die Reihendarstellung der Exponentialfunktion. Per Definition gilt für jede komplexe Zahl a:

ıj k A .A/ ej

j D1 (8.2)

D

n X n X j D1 i D1

D

n X

cki .A/ bij .A/ ej 0

cki .A/ @

i D1

D 0:

Somit gilt A .A/ D 0.

n X

j D1

(8.3)



ea D 1

bij .A/ ej A

1 X ak kD0



D1CaC

a2 C  : 2Š

a    a durch Dabei geschieht die Potenzbildung ak D „ƒ‚… k-mal

Multiplikation in C und die Summenbildung durch die Addition in C. Aber quadratische Matrizen aus C n n lassen sich auch addieren und multiplizieren, daher liegt es nahe, A 0 D En zu setzen und die Exponentialfunktion eA wie

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

270

Beispiel Wir berechnen exp A für die Matrix A D  1 1 1 X . Wegen A k D A für k  1 gilt: 1 k 1 2 A 0 0  e D A D En C A C A C    :      kŠ 2Š 1 0 1 1 1 1 1 A kD0 C e D C C 0 1 0 0 2 0 0 Hierbei werden Potenzen bezüglich der Matrizenmultipli  e e1 kation gebildet, und das Summenzeichen beschreibt jetzt D : 0 1 die Addition von Matrizen.   0 1 P1Es 1ist knicht unmittelbar klar, dass der Ausdruck Und für die Matrix E12 D 2 C 2 2 gilt wegen   0 0 kD0 kŠ A überhaupt existiert und wieder eine komplexe 0 0 Matrix ist. Wir begründen nun, dass diese Definition sinn- Ek12 D 0 0 für k  2: voll ist. Unter der Konvergenz der Reihe       1 0 0 1 1 0 0 1 X C C eE12 D C 1 k 0 1 0 0 2 0 0 A kŠ   kD0 1 1 D : 9 0 1 versteht man die Konvergenz aller n2 Komponentenfolgen ! N X i Für eine Matrix A D .aij / gilt im Allgemeinen: .A k /ij ; 1  i; j  n; kŠ eA ¤ .eaij / :

folgt zu definieren:

8

kD0

der Folge

P N

zeigen wir:

N 2N0



k 1 kD0 kŠ A N 2N0

ihrer Partialsummen. Nun

Die Exponentialfunktion für Matrizen

Man erhält also eA nicht einfach durch komponentenweises Bilden der Potenzen eaij .

Für diagonalisierbare Matrizen lässt sich eA explizit angeben

Für jede n n-Matrix A 2 C n n konvergiert die Reihe 1 X 1 k A : kŠ

In den beiden letzten Beispielen konnten wir nur deshalb eA explizit bestimmen, da wir A k für alle natürlichen Zahlen angeben konnten. Das ist im allgemeinen Fall natürlich nicht so. Aber mithilfe der folgenden Rechenregeln können wir eA für alle diagonalisierbaren Matrizen explizit bestimmen.

kD0

Den Grenzwert N X 1 k A 2 C n n N !1 kŠ

lim

kD0

bezeichnen wir mit exp A oder eA . Damit haben wir also eine Abbildung ( C n n ! C n n ; exp W A 7! eA

Die Abbildung expW C n n ! C n n hat folgende Eigenschaften: (a) Für alle A; B 2 C n n mit A B D B A gilt:

erklärt.

Beweis Die Konvergenz von

P1

k 1 kD0 kŠ .A /ij

beweist man am einfachsten mit dem Majorantenkriterium: Es sei c eine 2 obere Pn Schranke für 2die Zahlen jaij j. Dann gilt j.A /ij j D j sD1 ai s asj j  nc . Allgemein ergibt sich mit vollständiger Induktion j.A k /ij j  nk1 c k , und die Konvergenz der Reihe 1 X nk1 c k kD0

Eigenschaften der Exponentialfunktion für Matrizen



zeigt P1 1dannk die (absolute) Konvergenz der Reihen kD0 kŠ .A /ij . 

eACB D eA eB : (b) Für jede invertierbare Matrix S 2 C n n gilt: S 1 eA S D eS

1

AS

:

(c) Für Diagonalmatrizen gilt die Regel: 0 1 B: : exp B @: 0

 :: : 

1 0  e 1 0 B : :: C C B : A D @ :: n 0

 :: : 

1 0 :: C C : A: en

8

271 8.5  Die Exponentialfunktion für Matrizen

Nun bilden wir den Limes N ! 1, man beachte dabei, dass in der Matrix rechts der Limes in jeder Komponente gebildet wird; wegen der Additivität und der Homogenität der Limesbildung, d. h.

Beweis

(a) Mit Aufgabe 8.12 folgt: 1 X 1 m A eA eB D mŠ mD0

D

1 X 1 X mD0 nD0

D

1 X 1 n B nŠ nD0

!

lim

N !1

1 Am B n mŠ nŠ

i;j

(b) Aus S 1 A k S D .S 1 A S /k folgt:

kD0

.rs/

ij

.N /

lim aij ;

N !1

X i;j

1 .rs/ .1/ ij aij A

D S 1 eA S : r;s

(c) Es gilt

lD0

!

X i;j

lim S 1 A N S D @

N !1

1 l X 1 X lŠ Am B lm lŠ mD0 mŠ .l  m/Š

N X 1 k A kŠ

D

0

lD0

S

.rs/ .N /

ij aij

erhalten wir:

1 Am B lm mŠ .l  m/Š mD0

1 X 1 D .A C B/l D eACB : lŠ

1

X

1 X l X lD0

D

!

N X 1 1 .S A S /k : S D kŠ kD0

1

0 1 N X 1 B: @: kŠ : kD0 0 0 N P k1 B BkD0 kŠ B DB B B @

1k 0 k  0 1 N X 1 B: :: C :: @: : :A D kŠ : kD0    n 0 1 0 1 C e C C N !1 B : :: C : C ! @ :: C N P kn A 0

1  0 :C :: : :: A    kn 1  0 : C :: : :: A :    en



kŠ Die rechte Seite konvergiert für N ! 1 gegen eS A S . kD0 Wir begründen nun, dass die linke Seite gegen S 1 eA S konvergiert, es folgt dann die Behauptung. Beispiel Ein Beispiel dafür, dass eACB D eA eB nicht Dazu beachten wir, dass für eine n n-Matrix X D allgemein gilt, liefern bereits die nicht miteinander ver    1 0 0 1 .xij / die Einträge von S 1 X S Linearkombinationen tauschbaren Matrizen E D und E D . 11 12 der xij sind, genauer 0 0 0 0 Mit den oben berechneten Matrizen und der dritten Rechen0P 1 P .11/ .1n/ regel gilt nämlich:  x     x ij ij i;j ij i;j ij B C : : ::     C ( ) :: :: S 1 X S D B : 1 1 e e1 @ A C E / D exp D ; exp.E P P 11 12 .n1/ .nn/ 0 0 0 1  i;j ij xij i;j ij xij      e 0 1 1 e e / exp.E / D D : 9 exp.E 11 12 .rs/ 0 1 0 1 0 1 mit ij 2 C, r; s 2 f1; : : : ; ng. Wir schreiben für jedes N 2 N0 Ist A 2 C n n eine diagonalisierbare Matrix, so existieren eine invertierbare Matrix S 2 C n n und komplexe Zahlen N X 1 k .N / 1 ; : : : ; n mit der Eigenschaft A N D .aij / D A kŠ kD0 1 0 1    0 B: :C und beachten S 1 A S D @ :: : : : :: A D D ; 0    n .1/ lim A N D eA D .aij / : N !1

Setzt man A N in . / für X ein, so erhält man: 0P B S 1 A N S D B @

i;j

P i;j

.11/ .N /

ij aij :: : .n1/ .N / ij aij

 :: : 

P i;j

P i;j

d. h., A D S D S 1 . Nun erhalten wir mit obigen Rechenregeln:

1 1 .1n/ .N / eA D eS D S D S eD S 1 ; ij aij C :: C: : A womit wir eA für diagonalisierbare Matrizen stets berech.nn/ .N / ij aij nen können.

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

272

also Die Exponentialfunktion für diagonalisierbare Matrizen

exp

Ist A 2 C n n eine diagonalisierbare Matrix mit den Eigenwerten 1 ; : : : ; n und Eigenvektoren s1 ; : : : ; sn , so gilt mit S D .s1 ; : : : ; sn /: 0

 :: :

e1 B :: eA D S B @ : 0

8



     it 0 t e i 1 1 D t 0 0 2 i i

1 0 :: C C 1 : AS : en



i 1 i 1 ei t ! eit C eit  1i .eit  eit / 1 D eit C ei t 2 1i .ei t  eit /   cos t  sin t D : 9 sin t cos t 0



Wir heben eine weitere interessante Formel für die Spur und die Exponentialfunktion hervor. Ist A 2 C n n eine diagonalisierbare Matrix mit den EiA Man kann demnach mit D und S die Matrix e berechnen. genwerten 1 ; : : : ; n , so gibt es eine invertierbare Matrix S 2 C n n mit Wir zeigen dies an Beispielen. 1 0 1 e  0 Beispiel Wir berechnen für ein t 2 C die komplexen MaB : :: C 1 :: trizen eA D S @ :: : : AS :     n 0  e 0 t 0 t exp und exp : t 0 t 0 Wir wenden auf diese Gleichheit die Determinante an und   erhalten unter Beachtung des Determinantenmultiplikati0 t Die Matrix A D hat das charakteristische Poly- onssatzes: t 0 , also die beiden Eigenwerte t und nom A D X 2 t 2  1 t. Es sind s1 D ein Eigenvektor zum Eigenwert t 1   1 und s2 D ein solcher zum Eigenwert t. Wir setzen 1 S D .s1 ; s2 / und erhalten  S D

1 1 1 1



und S 1 D 1=2



1 1 1 1

det eA D .det S / .e1 CCn / .det S 1 / D eSp A :

Die Determinante von eA Ist A 2 C n n diagonalisierbar, so gilt:



det eA D eSp A :

;

also     t   0 t e 1 1 0 1 1 1 exp D t 0 1 1 0 et 2 1 1  t t t t  e e 1 e Ce D t t t e  e e C et 2   cosh t sinh t D : sinh t cosh t

8.6

Das Triangulieren von Endomorphismen

Wir gehen jetzt etwas weg von konkreten Berechnungen und graben wieder etwas tiefer in der Theorie der linearen Abbildungen. Daher stellen wir nun die konkreten Matrizen etwas in den Hintergrund und holen dafür die etwas abstrakteren Endomorphismen eines endlichdimensionalen K-Vektorraums V hervor. Dabei behalten wir aber im Hin  terkopf, dass der Unterschied nur marginal ist: Nach Wahl 0 t Die Matrix B D hat das charakteristische Po- einer Basis B von V ist ein Endomorphismus ' von V t 0 nichts anderes als eine Matrix A, 2 , also die beiden Eigenwerte i t und lynom B D X 2 C t  1 i t. Es sind t 1 D ein Eigenvektor zum Eigenwert i t A D B M .'/B : i   1 und t 2 D ein solcher zum Eigenwert i t. Wir setzen Nicht jeder Endomorphismus ist diagonalisierbar, genaui er gilt, wie wir gezeigt haben: Der Endomorphismus 'A W T D .t 1 ; t 2 / und erhalten V ! V , v 7! A v mit A 2 Kn n ist genau dann diagona

1 T D i

 1 i

und T

1

 i D i=2 i

1 1



;

lisierbar, wenn (i) A über K in Linearfaktoren zerfällt und (ii) ma ./ D mg ./ für jeden Eigenwert  von A gilt.

273 8.6  Das Triangulieren von Endomorphismen

Wir wollen in diesem Abschnitt zeigen, dass unter der Vo- .b1 ; : : : ; bn / von V eine Fahnenbasis für ' von V , falls raussetzung (i) der Endomorphismus 'A triangulierbar ist. die Untervektorräume Dabei nennen wir einen Endomorphismus ' eines n-dimensionalen K-Vektorraums triangulierbar, wenn es eine hb1 i ; hb1 ; b2 i ; : : : ; hb1 ; : : : ; bn i geordnete Basis B von V gibt, bezüglich der die Darstellungsmatrix B M .'/B eine obere Dreiecksmatrix ist, d. h., '-invariant sind, d. h., dass für jedes i D 1; : : : ; n gilt: 0 B B M .'/B D @



 :: :

0

1 :: C :A

'.hb1 ; : : : ; bi i/  hb1 ; : : : ; bi i :

Eine Matrix A 2 Kn n heißt triangulierbar, falls der Endomorphismus 'A triangulierbar ist, d. h., falls es eine invertierbare Matrix S 2 Kn n gibt mit 0 B S 1 A S D @

0

 :: :

1 :: C :A :

Bei einer Fahnenbasis für ' von V hat man also eine aufsteigende Folge von ineinander geschachtelten '-invarianten Untervektorräumen von V : hb1 i  hb1 ; b2 i      hb1 ; : : : ; bn i : Beispiel

4 Die kanonische Basis E2 D .e 1 ; e 2 / ist für den Endomorphismus ' W K2 ! K2 ;

Dazu führen wir neue Begriffe ein.

     v1 1 1 v2 7! 0 1 v2 v2

eine Fahnenbasis des R2 , denn es gilt:

Ein Endomorphismus von V ist genau dann triangulierbar, wenn es eine Fahnenbasis von V gibt

'.he 1 i/  he 1 i und '.R2 /  R2 :

4 Ist ' ein diagonalisierbarer Endomorphismus eines n-dimensionalen K-Vektorraums V , und ist B D Es sei ' W V ! V ein Endomorphismus eines end.b1 ; : : : ; bn / eine geordnete Basis von V aus Eigenveklichdimensionalen K-Vektorraums V , dim V D n. Ein toren von ', so ist B wegen Untervektorraum U von V heißt '-invariant, falls '.U /  U gilt. '.hb1 ; : : : ; bi i/  hb1 ; : : : ; bi i Beispiel

4 Die trivialen Untervektorräume f0g und V '-invariant für jeden Endomorphismus ' von V . 4 Wir betrachten den Endomorphismus

sind

     v1 1 1 v1 2 2 'WK !K ; 7! : 0 1 v2 v2   1 Der Untervektorraum U D ist '-invariant, der 0   0 Untervektorraum U D nicht. 1 4 Ist U D Eig' ./ der Eigenraum eines Endomorphismus ' von V zum Eigenwert  von ', so ist U wegen

für alle i D 1; : : : ; n eine Fahnenbasis für ' von V . 4 Für den Endomorphismus 'A von Kn mit einer oberen Dreiecksmatrix 0 B AD@

0

 :: :

1 :: C n n : A D .s1 ; : : : ; sn / 2 K

ist die geordnete kanonische Basis En D .e 1 ; : : : ; e n / eine Fahnenbasis für 'A des Kn , denn es gilt: '.he 1 ; : : : ; e i i/ D hs1 ; : : : ; si i  he 1 ; : : : ; e i i für alle i D 1; : : : ; n. 9

'.v/ D  v 2 U für jedes v 2 U Das letzte Beispiel lässt sich verschärfen, es gilt: '-invariant. 9 Lemma Für einen Endomorphismus ' eines n-dimensioWir betrachten nun eine besondere Art einer Basis eines nalen K-Vektorraums V sind äquivalent: n-dimensionalen K-Vektorraums V . Ist ' ein Endomor- (i) ' ist triangulierbar. phismus von V , so nennen wir eine geordnete Basis B D (ii) Es existiert eine Fahnenbasis für ' von V .

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

274

Beweis (i) ) (ii): Es sei B D .b1 ; : : : ; bn / eine geordnete Basis mit der Eigenschaft, dass B M .'/B D .aij / eine obere Dreiecksmatrix ist. Nach dem Satz Eine lineare Abbildung wird durch eine Darstellungsmatrix beschrieben im 7 Abschn. 6.4 gilt nun für jedes j 2 f1; : : : ; ng:

X j

'.bj / D

˛ ˝ aij bi 2 b1 ; : : : ; bj ;

U1 U1

0 U2 U1

U4 ⊂ U1 U3

U2

U5 ⊂ U2 ∩ U3 U2

U3

U3

i D1

. Abb. 8.6 Disjunkte Kleeblätter stellen eine direkte Summe dar, die Kleeblätter

d. h., dass B D .b1 ; : : : ; bn / eine Fahnenbasis für ' von V Schnittmenge sich überlappender bzw. ineinanderliegender sind wieder Kleeblätter, nämlich Untervektorräume ist. (ii) ) (i): Es sei B D .b1 ; : : : ; bn / eine Fahnenbasis für ' von V . Wir bestimmen die Darstellungsmatrix A D B M .'/B . In der i-ten Spalte von A steht der Ko- Es gilt damit: ordinatenvektor des Bildes '.bi / des i-ten Basisvektors bi . V D U1 ˚ U2 ˚ U3 ; Aufgrund der Voraussetzung gilt für jedes i 2 f1; : : : ; ng:

8

'.bi / 2 hb1 ; : : : ; bi i ; sodass '.bi / D a1i b1 C    C ai i bi :

und wegen '.U1 /  U1 ; '.U2 /  U2 ; '.U3 /  U3 erhalten wir '.V / D '.U1 / ˚ '.U2 / ˚ '.U3 / :

Somit ist die Darstellungsmatrix eine obere Dreiecksma?Selbstfrage 8.14 trix: Es sei U ein Eigenraum von ' zum Eigenwert . Wann 1 0 a11    a1n gilt '.U / D U bzw. '.U / ¨ U ? B :: C :: n n 2 K :  AD@ A : : 0 ann Daher können wir uns diagonalisierbare Endomorphismen wie in . Abb. 8.7 veranschaulichen. Wenn wir einen Endomorphismus ' bzw. eine Matrix A Ist ' hingegen ein triangulierbarer, aber nicht diatriangulieren wollen, müssen wir somit eine Fahnenbagonalisierbarer Endomorphismus, so können wir uns die sis für ' bzw. 'A bestimmen. Der Beweis des folgenden '-invarianten Untervektorräume Kriteriums für Triangulierbarkeit liefert den entscheidenen Hinweis darauf, wie man eine Fahnenbasis bestimmt. BeU1 D hb1 i  U2 D hb1 ; b2 i      Un D hb1 ; : : : ; bn i vor wir aber diesen entscheidenen Satz formulieren, geben wir ein Visualisierung der bisher behandelten Normalformen Diagonalform und obere Dreiecksform. einer Fahnenbasis für ' wie in der . Abb. 8.8 veranschaulichen.

Diagonalisierbare und triangulierbare Endomorphismen lassen sich veranschaulichen Wir stellen uns Untervektorräume als Kleeblätter vor. Dabei stehen überlappende Kleeblätter für sich schneidende Untervektorräume, und jedes Kleeblatt enthält den Nullvektor (siehe . Abb. 8.6). Ist ein Endomorphismus ' eines endlichdimensionalen K-Vektorraums V diagonalisierbar, so ist V die direkte Summe seiner Eigenräume. Der Einfachheit halber (und weil Kleeblätter üblicherweise drei Blätter haben) nehmen wir an, dass ' drei Eigenwerte hat, wir setzen U1 D EigA .1 / ; U2 D EigA .2 / ; U3 D EigA .3 / :

ϕ U1

U1 ϕ

U2

U3

U2

U3

ϕ ϕ(U1 ⊕ U2 ⊕ U3 ) = ϕ(U1 ) ⊕ ϕ(U1 )ϕ(U1 ) . Abb. 8.7 Diagonalisierbare Endomorphismen bilden Eigenräume in Eigenräume ab. Man beachte, dass ein evtl. vorhandener Eigenraum zum Eigenwert 0 auf den trivialen Untervektorraum f0g abgebildet wird, d. h. ein Kleeblatt verschwindet

275 8.6  Das Triangulieren von Endomorphismen

' D .1  X/    .n  X/ und n  2 existiert zum Eigenwert 1 von ' ein Eigenvektor b1 , b1 ¤ 0, von ':

ϕ ϕ

U3

U3

ϕ

U2

'.b1 / D 1 b1 :

U2

U1

Wir ergänzen fb1 g zu einer Basis B D .b1 ; : : : ; bn / von V und betrachten die Darstellungsmatrix von ' bezüglich B:

U1

0

a12

. Abb. 8.8 Eine Fahnenbasis bildet Untervektorräume ineinander ab

1 B0 B A D B M .'/B D B :: @: 0

Ein Endomorphismus ist genau dann triangulierbar, wenn das charakteristische Polynom in Linearfaktoren zerfällt

Die .n  1/ .n  1/-Matrix

U1

U2

U3

ϕ(U1 )

ϕ(U2 )

ϕ(U3 )

Die Elemente einer Fahnenbasis bestimmt man sukzessive, so wie es der Beweis des folgenden Kriteriums nahelegt.

Kriterium für Triangulierbarkeit Für einen Endomorphismus ' eines n-dimensionalen KVektorraums V sind äquivalent: (i) ' ist triangulierbar. (ii) Das charakteristische Polynom ' von ' zerfällt in Linearfaktoren.

Beweis (i) ) (ii): Das charakteristische Polynom ' ist

das charakteristische Polynom einer (beliebigen) Darstellungsmatrix B M .'/B . Da ' triangulierbar ist, wählen wir zur Bestimmung des charakteristischen Polynoms die Basis B, bezüglich der ' eine obere Dreiecksgestalt hat: 1 0 1    B :C :: B M .'/B D @ : :: A : 0 n

0

a22 B :: C D@ : an2

   a1n C

1 C C C A

1 a2n :: C : A    ann 

liefert wie im Folgenden geschildert einen Endomorphismus des .n  1/-dimensionalen K-Vektorraums U D hb2 ; : : : ; bn i: Man wähle für die eindeutig bestimmte lineare Fortsetzung der Abbildung  W fb2 ; : : : ; bn g ! U :  .b2 / D

n X i D2

ai 2 bi ; : : : ;  .bn / D

n X

ai n bi :

i D2

Die Darstellungsmatrix von bezüglich der geordneten Basis .b2 ; : : : ; bn / ist gerade die Matrix C . Wegen der Blockdreiecksgestalt der Matrix A gilt: ' D A D .1  X/ C D .1  X/  :

Folglich gilt  D .2  X/    .n  X/, d. h., dass  in Linearfaktoren zerfällt. Da somit ein Endomorphismus eines .n  1/-dimensionalen K-Vektorraums U mit einem in Linearfaktoren zerfallenden charakteristischen Polynom ist, können wir die Induktionsvoraussetzung anwenden: Für existiert eine Fahnenbasis .c 2 ; : : : ; c n / von U . Wir zeiEs folgt ' D .1  X/    .n  X/. gen nun, dass C D .b1 ; c 2 ; : : : ; c n / eine Fahnenbasis für ' (ii) ) (i): Es gelte ' D .1  X/    .n  X/. Wir von V ist. Offenbar ist die Menge C eine geordnete Basis zeigen per Induktion nach der Dimension n von V , dass von V , und es gilt: eine Fahnenbasis für ' von V existiert. Mit dem oben bewiesenen Lemma erhalten wir, dass ' triangulierbar ist. '.hb1 i/  hb1 i : Induktionsbeginn: Im Fall n D 1 ist jede Basis eine Fahnenbasis für ' von V , da jede 1 1-Matrix eine obeFür i; j 2 f2; : : : ; ng erhalten wir zum einen: re Dreiecksmatrix ist. Induktionsbehauptung: Es sei n  2. Für jeden En'.bj / D a1j b1 C a2j b2 C    C anj bn domorphismus ' mit in Linearfaktoren zerfallenden cha„ ƒ‚ … rakteristischen Polynom eines .n  1/-dimensionalen KD .bj / Vektorraums V existiere eine Fahnenbasis von V . Induktionsschritt: Es sei ' ein Endomorphismus eines und zum anderen: n-dimensionalen K-Vektorraums V mit einem in Linearfaktoren zerfallenden charakteristischen Polynom. Wegen c i D 2 b 2 C    C n b n

8

276

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

mit gewissen i 2 K. Mit diesen Bezeichnungen erhalten wir '.c i / D

n X

j '.bj / D

j D2

D

n X

n X

j .a1j b1 C

.bj //

j D2

j a1j b1 C

.j bj /

j D2

D  b1 C

.c i / 2 hb1 ; c 1 ; : : : ; c i i

für ein  2 K; man beachte, dass .c 2 ; : : : ; c n / eine Fahnenbasis für von U ist. Somit ist alles gezeigt.  Kommentar Der Beweis lässt sich für die Triangulierbar-

8

keit einer Matrix etwas durchsichtiger mit einem Matrizenformalismus führen. Wir führen das in Aufgabe 8.11 durch. Jedoch ist die durch den Matrizenformalismus motivierte Konstruktion der Fahnenbasis dann aufwendiger, solange man mit Bleistift und Papier eine solche Basis bestimmen will.

Wir bestimmen die Koordinatenvektoren der Bilder der Basisvektoren: 0 1 0 B0C C 'A .s1 / D B @2A D 2 s1 C 0 s2 C 0 s3 C 0 s4 ; 0 0 1 2 B2C C 'A .s2 / D B @1A D 1 s1 C 2 s2 C 2 s3 C 0 s4 ; 0 0 1 0 B2C C 'A .s3 / D B @1A D 1 s1 C 0 s2 C 2 s3 C 1 s4 ; 1 0 1 0 B0C C 'A .s4 / D B @1A D 1 s1 C 0 s2 C 0 s3 C 2 s4 : 2

Wie man nun tatsächlich einen Endomorphismus bzw. eine Als Darstellungsmatrix von 'A bezüglich der Basis B erMatrix trianguliert, wird durch unseren Beweis nahegelegt. halten wir somit: Wir führen die Konstruktion einer Fahnenbasis an einem 0 1 Beispiel vor. 2 1 1 1 B0 2 0 0C B C B1 M .'A /B1 D @ Beispiel Wir konstruieren eine Fahnenbasis des R4 für den 0 2 2 0A Endomorphismus 'A W v 7! A v mit 0 0 1 2 0 1 2 0 0 0 Und die Matrix S D .s1 ; : : : ; s4 / erfüllt B2 2 0 0 C C ADB @1 1 2 1A 1 B1 M .'A /B1 D S A S : 0 1 0 2 1. Schritt: Wegen A D .2  X/4 – man beachte die Blockdreiecksgestalt der Matrix – hat der Endomorphismus 'A den vierfachen Eigenwert 2. Als Eigenraum erhalten wir 0

1 0 1 0 0 0 0 * 0 + B2 0 0 0 C B C C D B0 C : EigA .2/ D ker B @1 1 0 1A @1 A 0 1 0 0 0 Wir ergänzen die linear unabhängige Menge fe 3 g zu einer geordneten Basis B1 des R4 : 0

1

B 001 B B B0C B C ; B1 D B B B @1A B @ 0 „ƒ‚… DWs1

0 1 1 B0C B C ; @0A 0 „ƒ‚… DWs2

0 1 0 B1C B C ; @0A 0 „ƒ‚… DWs3

0 1C 0 C B0C C B CC : @0A C C C 1 A „ƒ‚… DWs4

2. Schritt: Wir kümmern uns nun um die 3 3-Untermatrix 0

1 2 0 0 B D @2 2 0 A 0 1 2 Der Endomorphismus von U D hs2 ; s3 ; s4 i mit der Darstellungsmatrix B bezüglich der Basis .s2 ; s3 ; s4 / hat wegen B D .2  X/3 den dreifachen Eigenwert 2. Wegen 0

1 *0 1+ 0 0 0 0 @ A @ 2 0 0 0A EigB .2/ D ker D 0 1 0 1 ist 0 s2 C 0 s3 C 1 s4 D s4 ein Eigenvektor zum Eigenwert 2 von , d. h., Eig .2/ D hs4 i. Wir ergänzen nun die linear unabhängige Menge fe 3 ; s4 D e 4 g der beiden aus den bisherigen Schritten gewonnenen linear unabhängigen Vektoren e 3 und e 4 zu einer

277 8.7  Die Jordan-Normalform

geordneten Basis B2 des R4 : 0 B 001 001 011 B B B0C B0C B0C B C ; B C ; B C ; B2 D B B B @1A @0A @0A B 1 0 @ 0 „ƒ‚… „ƒ‚… „ƒ‚… DWt 1

DWt 2

Als Darstellungsmatrix erhalten wir 0 2 B0 B B2 M .'A /B2 D @ 0 0

DWt 3

1 0 1C 0 C B1C C B CC : @0A C C C 0 A „ƒ‚…

?Selbstfrage 8.15 Können Sie ein Kriterium dafür angeben, wann ein Endomorphismus ' eines n-dimensionalen K-Vektorraums V durch eine untere Dreiecksmatrix dargestellt werden kann?

8.7

Die Jordan-Normalform

DWt 4

von 'A bezüglich dieser Basis B2

Diagonalisierbare Matrizen haben gegenüber allgemeinen und Dreiecksmatrizen den großen Vorteil, dass sich beliebi1 1 1 1 ge Potenzen auf relativ einfache Art und Weise berechnen 2 0 1C lassen. Leider kann nicht jede Matrix diagonalisiert werC 0 2 0A den. 0 2 2 Aber die Vorteile von Diagonalmatrizen lassen sich auch für einen weiteren Typ von Matrizen ausnutzen. TatUnd die Matrix T D .t 1 ; : : : ; t 4 / erfüllt sächlich lassen sich auch beliebige Potenzen von Matrizen 1 effizient berechnen, zu denen eine sogenannte Jordan-NorM .' / D T A T : B2 A B2 malform existiert. Dabei sagt man etwas salopp ausge3. Schritt: Wir kümmern uns nun um die 2 2-Untermatrix drückt, dass eine Matrix Jordan-Normalform hat, wenn sie   abgesehen von einigen Einsen auf der oberen Nebendia2 0 C D gonale eine Diagonalmatrix ist. Das Wesentliche ist nun, 2 2 dass zum Beispiel zu jeder komplexen Matrix eine solche Der Endomorphismus von U D ht 3 ; t 4 i mit der Dar- Jordan-Normalform existiert, weil wie bei der Triangustellungsmatrix C bezüglich der Basis .t 3 ; t 4 / hat wegen lierbarkeit das Zerfallen des charakteristischen Polynoms C D .2  X/2 den zweifachen Eigenwert 2. Wegen hinreichend ist für die Existenz dieser Normalform.     0 0 0 D EigC .2/ D ker 2 0 1 ist 0 t 3 C 1 t 4 D e 2 ein Eigenvektor zum Eigenwert 2 von , d. h., Eig .2/ D ht 4 i. Wir ergänzen nun die linear unabhängige Menge fe 3 ; s4 D e 4 ; t 4 D e 2 g der drei aus den bisherigen Schritten gewonnenen linear unabhängigen Vektoren e 3 , e 4 und e 2 zu einer geordneten Basis B3 des R4 : 0 1 B 001 001 001 011 C B C B B0C B0C B1C B0C C BB C B C B C B CC B3 D B @ A ; @ A ; @ A ; @ A C : 0 0 0 C B 1 B C 1 0 0 A @ 0 „ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… DWu1

DWu2

Als Darstellungsmatrix erhalten wir 0 2 B0 B B3 M .'A /B3 D @ 0 0

DWu3

DWu4

von 'A bezüglich dieser Basis B3 1 1 1 1 2 1 0C C 0 2 2A 0 0 2

Und die Matrix U D .u1 ; : : : ; u4 / erfüllt

Potenzen von Matrizen in Jordan-Normalform berechnet man mit der Binomialformel

Nicht jede Matrix ist diagonalisierbar, so hat etwa die komplexe Matrix   2 1 AD 2 C 2 2 0 2 den Eigenwert 2 mit der algebraischen Vielfachheit 2 und der geometrischen Vielfachheit 1 – nach dem Kriterium für Diagonalisierbarkeit ist A also nicht diagonalisierbar. Wir berechnen nun Potenzen dieser Matrix A. Dazu schreiben wir die Matrix als eine Summe einer Diagonalmatrix D und einer Matrix N , deren Quadrat die Nullmatrix ist,     2 0 0 1 AD C : 0 2 0 0 „ ƒ‚ … „ ƒ‚ … DWD

DWN

Nun berechnen wir – etwas naiv, aber korrekt – mittels der Binomialformel Potenzen von A: ! k Damit ist der Endomorphismus 'A bzw. die Matrix A triX k D ki N i : A k D .D C N /k D anguliert. Die Spalten u1 ; : : : ; u4 der Matrix U bilden eine i 4 i D0 Fahnenbasis für 'A des R . 9 1 AU : B3 M .'A /B3 D U

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

278

Wegen N 2 D 0 verkürzt sich diese Formel für k  1 auf Die Jordan-Normalform ist von einigen zwei Summanden. Es gilt also Einsen in der oberen Nebendiagonalen

abgesehen eine Diagonalform

A k D .D C N /k D D k C k D k1 N ! 2k 0 2k1 D k Ck 0 2 0 ! 2k k 2k1 D : 0 2k

!  0 1 0 0 2k1 0

Eine Matrix .aij / 2 Ks s heißt ein Jordan-Kästchen zu einem  2 K, wenn a11 D    D ass D  ; a12 D    D as1;s D 1 und aij D 0 sonst ;

Wir halten zuerst das wesentliche Hilfsmittel für diese Po- d. h., tenzbildung fest.

Die Binomialformel für Matrizen

8

Für Matrizen D; N 2 Kn n mit D N D N D und jede natürliche Zahl k gilt:

0

B B .aij / D B B @



1

1 ::

:

::

:

::

:

C C C C 1A 

! k X k .D C N / D D ki N i : i iD0

Ein Jordan-Kästchen ist also von den Einsen in der oberen Nebendiagonalen abgesehen eine Diagonalmatrix, es sind 0 1 0 1  1 0 0    1 0 B0  1 0C    1 C  ; ; @0  1A ; B @0 0  1A 0  Der Beweis erfolgt analog zur Binomialformel für kom0 0  0 0 0  plexe Zahlen per Induktion. Dabei ist wesentlich, dass die beiden Matrizen miteinander kommutieren. Dies zu be- Beispiele für Jordan-Kästchen. gründen haben wir als Übungsaufgabe gestellt. Eine Matrix J 2 Kn n heißt Jordan-Matrix, falls Weil im obigen Beispiel die beiden Matrizen miteinan1 0 J1 der kommutieren, war diese Rechnung auch korrekt. C B :: Wenn eine gewisse Potenz einer Matrix die Nullmatrix J D@ A : ergibt, so nennt man diese Matrix nilpotent, genauer: Gibt Jl es zu einer Matrix N eine natürliche Zahl k, sodass N k D 0, so nennt man N nilpotent, und die kleinste Zahl r 2 N eine Blockdiagonalgestalt mit Jordan-Kästchen J 1 ; : : : ; J l mit N r D 0 nennt man den Nilpotenzindex von N . Mit hat. Dabei müssen die Diagonaleinträge i der J i nicht verschieden sein, es dürfen auch 1 1-Jordan-Kästchen vorder Binomialformel erhalten wir folgende Aussage. kommen. k

Die Potenz einer Summe einer Diagonalmatrix und einer nilpotenten Matrix Lässt sich eine Matrix A als Summe einer Diagonalmatrix D und einer nilpotenten Matrix N mit Nilpotenzindex r schreiben, d. h., A DDCN ; so gilt im Fall D N D N D: A D D CkD k

k

k1

! k N C  C D kr1 N r1 : r 1

Beispiel

4 Jordan-Matrizen mit einem Jordan-Kästchen: 1 0 ! ! 2 1 0

1 1 0 1 C B ; ; @0 2 1A 1 ; 0 1 0 0 0 0 2 4 Jordan-Matrizen mit zwei Jordan-Kästchen: 1 0 1 1 0 1 0 0 3 0 1 1 0 C B C A; @ A; B @ A @ 2 1 A; @ 0 0 2 0 1 0 2

4 Jordan-Matrizen mit drei Jordan-Kästchen: 1 0 0 1 0 1 2 1 2 C B B0 2 Je kleiner r ist, desto kürzer ist diese Summe, desto leichter C B B C B 0 1 B 2 C; B C; B also ist A k zu berechnen. C B 0 0 A B @ 3 A @ @ Wir werden bald sehen, dass jede Matrix in Jordan-Nor2 1 1 malform die angegebenen Voraussetzungen erfüllt.

1 C C C 9 C A

8

279 8.7  Die Jordan-Normalform

Bisher war nur von Matrizen die Rede. Für die folgenden theoretischen Betrachtungen wird es wieder unabdingbar sein, Endomorphismen zu betrachten. Daher führen wir die notwendigen Begriffe für Endomorphismen und Matrizen ein. Wir nannten einen Endomorphismus ' W V ! V eines n-dimensionalen K-Vektorraums diagonalisierbar bzw. triangulierbar, wenn es eine Basis B D .b1 ; : : : ; bn / von V gibt mit der Eigenschaft, dass die Darstellungsmatrix D D B M .'/B von ' bezüglich B Diagonal- bzw. obere Dreiecksgestalt hat. Entsprechend sagen wir nun, dass ein Endomorphismus ' W V ! V eine Jordan-Normalform besitzt oder sich auf Jordan-Normalform bringen lässt, falls es eine Basis B D .b1 ; : : : ; bn / von V gibt mit der Eigenschaft, dass die Darstellungsmatrix

Jordan-Normalform, in der Jordan-Basis werden dabei die dazugehörigen Jordan-Basisvektoren mit vertauscht. Eine Jordan-Normalform unterscheidet sich also von einer Diagonalform höchstens dadurch, dass sie einige Einsen in der ersten oberen Nebendiagonale hat. Jede Diagonalmatrix hat Und auch die Matrizen 1 0 0 1 1 0 C B B C B 0 B0 1 C B B C B B 2 1 C B 0 B C B B 0 2 C , B 0 B C B B B B 3 1 0C C B B C B B 0 3 1A @ @ 0 0 3

Beispiel

Jordan-Normalform. 1 1 0 0 1 0 0

C C C C C C C C 0 1 0C C C 0 0 1A 0 0 0

haben Jordan-Normalform. Hingegen ist

J D B M .'/B von ' bezüglich B eine Jordan-Matrix ist.

Jordan-Basis und Jordan-Normalform Existiert zu einem Endomorphismus ' eines n-dimensionalen K-Vektorraums V eine geordnete Basis B D .b1 ; : : : ; bn / von V , sodass 0 J1 B B B M .'/B D J D @

  1 1 0 1

keine Jordan-Normalform, da in den Jordan-Kästchen auf der Diagonalen nur gleiche Einträge stehen. Aber es sind 0 1

J D@

1

1 ::

C C A

:

1

0

A

und J 0 D @

1

1

A 1

die zwei verschiedenen Jordan-Normalformen dieser Matrix A, da diese diagonalisierbar ist. Jordan-Basen sind in diesem Beispiel Basen aus Eigenvektoren von A. 9

Jl eine Jordan-Normalform mit Jordan-Kästchen J 1 ; : : : ; J l ist, so nennt man B eine Jordan-Basis von V zu ' und die Matrix J eine Jordan-Normalform von '.

Nullen außerhalb der Jordan-Kästchen lassen wir immer weg. Wir benutzen diese Begriffe ebenso für eine Matrix A 2 Kn n und meinen dabei eigentlich den Endomorphismus 'A von Kn . Ist also B D .b1 ; : : : ; bn / eine Jordan-Basis zu einer Matrix A 2 Kn n , so besagt dies, dass A ähnlich zu einer Jordan-Matrix J ist, dabei gilt: 0

AD

1

i In manchen Lehrbüchern werden die Jordan-Kästchen auch in der Form 0  B B1 B B B @

1 ::

:

::

:

::

:

1

C C C C C A 

eingeführt, die Einsen stehen also auf der unteren Nebendiagonale. Hierbei werden die Vektoren der Jordan-Basis anders sortiert.

Nach dem Kriterium für Diagonalisierbarkeit ist ein Endomorphismus ' genau dann diagonalisierbar, wenn das C B :: S 1 A S D J D @ A : charakteristische Polynom ' in Linearfaktoren zerfällt Jl und für jeden Eigenwert  von ' die algebraische Vielfachheit gleich der geometrischen ist. Die Bedingungen für die mit der Matrix S D .b1 ; : : : ; bn /. Die Jordan-Matrix J ist Existenz einer Jordan-Normalform eines Endomorphismus in diesem Fall eine Jordan-Normalform zu A. sind deutlich einfacher: Eine Jordan-Normalform ist im Allgemeinen nicht einEine Jordan-Normalform existiert zu ' genau dann, deutig, beim Vertauschen der Kästchen entsteht wieder eine wenn ' triangulierbar ist. J1

280

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Der Beweis dieses Existenzsatzes einer Jordan-Normal- ?Selbstfrage 8.16 form ist nicht einfach. In Arch. Math., Vol. 50, 323–327 Wieso haben wir U; W ¤ f0g in (b) verlangt? (1988) gibt Johann Hartl einen Induktionsbeweis für diesen Satz an. Wir bringen den Beweis von Johann Hartl mit ei- Lemma 2 Es sei U  V ein '-invarianter Untervektorraum nigen weiteren Vereinfachungen. Dazu stellen wir erst mal eines K-Vektorraums V . Dann gilt: (a) U ist ein Untervektorraum von ' 1 .U /, d. h., U  einige Hilfsmittel bereit. ' 1 .U /. (b) Jeder Untervektorraum W von V mit der Eigenschaft U  W  ' 1 .U / ist '-invariant, d. h., '.W /  W . Zum Beweis des Existenzsatzes benötigen (c) Jeder Untervektorraum W von V mit der Eigenschaft wir einige Hilfsmittel W  ker ' ist '-invariant, d. h., '.W /  W . (d) Jeder Untervektorraum W von V mit der Eigenschaft Für den Beweis des Existenzsatzes einer Jordan-NormalBild'  W ist '-invariant, d. h., '.W /  W . form benötigen wir vier Lemmata. Wir stellen diese in diesem Abschnitt vor. Die Beweise sind teils recht aufwen- Beweis (a) Wegen der Invarianz von U unter ' gilt '.u/ 2 dig. Wieder wollen wir explizit darauf hinweisen, dass wir U für alle u 2 U . Es folgt u 2 ' 1 .U / für alle u 2 U , von einem Leser keineswegs erwarten, dass er selbstständig d. h., U  ' 1 .U /. (b) Wegen W  ' 1 .U / gilt w 2 ' 1 .U / für alle w 2 auf diese Beweise kommen sollte. Es reicht vollkommen aus, wenn Sie als Studierender im ersten Studienjahr diese W . Es folgt '.w/ 2 U . Und wegen U  W gilt somit '.w/ 2 W für alle w 2 W , d. h., '.W /  W . Schlüsse nachvollziehen können. (c) Das folgt aus (b) mit dem '-invarianten UntervekLemma 1 Es sei V ein endlichdimensionaler K-Vektor- torraum U D f0g von V . (d) Wegen '.W /  Bild' folgt die Behauptung soraum. Ist V D U ˚ W die direkte Summe zweier gleich aus Bild'  W .  '-invarianter Untervektorräume U und W , so gilt: (a) D 'jU und  D 'jW sind Endomorphismen von U ?Selbstfrage 8.17 und W . Zeichnen Sie Bilder mit den entsprechenden Untervektor(b) Für U; W ¤ f0g gilt ' D   . räumen. (c) Sind BU und BW Jordan-Basen zu und , so ist BU [ BW eine Jordan-Basis zu '. Lemma 3 Es sei ' ein Endomorphismus eines n-dimensionalen K-Vektorraums V mit n  2. Beweis (a) Weil U und W invariant sind unter ', gilt Falls der Kern von ' nicht im Bild von ' enthalten .U /  U und .W /  W . Folglich sind und  Enist, ker ' 6 Bild ', so gilt V D U ˚ W mit echten domorphismen von U und W . '-invarianten Untervektorräumen U und W von V , d. h., (b) Das charakteristische Polynom eines EndomorphisU; W ¨ V , '.U /  U , '.W /  W . mus ist das charakteristische Polynom einer Darstellungsmatrix bezüglich einer beliebig gewählten Basis. Es seien Beweis 1. Fall. ker ' D V , d. h., ' ist die Nullabbildung. BU und BW irgendwelche Basen von U und W . Die Verei- Da in diesem Fall jeder Untervektorraum '-invariant ist, nigung B D BU [ BW ist wegen der Direktheit der Summe wähle man für U irgendeinen eindimensionalen Untervekdann eine Basis von ganz V . Die Darstellungsmatrizen der torraum und für W das Komplement zu U in V . Es sind Endomorphismen und  bezüglich der Basen BU und dann U und W zwei echte '-invariante Untervektorräume BW seien A und A  : von V mit V D U ˚W (man beachte den Satz zur Existenz von Komplementen in 7 Abschn. 4.5). 2. Fall. ker ' ¨ V . Wähle eine Basis B0 von ker ' \ Wir erhalten als Darstellungsmatrix von ' bezüglich der Bild ', Basis B von V : ker ' \ Bild ' D hB0 i ;   A 0 und ergänze diese zum einen zu einer Basis B0 [ B1 von : (8.4) B M .'/B D 0 A ker ', A D BU M . /BU und A  D BW M ./BW :

Nun bilden wir das charakteristische Polynom von ': ˇ ˇ ˇ ˇA  X E 0 ˇ D   : ' D ˇˇ 0 A   X Eˇ

ker ' D hB0 [ B1 i ; und zum anderen zu einer Basis B0 [ B2 von Bild ', Bild ' D hB0 [ B2 i :

Wie im Beweis zur Dimensionsformel für Untervektorräu(c) Diese Aussage folgt aus der Darstellungsmatrix in (8.4): me (siehe 7 Abschn. 4.5) zeigt man: Sind nämlich A und A  Jordan-Normalformen, so ist es auch B M .'/B .  B0 [ B1 [ B2 ist linear unabhängig.

281 8.7  Die Jordan-Normalform

Wir ergänzen nun diese linear unabhängige Menge B0 [ Hieraus folgt U 0  U , W 0  W , und es gilt: B1 [ B2 um weitere Vektoren aus einer Menge B3 zu einer U  ' 1 .U 0 / und W  ' 1 .W 0 / ; Basis B D B0 [ B1 [ B2 [ B3 von V . Wir wählen nun zwei Untervektorräume U und W von V gemäß U D hB1 i und W D hB0 [ B2 [ B3 i :

d. h., dass U und W '-invariant sind. Wegen der Gleichungen (8.5) und (8.6) gelten die Inklusionen ' 1 .U 0 /  ' 1 .W 0 / C U 0 C A und ' 1 .W 0 /  U 0 C W 0 C B ;

Wegen Lemma 2 (c) und (d) sind die Untervektorräume U sodass mithilfe von (i) folgt: und W '-invariant. Weiter gilt V D U ˚ W , da B0 [ B1 [ V D ' 1 .U 0 / C ' 1 .W 0 /  U 0 C W 0 C B C A B2 [ B3  U C W . DU CW : Schließlich gilt B1 ¤ ; wegen ker ' 6 Bild ', d. h., dass U ¤ f0g. Es folgt W ¤ V . Nun zeigen wir: Und aus ker ' ¤ V folgt B1 ¨ B, d. h., dass auch U ¤ (ii) Es gilt U \ ' 1 .W 0 / D U 0 \ ' 1 .W 0 /. V gilt.  Denn: die Inklusion  folgt aus U 0  U . Es sei v 2 U \ ' 1 .W 0 /. Dann gilt v D u0 C a mit einem u0 2 U 0 Wir formulieren den letzten Hilfssatz. und a 2 A, da U D U 0 C A. Wegen Gleichung (8.5) gilt U  ' 1 .U 0 /, d. h., dass v 2 ' 1 .U 0 / \ ' 1 .W 0 /. Es folgt Lemma 4 Es sei ' ein Endomorphismus eines n-dimensio  nalen K-Vektorraums V . a D v  u0 2 ' 1 .U 0 / \ ' 1 .W 0 / C U 0 : Falls Bild ' D U 0 ˚ W 0 mit '-invarianten Untervektorräumen U 0 und W 0 von V gilt, so gibt es Untervektorräume Mit Gleichung (8.5) folgt a D 0, also v D u0 2 U 0 \ ' 1 .W 0 /. Somit ist (ii) begründet. U und W von V mit (iii) Es gilt U \ W D f0g. (a) V D U ˚ W . Aus (ii) folgt wegen W  ' 1 .W 0 /, der Gleichung (b) U 0  U und W 0  W . (8.6) und W D W 0 C B: (c) U und W sind '-invariant.   U \ W D U \ ' 1 .W 0 / \ W Beweis Wir zeigen die Behauptungen in mehreren Schrit  ten. D U \ ' 1 .W 0 / \ W   (i) Es gilt V D ' 1 .U 0 / C ' 1 .W 0 /. D U 0 \ ' 1 .W 0 / \ .W 0 C B/ Denn nach Voraussetzung gibt es zu jedem v 2 V ein D f0g : u0 2 U 0 und w0 2 W 0 mit '.v/ D u0 C w0 . Wegen U 0  0 1 0 '.V / gibt es ein u 2 V mit u D '.u/, d. h., u 2 ' .U /. Damit ist alles begründet.  Für die Differenz w D v  u folgt: '.w/ D '.v/  '.u/ D '.v/  u0 D w0 2 W 0 ;

Der Beweis des Existenzsatzes erfolgt per Induktion nach der Dimension also v D u C w 2 ' .U / C ' .W /. Damit gilt (i). 0 1 0 Nach Lemma 2 (a) gilt U  ' .U /. Nach dem Satz des Vektorraums 1

0

1

0

zur Existenz eines Komplements in 7 Abschn. 4.5 gibt es einen Untervektorraum A von V mit Wir haben im letzten Abschnitt alle wesentlichen Hilfsmit 1 0   ' .U / \ ' 1 .W 0 / C U 0 ˚ A D ' 1 .U 0 / : (8.5) tel zum Beweis des folgenden Existenzsatzes einer JordanNormalform bereitgestellt: Erneut wegen Lemma 2 (a) gilt W 0  ' 1 .W 0 /, außerdem haben wir U 0 \ W 0 D f0g. Somit gibt es erneut nach dem Satz zur Existenz eines Komplements einen Untervektorraum B von V mit  0   U \ ' 1 .W 0 / ˚ W 0 ˚ B D ' 1 .W 0 / : (8.6) Nun erklären wir die Untervektorräume U und W durch U D U 0 ˚ A und W D W 0 ˚ B :

Kriterium für die Existenz einer Jordan-Normalform Für einen Endomorphismus ' eines n-dimensionalen KVektorraums V , n 2 N, sind äquivalent: (i) ' besitzt eine Jordan-Normalform. (ii) Das charakteristische Polynom ' zerfällt über K in Linearfaktoren.

8

282

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beweis (i) ) (ii): Falls ' eine Jordan-Normalform besitzt, so ist dies eine obere Dreiecksmatrix. Somit zerfällt ' über K in Linearfaktoren. (ii) ) (i): Nun zerfalle das charakteristische Polynom ' des Endomorphismus ' eines n-dimensionalen KVektorraums V über K in Linearfaktoren. Wir zeigen die Existenz einer Jordan-Normalform mit Induktion nach der Dimension n des Vektorraums V . Induktionsanfang. Für n D 1 gilt die Behauptung, da 1 1 für jede beliebige Basis B von B M .'/B D ./ 2 K jedem Vektorraum V der Dimension 1 bereits Jordan-Normalform hat. Induktionsvoraussetzung. Die Behauptung sei richtig für alle Vektorräume V mit 1  dim V  n  1 und alle Endomorphismen ' von V mit zerfallendem charakteristischem Polynom ' . Induktionsschritt. Es sei  2 K eine Nullstelle von ' , d. h., ' ./ D 0. Für den Kern des Endomorphismus '   idV von V gilt:

Wegen . / besitzt T nach der Induktionsvoraussetzung eine Jordan-Basis BT D .b1 ; : : : ; bk / bezüglich 'jT . Die Darstellungsmatrix A T D BT M .'jT /BT ist eine Jordan-Normalform von 'jT . Wir treffen eine weitere Fallunterscheidung: Fall 2a. Die Jordan-Matrix A T enthält zwei JordanKästchen, d. h. 0 B AT D @

1

A1

C A

A2 ::

:

wobei das Jordan-Kästchen A1 genau j Zeilen enthalte, 1  j < k. Die beiden zueinander komplementären Untervektorräume ˝ ˝ ˛ ˛ U 0 D b1 ; : : : ; bj und W 0 D bj C1 ; : : : ; bk

ker.'   idV / ¤ f0g ; sodass wir für die Dimension des Bildes von '  idV nach der Dimensionsformel erhalten: dim Bild.'   idV / < n :

von T sind 'jT -invariant, also '-invariant und schließlich auch .'   idV /-invariant. Damit ist T die direkte Summe zweier .'   idV /-invarianter Untervektorräume U 0 und 0 ( ) W :

U 0 ˚ W 0 D T D Bild.'   idV / : Wir treffen eine Fallunterscheidung: 1. Fall. ker.'  idV / 6 Bild.'  idV /: Wegen Lemma 3 existieren .'  idV /-invariante Untervektorräume U Somit gibt es nach Lemma 4 Untervektorräume U und W 0 0 und W von V mit dim U; dim W < n und V D U ˚ W . Da von V mit U  U und W  W , die unter '   idV invariant sind und V D U ˚ W erfüllen. Da U 0 ; W 0 ¤ f0g für jedes u 2 U und w 2 W gilt: gilt, erhalten wir auch U; W ¤ f0g. Nach Lemma 1 (d) gilt: .'   idV /.u/ D '.u/   u 2 U und .'   idV /.w/ D '.w/   w 2 W ;

' D 'jU 'jW :

Somit zerfallen 'jU und 'jW in Linearfaktoren. Wegen sind die Untervektorräume U und W somit auch U; W ¤ f0g gilt dim U; dim W < n. Mit der Induktions'-invariant. voraussetzung und Lemma 1 (c) folgt die Behauptung in Nach Lemma 1 (b) ist das charakteristische Polynom diesem Fall. von ' das Produkt der charakteristischen Polynome von Fall 2b. Die Jordan-Matrix A T ist ein Jordan-Kästchen, D 'jU und  D 'jW : d. h. ' D   :

0



1 ::

1

B C : B C : :: Mit ' zerfallen auch die charakteristischen Polynome  C A T D BT M .'jT /BT D B B C :: und  . Wegen der Induktionsannahme existieren Jordan@ : 1A basen BU und BW bezüglich und . Nach Lemma 1 (c)  ist die Vereinigung B D BU [ BW eine Jordan-Basis bezüglich ' von V . 2. Fall. ker.'  idV /  Bild.'  idV /: Nach Lemma Da zum einen  ein Eigenwert von ' ist und zum anderen 2 (d) ist der Untervektorraum T D Bild.'   idV / invari- ker.' idV /  Bild.' idV / vorausgesetzt ist, erhalten ant unter '   idV und somit (wie im 1. Fall gezeigt) auch wir invariant unter ', d. h., '.T /  T . Der Endomorphismus f0g ¤ ker.'   idV / D ker ..'   idV /jT / 'jT von T hat ein in Linearfaktoren zerfallendes charakteD ker.'jT   idT / : ristisches Polynom 'jT .

8

283 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

Da A T die Darstellungsmatrix von 'jT bezüglich BT ist, muss somit  D  gelten, da andernfalls ker.'jT   idT / D f0g gelten würde. Mit der Dimensionsformel gilt nun: 1 D dim ker.'jT   idT / D dim ker.'   idV / D n  dim Bild.'   idV / ;

wir Hilfsmittel bereit, mit denen man in vielen Fällen eine Jordan-Normalform einer Matrix bestimmen kann, ohne eine Jordan-Basis angeben zu müssen. Wir beginnen mit dem Fall, dass die Matrix A nur einen Eigenwert hat.

Die Dimension des Eigenraums ist die Anzahl der Jordan-Kästchen

d. h., dass Gegeben ist eine Matrix A 2 Kn n mit einem in Linearfaktoren zerfallendem charakteristischem Polynom A D .  X/n . Also ist  2 K der einzige Eigenwert von A Wegen der Form der Darstellungsmatrix A T gilt für die ermit der algebraischen Vielfachheit n und der geometrischen zeugenden Vektoren von T D hb1 ; : : : ; bn1 i: Vielfachheit mg ./, wobei wir von dieser nur wissen, dass .'   idV /.b1 / D 0 ; 1  mg ./  n .'   idV /.bi / D bi 1 ; 1 < i < n : dim T D dim Bild.'   idV / D n  1 :

Weiter gibt es wegen .'   idV /.V / D T ein bn 2 V n T mit .'   idV /.bn / D bn1 :

0

Da bn … T , ist B D .b1 ; : : : ; bn / eine Basis von V . Wegen 0 B B B M .'/ D B B B @



1 :: :

gilt. Weil das charakteristische Polynom in Linearfaktoren zerfällt, existiert zu A eine Jordan-Normalform J , d. h., es gibt eine Matrix S D .b1 ; : : : ; bn / 2 Kn n mit

1 ::

:

::

:

::

C 1 A D S AS ;

: Jl

C C C C 1A 

ist B eine Jordan-Basis von V bezüglich '.

B J D@

1

J1



Da über dem algebraisch abgeschlossenen Körper C jedes Polynom in Linearfaktoren zerfällt, erhalten wir die Folgerung:

wobei J 1 ; : : : ; J l Jordan-Kästchen sind. Da A und J ähnlich sind, haben A und J dasselbe charakteristische Polynom und auch denselben Eigenwert  mit der gleichen algebraischen und geometrischen Vielfachheit. Damit haben also alle Jordan-Kästchen J 1 ; : : : ; J l nur  als Diagonaleinträge, 0 B J D@

1

J1 ::

: Jl

0



B B C A mit J i D B B @

1

1 ::

:

::

:

::

:



Jordan-Normalform komplexer Matrizen Jeder Endomorphismus ' eines C-Vektorraums V besitzt eine Jordan-Normalform. Insbesondere ist jede komplexe Matrix zu einer Jordan-Matrix ähnlich.

für i D 1; : : : ; l. Und wegen mg ./ D dim.ker.J   En // D Anzahl der Jordan-Kästchen von J ;

8.8

Die Berechnung einer Jordan-Normalform und Jordan-Basis

In den folgenden Beispielen berechnen wir die Jordan-Normalformen von Matrizen. Die Jordan-Normalform eines Endomorphismus ' erhält man aus der Jordan-Normalform einer und damit jeder Darstellungsmatrix von '. Wir schildern die Konstruktion einer Jordan-Basis und damit der Jordan-Normalform zuerst an Beispielen. Das allgemeine Vorgehen wird dann schnell klar. Vorher stellen

siehe etwa 0 B B B B B B J   E7 D B B B B B @

1 0 0 1 0 1 0

C C C C 1A

C C C C C C C C 0 1 C C C 0 1A 0

284

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

erhalten wir damit:

Die Anzahl der Jordan-Kästchen Die Anzahl der Jordan-Kästchen einer Jordan-Normalform J zu einer Matrix A 2 Kn n zu dem Eigenwert  ist die geometrische Vielfachheit mg ./ des Eigenwerts  von A.

Damit ist die Jordan-Normalform von A genau dann eine Diagonalmatrix, wenn die geometrische Vielfachheit von  gleich der algebraischen Vielfachheit ist. ? Selbstfrage 8.18

8

Durch die Dimension der Eigenräume ist die Jordan-Normalform einer 3 3-Matrix A 2 K3 3 bis auf die Reihenfolge der Jordan-Kästchen eindeutig festgelegt. Welche wesentlich verschiedenen Formen gibt es?

Das größte Jordan-Kästchen hat r Zeilen, wobei r der Nilpotenzindex ist Wir betrachten weiterhin die Matrix A 2 Kn n mit dem charakteristischen Polynom A D .  X/n und entscheiden, wie groß das größte Jordan-Kästchen der Jordan-Normalform 1 0 J1 C B :: J D@ A : Jl ist, dabei bezieht sich der Begriff Größe auf die Anzahl der Zeilen bzw. Spalten der Kästchen. Die Matrix 1 0 J 1   En1 C B :: J   En D @ A : J l   Enl ist nilpotent, da für jedes Kästchen 0 1 0 1 B C :: :: B C : : C J j   Enj D B B C :: @ : 1A 0

.J j   Enj /

nj

B B DB B @

0

1 :: :

:

::

:

N

0

0 B 0 N !B @0 0

0 0 0 0

1 0 0 0

1 0 1C C 0A 0

0 0 0 0

0 0 0 0

1 1 0C N C! 0; 0A 0

bei jeder Multiplikation rutscht die Diagonale mit den Einsen um eine Reihe hoch. Somit ist das Kästchen J j   Enj nilpotent mit Nilpotenzindex nj . Folglich ist die ganze Matrix J   En auch nilpotent. Und der Nilpotenzindex r von J   En ist das Maximum der Nilpotenzindizes der Jordan-Kästchen, also r D maxfn1 ; : : : ; nl g. Wegen J D S 1 A S gilt: J   En D S 1 A S   S 1 S D S 1 .A   En / S : Damit erhalten wir .J   En /k D 0 , S 1 .A   En /k S D 0 , .A   En /k D 0 : Also ist auch A   En nilpotent vom Nilpotenzindex r. Das besagt, dass der Nilpotenzindex von A   En die Zeilenanzahl des größten Jordan-Kästchens J j einer Jordan-Normalform von A angibt.

Die Zeilenzahl des größten Jordan-Kästchen Die Zeilenzahl des größten Jordan-Kästchens einer Jordan-Normalform von A ist der Nilpotenzindex r der Matrix A   En .

Welche Jordan-Normalform J kann eine Matrix A 2 C 5 5 mit 5-fachem Eigenwert 1 der geometrischen Vielfachheit 3 haben, wenn A  E5 den Nilpotenzindex 3 hat?

1nj ::

1 0 0 0 0C N  B0 C!B @0 1A 0 0 …

?Selbstfrage 8.19

mit nj Zeilen die Gleichung 0

gilt, z. B. 0 0 1 0 B0 0 1 B @0 0 0 0 0 0 ƒ‚ „

C C C C 1A 0

D0

Wir gewinnen nun die wesentliche Motivation für die Konstruktion einer Jordan-Basis. Dabei gehen wir von der gleichen Situation wie bisher aus: Gegeben ist eine Matrix A 2 Kn n mit nur einem Eigenwert  und einem in Linearfaktoren zerfallendem charakteristischem Polynom A D .  X/n . Es sei J eine Jordan-Matrix zu A mit einer Transformationsmatrix S , d. h., J D S 1 A S . Dann gilt für jedes k 2 N: .J   En /k D S 1 .A   En /k S

285 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

ist, ist das längste Jordankästchen ein 2 2-Kästchen. Damit hat eine Jordan-Normalform zu A das Aussehen 0 1 dim ker.J   En /k D dim ker.A   En /k : 2 1 B C B0 2 C Wir setzen nun N D A   En und erhalten aufgrund der B C J DB C besonderen Form der Matrix J   En eine Kette 2 1 @ A 0 2 f0g ¨ ker N ¨ ker N 2 ¨    ¨ ker N r D Kn : Hier ist die Jordan-Normalform sogar eindeutig, da ein Vertauschen der Kästchen die Matrix nicht ändert. 9 Dabei gilt: 4 Es ist r der Nilpotenzindex von N bzw. J   En . Weil wir nun das Aussehen der Jordan-Normalform J von 4 Es ist mg ./ D dim ker N . A in diesem Beispiel kennen, könnten wir auch eine Jor4 Es ist ma ./ D dim ker N r . dan-Basis konstruieren. Hierzu könnten wir ausnutzen, dass wir nun die Koordinatenvektoren der Bilder der JordanZur Konstruktion einer Jordan-Basis gibt es Basisvektoren unter der Abbildung 'A W v 7! A v kennen – dies sind ja die Spalten von J , also der Darstellungsmaein übersichtliches Verfahren trix der Abbildung v 7! A v bezüglich der Jordan-Basis B D .b1 ; b2 ; b3 ; b4 /, d. h., es gilt: Wir gehen nach wie vor davon aus, dass die betrachteA b1 D 2 b1 ; te Matrix A nur einen Eigenwert  hat. Mit den beiden Hilfsgrößen, der Dimension des Eigenraums und dem NilA b2 D 1 b1 C 2 b2 ; potenzindex, ist eine Jordan-Normalform in vielen Fällen A b3 D 2 b3 ; bereits festgelegt. Wir geben ein Beispiel. A b4 D 1 b3 C 2 b4 : und damit wegen der Invertierbarkeit von S :

Beispiel Als Matrix A betrachten wir die reelle Matrix

0

3 1 0 B1 1 0 ADB @1 1 3 1 1 1

1 0 0C C 2 R4 4 1A 1

.A  2 E4 / b2 D b1 und .A  2 E4 / b4 D b3 :

mit dem charakteristischen Polynom A D .2  X/ . Weil das Polynom in Linearfaktoren zerfällt, existiert zu A eine Jordan-Normalform J . Wir bestimmen die geometrische Vielfachheit des einzigen Eigenwerts 2 von A, also die Lösungsmenge des Systems .A  2 E4 / v D 0. Wegen 4

0

1 1 1 0 0 B1 1 0 0C C A  2 E4 D B @1 1 1 1A 1 1 1 1 erhalten wir sogleich: 0

1 0 1 1 0 + B1C B 0 C 2 C B C EigA .2/ D B @ 0 A ; @ 1 A und .A  2 E4 / D 0 : 0 1 *

Die Vektoren b1 und b3 sind somit Eigenvektoren, hierfür können wir also die zwei linear unabhängigen Vektoren wählen, welche den Eigenraum erzeugen, und b2 und b4 erhalten wir sodann als Lösungen der beiden linearen Gleichungssysteme

Weil die Dimension des Eigenraums 2 ist, hat die JordanNormalform zwei Jordankästchen zum Eigenwert 2. Weil die kleinste natürliche Zahl k mit .A  2 E4 /k D 0 gleich 2

Dies ist eine Möglichkeit, eine Jordan-Basis B D .b1 ; b2 ; b3 ; b4 / zu konstruieren. Wir geben nun ein durchsichtigeres Verfahren in Form von Beispielen an, das man auch dann anwenden kann, wenn man eine Jordan-Normalform der Matrix A noch gar nicht kennt. Beispiel Wir betrachten die Matrix

 AD

 i i 2 C 2 2 ; 0 i

deren einziger Eigenwert die komplexe Zahl i mit der algebraischen Vielfachheit 2 ist. Im Folgenden wird die Matrix N D A  i E2 eine wesentliche Rolle spielen. Wir betrachten die folgende Kette: f0g ¨ ker N…1 ¨ „ kerƒ‚ N…2 : „ ƒ‚ 0 1 0 1 0 1 1 1 0 D @ A D @ A ;@ A 0 0 1

8

286

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Dabei ist ker N 1 gerade der Eigenraum zum Eigenwert i von A. Weil dieser Eigenraum eindimensional ist, können wir gleich folgern, dass es nur ein Jordan-Kästchen gibt, damit liegt die Jordan-Normalform bereits fest, wir benutzen im Folgenden aber dieses Wissen nicht. ? Selbstfrage 8.20 Wie sieht die Jordan-Normalform aus?

8

Jordan-Basen von 2 2-Matrizen Ist A 2 K2 2 nicht diagonalisierbar und zerfällt das charakteristische Polynom von A in Linearfaktoren, so hat A einen zweifachen Eigenwert , und es ist B D .b1 ; b2 / mit b2 2 ker N 2 n ker N 1 und b1 D N b2 ;

Wir wählen vielmehr ein Element b2 2 ker N 2 n ker N 1 , wobei N D A   E2 , eine Jordan-Basis zu A. und zwar   0 b2 D : Dieses Verfahren kann auf größere Matrizen übertragen 1 werden. Wir behandeln auf den nächsten Seiten ausführlich Dies ist gerade der Basisvektor, den wir zu einer Basis von weitere Beispiele. ker N ergänzt haben, um eine Basis von ker N 2 zu erhalten. Bei der durchgeführten Konstruktion entstehen autoDieser Vektor b2 erfüllt wegen seiner speziellen Wahl die matisch die größten Jordankästchen unten: Das größte Jordan-Kästchen hat genauso viele Zeilen wie die Kette folgenden Eigenschaften: f0g ¨ ker N 1 ¨ ker N 2 ¨    ¨ ker N r echte Inklu4 b2 ist kein Eigenvektor von A, 1 4 N b2 2 ker N n f0g. sionen aufweist, dies ist gerade der Nilpotenzindex r von N D A   E3 . Die zweite Eigenschaft gilt, weil b2 2 ker N 2 , d. h., Mit den gesammelten Erfahrungen ist es nun nicht mehr schwierig, Jordan-Basen zu größeren Matrizen zu bestim0 D N 2 b2 D N .N b2 / ; men. d. h., N b2 2 ker N 1 . Und N b2 ¤ 0, da sonst b2 2 ker N 1 gelten würde. Wir setzen nun b1 D N b2 , b1 D N b2 D .A  i E2 / b2 D A b2  i b2 : Nun gilt: 4 b1 , b2 sind linear unabhängig, da b2 2 ker N 2 n hb1 i. 4 A b1 D i b1 , da b1 2 ker N D EigA .i/. 4 A b2 D 1 b1 C i b2 .

Beispiel Wir bestimmen eine Jordan-Basis und eine Jordan-Normalform zur Matrix 1 0 2 1 1 0 0 0 B0 2 1 0 0 0 C C B B0 0 2 0 0 0 C C 2 R6 6 : B ADB C B0 1 0 2 1 1C @0 0 0 0 2 0 A 0 0 1 0 0 2

Wegen A D .2  X/6 existiert eine Jordan-Normalform Also ist B D .b1 ; b2 / eine Jordan-Basis mit der Jordanzu A. Normalform Wir berechnen für N D A  2 E6 die Kette   i 1 J D f0g ¨ ker N 1 ¨ ker N 2 ¨    ¨ ker N r D R6 : 0 i zu A. Und mit der Matrix S S 1 A S . 9

Es gilt: D

.b1 ; b2 / gilt J

? Selbstfrage 8.21 Ist .b2 ; b1 / auch eine Jordan-Basis zu A?

D

0 1 0 1 0 1 1 0 0 0C B0C B0C+ *B B C B C B C B0C B0C B0C C B C B C ker N D B B0C ; B1C ; B0C B C B C B C @0A @0A @1A 0 0 1

Wir haben den Vektor b1 noch gar nicht explizit angegeben. 0 1 0 1 0 1 0 1 0 1 Wir haben auch an keiner Stelle vom speziellen Ausse- und 1 0 0 0 0 hen des Vektors b2 Gebrauch gemacht, sondern nur von B C B C B C B C B 0 0 0 1 * B C B C B C B C B0 C C+ der Tatsache, dass b2 2 ker N 2 n ker N 1 gilt. Damit haB0C B0C B0C B0C B0C 2 C B C B C B C B C ben wir also ein Verfahren entwickelt, das für beliebige ker N D B B0C ; B1C ; B0C ; B0C ; B0C B C B C B C B C B C nicht diagonalisierbare 2 2-Matrizen A mit zerfallendem @0A @0A @1A @0A @0A charakteristischem Polynom anwendbar ist, um eine Jor0 0 1 0 1 dan-Basis zu A zu bestimmen.

287 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

Beispiel: Zur Bestimmung von Jordan-Basen

Wir bestimmen eine Jordan-Basis und eine Jordan-Normalform zu der Matrix 0 1 1 1 1 B C A D @0 1 "A 2 R3 3 mit " 2 f0; 1g ; 0 0 1

also: 4 b1 , b2 und b3 sind linear unabhängig. 4 A b3 D 1 b2 C 1 b3 . 4 A b2 D 1 b1 C 1 b2 . 4 A b1 D 1 b1 .

deren einziger Eigenwert die reelle Zahl 1 mit der algebraischen Vielfachheit 3 ist.

Damit ist also B D .b1 ; b2 ; b3 / eine Jordan-Basis zu A, und es hat A eine Jordan-Normalform: 0 1 1 1 0 B C J D @0 1 1A 0 0 1

Problemanalyse und Strategie Wir unterscheiden nach den beiden Fällen " D 1 und " D 0. In beiden Fällen bilden wir die Matrix N D A  1 E2 , die Kette f0g ¨ ker N ¨ ker N ¨    ¨ R 1

2

3

und wählen dann beim R3 beginnend sukzessive jeweils der Reihe nach die Vektoren b3 ; b2 und b1 , um eine Jordan-Basis .b1 ; b2 ; b3 / zu A zu erhalten. Lösung 1 1 1C A 0

Wir berechnen die Kerne der Matrizen N 1 , N 2 und N 3 : kerƒ‚ N…2 ¨ kerƒ‚ N…3 : f0g ¨ „ kerƒ‚ N…1 ¨ „ „ 0 1 0 1 0 1 0 1 0 1 0 1 * 1 + * 1 0 + * 1 0 0 + 0

B C B C B C B C C B C D B B0C ;B1C @ A @ A

0

0

B C B C B C B C B C B C C B C B C D B B0C ;B1C ;B0C @ A @ A @ A

0

0

1

Es ist ker N 1 der Eigenraum zum Eigenwert 1 von A. Weil dieser Eigenraum eindimensional ist, können wir gleich folgern, dass es nur ein Jordan-Kästchen gibt, damit liegt die Jordan-Normalform bereits fest. Wir0wählen ein Element b3 2 ker N 3 n ker N 2 , und zwar 1 0 B C b3 D @0A. Nun setzen wir b2 D N b3 2 ker N 2 n ker N 1 1 und fassen zusammen, 0 1 1 B C b2 D @1A D N b3 D .A  1 E3 / b3 D A b3  1 b3 ; 0

1 1 0C A 0

Wir berechnen die Kerne der Matrizen N 1 und N 2 : f0g ¨

1. Fall " D 1: Wir setzen 0 0 1 B N D A  1 E3 D @0 0 0 0

B C B C C D B B0C @ A

2. Fall " D 0: Wir setzen 0 0 1 B N D A  1 E3 D @0 0 0 0

kerƒ‚ N…1 ¨ kerƒ‚ N…2 „ „ 1 0 1 0 1 0 1 * 1 * 1 0 C+ 0 C B0C+ B C B B C B B C B C B C B C B C C B C C B C B C D B D B B0C ;B 1 C B0C ;B 1 C ;B0C @ A @ A @ A @ A @ A 0 1 0 1 1 0 1 0

Nun ist bereits ker N 2 dreidimensional, ein weiteres Potenzieren der Matrix kann den Kern nicht weiter vergrößern, daher bricht diese Kettenbildung bereits hier ab. An dieser Kette kann man die Struktur der Jordan-Normalform bereits ablesen: Man wählt einen Vektor b3 aus ker N 2 n ker N 1 , bildet diesen mit N auf den Vektor b2 2 ker N 1 n f0g, also auf einen Eigenvektor, ab und wählt als b1 einen zu b2 linear unabhängigen Eigenvektor. Weil der Eigenraum zweidimensional ist, ist dies auch möglich. So entsteht eine Jordan-Basis. 2 1 Wir wählen 0 1ein Element b3 2 ker N n ker N0 , 1und 0 1 B C B C zwar b3 D @0A. Nun setzen wir b2 D N b3 D @0A 2 1 0 ker N 1 n f0g. Schließlich gilt mit 0 1 0 1 * 1 + 0 B C B C b1 D @ 1 A 2 ker N 1 n @0A 1 0

also: 4 b2 und b3 sind linear unabhängig. 4 A b3 D 1 b2 C 1 b3 .

4 4 4 4

Wir setzen b1 D N b2 2 ker N 1 n f0g und fassen wieder zusammen, 0 1 1 B C b1 D @0A D N b2 D .A  1 E3 / b2 D Ab2  1 b2 ; 0

Damit ist also B D .b1 ; b2 ; b3 / eine Jordan-Basis zu A, und es hat A eine Jordan-Normalform: 0 1 1 0 0 B C J D @0 1 1A 0 0 1

b1 , b2 und b3 sind linear unabhängig. A b3 D 1 b2 C 1 b3 . A b2 D 1 b2 . A b1 D 1 b1 .

8

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

288

(ii) Weiter wählen wir 4 b3 D .0; 1; 0; 0; 0; 0/> 2 ker N 2 n hb5 i

und ker N 3 D R6 : Es gibt also 3 Jordan-Kästchen, und das größte ist ein 3 3-Kästchen. Wir betrachten die Kette mit den zugehörigen Dimensionen N… ¨ ker N… D R f0g ¨ „ƒ‚… ker N ¨ ker „ ƒ‚ „ ƒ‚ 2

dimD3

8

dimD5

3

6

dimD6

und setzen 4 b2 D N b3 D .1; 0; 0; 1; 0; 0/> 2 ker N n f0g. Die Vektoren b2 und b4 sind offenbar linear unabhängig. Und die Vektoren b3 ; b2 liefern ein 2 2- Jordan-Kästchen. (iii) Schließlich wählen wir 4 b1 D .0; 0; 0; 0; 1; 1/> 2 ker N n hb2 ; b4 i.

und gehen nun wie folgt vor, um eine Jordan-Basis Der Vektor b1 liefert ein 1 1-Jordan-Kästchen. .b1 ; : : : ; b6 / zu konstruieren: 3 2 Insgesamt ist B D .b1 ; : : : ; b6 / eine Jordan-Basis zu A, (i) Wir wählen einen Vektor b6 2 ker N n ker N und 2 und es ist setzen b5 D N b6 2 ker N und b4 D N b5 2 ker N . Dieser Durchlauf der Kette von hinten nach vorne lie0 1 2 fert ein 3 3-Jordan-Kästchen. B C (ii) Wir wählen einen Vektor b3 2 ker N 2 nker N , der zum B 2 1 C B C Vektor b5 linear unabhängig ist – aus DimensionsgrünB 0 2 C B C J D den ist eine solche Wahl noch möglich –, und setzen B C B C 2 1 0 b2 D N b3 2 ker N . Dieser Durchlauf der Kette von B C @ A 0 2 1 hinten nach vorne liefert ein 2 2-Jordan-Kästchen. 0 0 2 (iii) Wir wählen einen Vektor b1 2 ker N n f0g, der zu den Vektoren b2 und b4 linear unabhängig ist – aus Dimensionsgründen ist eine solche Wahl noch möglich. eine Jordan-Normalform von A. 9 Dieser Durchlauf der Kette von hinten nach vorne liefert ein 1 1-Jordan-Kästchen. Wir erhalten so Vektoren b1 ; b2 ; b4 ; „ ƒ‚ … 2ker N nf0g

b3 ; b5 ; „ ƒ‚ …

b6 „ƒ‚…

2

3

2ker N nker N

2ker N nker N

:

Bei verschiedenen Eigenwerten bestimmt man die Jordan-Basen nacheinander für die einzelnen Eigenwerte

2

Falls nun fb1 ; b2 ; b4 g und fb3 ; b5 g linear unabhängig sind, haben wir eine Jordan-Basis .b1 ; : : : ; b6 / gefunden. Dazu ist nur nachzuprüfen, dass b2 und b4 linear unabhängig sind, die restlichen Unabhängigkeiten sind per Konstruktion erfüllt. Kommentar Man beachte, dass wir bei dieser Konstrukti-

on nicht unbedingt eine Jordan-Basis erhalten: Falls b2 und b4 linear abhängig sind, so ist Schritt (ii) mit einer anderen Wahl für b3 zu wiederholen. Diese Problematik lässt sich durch eine Modifikation dieser Konstruktion umgehen; wir formulieren dieses modifizierte Vorgehen in einem Algorithmus in einer Übersicht. Bei Rechnungen mit Bleistift und Papier ist aber das oben geschilderte Vorgehen im Allgemeinen zu bevorzugen; eventuell muss man einen gewählten Vektor verwerfen und eine neue, geschicktere Wahl treffen. Wir schildern die Konstruktion in unserem Beispiel ausführlich: (i) Wir wählen 4 b6 D .0; 0; 1; 0; 0; 0/> 2 ker N 3 n ker N 2 , und setzen 4 b5 D N b6 D .1; 1; 0; 0; 0; 1/> 2 ker N 2 n ker N 1 , 4 b4 D N b5 D .1; 0; 0; 0; 0; 0/> 2 ker N n f0g. Die Vektoren b6 ; b5 ; b4 liefern ein 3 3-Jordan-Kästchen.

Ab nun verzichten wir auf die Einschränkung, dass die Matrix A 2 Kn n nur einen Eigenwert  hat. Es sind dann die verschiedenen Eigenwerte 1 ; : : : ; s von A nacheinander zu untersuchen. Dazu betrachtet man die Matrizen N 1 D A  1 En ; : : : ; N s D A  s En mit den zugehörigen Ketten f0g ¨ ker N i ¨ ker N i 2 ¨    ¨ ker N i ri D ker N i ri C1 : Man nennt die Untervektorräume ker N i j verallgemeinerte Eigenräume zum Eigenwert i , den größten verallgemeinerten Eigenraum ker N i ri bezeichnet man auch als Hauptraum zum Eigenwert i . Die Elemente aus dem Hauptraum ker N i ri zum Eigenwert i nennt man auch Hauptvektoren. Wie im Fall eines einzigen Eigenwerts zeigt man:

Die Dimension des Hauptraums Zerfällt das charakteristische Polynom A von A 2 Kn n in Linearfaktoren: A D .1  X/ma .1 /    .s  X/ma .s / ;

289 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

ke r

Beispiel Wir betrachten die Matrix Nr

ke rN 2

ke rN

. Abb. 8.9 Der Vektorraum V wird in seine Haupträume für die verschiedenen Eigenwerte zerlegt

0

2 1 1 0 B0 2 1 0 B B0 0 2 0 ADB B0 1 0 3 B @0 0 1 0 0 0 0 0

1 0 0 0 0C C 0 0C C 2 R6 6 : 1 1C C 3 1A 0 4

Es gilt A D .2  X/3 .3  X/2 .4  X/, sodass eine Jordan-Normalform von A existiert. Wir bestimmen eine Jordan-Basis, indem wir das bisherige Verfahren einfach für die einzelnen Eigenwerte anwenden. Wir beginnen mit dem Eigenwert 2 und berechnen die Kette f0g ¨ ker.A  2 E6 /1 ¨    ¨ ker.A  2 E6 /r : Es gilt:

so gibt es zu jedem Eigenwert i , i D 1; : : : ; s, und N i D A  i En eine natürliche Zahl ri mit 1  ri  n und f0g ¨ ker N i ¨ ker N i 2 ¨    ¨ ker N i ri ; wobei dim ker N ri i D ma .i /. Die Dimension des Hauptraums zum Eigenwert  ist somit die algebraische Vielfachheit des Eigenwerts .

Kommentar Für diese Zahlen r1 ; : : : ; rs gilt:

Kn D ker N r1 ˚    ˚ ker N rs :

0 1 1 B *B0C C+ B C 0 C ker.A  2 E6 /1 D B B0 C B C @0 A 0

und

0 1 0 1 0 1 B C B 0 *B C B1C C+ B0C B0C 2 C B C ker.A  2 E6 / D B B0C ; B1C B C B C @0A @0A 0 0

Man spricht von der Hauptraumzerlegung des Kn . Dies nachzuweisen haben wir als Übungsaufgabe formuliert und (siehe . Abb. 8.9). Wir erhalten:

Zur Anzahl und Größe der Jordan-Kästchen Es sei A 2 Kn n eine Matrix mit zerfallendem charakteristischem Polynom A . Ist  2 K ein Eigenwert von A mit der Kette der verallgemeinerten Eigenräume kerƒ‚ N…r D kerN rC1 ; ker N ¨ ker N 2 ¨    ¨ „ „ƒ‚… dimDmg ./

dimDma ./

wobei N D A   En , so gilt: (a) Die Dimension des Hauptraums ker N r zum Eigenwert  ist die algebraische Vielfachheit ma ./ des Eigenwerts . (b) Die Dimension des Eigenraums ker N ist die Anzahl der Jordan-Kästchen zum Eigenwert . (c) Die Zahl r ist die Länge des größten Jordan-Kästchens zum Eigenwert .

0 1 0 1 0 1 1 0 0 B C B C B 0 1 *B C B C B0C C+ B0C B0C B1C 3 B C B C B ker.A  2 E6 / D B C ; B C ; B C C : B0C B1C B0C @0A @0A @1A 0 0 0

Hier bricht die Kette ab, weil der Eigenwert 2 die algebraische Vielfachheit 3 hat. Es gehören also 3 Jordan-Basisvektoren zu dem Eigenwert 2, und diese finden wir in dieser Kette. An der Kette erkennen wir auch, dass es genau ein 3 3-Jordan-Kästchen zum Eigenwert 2 gibt. Wir wählen 4 b6 D .0; 0; 1; 0; 1; 0/> 2 ker.A2 E6 /3 nker.A2 E6 /2 und setzen 4 b5 D .A  2 E6 / b6 D .1; 1; 0; 1; 0; 0/> 2 ker.A  2 E6 /2 n ker.A  2 E6 /1 , 4 b4 D .A  2 E6 / b5 D .1; 0; 0; 0; 0; 0/> 2 ker.A  2 E6 /1 n f0g. Die Jordan-Basisvektoren b6 ; b5 ; b4 liefern ein 3 3-Jordan-Kästchen.

8

290

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Nun wenden wir das Verfahren auf den zweifachen Eigenwert 3 an und berechnen die Kette f0g ¨ ker.A  3 E6 /1 ¨    ¨ ker.A  3 E6 /r : Es gilt: 0 1 0 B *B0C C+ B0 C 1 C ker.A  3 E6 / D B B1 C B C @0 A 0

8

Wir erhalten mit der Jordan-Basis B D .b1 ; : : : ; b6 / die Jordan-Normalform 1 0 4 C B C B 3 1 C B C B 0 3 C B J DB C C B 2 1 0 C B @ 0 2 1A 0 0 2 zu A. 9

Man kann das Verfahren zur Bestimmung einer JordanBasis allgemein schildern. Der Formalismus ist nicht ganz und einfach, man kann sich diesen Algorithmus auch nicht gut 0 1 0 1 0 0 einprägen. Durch das Berechnen weniger Beispiele wird 0 C B0 C die Konstruktion einer Jordan-Basis klar. Die Schwierig*B B C B C+ C B C B keit, die bestehen kann, haben wir bereits angedeutet: Es 0 0 C B C ker.A  3 E6 /2 D B B1 C ; B0 C : kann eben passieren, dass beim zweiten Durchlauf der B C B C @0 A @1 A Kette zwei Vektoren bi und bj aus ein und demselben verallgemeinerten Eigenraum konstruiert werden, die jedoch 0 0 linear abhängig sind. Somit können diese Vektoren nicht Hier bricht die Kette ab, weil der Eigenwert 3 die algebrai- Elemente einer Jordan-Basis sein. Wir formulieren in einer sche Vielfachheit 2 hat. Es gehören also 2 Jordan-Basisvek- Übersicht einen Algorithmus, der dieses Problem bewältigt. toren zu dem Eigenwert 3, und diese finden wir in dieser Kette. An der Kette erkennen wir auch, dass es genau ein Die Jordan-Normalform einer Matrix ist bis 2 2-Jordan-Kästchen zum Eigenwert 3 gibt. auf die Reihenfolge der Jordan-Kästchen Wir wählen 4 b3 D .0; 0; 0; 0; 1; 0/> 2 ker.A3 E6 /2 nker.A3 E6 /1 eindeutig bestimmt und setzen 4 b2 D .A  3 E6 / b3 D .0; 0; 0; 1; 0; 0/> 2 ker.A  2 E6 /1 n f0g.

Bei den bisherigen Beispielen zur Jordan-Normalform einer Matrix A spielte die Matrix N D A   En eine Schlüsselrolle. Mit den praktischen Erfahrungen, die wir in Die Jordan-Basisvektoren b3 ; b2 liefern ein 2 2-Jordan- den Beispielen gesammelt haben, fällt es nun nicht mehr schwer, die folgenden Ergebnisse nachzuvollziehen: Kästchen. Für eine Matrix A 2 Kn n ,  2 K und k 2 N setzen Schließlich wenden wir das Verfahren auf den Eigenwert 4 an. Weil 4 ein einfacher Eigenwert ist, bricht die wir Kette bereits nach dem Eigenraum ab, da nur ein Jordanrk .A; / D rg.A   En /k : Basisvektor zu diesem Eigenwert gehört, und dieser ist ein Eigenvektor: Die Zahl rk .A; / ist der Rang der Matrix .A   En /k . Falls  kein Eigenwert von A ist, so gilt rk .A; / D n. f0g ¨ ker.A  4 E6 /1 : Falls  ein Eigenwert von A ist, so steigt die Folge .rk .A; //k monoton und konvergiert gegen die algebraiUnd es gilt: sche Vielfachheit des Eigenwerts . 0 1 Für jedes k 2 N setzen wir weiter: 0 0C *B B C+ ck .A; / D rkC1 .A; / C rk1 .A; /  2 rk .A; / B 0C C : ker.A  4 E6 /1 D B B0 C und zeigen: B C @1 A 1 Lemma Zerfällt das charakteristische Polynom A von A 2 Kn n , so ist für jeden Eigenwert  von A die Zahl Der Jordan-Basisvektor b1 D .0; 0; 0; 0; 1; 1/> liefert ein ck .A; /, k 2 N, die Anzahl der Jordan-Kästchen der Län1 1-Jordan-Kästchen. ge k zum Eigenwert .

291 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

Übersicht: Bestimmung einer Jordan-Basis

Gegeben ist eine Matrix A 2 Kn n mit in Linearfaktoren zerfallendem charakteristischem Polynom. Das Bestimmen einer invertierbaren Matrix S , die die Eigenschaft hat, dass J D S 1 A S eine Jordan-Matrix ist, nennt man auch Transformation von A auf Jordan-Normalform. Als Spalten der Matrix S wählt man dabei die Vektoren einer Jordan-Basis des Kn von A. Zur Transformation dieser Matrix A geht man meistens wie folgt vor:

folgt, dass die Menge tr [

Bi

iD1

linear unabhängig ist. 4 Iteration für k D r  1; : : : ; 1: Für i D 1; : : : ; tkC1 DW t 0 seien schon die Vektoren

Es sei

bk;i 2 ker N k n ker N k1

A D .1  X/ma .1 /    .s  X/ma .s /

bestimmt, sodass .bk;1 ; : : : ; bk;t 0 / eine geordnete linear unabhängige Menge ist; wir setzen

das charakteristische Polynom von A mit den s verschiedenen Eigenwerten 1 ; : : : ; s . Für jeden Eigenwert  von A setze N D A   En und bestimme dann wie folgt eine Jordan-Basis des Hauptraums HauA ./: 4 Bestimme r

ker N ; : : : ; ker N ; wobei dim ker N r D ma ./. Setze tk D dim ker N k  dim ker N k1 für k D r; : : : ; ; 1 : Es gilt tk  tkC1 für alle k. 4 Bestimme linear unabhängige Vektoren br;i für i D 1; : : : ; tr , sodass ker N r D ker N r1 ˚ hbr;1 ; : : : ; br;tr i : 4 Berechne für i D 1; : : : ; tr

Tk1 D ker N k1 ˚ hbk;1 ; : : : ; bk;t 0 i : Falls tk > tkC1 , so bestimme linear unabhängige Vektoren bk;i mit i D t 0 C 1; : : : ; tk , sodass ˛ ˝ ker N k D Tk1 ˚ bk;t 0 C1 ; : : : ; bk;tk und für i D t 0 C 1; : : : ; tk bl;i D N kl bk;i für l D k  1; : : : ; 1 : Für i D t 0 C 1; : : : ; tk ist dann Bi D .b1;i ; : : : ; bk;i / linear unabhängig und liefert ein k k-Jordan-Kästchen. Falls tk D tkC1 , so gehe zu k  1 über. 4 Die geordnete Menge

bl;i D N rl br;i für l D r  1; : : : ; 1 :

B D .B t1 ; : : : ; B2 ; B1 /

Es ist Bi D .b1;i ; : : : ; br;i / eine geordnete linear unabhängige Menge, die ein r r-Jordan-Kästchen liefert. Da

ist eine geordnete Jordan-Basis des Hauptraums HauA ./.

br;i … ker N r1 ˚ hfbr;1 ; : : : ; br;tr g n fbr;i gi

Beweis Da für zueinander ähnliche Matrizen A und B für jedes k 2 N0 die Zahlen rk .A; / und rk .B; / gleich sind, können wir ohne Einschränkung annehmen, dass A in Jordan-Normalform vorliegt: 1 0 J1 C B :: AD@ A : Jl 0 1 i 1 B C :: :: B C : : B C 2 Kni ni mit J i D B C :: @ : 1A i

Die Vereinigung und Anordnung der Jordan-Basen aller Haupträume liefert dann eine Jordan-Basis zu A.

für i D 1; : : : ; l. Wegen der Dreiecksgestalt von A gilt: rk .A; / D

l X

rk .J i ; / :

i D1

Nun sei i 2 f1; : : : ; lg. 1. Fall. i ¤ : Dann ist die Matrix J   Eni invertierbar. Somit ist auch .J   Eni /k für jedes k 2 N0 invertierbar. Es folgt: rk .J i ; / D ni für jedes k 2 N und somit ck .J i ; / D 0.

8

292

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beispiel: Konstruktion einer Jordan-Basis

Wegen dim ker N 3 D 5 D ma .2/ ist ker N 3 der Hauptraum von A zum Eigenwert 2, und es gilt:

Man bestimme zu der Matrix 0 2 B0 B B0 B B B0 ADB B0 B B0 B B @0 0

1 2 0 0 0 0 0 0

1 1 2 0 0 0 0 0

1 0 0 2 0 0 0 0

0 1 0 0 2 0 0 0

0 1 1 1 0 1 0 2

0 0 2 1 0 0 1 1

1 0 0C C 0C C C 0C C 0C C 0C C C 0A 1

eine Jordan-Normalform und eine Jordan-Basis. Problemanalyse und Strategie Man wende das geschilderte Verfahren an.

8

Lösung Das charakteristische Polynom von A erhält man leicht wegen der Blockdreiecksgestalt und der Dreiecksgestalt der Blöcke auf der Diagonalen, es gilt: A D .2  X/5 .1  X/3 :

0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 0 0 0 0 1 1 B0C B 1 C B 1 C B0C B 1 C B 1 C B0C B C B C B C B C B C B C B C B0C B 0 C B1C B0C B 0 C B1C B0C C B C B C C B C B C B C B *B C B C B C + *B B C B C B C B C+ B0C B1C B 0 C B0C B1C B 0 C B1C B C;B C;B C ¨ B C;B C;B C;B C B0C B 0 C B 1 C B0C B 0 C B 1 C B0C B C B C B C B C B C B C B C B0C B 0 C B 0 C B0C B 0 C B 0 C B0C B C B C B C B C B C B C B C B C B C B C B C B C B C B C @0A @ 0 A @ 0 A @0A @ 0 A @ 0 A @0A 0 0 0 0 0 0 0 „ ƒ‚ … „ ƒ‚ … Dker N

Dker N 2

0 1 0 1 0 1 0 1 0 1 0 0 0 0 1 B0C B 1 C B 1 C B0C B0C B C B C B C B C B C B0C B 0 C B1C B0C B1C C B C B C B C B C *B B C B C B C B C B C+ B0C B1C B 0 C B1C B0C C B C B C B C B C ¨ B B0C ; B 0 C ; B 1 C ; B0C ; B0C : B C B C B C B C B C B0C B 0 C B 0 C B0C B0C B C B C B C B C B C B C B C B C B C B C @0A @ 0 A @ 0 A @0A @0A 0 0 0 0 0 ƒ‚ … „ Dker N 3

Wir beginnen mit dem Eigenwert 2. Wir setzen N D A 2 E8 und erhalten 0 0 B0 B B0 B B B0 N DB B0 B B0 B B @0 0 0 0 B0 B B0 B B B0 2 N DB B0 B B0 B B @0 0 0 0 B0 B B0 B B B0 N3 D B B0 B B0 B B @0 0

1 0 0 0 0 0 0 0

1 1 0 0 0 0 0 0

1 0 0 0 0 0 0 0

0 1 0 0 0 0 0 0

0 1 1 1 0 1 0 2

0 0 2 1 0 0 1 1

0 0 0 0 0 0 0 0

1 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

1 0 0 0 0 0 0 0

3 0 1 1 0 1 0 4

3 2 2 1 0 0 1 2

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

2 0 1 1 0 1 0 6

1 2 2 1 0 0 1 3

1 0 0C C 0C C C 0C C; 0C C 0C C C 0A 1 1 0 0C C 0C C C 0C C 0C C 0C C C 0A 1 1 0 0C C 0C C C 0C C 0C C 0C C C 0A 1

Das größte Jordan-Kästchen zum Eigenwert 2 hat damit 3 Zeilen, und wegen dim ker N D 3 gibt es drei Jordan-Kästchen zum Eigenwert 2. Wir wählen b8 2 ker N 3 n ker N 2 und erhalten b7 und b6 wie folgt: 0 1 0 1 0 1 0 1 1 B0C B1C B0C B C B C B C B1C B0C B0C B C B C B C B C B C B C B0C B0C B0C C ; b7 D N b8 D B C ; b6 D N b7 D B C : b8 D B B0C B0C B0C B C B C B C B0C B0C B0C B C B C B C B C B C B C @0A @0A @0A 0 0 0 Damit haben wir bereits einmal die Kette von hinten nach vorne durchlaufen. Nun wählen wir Vektoren b5 ; b4 2 ker N n f0g, sodass b4 ; b5 ; b6 linear unabhängig sind: 0

0 1 1 0 0 B1C B1C B C B C B0C B1C B C B C B C B C B1C B0C C ; b4 D B C : b5 D B B0C B1C B C B C B0C B0C B C B C B C B C @0A @0A 0 0 Dies liefert zwei 1 1-Jordan-Kästchen zum Eigenwert 2.

293 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

Wir machen nun mit dem Eigenwert 1 weiter. Wir setzen N D A  E8 und erhalten 0 1 B0 B B0 B B B0 N DB B0 B B0 B B @0 0 0 1 B0 B B0 B B B0 2 N DB B0 B B0 B B @0 0

1 1 0 0 0 0 0 0

1 1 1 0 0 0 0 0

1 0 0 1 0 0 0 0

0 1 0 0 1 0 0 0

0 1 1 1 0 0 0 2

0 0 2 1 0 0 0 1

2 1 0 0 0 0 0 0

3 2 1 0 0 0 0 0

2 0 0 1 0 0 0 0

1 2 0 0 1 0 0 0

3 2 1 1 0 0 0 0

3 2 2 1 0 0 0 0

1 0 0C C 0C C C 0C C; 0C C 0C C C 0A 0 1 0 0C C 0C C C 0C C 0C C 0C C C 0A 0

Wegen dim ker N 2 D 3 D ma .1/ ist ker N 2 der Hauptraum von A zum Eigenwert 1. Und es gilt: 0 1 0 1 0 1 0 1 0 1 0 0 0 0 1 B0C B4C B2C B0C B4C B C B C B C B C B C B0C B 3 C B 1 C B0C B 3 C B C B C B C C B C *B C B C+ *B B C B C B C+ B0C B 1 C B 0 C B0C B 1 C B C;B C ¨ B C;B C;B C : B0C B 0 C B 0 C B0C B 0 C B C B C B C B C B C B0C B 1 C B 1 C B0C B 1 C B C B C B C B C B C B C B C B C B C B C @0A @2A @1A @0A @2A 1 1 0 0 0 ƒ‚ … „ ƒ‚ … „ Dker N

Dker N 2

Das größte Jordan-Kästchen zum Eigenwert 1 hat damit 2 Zeilen, und wegen dim ker N D 2 gibt es zwei Jordan-Kästchen

2. Fall. i D : Dann hat die Matrix 1 0 0 1 :: :: C B : : C B J i   Eni D B C :: @ : 1A 0 den Rang ni  1, d. h., r1 .J i ; / D ni  1. Für die Potenzen .J i   Eni /k gilt:  ni  k ; k  ni ; rk .J i ; / D 0; k > ni ;

zum Eigenwert 2. Wir wählen und setzen 0

0 1 1 1 0 B2C B0C B C B C B1C B0C B C B C B C B C B0C B0C B C C b3 D B C ; b2 D N b3 D B B0C : 0 B C B C B1C B0C B C B C B C B C @1A @0A 0 1 Damit haben wir bereits einmal die Kette von hinten nach vorne durchlaufen. Nun wählen wir einen Vektor b1 2 ker N n f0g, sodass b1 ; b2 linear unabhängig sind: 1 0 B4C B C B3C B C B C B1C C b1 D B B0C: B C B1C B C B C @2A 0 0

Es ist nun B D .b1 ; : : : ; b8 / eine Jordan-Basis zu A mit der zugehörigen Jordan-Normalform: 0 B B B B B B B B J DB B B B B B B B @

1

1 1 1 1

C C C C C C C C 2 C C C 2 C C C 2 1 C C 2 1A 2

sodass 8 ni : Damit folgt die Behauptung.



Die ermittelte Formel kann dazu dienen, die Jordan-Normalform einer Matrix zu ermitteln. Dazu ist es nicht notwendig, dass eine Jordan-Basis bestimmt wird.

8

294

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Beispiel Gegeben ist die Matrix

0

1 3 1 4 3 1 B1 1 1 1 0C B C 5 5 B 1 0 2 0 0C ADB C2C : @4 1 4 5 1 A 2 0 2 2 1 Als charakteristisches Polynom erhalten wir A D .2  X/ .1  X/4 :

8

Zum Eigenwert  D 2: Die Matrix 1 0 5 1 4 3 1 B 1 1 1 1 0C C B 1 0 0 0 0C A  2 E5 D B C B @4 1 4 7 1 A 2 0 2 2 1

d. h., dass es kein Jordan-Kästchen der Länge 2 zum Eigenwert 1 gibt. Weiter gilt: c3 .A; 1/ D r4 .A; 1/ C r2 .A; 1/ 2 r3 .A; 1/ D 1 ; „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … D1

D2

D1

d. h., dass es genau ein Jordan-Kästchen der Länge 3 zum Eigenwert 1 gibt. Eine Jordan-Normalform von A ist damit 0 1 2 B C B 1 C B C B C J DB 1 1 0C B C @ 0 1 1A 0 0 1

Natürlich muss man nicht alle Zahlen ck bestimmen, wenn man nur herausfinden will, wie die Jordan-Normalform hat den Rang 4. Der Rang der Matrix .A  2 E5 /2 ist damit aussieht. Wir hätten nur mit der Bestimmung von c1 bereits auch 4, da für die algebraische Vielfachheit 1 D ma .2/ D eine Jordan-Normalform erkannt: Dass es nur ein Jordan5  rg.A  2 E5 / gilt. Kästchen zum Eigenwert 2 gibt, ist klar, da 2 ein einfacher Damit erhalten wir Eigenwert ist. Und dass das zweite (dass es nur zwei gibt, folgt aus mg .1/ D 2) Jordan-Kästchen zum Eigenwert 1 ein c1 .A; 2/ D r2 .A; 2/ C r0 .A; 2/ 2 r1 .A; 2/ D 1 ; Kästchen der Länge 3 ist, ist auch klar, da 1 ein vierfacher „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … D4 D5 D4 Eigenwert ist. 9 d. h., dass es (wie erwartet) genau ein Jordan-Kästchen der Länge 1 zum Eigenwert 2 gibt. Zum Eigenwert  D 1: Die Matrix 0 1 4 1 4 3 1 B1 0 1 1 0C B C B 1 0 0C A  E5 D B1 0 C @4 1 4 6 1 A 2 0 2 2 0 hat den Rang 3. Die Matrix 0 1 1 B1 0 B .A  E5 /2 D B B3 1 @3 0 2 0

Zur Eindeutigkeit der Jordan-Normalform

1 1 1 1 3 3 3 3 2 2

1

1 0C C 1C C 0A 0

hat den Rang 2. Der Rang der Matrix .A  E5 /3 ist damit 1, da für die algebraische Vielfachheit 4 D ma .1/ D 5  rg.A  2 E5 /3 gilt. Damit erhalten wir c1 .A; 1/ D r2 .A; 1/ C r0 .A; 1/ 2 r1 .A; 1/ D 1 ; „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … D2

Wir sprechen immer von einer Jordan-Normalform und nicht von der Jordan-Normalform. Das liegt an der Tatsache, dass es zu einer Matrix durchaus verschiedene JordanNormalformen geben kann. Es scheint aber so zu sein, dass sich je zwei verschiedene Jordan-Normalformen nur in der Anordnung der Jordan-Kästchen unterscheiden. Dass dem tatsächlich so ist, können wir nun zeigen.

D5

D3

Es seien A; B 2 Kn n zwei Matrizen mit zerfallendem charakteristischem Polynom und zugehörigen Jordan-Normalformen J A ; J B . Dann sind äquivalent: (i) Die Matrizen A und B sind ähnlich. (ii) Die Matrizen J A und J B stimmen bis auf die Reihenfolge der Jordan-Kästchen überein. Insbesondere ist die Jordan-Normalform einer Matrix bis auf die Reihenfolge der Jordan-Kästchen eindeutig bestimmt.

Beweis (i) ) (ii): Für jedes  2 K und k 2 N gilt

rk .A; / D rk .B; /, d. h., dass ck .A; / D ck .B; /. Sod. h., dass es genau ein Jordan-Kästchen der Länge 1 zum mit haben die ähnlichen Matrizen A und B gleich viele Eigenwert 1 gibt. Weiter gilt: gleich lange Jordan-Kästchen zu den gleichen Eigenwerten. Damit gilt (ii). c2 .A; 1/ D r3 .A; 1/ C r1 .A; 1/ 2 r2 .A; 1/ D 0 ; (ii) ) (i): Die Matrizen J A und J B sind ähnlich, da sie „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … D1 D3 D2 dieselbe lineare Abbildung bezüglich verschieden sortierter

8

295 8.8  Die Berechnung einer Jordan-Normalform und Jordan-Basis

Übersicht: Die gemeinsamen Eigenschaften ähnlicher Matrizen

Zwei Matrizen A; B 2 Kn n heißen ähnlich, wenn es eine invertierbare Matrix S 2 Kn n gibt mit B D S 1 A S : Wir stellen die gemeinsamen Eigenschaften ähnlicher Matrizen zusammen. Die n n-Matrizen A und B seien ähnlich. Es gelte B D S 1 A S . 4 A und B haben dieselbe Determinante. 4 A und B haben dieselbe Spur. 4 Ist A invertierbar, so auch B.

4 Ist A diagonalisierbar, so auch B, die Diagonalformen können gleich gewählt werden. 4 Ist A triangulierbar, so auch B. 4 Gibt es zu A eine Jordan-Normalform, so auch zu B, die Jordan-Normalformen können gleich gewählt werden. 4 A und B haben dasselbe charakteristische Polynom. 4 A und B haben dieselben Eigenwerte. 4 Die algebraischen Vielfachheiten der Eigenwerte von A und B stimmen überein. 4 Die geometrischen Vielfachheiten der Eigenwerte von A und B stimmen überein. 4 Die Dimensionen der verallgemeinerten Eigenräume zu einem Eigenwert  von A und B stimmen überein.

Basen darstellen. Wegen der Transitivität der Ähnlichkeits- Das folgende Beispiel zeigt eine wichtige Anwendung der Jordan-Normalform. relation  von Matrizen folgt aus A  JA  JB  B die Ähnlichkeit von A und B.

Beispiel Mittels der Jordan-Normalform kann man späte Folgenglieder rekursiv definierter Folgen relativ einfach bestimmen. Dabei benutzen wir einen Trick, den wir auch schon beim Diagonalisieren benutzt haben. Wir betrachten die Folge .gn /n2N0 mit



Potenzen von Matrizen in Jordan-Normalform lassen sich einfach bestimmen

g0 D 0;

g1 D 1;

gnC1 D 4gn1 C 4gn

für n  1

und interessieren uns etwa für das Folgenglied g20 . Nachdem wir nun wissen, wie man eine Jordan-Normalform Dazu suchen wir erst eine Matrix A 2 R2 2 , mittels der und eine Jordan-Basis zu einer Matrix bestimmt, wenden sich die Rekursion für n  1 in der Form wir uns nun den ursprünglichen Fragen zu: Wie bildet man     gn gn1 Potenzen von Matrizen? Dies ist im Allgemeinen ein rechenDA aufwendiges Unterfangen. Bei diagonalisierbaren Matrizen gnC1 gn ist es deutlich einfacher. Aber für Matrizen in Jordan-Normalform ist es auch noch relativ einfach, beliebige Potenzen schreiben lässt. Das leistet offenbar die Matrix zu bilden. Dazu können wir nämlich die Binomialformel für   0 1 Matrizen benutzen, dabei gilt Folgendes: AD 4 4 Die Jordan-Zerlegung der Jordan-Normalform Ist J eine Jordan-Normalform, so gibt es eine Diagonalmatrix D und eine nilpotente Matrix N mit J D D C N und D N D N D : Wir nennen diese Darstellung der Jordan-Matrix J als Summe die Jordan-Zerlegung von J .

Beispiel

0 1 0 1 0 2 1 2 1 B 2 C B 2 C B B CDB CCB @ 3 1A @ 3 A @ 3 3

1 C C 9 1A

Nun bestimmen wir eine Jordan-Basis zu A und eine zugehörige Jordan-Normalform J . Das charakteristische   1 Polynom von A lautet A D .2  X/2 , und spannt 2 den eindimensionalen Eigenraum zum Eigenwert 2 der algebraischen Vielfachheit 2 auf.   1 2 ker.A  2 E2 /2 n Wir wählen den Vektor b2 D 0   2 ker.A  2 E2 / und setzen b1 D .A  2 E2 / b2 D . 4 Damit ist B D .b1 ; b2 / eine geordnete Jordan-Basis, und es hat A die Jordan-Normalform   2 1 J D 0 2

296

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Weiter erfüllt die Matrix S D .b1 ; b2 /, deren Spalten ge- setzen wir A für X ein und erhalten rade die Elemente der Jordan-Basis sind, die Eigenschaft J D S 1 A S . A .A/ D .1/n A n C cn1 A n1 C    Damit und mit der angegebenen Rekursion können wir C    C c1 A C c0 A 0 D 0 : nun g20 ermitteln, es gilt nämlich:         Es gibt viele weitere Polynome, die A als Nullstellen hag19 g18 g0 g0 DA D A 19 D S J 19 S 1 : ben, so haben etwa alle Vielfachen von A auch A als g20 g19 g1 g1 Nullstelle. Wir setzen nun     0 1 2 0 C J D 0 0 0 2 „ ƒ‚ … „ ƒ‚ … DWD

8

Zu jeder quadratischen Matrix gibt es genau ein Minimalpolynom

DWN

und berechnen J 19 mit der Formel aus dem Satz Die Potenz einer Summe einer Diagonalmatrix und einer nilpotenten Matrix aus 7 Abschn. 8.7:  19  2 19  218 19 19 18 J D D C 19 D N D 0 219 Daraus erhält  man  nach Berechnen der zweiten Zeile von g0 19 1 SJ S das Ergebnis g20 D 20  219 . 9 g1

Wir suchen ein ganz bestimmtes Polynom, das A als Nullstelle hat und werden dies dann das Minimalpolynom von A nennen: Den Schlüssel zur Eindeutigkeit liefert dabei die sogenannte Normierung: Man nennt ein Polynom normiert, falls der höchste Koeffizient 1 ist. Beispiel Das Polynom

P D 3X 3  12X 2 C 9

ist nicht normiert, da es den höchsten Koeffizienten 3 ¤ 1 hat. Wir normieren es, indem wir es mit 1 multiplizieren Nun können wir auch eine bereits früher gemachte Behaup3 und erhalten damit das normierte Polynom tung beweisen: Q D X 3 C 4X 2  3 : 9 Der Zusammenhang zwischen Spur, Determinante und den Eigenwerten einer Matrix Zerfällt das charakteristische Polynom A der Matrix A 2 Kn n in seine n Linearfaktoren, d. h. A D .1  X/    .n  X/ ;

.P C Q/.A/ D P .A/ C Q.A/ .P Q/.A/ D P .A/ Q.A/ :

so gilt: Sp A D 1 C    C n ;

In den folgenden Ausführungen benutzen wir immer wieder die folgende Tatsache, die wir im 7 Abschn. 2.4 nachgewiesen haben: Sind P und Q irgendwelche Polynome aus KŒX, so gelten für das Einsetzen einer Matrix A 2 Kn n die Regeln: und

det A D 1    n :

Nun zeigen wir: Beweis Da A zerfällt, ist A ähnlich zu einer JordanMatrix J . Da Spur und Determinante ähnlicher Matrizen gleich sind, folgt die Behauptung. 

8.9

Das Minimalpolynom einer Matrix

Das Minimalpolynom Es seien K ein Körper und n 2 N. Zu einer quadratischen Matrix A 2 Kn n gibt es ein eindeutig bestimmtes normiertes Polynom A ¤ 0 kleinsten Grades mit .A/ D 0. Das Polynom A nennt man das Minimalpolynom von A

Nach dem Satz von Cayley-Hamilton ist eine quadratische Matrix A Nullstelle des charakteristischen Polynoms A , d. h. A .A/ D 0. Hierbei wird in das Polynom A anstelle der Variablen X die Matrix A eingesetzt, genauer: In das Beweis Wir betrachten die Menge aller Polynome über dem Körper K, die die Matrix A als Nullstelle haben: Polynom A D .1/n X n C cn1 X n1 C    C c1 X C c0

I D fP 2 KŒX j P .A/ D 0g :

297 8.9  Das Minimalpolynom einer Matrix

Existenz von A : Nach dem Satz von Cayley-Hamilton liegt das vom Nullpolynom 0 verschiedene charakteristische Polynom A in I , sodass die Menge I n f0g nichtleer ist. Wir wählen in dieser Menge I n f0g der vom Nullpolynom verschiedenen Polynome, die A als Nullstelle haben, ein normiertes Polynom kleinsten Grades und bezeichnen dieses mit A . Eindeutigkeit von A : Es sei P ein weiteres normiertes Polynom mit P .A/ D 0 und identischem Grad r D deg.P / D deg.A /. Da beide Polynome P und A normiert sind und den gleichen Grad haben, ist der Summand mit dem höchsten Grad identisch, also

Es sei also P irgendein Polynom ungleich dem Nullpolynom mit P .A/ D 0. Wir dividieren das Polynom P per Polynomdivision mit Rest durch A und erhalten Polynome Q und R mit P D Q A C R ; wobei R D 0 oder deg.R/ < deg A : Angenommen, das Polynom R D P  Q A ist nicht das Nullpolynom. Dann ist wegen R.A/ D P .A/  Q.A/ A .A/ D 0  Q.A/ 0 D 0

das Polynom R ein Polynom kleineren Grades als A und hat doch A als Nullstelle. Dieser Widerspruch belegt, dass A D X C ar1 X C : : : C a1 X C a0 und R D 0 gelten muss. Somit erhalten wir P D Q A , d. h., P D X r C br1 X r1 C : : : C b1 X C b0 P ist ein Vielfaches von A . (b) Ist  eine Nullstelle des charakteristischen Polymit irgendwelchen ai und bj aus K. Angenommen, das Ponoms A , so ist  ein Eigenwert von A, d. h., es gibt ein lynom P  A ist nicht das Nullpolynom, P  A ¤ 0. v 2 Kn , v ¤ 0 mit A v D  v. Es gilt somit auch Dann liegt P  A wegen A k v D k v für jedes k 2 N und damit also auch für jedes Polynom P D ar X r C    C a1 X C a0 2 KŒX: .P  A /.A/ D P .A/  A .A/ D 0  0 D 0 r

r1

in I n f0g. Aber wegen deg.P  A / < r ist das ein Widerspruch. Unser Polynom A war doch ein Polynom in I nf0g mit kleinstem Grad. Somit muss P  A D 0 gelten, das liefert P D A . 

P .A/ v D .ar A r C    C a1 A C a0 En / v D ar A r v C    C a1 A v C a0 En v D ar r v C    C a1  v C a0 v D .ar r C    C a1  C a0 /v D P ./ v :

Zu jeder quadratischen Matrix gibt es somit ein eindeutig bestimmtes Minimalpolynom. Wie wir dieses Minimalpolynom zu einer Matrix A bestimmen können, ist aber noch Mit der Wahl A für P erhalten wir wegen A .A/ D 0 somit A ./ D 0, da v ¤ 0 gilt.  unklar. Wir finden das Minimalpolynom einer Matrix A also unter den (üblicherweise) wenigen Teilern des charakteristischen Polynoms (das sagt der Teil (a) des eben bewiesenen Satzes), wobei wir uns auch noch auf die Teiler einschränken dürfen, in denen jeder Linearfaktor des charakteristischen Polynoms vorkommt (das besagt der Teil (b) des obigen Mit den folgenden Ausführungen erhalten wir eine einfache Satzes). Methode zum Bestimmen des Minimalpolynoms, wenn das Beispiel charakteristische Polynom bereits bekannt ist. 4 Die reelle Matrix 0 1 1 1 1 Wichtige Eigenschaften des Minimalpolynoms A D @0 1 0 A Es sei A 2 Kn n eine quadratische Matrix mit dem cha0 0 1

Das Minimalpolynom findet man unter besonderen Teilern des charakteristischen Polynoms

rakteristischen Polynom A und dem Minimalpolynom A . Dann gilt: (a) A ist ein Vielfaches von A . (b) Ist  eine Nullstelle von A , so ist  eine Nullstelle von A .

hat das charakteristische Polynom A D .1  X/3 . Für das Minimalpolynom gilt also A 2 fX  1 ; .X  1/2 ; .X  1/3 g : Durch Probieren findet man

Beweis (a) Wir zeigen etwas allgemeiner als angegeben:

Jedes Polynom P mit P .A/ D 0 ist ein Vielfaches von A . Da nach dem Satz von Cayley-Hamilton das charakteristische Polynom A .A/ D 0 erfüllt, folgt so die Behauptung.

A  E3 ¤ 0 ; .A  E2 /2 D 0 ; sodass also A D .X  1/2 gilt.

8

298

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

4 Die reelle Matrix 0 3 1 B1 1 B B A D B1 0 @4 1 2 0

Somit ist A ein Vielfaches von B . Analog folgt, dass B ein Vielfaches von A ist. Wegen der Normierung der beiden Polynome, sind die beiden Minimalpolynome somit gleich. Damit haben wir gezeigt:

1

4 3 1 1 1 0C C 2 0 0C C 4 5 1 A 2 2 1

Ähnlichkeit und Minimalpolynome

hat das charakteristische Polynom A D .1  X/ .2  X/. Für das Minimalpolynom gilt also 4

Zueinander ähnliche Matrizen haben dasselbe Minimalpolynom.

A 2 f.X  1/ .X  2/ ; .X  1/2 .X  2/ ; .X  1/3 .X  2/ ; .X  1/4 .X  2/g : Durch Probieren findet man .A  E5 / .A  2E5 / ¤ 0 ; .A  E5 /2 .A  2E5 / ¤ 0 ;

8

aber .A  E5 /3 .A  2E5 / D 0 ; sodass also A D .X  1/3 .X  2/ gilt. 9 Kommentar Eine weitere Möglichkeit, das Minimalpoly-

i Es kann durchaus sein, dass Matrizen nicht ähnlich sind und dennoch dasselbe Minimalpolynom haben, z. B. sind die beiden Matrizen 1 1 0 0 0 1 0 0 0 0 0 0 B0 0 0 0C B0 0 0 0C C C B B ADB C C und B D B @0 0 0 1A @0 0 0 1A 0 0 0 0 0 0 0 0 nicht ähnlich, da sie verschiedenen Rang haben (ähnliche Matrizen haben denselben Rang). Aber, wie man leicht nachrechnet, gilt A D X 2 und ebenso B D X 2 , denn beide Matrizen haben das charakteristische Polynom A D X 4 D B und beide Matrizen erfüllen A 1 ¤ 0 ¤ B 1 und A 2 D 0 D B 2 .

nom für eine n n-Matrix A 2 Kn n zu bestimmen – ohne vorher das charakteristische Polynom zu ermitteln – geht wie folgt beschrieben: Man bilde sukzessiv die Potenzen A 0 ; A 1 ; A 2 : : : und teste vor jeder weiteren Potenzierung die Matrizen A 0 ; A 1 ; A 2 ; : : : ; A k auf Am Minimalpolynom erkennt man, lineare Abhängigkeit: Das kleinste k für das die Matrizen 0 1 2 k A ; A ; A ; : : : ; A linear abhängig sind, für das also eine ob eine Matrix diagonalisierbar ist Relation der Form 0 A 0 C 1 A 1 C 2 A 2 C : : : C k A k D 0 mit i 2 K gilt, liefert das Minimalpolynom A D 0 C 1 X C 2 X 2 C : : : C k X k 2 KŒX :

Zueinander ähnliche Matrizen haben dasselbe Minimalpolynom Sind zwei n n-Matrizen A und B mit Koeffizienten aus dem Körper K ähnlich zueinander, so gibt es eine invertierbare Matrix S 2 Kn n mit B D S 1 A S ; also B k D S 1 A k S für jede natürliche Zahl k 2 N. Für das Minimalpolynom A D X r C ar1 X r1 C : : : C a1 X C a0 von A folgt somit

Angenommen, wir haben eine Matrix A 2 Kn n mit zerfallendem charakteristischen Polynom A D ˙.X  1 /1    .X  r /r : Diese Matrix A ist dann ähnlich zu einer Jordanmatrix 1 0 J1 C B :: J D@ A : Js mit den insgesamt s Jordankästchen der Bauart 0 1  1 B C :: :: B C : : C 2 Kl l Ji D B B C : : @ : 1A  zu einem der Eigenwerte . Wegen

A .B/ D B r C ar1 B r1 C : : : C a1 B C a0 En

0

D S 1 A r S C ar1 S 1 A r1 S C    C    C a1 S 1 A S C a0 S 1 S D S 1 .A r C ar1 A r1 C    C a1 A C a0 En /S D S 1 A .A/ S D 0 :

.J i  El /

l1

B B DB B @

0

1 ::

1l1 :

::

:

::

:

C C C C 1A 0

¤0

299 8.9  Das Minimalpolynom einer Matrix

und 0 B B l .J i  El / D B B @

0

1l

1 ::

:

::

:

::

:

C C C D0 C 1A 0

Diagonalisierbarkeit und das Minimalpolynom Es sei A 2 Kn n , K ein Körper, n 2 N. Die Matrix A ist genau dann diagonalisierbar, wenn das Minimalpolynom A in Linearfaktoren zerfällt und keine mehrfachen Nullstellen hat.

kann man an der Jordan-Normalform J der Matrix A das Beweis Die Matrix A sei diagonalisierbar mit den verMinimalpolynom von J und wegen der Ähnlichkeit von J schiedenen Eigenwerten 1 ; : : : ; r . Da es eine Basis des zu A auch jenes von A ablesen. Es ist Kn aus Eigenvektoren der Matrix A gibt, ist jedes Element v 2 Kn darstellbar als Summe l1 lr A D .X  1 /    .X  r / v D v1 C : : : C v r ; das Minimalpolynom von A, wobei li die Zeilen- bzw. Spaltenzahl des größten Jordankästchens zum Eigenwert i wobei die vi 2 EigA .i / Eigenvektoren von A zum Eigenwert i sind. Wir betrachten das Polynom ist. Beispiel Die folgenden beiden Matrizen

0 1 1 B B0 1 B B 2 1 B B ADB 0 2 B B 2 1 B B 0 2 @ 0 0 0 0 B B 0 1 0 B B B 0 0 1 B BDB 0 0 0 B B 0 1 B B 0 0 @ 0 0

1 C C C C C C C , C 0C C C 1A 2 1 C C C C C C C C 0C C C 1A 0

haben die Minimalpolynome A D .X  1/2 .X  2/3 ; B D X 3 9

P D .X  1 /    .X  r / : Für dieses Polynom P folgt mit obiger Darstellung eines (beliebigen) Vektors v 2 Kn : P .A/ v D P .A/ v1 C : : : C P .A/ vr D P .1 / v1 C : : : C P .r / vr D 0 ; da P .i / D 0 für alle i D 1; : : : ; r. Somit muss P .A/ D 0 die Nullmatrix sein. Das Polynom P hat also die Matrix A als Nullstelle. Außerdem ist das Polynom P aufgrund des Teils (b) des Satzes zu den wichtigen Eigenschaften des Minimalpolynoms offenbar ein Polynom minimalen Grades, das A als Nullstelle hat. Und weiterhin ist P auch normiert. Folglich muss P das Minimalpolynom von A sein, d. h. A D .X  1 /    .X  r / : Nun zerfalle das Minimalpolynom A der quadratischen n n-Matrix A in Linearfaktoren und habe keine mehrfachen Nullstellen, es gelte A D .X  1 /    .X  r / ;

Ist eine Matrix diagonalisierbar, so ist die Jordan-Normal- wobei die Skalare 1 ; : : : ; r verschieden seien.nWir zeigen form dieser Matrix sogar eine Diagonalform, sämtliche per Induktion nach der Dimension n D dim.K /, dass die Matrix A diagonalisierbar ist. Jordan-Kästchen haben die Länge 1. Es gilt somit: Ist n D 1, so hat die Matrix A D .1 / bereits Diagonalform. Daher sei n > 1. Folgerung Ist eine Matrix A 2 Kn n diagonalisierbar 1. Fall. r D 1: Da in diesem Fall das Minimalpolynom mit den verschiedenen Eigenwerten 1 : : : ; r , so hat diese  D X  1 ist, gilt A  1 En D 0, sodass A bereits A Matrix das Minimalpolynom Diagonalform hat, insbesondere also diagonalisierbar ist. 2. Fall. r > 1: Zu dem Eigenwert 1 von A betrachten A D .X  1 /    .X  r / : wir die folgenden beiden Untervektorräume des Kn : Wir halten dieses Ergebnis in einer deutlich allgemeineren Form fest und führen den Beweis (der einen Richtung) erneut, ohne die Jordan-Normalform dazu heranzuziehen:

U D fv 2 Kn j A v  1 v D 0g und W D fw 2 Kn j A v  1 v D w ; v 2 Kn g

8

300

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

Es ist somit U der Kern und W das Bild der linearen Ab- Wir wählen eine geordnete Basis .u1 : : : ; ur / von U und bildung v 7! .A  1 En / v. Der Kern U ist gerade der ergänzen diese mit linearen unabhängigen Vektoren aus W zu einer Basis Eigenraum von A zum Eigenwert 1 . Wir zeigen nun: B D .u1 : : : ; ur ; wrC1 : : : ; wn / Kn D U ˚ W : Q der linearen Abbildes Kn . Für die Darstellungsmatrix A Zum Nachweis dieser Gleichheit dividieren wir vorab das dung 'A W v 7! A v bzgl. der Basis B gilt Polynom P D .X 2 /    .X r / vom Grad größergleich 0 1 1 (da r > 1) durch das Polynom X  1 vom Grad 1 mit 0 1 Rest und erhalten daher einen Rest vom Grad kleiner als 1. B C :: 0C : Es gilt sogar mit einem Q 2 KŒX: Q D B M .'A /B D B A B C: @0 A 1 P D .X  1 / Q C R mit R 2 K n f0g ; (8.7) 0 C

8

da X  1 kein Teiler von P ist: Die Elemente 1 : : : ; r Q haben diese Matrizen Wegen der Ähnlichkeit von A und A sind nach Voraussetzung alle verschieden, sodass der Rest dasselbe Minimalpolynom; die Matrix C hat demnach das R ungleich null ist. Minimalpolynom Wir setzen nun in die Polynome links und rechts des Gleichheitszeichens der Gleichung (8.7) die Matrix A ein C D .X  2 /    .X  n / : und wenden die Matrizen auf ein beliebiges v 2 Kn an, wir erhalten Wegen m D n  r D dim.W / < n ist die m m-Matrix C nach Induktionsvoraussetzung diagonalisierbar. Somit ist P .A/v D .A  1 En / Q.A/v C Rv mit R 2 K n f0g: auch A diagonalisierbar.  Das liefert für v 2 Kn nach Kürzen von R ¤ 0 die Gleichung – wobei wir gleich noch zu erläuternde Klammern ?Selbstfrage 8.22 Warum ist jede Matrix A 2 Kn mit der Eigenschaft setzen: 1

A 2 D En diagonalisierbar?

1

v D R ŒP .A/ v  R Œ.A  1 En / Q.A/ v

(8.8)

mit R 2 K n f0g. Wir stellen nun fest: (1) Wegen .A  1 En / P .A/ v D A .A/ v D 0 v D 0 ist P .A/ v ein Element von U . (2) Wegen Q.A/ v 2 Kn ist .A  1 En / Q.A/ v ein Element von W .

Aufgaben Gelegentlich enthalten die Aufgaben mehr Angaben, als für die Lösung erforderlich sind. Bei einigen anderen dagegen werden Daten aus dem Allgemeinwissen, aus anderen Quellen oder sinnvolle Schätzungen benötigt.



einfache Aufgaben mit wenigen Rechenschritten mittelschwere Aufgaben, die etwas Denkarbeit und Somit liefert die Gleichung (8.8): K D U C W . unter Umständen die Kombination verschiedener Aufgrund der Dimensionsformel für lineare AbbildunKonzepte erfordern gen gilt zudem

anspruchsvolle Aufgaben, die fortgeschrittene Konzepte (unter Umständen auch aus späteren Kapiteln) dim.Kn / D dim.U / C dim.W / : oder eigene mathematische Modellbildung benötigen Die Dimensionsformel für Untervektorräume (siehe 7 Abschn. 4.5) zeigt schließlich, dass die Summe direkt ist. Wir führen nun den Induktionsbeweise fort: Es sei w 2 Verständnisfragen W . Dann gibt es ein v 2 Kn mit w D .A 1 En / v. Wegen 8.1  Gegeben ist ein Eigenvektor v zum Eigenwert  A w D A .A  1 En /v D .A  1 En / A v 2 W einer Matrix A. (a) Ist v auch Eigenvektor von A 2 ? Zu welchem Eigengilt wert? (b) Wenn A zudem invertierbar ist, ist dann v auch ein EifA w j w 2 W g  W : genvektor zu A 1 ? Zu welchem Eigenwert? n

301 Aufgaben

Wieso hat jede Matrix A 2 Kn n mit A 2 D En einen der Eigenwerte ˙1 und keine weiteren? 8.2 

8.9  Im Vektorraum RŒX3 der reellen Polynome vom Grad höchstens 3 ist für ein a 2 R die Abbildung 'W RŒX3 ! RŒX3 durch

8.3  Haben die quadratischen n n-Matrizen A '.p/ D p.a/ C p 0 .a/.X  a/ und A > dieselben Eigenwerte? Haben diese gegebenenfalls auch dieselben algebraischen und geometrischen Vielfach- erklärt. heiten? (a) Begründen Sie, dass ' linear ist. (b) Berechnen Sie die Darstellungsmatrix von ' bezüglich 8.4  Gegeben ist eine Matrix A 2 C n n . Sind die der Basis E3 D .1; X; X 2 ; X 3 / von RŒX3 . > Eigenwerte der quadratischen Matrix A A die Quadrate (c) Bestimmen Sie eine geordnete Basis B von RŒX3 , der Eigenwerte von A? bezüglich der die Darstellungsmatrix von ' Diagonalgestalt hat. 8.5  Der Satz von Cayley-Hamilton bietet eine Mög8.10  Gegeben sei die vom Parameter a 2 R abhängilichkeit, (a) das Inverse A 1 einer (invertierbaren) Matrix A zu be- ge Matrix 0 1 stimmen, p 5 1 3 (b) eine Quadratwurzel p A einer komplexen Matrix A 2 2 3 A 2 R3 3 : AD@ 2 C 2 2 mit Sp A C 2 det A ¤ 0 zu bestimmen (dabei a3 1 a1 heißt eine Matrix B eine Quadratwurzel aus A, falls 2 B D A gilt). (a) Bestimmen Sie in Abhängigkeit von a die Jordan-Normalform J von A. Wie funktioniert das? Berechnen Sie mit dieser Methode (b) Berechnen Sie für a D 1 und a D 1 jeweils eine das Inverse von A und eine Quadratwurzel B von A 0 , woJordan-Basis des R3 zu A. bei

0

1   1 4 2 2 6 A D @0 1 0 A und A 0 D 3 7 0 3 1 Man nennt eine Matrix A 2 Kn n idempotent, falls A D A gilt. Wieso ist jede idempotente Matrix A diagonalisierbar? 8.6 

2

Beweisaufgaben 8.11  Beweisen Sie das folgende Kriterium für die Triangulierbarkeit einer Matrix: Für eine Matrix A 2 Kn n sind äquivalent: (i) A ist triangulierbar. (ii) Das charakteristische Polynom A von A zerfällt in Linearfaktoren.

Rechenaufgaben

8.12  Begründen Sie die Binomialformel für Matrizen: Für Matrizen D; N 2 Kn n mit D N D N D und jede 8.7  Geben Sie die Eigenwerte und Eigenvektoren natürliche Zahl k gilt: ! der folgenden an: k  Matrizen  X k k 3 1 .D C N / D D ki N i : (a) A D 2 R2 2 , i 1 1 i D0   0 1 8.13  Gegeben ist eine nilpotente Matrix A 2 C n n (b) B D 2 C 2 2 . 1 0 mit Nilpotenzindex p 2 N, d. h., es gilt: 8.8 

Welche der folgenden Matrizen sind diagonalisierbar? Geben Sie gegebenenfalls eine invertierbare Ma1 trix S an,sodass D  D S A S Diagonalgestalt hat. 1 i (a) A D 2 C2 i 1 0 1 3 0 7 (b) B D @0 1 0A 2 R3 7 0 3 0 1 1 2 2 (c) C D 13 @2 2 1 A 2 C 2 2 1 2

A p D 0 und A p1 ¤ 0: Zeigen Sie: (a) Die Matrix A ist nicht invertierbar. (b) Die Matrix A hat einen Eigenwert der Vielfachheit n. (c) Es gilt p  n. 8.14  Es sei ' ein diagonalisierbarer Endomorphismus eines n-dimensionalen K-Vektorraumes V (n 2 N) mit der Eigenschaft: Sind v und w Eigenvektoren von ', so ist v C w ein Eigenvektor von ' oder v C w D 0. Zeigen sie, dass es ein  2 K mit ' D   id gibt.

8

302

Kapitel 8  Normalformen – Diagonalisieren und Triangulieren

8.15  Es seien K ein Körper und n 2 N; weiter seien A; B 2 Kn n . Zeigen Sie: A B und B A haben dieselben Eigenwerte. 8.16  Begründen Sie die im Satz zur Dimension des

Hauptraums im 7 Abschn. 8.8 gemachte Behauptung zur Hauptraumzerlegung.

8.17  Es sei V ein endlichdimensionaler K-Vektor-

raum, und die linearen Abbildungen '; W V ! V seien diagonalisierbar, d. h., es gibt jeweils eine Basis von V aus Eigenvektoren von ' bzw. . Man zeige: Es gibt genau dann eine Basis von V aus gemeinsamen Eigenvektoren von ' und , wenn ' ı D ı ' gilt.

Antworten zu den Selbstfragen

8

v Antwort 8.1 Die Drehung mit ˛ D 0 ist die Identität, hierbei wird jeder Vektor auf sich selbst abgebildet, sodass die Darstellungsmatrix bezüglich jeder geordneten Basis Diagonalgestalt hat – sie ist die Einheitsmatrix E2 . Bei der Drehung mit ˛ D wird jeder Vektor v 2 R2 auf sein entgegengesetztes Element v abgebildet. Damit ist diese Abbildung auch diagonalisierbar, die Darstellungsmatrix ist bezüglich jeder geordneten Basis das Negative der Einheitsmatrix E2 .

v Antwort 8.2 Sie hat den einzigen Eigenwert 0, da für jeden Vektor v 2 Kn 0v D 0v gilt. Jeder vom Nullvektor verschiedene Vektor des Kn ist Eigenvektor zum Eigenwert 0.

v Antwort 8.3 Unter Kern des Endomorphismus ' bzw. der Matrix A.

v Antwort 8.4 Das Gleichungssystem ist jeweils das triviale Gleichungssystem 0D0 zu dem jeweils einzigen Eigenwert 1 bzw. 0, und der Lösungsraum ist somit jeweils der ganze Kn . Jeder vom Nullvektor verschiedene Vektor ist ein Eigenvektor zum Eigenwert 1 der Einheitsmatrix bzw. zum Eigenwert 0 der Nullmatrix.

v Antwort 8.5 Im ersten Beispiel gilt etwa: ! ! 1 1 A D2 : 1 1

vAntwort 8.6 Wegen '

1 0

0 1

0 1

1 0

und '

!! D M E2  E2 M D 0 D 0 !!

1 D 1

! 1 1

D0D0

0 1

0 1

! 0 1

1 0

! 1 0  0 1 ! 1 0

1 0

!

1 1

! 1 1

sind diese beiden Vektoren tatsächlich Eigenvektoren zum Eigenwert 0. Wir prüfen als Beispiel noch den angegebenen Vektor des Eigenraums zum Eigenwert 2 nach, es gilt: !! ! ! 1 1 1 1 1 1 ' D 1 1 1 1 1 1 ! ! 1 1 1 1  1 1 1 1 ! ! 2 2 1 1 D D 2 : 2 2 1 1

vAntwort 8.7 Die Eigenwerte sind die konjugiert komplexen Zahlen ˙i; Eigenvektoren sind die konjugiert komplexen Vekto! 1 ren . ˙i

vAntwort 8.8 Weil es zu jedem Eigenwert auch einen Eigenvektor gibt, und Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind, existiert zu einer solchen Matrix A also eine Basis aus Eigenvektoren – eine solche Matrix A ist damit diagonalisierbar.

vAntwort 8.9 Der Eigenwert 1 von A hat die algebraische Vielfachheit 2 und der Eigenwert 3 die algebraische Vielfachheit 4. Und p die beiden konjugiert komplexen Eigenwerte 1=2˙ i 3 haben jeweils die algebraische Vielfachheit 1.

vAntwort 8.10 Es gilt: 0

2 B S D @1 1

1 0 2

0 1 4 1 1 B2 1 2C @ A und S D 12 2 0

und weiter: 0 10 4 2 2 1 1 B C B2 2 1 5 @ A@ 12 2 5 1 2 0 1 3 0 0 B C D @0 3 0 A : 0 0 3

2 2 1

10 2 2 B1 1C A@ 2 1

2 1 5

1 2 5C A 1

1 0 2

1 1 2C A 0

303 Antworten zu den Selbstfragen

v Antwort 8.11

vAntwort 8.18

Es vertauschen sich die zugehörigen Eigenwerte in der Diagonalmatrix.

v Antwort 8.12

! 0 1 mit 1 0 dem charakteristischen Polynom A D .i  X/ .i  X/ und den beiden Eigenwerten i; i: Es gilt etwa für die komplexe Matrix A D

det A D 1 D .i/ i und Sp A D 0 D i C i :

v Antwort 8.13 Ein erster Hinweis dafür, dass dieser „Beweis“ nicht in Ordnung ist, liefert die Tatsache, dass bei diesem „Beweis“ ein Widerspruch im Fall n > 1 entsteht: Kn n 3 0 D A .A/ D 0 2 K : Tatsächlich wurde hier die Matrix A falsch eingesetzt, die Multiplikation bei X En in AX En ist die Multiplikation mit Skalaren, durchgeführt wurde aber bei A  A En die Matrizenmultiplikation.

Drei verschiedene Eigenwerte 1 ; 2 ; 3 : Es gibt nur eine Jordan-Normalform, nämlich 1 0 1 C B C B C B 2 A @ 3 Zwei verschiedene Eigenwerte 1 ; 2 : Es gibt zwei wesentlich verschiedene Jordan-Normalformen, nämlich 1 0 1 0 1 1 C B C B C B C 2 C und B B  1 A @ 2 A @ 2 2 Ein Eigenwert : Es gibt drei wesentlich verschiedene Jordan-Normalformen, nämlich 1 0 0 1 0 1   1 C B B C B C C B B C und B C; @ B   1 C  1 A @ A A @   

vAntwort 8.19 0

v Antwort 8.14 Wegen '.u/ D  u für jedes u 2 U gilt '.U /  U . Weiter gilt '.U / D U genau dann, wenn  ¤ 0 ist, denn: '.U / D U bedeutet 'jU W u 7!  u ist surjektiv, d. h.  ¤ 0.

B B B B J DB B B B @

1

v Antwort 8.15 Das ist auch genau dann der Fall, wenn das charakteristische Polynom ' in Linearfaktoren zerfällt. Ist .b1 ; : : : ; bn / eine Basis von V bezüglich der ' obere Dreiecksgestalt hat, so ist .bn ; : : : ; b1 / eine Basis von V bezüglich der ' eine untere Dreiecksgestalt hat.

v Antwort 8.16 Weil wir für einen Endomorphismus des Nullraums f0g kein charakteristisches Polynom erklärt haben. Mit der Vereinbarung ' D 1, falls U D f0g, hätten wir den Beweis auch für beliebige U (und W ) formulieren können.

v Antwort 8.17

1

1

C C C C C 1 1 0C C 0 1 1C A 0 0 1

und jede andere Reihenfolge dieser drei Kästchen.

vAntwort 8.20 ! J D

i 0

1 . i

vAntwort 8.21 Nein, die ! Darstellungsmatrix bezüglich dieser Basis ist i 0 . Bei unserer Definition stehen die Einsen ober1 i halb der Hauptdiagonalen. In manchen Lehrbüchern wählt man aber die umgekehrte Reihenfolge – es stehen dann die Einsen, so wie hier, unterhalb der Hauptdiagonalen.

Z. B.:

vAntwort 8.22 ϕ W U ϕ(U )

−1

Wegen A 2 D En gilt A 2  En D 0, also (U )

.A  En / .A C En / D 0 : Somit hat die Matrix A eines der folgenden Polynome als Minimalpolynom A : X  1 ; X C 1 ; .X  1/ .X C 1/ : Auf jeden Fall ist A nach obigem Satz zur Diagonalisierbarkeit und dem Minimalpolynom diagonalisierbar.

8

305

Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Inhaltsverzeichnis 9.1

Euklidische Vektorräume – 307

9.2

Norm, Winkel, Orthogonalität – 313

9.3

Orthonormalbasen und orthogonale Komplemente – 320

9.4

Unitäre Vektorräume – 330

9.5

Orthogonale und unitäre Endomorphismen – 333

9.6

Selbstadjungierte Endomorphismen – 344

9.7

Normale Endomorphismen – 350

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_9

9

Aufgaben – 359 Antworten zu den Selbstfragen – 361

307 9.1  Euklidische Vektorräume

n Sie finden unter anderem Antworten zu . . .

4 Was ist der kürzeste Abstand eines Vektors zu einem Untervektorraum? 4 Warum sind symmetrische Matrizen diagonalisierbar? 4 Sind die Darstellungsmatrizen orthogonaler Endomorphismen orthogonal? 4 Wann ist eine Matrix normal?

Im 7 Kap. 5 zur analytischen Geometrie haben wir ausführlich das kanonische Skalarprodukt im (reellen) Anschauungsraum behandelt. Wir haben festgestellt, dass zwei Vektoren genau dann orthogonal zueinander sind, wenn ihr Skalarprodukt den Wert Null ergibt. Wir sind auch mit höherdimensionalen reellen und komplexen Vektorräumen und auch mit Vektorräumen, deren Elemente Funktionen oder Polynome sind, vertraut. Es ist daher eine naheliegende Frage, ob es auch möglich ist, ein Skalarprodukt zwischen Vektoren solcher Vektorräume zu erklären. Dabei sollte aber das vertraute Standardskalarprodukt des Anschauungsraums verallgemeinert werden. Dass dies in vielen Vektorräumen möglich ist, zeigen wir im vorliegenden Kapitel. Dabei können wir aber nicht mehr mit der Anschauung argumentieren. Wir werden vielmehr die algebraischen Eigenschaften des Skalarprodukts im Anschauungsraum nutzen, um ein (allgemeines) Skalarprodukt in reellen bzw. komplexen Vektorräumen zu erklären. Damit gelingt es dann auch von einer Orthogonalität von Funktionen zu sprechen – Funktionen sind per Definition dann orthogonal, wenn ihr Skalarprodukt den Wert null hat. Tatsächlich erfordern viele Anwendungen der linearen Algebra, wie etwa die abstrakte Formulierung der Quantenmechanik, eine solche Orthogonalitätsrelation für Funktionen. Auch bei der Entwicklung periodischer Funktionen in eine Fourierreihe behilft man sich mit der Tatsache, dass das Skalarprodukt zwischen bestimmten trigonometrischen Funktionen den Wert null hat. Wie immer in der Algebra betrachten wir neben einer algebraischen Struktur, in vorliegendem Fall die euklidischen und unitären Vektorräume, die strukturerhaltenden Abbildungen. Da lineare Abbildungen in verschiedener Art und Weise mit Skalarprodukten verträglich sein können, unterscheiden wir auch verschiedene Arten von linearen Abbildungen. Wir behandeln ausführlich orthogonale bzw. unitäre, selbstadjungierte und normale Endomorphismen. Wir können auch entscheiden, welche dieser Endomorphismen diagonalisierbar sind.

einem kompakten Intervall stetiger reellwertiger Funktionen. Wir beginnen mit dem reellen Fall.

Längen von Vektoren und Winkel zwischen Vektoren sind im R2 bzw. R3 mit dem Skalarprodukt bestimmbar Für jede natürliche Zahl n und Vektoren 0 1 0 1 w1 v1 B :: C B :: C v D @ : A ; w D @ : A 2 Rn vn

wn

nannten wir das Produkt v  w D v> w D

n X

vi wi 2 R

i D1

das kanonische Skalarprodukt oder auch das Standardskalarprodukt von v und w. Dieses ist ein Produkt zwischen zwei Vektoren des reellen Vektorraums Rn , bei dem als Ergebnis eine reelle Zahl entsteht. Kommentar Statt v  w schreibt man oft auch hv; wi oder s.v; w/. Und anstelle von v  v findet man oft auch die Schreibweise v2 . Wir werden üblicherweise die Notation v  w, falls es sich um Vektoren v und w des Rn oder um nicht näher spezifizierte Vektoren handelt. Sind v und w aber Funktionen f und g eines Vektorraums von Funktionen, so bevorzugen wir die Schreibweise hf; gi, da dies bei Funktionen die übliche Notation ist.

In den Anschauungsräumen, also in den Fällen n D 2 und n D 3, drückt v  w D 0 die Tatsache aus, dass die beiden Vektoren v und w senkrecht aufeinanderstehen. Der Wert q p kvk D v  v D v12 C v22 bzw. q p kvk D v  v D v12 C v22 C v32 ; also die Wurzel des Skalarprodukts eines Vektors mit sich selbst, gibt die Länge des Vektors v an. Anstelle von der Länge eines Vektors sprachen wir auch von der Norm eines Vektors. ?Selbstfrage 9.1

9.1

Euklidische Vektorräume

Wir wollen den Begriff des Senkrechtstehens zweier Vektoren weitreichend verallgemeinern. Neben den bisher betrachteten Vektorräumen Rn und C n , in denen wir von zueinander orthogonalen Vektoren gesprochen haben, wollen wir eine solche Relation auch für Elemente abstrakter Vektorräume erklären, wie etwa dem Vektorraum aller auf

p Wieso existiert v  v für jedes v 2 R2 bzw. R3 ? Anders gefragt: Wieso ist v  v eine nicht negative reelle Zahl?

Über die geometrischen Eigenschaften des kanonischen Skalarprodukts wurde im 7 Kap. 5 berichtet. Nun stellen wir die algebraischen Eigenschaften dieses Skalarprodukts in den Vordergrund und definieren dann den allgemeinen Begriff eines Skalarprodukts eines reellen Vektorraums durch diese Eigenschaften.

9

308

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Das kanonische Skalarprodukt ist eine symmetrische, positiv definite Bilinearform Wir fassen das kanonische Skalarprodukt als eine Abbildung auf:  n R Rn ! R; W .v; w/ 7! v  w D v> w: Nun gilt für alle v; w; v0 ; w0 2 Rn und  2 R: 4 .v C v0 /  w D v  w C v0  w und . v/  w D  .v  w/ (Linearität im ersten Argument), 4 v  .w C w0 / D v  w C v  w0 und v  . w/ D  .v  w/ (Linearität im zweiten Argument), 4 v  w D w  v (Symmetrie), 4 v  v  0 und v  v D 0 , v D 0 (positive Definitheit).

9

Euklidisches Skalarprodukt und euklidischer Vektorraum Ist V ein reeller Vektorraum, so heißt eine Abbildung W

( V V !R .v; w/ 7! v  w

ein euklidisches Skalarprodukt, wenn für alle v; v0 ; w 2 V und  2 R die folgenden Eigenschaften erfüllt sind: (i) .v C v0 /  w D v  w C v0  w und . v/  w D  .v  w/ (Linearität im ersten Argument), (ii) v  w D w  v (Symmetrie), (iii) vv  0 und vv D 0 , v D 0 (positive Definitheit). Ist  ein euklidisches Skalarprodukt in V , so nennt man V einen euklidischen Vektorraum.

Der Nachweis dieser Eigenschaften ist einfach. Die Symmetrie etwa zeigt man wie folgt: Für alle v D .vi /; w D Kommentar Später werden wir auch andere Skalarprodukte erklären, daher sollte man eigentlich stets das Adjektiv .wi / 2 Rn gilt: euklidisch mitführen. Wenn aber keine Verwechslungsgefahr besteht, werden wir es auch manchmal weglassen. n n X X vwD vi wi D wi vi D w  v : Wegen der Symmetrie folgt die Linearität im zweiten Ari D1 i D1 gument, da für alle v; w; w0 2 V und  2 R gilt: Eine Abbildung von einem Vektorraum in seinen zugrunde (ii) liegenden Körper nennt man auch eine Form. Die ersten v  .w C w0 / D .w C w0 /  v beiden Eigenschaften besagen, dass die Abbildung , al(i) D w  v C w0  v so das Skalarprodukt, in den beiden Argumenten . ; / 2 (ii) Rn Rn linear, also bilinear ist. Daher rührt der Begriff D v  w C v  w0 ; Bilinearform für Abbildungen mit diesen Eigenschaften. (ii) Wegen der dritten Eigenschaft, der Symmetrie, folgt die v  . w/ D . w/  v zweite aus der ersten – oder die erste aus der zweiten. Man (i) D  .w  v/ kann also eine der ersten beiden Eigenschaft aus der jeweils (ii) anderen mit der Symmetrie folgern. Wir werden gleich zeiD  .v  w/ : gen, wie das tatsächlich geht. Die vierte Eigenschaft, die positive Definitheit, ist ?Selbstfrage 9.2 gleichwertig zu der Eigenschaft v  v > 0 für alle v 2 Rn n f0g :

Warum gilt für jedes v eines euklidischen Vektorraums 0  v D 0 D v  0?

Beispiel

Ein euklidisches Skalarprodukt ist eine symmetrische, positiv definite Bilinearform eines reellen Vektorraums

4 Für jede natürliche Zahl n ist im reellen Vektorraum Rn das kanonische Skalarprodukt v  w D v> w

.v; w 2 Rn /

ein euklidisches Skalarprodukt. 2 für Wir benutzen die algebraischen Eigenschaften des kanoni- 4 Wir definieren   Vektoren v; w 2 R mittels der Ma2 1 schen Skalarprodukts, um das Skalarprodukt in beliebigen trix A D das Produkt 1 1 reellen Vektorräumen einzuführen, um dann in solchen Vektorräumen von Normen von Vektoren und von Winkeln v  w D v> A w zwischen Vektoren sprechen zu können.

9

309 9.1  Euklidische Vektorräume

zwischen den Vektoren v und w und stellen fest, dass für alle v; v0 ; w 2 R2 und  2 R

f 2 .t/

.v C v0 /  w D .v C v0 /> A w D v> A w C v0> A w D v  w C v0  w



a

f 2 .t0 / 6D 0

t0 ƒ‚ U.t0 /



b

t

und . v/  w D . v/> A w D  v> A w D  .v  w/ gilt. Das besagt, dass das so definierte Produkt  linear im ersten Argument ist. Das Produkt ist auch symmetrisch, da wegen

. Abb. 9.1 Der Graph der stetigen Funktion f 2 schließt mit der t-Achse einen positiven Flächeninhalt ein

Aufgrund der Rechenregeln für das Integral gilt für alle Funktionen f; g; h 2 C.I /:

v> A w D .v> A w/> D w> A > v (das Transponieren ändert eine reelle Zahl nicht) und der Symmetrie der Matrix A, d. h. A > D A, gilt:

Zb hf C g; hi D Zb

v  w D v > A w D w> A > v

  v1 > v  v D v A v D .2 v1 C v2 ; v1 C v2 / v2 D 2 v12 C 2 v1 v2 C v22 D v12 C .v1 C v2 /2  0 ; und Gleichheit gilt hierbei genau dann, wenn v1 D 0 D v2 , d. h. v D 0 ist. Damit ist also gezeigt, dass  ein euklidisches Skalarprodukt ist und der R2 mit diesem Skalarprodukt ein euklidischer Vektorraum ist. 4 Wir erklären ein Produkt h ; i im Vektorraum aller auf einem abgeschlossenen Intervall I D Œa; b  R mit a < b stetigen reellwertigen Funktionen, also im reellen Vektorraum

Zb f .t/ h.t/ C

D

D w> A v D w  v : Und schließlich   ist das Produkt positiv definit, da für v1 alle v D 2 R2 gilt: v2

.f .t/ C g.t// h.t/ dt a

a

a

D hf; hi C hg; hi : Analog gilt für jede reelle Zahl : h f; gi D  hf; gi : Damit ist bereits gezeigt, dass h ; i linear im ersten Argument ist. Für alle f; g 2 C.I / gilt: Zb

Zb f .t/ g.t/ dt D

hf; gi D a

Dazu multiplizieren wir zwei Funktionen f und g aus C.I / folgendermaßen:

also ist das Produkt auch symmetrisch und somit eine symmetrische Bilinearform. Wir zeigen nun, dass das Produkt positiv definit ist. Für jedes f 2 C.I / gilt: Zb hf; f i D

Zb f .t/ f .t/ dt D

f .t/ g.t/ dt 2 R: a

.f .t//2 dt  0 : a

Ist f nicht die Nullfunktion, so gibt es ein t0 2 Œa; b mit f .t0 / ¤ 0. Da f stetig ist, gibt es somit eine Umgebung U.t0 /  Œa; b, sodass f für alle Argumente aus U.t0 / von null verschiedene Werte annimmt (. Abb. 9.1). Da

Zb hf; gi D

g.t/ f .t/ dt D hg; f i ; a

a

C.I / D ff 2 RI j f ist stetig g :

g.t/ h.t/ dt

Zb

Z f .t/ dt  2

0< U.t0 /

f .t/2 dt ; a

Weil stetige Funktionen integrierbar sind, ist dieses Produkt auch definiert. Nun verifizieren wir, dass dieses Produkt

Rb ist das Integral hf; f i D a .f .t//2 dt größer als null. Es folgt die positive Definitheit:

h ; i W C.I / C.I / ! R

hf; f i D 0 , f D 0 :

ein Skalarprodukt ist.

Somit ist  ein Skalarprodukt.

310

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

f .t/

f .t0 / 6D 0 Rb a

f dt D 0

a „ ƒ‚ … t0 „ ƒ‚ … b f .t/ D 0 f .t/ D 0

t

. Abb. 9.2 Das Integral einer Funktion, die nur auf einer Nullmenge von null verschiedene Werte annimmt, ist null

4 Anstelle von C.I / können wir auch den Vektorraum der Polynome vom Grad kleiner oder gleich einer natürlichen Zahl n wählen. Weil Polynomfunktionen stetig sind, ist dann Zb hp; qi D

p.t/ q.t/ dt

Nicht jede symmetrische Matrix erfüllt diese positive Definitheit. Man betrachte etwa die symmetrische Matrix   1 1 , für die gilt: 1 1    1 1 1 .1; 1/ D 0; 1 1 1   1 obwohl ¤ 0 gilt. 1 ?Selbstfrage 9.3

Ist v  w D v> A v mit der Matrix 0 1 1 0 0 B C A D @0 0 0 A 0 0 1 ein Skalarprodukt im R3 ?

a

9

ein Skalarprodukt. 9 Kommentar Hätten wir anstatt der Stetigkeit nur die In-

Definitheit symmetrischer Matrizen Wir nennen eine reelle symmetrische n n-Matrix A 4 positiv definit, wenn für alle v 2 Rn n f0g gilt:

tegrierbarkeit gefordert, so wäre das so definierte Produkt kein Skalarprodukt. Eine Funktion f , die außer an einer Stelle t0 zwischen a und b stets den Wert Null annimmt, ist nicht die Nullfunktion, sie ist aber integrierbar, und es gilt Rb hf; f i D a .f .t//2 dt D 0 (. Abb. 9.2).

4 negativ definit, wenn für alle v 2 Rn n f0g gilt:

i Beim Skalarprodukt darf man im Allgemeinen nicht kür-

4 positiv semidefinit, wenn für alle v 2 Rn n f0g gilt:

zen: Aus a  v D a  w folgt nicht unbedingt v D w. Wegen der Linearität kann man aber a  .v  w/ D 0 folgern.

v> A v > 0 ;

v> A v < 0 ;

v> A v  0; 4 negativ semidefinit, wenn für alle v 2 Rn n f0g gilt: v> A v  0; 4 indefinit, wenn es Vektoren v; w 2 Rn gibt mit

Positiv definite Matrizen liefern euklidische Skalarprodukte

v> A v > 0 und w> A w < 0 :

Wir betrachten noch einmal das obige Beispiel mit der sym- i Man beachte, dass die Symmetrie im Begriff der Definitheit steckt: Positiv definite Matrizen sind symmetrisch. metrischen Matrix A. Für jede reelle symmetrische Matrix n A ist das Produkt von Vektoren v; w des R , das definiert Beispiel Für eine Diagonalmatrix D D diag.1 ; : : : ; n / 2 ist durch Rn n gilt offenbar: v  w D v> A w ;

D ist positiv definit , D ist negativ definit , D ist positiv semidefinit , D ist negativ semidefinit , D ist indefinit ,

linear im ersten Argument, symmetrisch – dies liegt an der Symmetrie der Matrix A – und damit linear im zweiten Argument. Damit dieses Produkt ein Skalarprodukt ist, fehlt noch die Eigenschaft v  v > 0, also v> A v > 0, für alle vom Weitere Beispiele folgen. 9 Nullvektor verschiedenen Vektoren v des Rn .

1 ; : : : ; n > 0 ; 1 ; : : : ; n < 0 ; 1 ; : : : ; n  0 ; 1 ; : : : ; n  0 ; 9 i; j mit i < 0; j > 0 :

311 9.1  Euklidische Vektorräume

Beispiel: Definitheit symmetrischer Matrizen

Wir überprüfen, ob die folgenden symmetrischen Matrizen positiv definit, negativ definit, positiv semidefinit, negativ semidefinit oder indefinit sind. ! ! 1 1 2 1 2 2 AD 2R ; BD 2 R2 2 ; 1 1 1 1 0 1 ! 1 0 0 1 1 B0 0 1C 3 3 2 R2 2 : C D@ A2R ; DD 1 2 0 1 0 Problemanalyse und Strategie Wir bestimmen für jede der angegebenen Matrizen M 2 Rn n und jeden Vektor v 2 Rn die Zahl v> M v 2 R und stellen Überlegungen über das Vorzeichen an.

v1 .v1 ; v2 / B v2

! D 0 , v1 D 0 D v2

ist B positiv definit. Die Matrix C ist wegen 0

1 0 B C .0; 1; 1/ C @ 1 A D 2 und 1 0 1 1 B C .1; 0; 0/ C @0A D 1 0 indefinit. Die Matrix D ist wegen

Lösung Die Matrix A ist wegen v1 .v1 ; v2 / A v2

zumindest positiv semidefinit. Wegen

! D v12 C v1 v2 C v2 v1 C v22 D .v1 C v2 /2  0

.v1 ; v2 / D

v1 v2

! D v12 C 2 v1 v2  2 v22 D ..v1  v2 /2 C v22 /  0

auf jeden Fall zumindest positiv semidefinit. Die Matrix ist aber nicht positiv definit, da für v1 D v2 , v1 ¤ 0, gilt v> A v D 0. Somit ist A positiv semidefinit. Die Matrix B ist wegen .v1 ; v2 / B

v1 v2

! D 2 v12 C 2 v1 v2 C v22 D v12 C .v1 C v2 /2  0

zumindest negativ semidefinit. Wegen v1 .v1 ; v2 / D v2

! D 0 , v1 D 0 D v2

ist D negativ definit.

Jede positiv definite Matrix liefert ein euklidisches Skalar- Man erhält bei diesem Skalarprodukt mit der Wahl A D En produkt, das besagt der folgende Satz. das kanonische Skalarprodukt zurück – die Einheitsmatrix En ist positiv definit. Positiv definite Matrizen definieren Skalarprodukte Jede positiv definite Matrix A 2 Rn n definiert durch

Die Darstellungsmatrix einer Bilinearform erhält man komponentenweise

v  w D v> A w

Ist ' ein Endomorphismus eines n-dimensionalen K-Vektorraums V , so können wir diesen durch eine Matrix aus Kn n darstellen. Diese Darstellungsmatrix B M .'/B von ' bezüglich einer gewählten Basis B von V erhält man spaltenweise: In der i-ten Spalte steht der Koordinatenvektor Beweis Die Betrachtungen zu Beginn dieses Abschnitts des Bildes des i-ten Basisvektors. Die Darstellungsmatrix zeigen, dass  eine symmetrische Bilinearform ist. Schließ- enthält alle wesentlichen Informationen des Endomorphislich ist diese Bilinearform wegen der positiven Definitheit mus, es ist der Matrix A auch positiv definit, da für alle v 2 Rn n f0g gilt: ' 7! B M .'/B ein euklidisches Skalarprodukt. Mit diesem Skalarprodukt  ist der Rn ein euklidischer Vektorraum.

v  v D v> A v > 0 : Folglich ist  ein euklidisches Skalarprodukt.



bei einer fest gewählten Basis B ein Isomorphismus von EndK .V / auf Kn n .

9

312

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Wir gehen nun für euklidische Skalarprodukte endlich- dinatenvektor zurückgeführt: dimensionaler euklidischer Vektorräume ähnlich vor: Wie '.v/ ! B M .'/B B v ; wir wissen, liefert jede positiv definite Matrix A 2 Rn n ein euklidisches Skalarprodukt auf dem Vektorraum Rn . und die Produktbildung beim Skalarprodukt erfolgt durch Multiplikation von Koordinatenvektoren mit der DarstelNun zur Umkehrung: lungsmatrix vw Darstellungsmatrix eines euklidischen Skalarprodukts Ist V ein n-dimensionaler euklidischer Vektorraum mit dem euklidischen Skalarprodukt  und einer Basis B D .b1 ; : : : ; bn /, so nennt man die n n-Matrix 0

b1  b1 B : B M B ./ D .bi  bj /i;j D @ :: bn  b1

9

1



b1  bn :: C n n C : A2R bn  bn



die Darstellungsmatrix von  bezüglich der Basis B. Die Matrix M B D M B ./ ist positiv definit, und für alle vD

n X

vi bi und w D

iD1

n X

wi bi 2 V

iD1

gilt:

0

v  w D .v1 ; : : : ; vn / M B

1 w1 B : C B : C: @ : A wn

Pn

!

Bv

>

MB B w :

Wir können aus obigem Ergebnis eine Folgerung ziehen, die die Ähnlichkeit der Darstellungen von Endomorphismen und Skalarprodukten weiter unterstreicht. Folgerung Für jede Basis B eines n-dimensionalen Vektorraums V ist die Abbildung B

W s 7! M B .s/

eine Bijektion von der Menge aller euklidischer Skalarprodukte auf V in die Menge aller positiv definiten n n-Matrizen. Beweis Nach dem obigen Satz zur Darstellungsmatrix eines euklidischen Skalarprodukts ist B eine Abbildung von der Menge aller euklidischer Skalarprodukte auf V in die Menge aller positiv definiten n n-Matrizen. Diese Abbildung ist injektiv, da aus M B .s/ D M B .s 0 / für zwei euklidische Skalarprodukte s und s 0 erneut nach obigem Satz s D s 0 folgt. Schließlich ist die Abbildung auch surjektiv, da für jede positiv definite n n-Matrix A das wie folgt auf V erklärte Skalarprodukt

v  w D B v> A B w ; v; w 2 V ; Pn

die Darstellungsmatrix M B ./ D A hat.



Beweis Für v D i D1 vi bi ; w D i D1 wi bi 2 V gilt wegen der Linearität des Produkts in beiden Argumenten: Darstellungsmatrizen ein und desselben ! ! n n Skalarprodukts bezüglich verschiedener X X vwD vi bi  wi bi Basen sind zueinander kongruent i D1

D

n X

i D1

vi wj .bi  bj /

i;j D1

D .v1 ; : : : ; vn / M B

0

1 w1 B :: C @ : A: wn

Die Symmetrie und schließlich die positive Definitheit von M B folgt hieraus mit der Symmetrie und der positiven Definitheit des Skalarprodukts.  Anstelle von der Darstellungsmatrix von  bezüglich B spricht man auch von der Gram’schen Matrix von  bezüglich B. Man beachte die Ähnlichkeit zwischen der Darstellung eines Endomorphismus und der Darstellung eines Skalarprodukts: Das Anwenden eines Endomorphismus wird auf die Multiplikation der Darstellungsmatrix mit einem Koor-

Wir erinnern erneut an die Darstellungsmatrizen von Endomorphismen: Sind B M .'/B und C M .'/C zwei Darstellungsmatrizen eines Endomorphismus ' eines n-dimensionalen K-Vektorraums V , so sind die Darstellungsmatrizen zueinander ähnlich, d. h., es gibt eine invertierbare Matrix S 2 Kn n mit C M .'/C

D S 1B M .'/B S :

Dabei gilt S D B M .id/C – beachte auch das folgende Diagramm: Kn

C M .'/C

S 1 DC M .id/B

S DB M .id/C

Kn

Kn

B M .'/B

Kn

313 9.2  Norm, Winkel, Orthogonalität

Natürlich stellen wir uns nun die Frage, wie die Situation im vorliegenden Fall eines euklidischen Vektorraums ist. Wie ist der Zusammenhang von Darstellungsmatrizen eines euklidischen Skalarprodukts bezüglich verschiedener Basen? Die Antwort liefert der folgende Satz.

Darstellungsmatrizen bezüglich verschiedener Basen Ist V ein n-dimensionaler euklidischer Vektorraum mit dem euklidischen Skalarprodukt  und den Basen B D .b1 ; : : : ; bn / und C D .c 1 ; : : : ; c n /, so gilt mit der Matrix S D B M .id/C die Gleichung: M C D S >M B S :

. Abb. 9.3 Die Äquivalenzrelationen Kongruenz und Ähnlichkeit zerlegen den Kn n im Allgemeinen in verschiedene Äquivalenzklassen

4 Zueinander kongruente Matrizen können zueinander ähnlich sein:         1 0 k 1 0 1 0 ä 1 0  und  : 0 2 0 2 0 2 0 2

Beweis Die i-te Spalte der Matrix S D .sij / ist der Koordinatenvektor von c i bezüglich der Basis B, d. h., c i D Pn kD1 ski bk . 4 Zueinander nicht kongruente Matrizen können zueinanAn der Stelle .i; j / der Matrix M C steht der Eintrag der ähnlich sein: ! ! n n X X         0 1 1 0 ä 0 1 1 0 k c i  cj D ski bk  slj bl und  : 6 2 3 0 2 2 3 0 2 kD1 lD1 n X D ski slj .bk  bl / ; 4 Zueinander nicht ähnliche Matrizen können zueinander k;lD1 kongruent sein: > und dies ist der Eintrag in der Matrix S M B S an der Stel        le .i; j /.  1 0 k 4 0 1 0 ä 4 0 und  : 6 0 8 0 2 0 8 0 2 Es sei K ein Körper. Man nennt zwei Matrizen A; B 2 Kn n zueinander kongruent, wenn es eine invertierbare 4 Zueinander nicht ähnliche Matrizen können zueinander Matrix S 2 Kn n gibt, sodass nicht kongruent sein: B D S >A S         1 0 k 0 0 1 0 ä 0 0 gilt. Da die Basistransformationsmatrix B M .id/C inverund  6 : 6 0 0 0 2 0 0 0 2 tierbar ist, sind also je zwei Darstellungsmatrizen eines Skalarprodukts zueinander kongruent. Dass die Kongruenz von Matrizen eine Äquivalenzre- ?Selbstfrage 9.4 lation auf Kn n liefert, begründet man analog zur entspreBegründen Sie diese Behauptungen. chenden Aussage zur Ähnlichkeit. Lemma Für jeden Körper K und für jede natürliche Zahl n

definiert die Kongruenz  von Matrizen eine Äquivalenz- 9.2 Norm, Winkel, Orthogonalität relation auf der Menge Kn n . Dies ausführlich zu begründen haben wir als Übungsaufgabe gestellt. Eine Äquivalenzrelation zerlegt ihre Grundmenge in nichtleere Äquivalenzklassen. Die Äquivalenzklassen beä züglich der Äquivalenzrelationen Ähnlichkeit  und Konk gruenz  sind jedoch im Allgemeinen sehr verschieden, es können nämlich alle möglichen Fälle auftreten:

In euklidischen Vektorräumen, also in reellen Vektorräumen mit einem euklidischen Skalarprodukt, ist es möglich, Vektoren eine Norm zuzuordnen. Diese Norm entspricht dabei dem anschaulichen Begriff der Länge im R2 bzw. R3 , wenn das Skalarprodukt das kanonische ist. Mit dem Begriff der Norm werden wir dann Abstände zwischen Vektoren und Winkel zwischen Vektoren erklären und so letztlich zu dem Begriff der Orthogonalität kommen.

9

314

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Vektoren in euklidischen Vektorräumen haben eine Norm

Die Cauchy-Schwarz’sche Ungleichung besagt, dass der Betrag des Skalarprodukts zweier Vektoren kleiner ist als das Produkt der Normen beider Vektoren

  v1 der Anschauungsv2 ebene R2 gezeigt, dass der Ausdruck Die Cauchy-Schwarz’sche Ungleichung ist eine Ungleiq chung von fundamentaler Bedeutung in verschiedenen Gep kvk D v  v D v12 C v22 bieten der Mathematik. Wir werden sie benutzen, um einen sinnvollen Abstands- und Winkelbegriff in euklidischen die Länge der Strecke vom Ursprung zum Punkt v angibt. Vektorräumen einzuführen. In der Sprechweise des 7 Kap. 5 ist dies die Norm des Vektors v. p Der Ausdruck v  v existiert aber für jedes euklidische Die Cauchy-Schwarz’sche Ungleichung Skalarprodukt . Dies liegt an der positiven Definitheit, die Für alle Elemente v und w eines euklidischen Vektorsicherstellt, dass man diese p Wurzel bilden kann. raums V gilt die Cauchy-Schwarz’sche Ungleichung: Wir werden die Größe v  v die Norm des Vektors v jv  wj  kvk kwk : nennen und sie wieder mit kvk bezeichnen. Wir haben für einen Vektor v D

9

Die Gleichheit gilt hier genau dann, wenn v und w linear abhängig sind.

Die Norm von Vektoren Ist v ein Element eines euklidischen Vektorraums mit dem euklidischen Skalarprodukt , so nennt man die nichtnegative reelle Zahl kvk D

p vv

die Norm bzw. Länge des Vektors v.

Beweis Im Fall w D 0 stimmen alle Behauptungen. Darum setzen wir von nun an w ¤ 0 voraus. Für alle ;  2 R gilt die Ungleichung:

0  . v C  w/  . v C  w/ : Wir wählen nun  D w  w .> 0/ und  D v  w und erhalten so:

Beispiel Wir können also etwa k exp k für die auf dem

0  . v C  w/  . v C  w/ Intervall Œ0; 1 stetige reelle Funktion exp bezüglich des D   .v  v/ C   .v  w/ C   .w  v/ C   .w  w/ R1 Skalarprodukts hf; gi D 0 f .t/ g.t/ dt auf dem reellen D  . .v  v/ C  .v  w/ C  .w  v/ C  / Vektorraum C der auf dem Intervall Œ0; 1 stetigen FunktioD  ..w  w/ .v  v/       C  / nen bilden: v D  .kwk2 kvk2  .v  w/ .v  w// : u 1 r Z u p 1 2 u k exp k D hexp; expi D t e2t dt D .e  1/ : Wir können die positive Zahl  in dieser Ungleichung kür2 zen und erhalten 0

.v  w/2  kwk2 kvk2 : Damit hat die Funktion exp in diesem euklidischen Vektorp Da die Wurzelfunktion monoton wächst, folgt die Cauchyraum die Norm p12 .e2  1/. Hätten wir für das Skalarprodukt etwa das Intervall Schwarz’sche Ungleichung Œ0; 2 jv  wj  kvk kwk : p gewählt, so hätte exp eine andere Norm, nämlich p1 .e4  1/. Dieser Begriff der Norm hängt vom erklär2 Weiterhin folgt aus der Gleichheit ten Skalarprodukt ab. 9 ? Selbstfrage 9.5 Welche Norm hat die Polynomfunktion p W R ! R, p.t/ D t 2 bezüglich des euklidischen Skalarprodukts Z1 hf; gi D

f .t/ g.t/ dt ‹ 0

jv  wj D kvk kwk mit obiger Wahl für  und  sogleich . v C  w/  . v C  w/ D 0 ; wegen der positiven Definitheit des Skalarprodukts also  v C  w D 0. Weil  ¤ 0 gilt, bedeutet dies, dass v und w linear abhängig sind.

9

315 9.2  Norm, Winkel, Orthogonalität

Ist andererseits vorausgesetzt, dass v und w linear abhängig sind, so existiert ein  2 R mit v D  w. Wir erhalten

1

−1

1

jv  wj D jj kwk kwk D k wk kwk D kvk kwk : Damit ist alles begründet.

1

−1

−1 N1



1

1

−1

−1 N2

1 −1 N

. Abb. 9.4 Die Einheitskreise im R2 bezüglich der Normen N1 ; N2 ; N1

Jedes Skalarprodukt liefert eine Norm 4 N2 : Für alle v D .vi /; w D .wi / 2 Kn gilt: Tatsächlich ist der Begriff der Norm eines Vektors sogar noch etwas allgemeiner als unsere Definition. Wir betrachten im Folgenden einen reellen oder komplexen Vektorraum V – man beachte, dass wir kein Skalarprodukt voraussetzen. Um beide Fälle in einem abhandeln zu können, schreiben wir K für den Grundkörper des Vektorraums V .

Definition einer Norm Es sei V ein K-Vektorraum. Man nennt eine Abbildung ( V ! R0 ; N W v 7! N.v/ von V in die Menge der nicht negativen reellen Zahlen eine Norm, wenn die folgenden drei Eigenschaften erfüllt sind: (N1) N.v/ D 0 , v D 0, (N2) N. v/ D jj N.v/ für alle  2 K. (N3) N.v C w/  N.v/ C N.w/ für alle v; w 2 V (Dreiecksungleichung). Einen K-Vektorraum V mit einer Norm N nennt man auch normierten Raum.

v v v u n u n u n uX uX uX t jvi C wi j2  t jvi j2 C t jwi j2 : i D1

i D1

i D1

Diese Ungleichung heißt Minkowski-Ungleichung, die Gültigkeit dieser Ungleichung nachzuweisen haben wir als Übungsaufgabe 9.16 gestellt. 4 N1 : Für alle v D .vi /; w D .wi / 2 Kn gilt: max fjvi C wi jg  max fjvi jg C max fjwi jg ;

i D1;:::;n

i D1;:::;n

i D1;:::;n

was offensichtlich korrekt ist. In . Abb. 9.4 zeigen wir für den Fall K D R und n D 2 die Menge aller Vektoren, deren Norm 1 ist. Man nennt 4 N1 auch 1-Norm, 4 N2 auch euklidische Norm, 4 N1 auch Maximumsnorm auf dem Kn . Etwas allgemeiner zeigt man in der Analysis, dass für jedes p 2 N 1

Np ..v1 ; : : : ; vn /> / D .jv1 jp C    C jvn jp / p Beispiel Wir betrachten die folgenden Abbildungen N1 , N2

und N1 von V D Kn in R0 , die gegeben sind durch 4 N1 ..v1 ; : : : ; vn /> / D jv p1 j C    C jvn j, 4 N2 ..v1 ; : : : ; vn /> / D jv1 j2 C    C jvn j2 , 4 N1 ..v1 ; : : : ; vn /> / D maxfjv1 j; : : : ; jvn jg.

Die Behauptung ist, dass die Abbildungen N1 ; N2 ; N1 W V ! R0 Normen sind. (N1) und (N2) sind offenbar für jede der Abbildungen N1 ; N2 ; N1 erfüllt. (N3) besagt für 4 N1 : Für alle v D .vi /; w D .wi / 2 Kn gilt: n X i D1

jvi C wi j 

n X i D1

jvi j C

n X i D1

jwi j ;

eine Norm, die sogenannte p-Norm, liefert und dass bei geeigneter Interpretation lim Np D N1

p!1

gilt – die Maximumsnorm ist somit Grenzwert der p-Norm für p ! 1. 9 Wir wollen nun zeigen, dass jeder Vektorraum V mit einem euklidischen Skalarprodukt  insbesondere ein normierter Raum ist. Dazu zeigen wir, dass die Abbildung  kkW

V ! R0 ; p v 7! v  v;

die jedem Vektor seine Länge zuordnet, eine Norm in dem was bekanntlich nach der Dreiecksungleichung in K er- eben geschilderten Sinne ist. Daher rührt auch der Begriff füllt ist. der Norm eines Vektors, wie wir ihn gebrauchen.

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

316

Beispiel: Einheitskreise bezüglich verschiedener euklidischer Skalarprodukte im R2

p Unter der Größe kvk D v  v verstehen wir die Norm des Vektors v bezüglich des euklidischen Skalarprodukts . Wir wollen die Menge all jener Vektoren des R2 bestimmen, welche die Norm 1 haben, also die Menge E D fv 2 R2 j kvk D 1g. Diese Menge nennt man auch den Einheitskreis des R2 bezüglich des euklidischen Skalarprodukts , die Form des Kreises hängt natürlich sehr vom Skalarprodukt ab. Wir bestimmen diese Menge bezüglich der drei verschiedenen euklidischen Skalarprodukte

Der Einheitskreis!besteht also in dieser Situation aus den v1 mit Punkten v D v2

v  w D v> A w

v12 C .v1 C v2 /2 D 1 :

mit

Die Punkte v, deren Komponenten diese Gleichung erfüllen, bilden im R2 die folgende Menge:

! 1 0 .1/ A D ; 0 1

9

! ! 2 1 v1 (2) Im Fall A D hat der Vektor v D 2 R2 die 1 1 v2 Norm q kvk D 2 v12 C 2 v1 v2 C v22 :

! 2 1 .2/ A D ; 1 1

! 4 0 .3/ A D : 0 1

Problemanalyse und Strategie

.0; 1/

Die Vektoren v 2 R2 der Länge 1 lassen sich wegen p vv D 1 , vv D1 durch die Gleichung v  v D 1 beschreiben. Die Lösungsmenge dieser Gleichung sind die gesuchten Vektoren, sie lässt sich grafisch darstellen. .0; 1/

Lösung (1) Im Fall A D E2 ist das gegebene euklidische Skalarprodukt ! v1 2 R2 hat das kanonische Skalarprodukt. Der Vektor v D v2 die Länge kvk D

q v12 C v22 :

4 (3) Im Fall A D 0 Länge kvk D

! ! 0 x1 hat der Vektor v D 2 R2 die 1 x2

q 4 v12 C v22 :

Der Einheitskreis!besteht also in dieser Situation aus den v1 Punkten v D mit v2

Der Einheitskreis!besteht also in dieser Situation aus den v1 Punkten v D mit v2

v12 C v22 D 1 :

4 v12 C v22 D 1 :

Die Punkte v, deren Komponenten diese Gleichung erfüllen, bilden im R2 den Kreis um den Ursprung mit Radius 1.

Die Punkte v, deren Komponenten diese Gleichung erfüllen, bilden im R2 die folgende Menge:

.0; 1/

.0; 1/

.1; 0/

. 12 ; 0/

317 9.2  Norm, Winkel, Orthogonalität

Wenn wir beweisen wollen, dass tatsächlich unser Längenbegriff eine Norm ist, müssen wir also die drei definierenden Eigenschaften (N1), (N2) und (N3) einer Norm für die Abbildung k  k nachweisen. Die ersten beiden Eigenschaften (N1) und (N2) sind unmittelbar einsichtig, die dritte Eigenschaft (N3) aber, also die Dreiecksungleichung, verlangt etwas Aufwand, wir benutzen dazu die CauchySchwarz’sche Ungleichung.

Euklidische Vektorräume sind normiert Ist V ein euklidischer Vektorraum, so ist die Abbildung ( kkW

V ! R0 ; p v 7! v  v

eine Norm auf V . Man nennt k  k die von  auf V induzierte Norm.

Beweis Wegen kvk D 0 , v D 0 und k vk D jj kvk

für alle  2 R und v 2 V ist nur die Dreiecksungleichung zu begründen. Es seien dazu v; w 2 V . Dann gilt wegen der Cauchy-Schwarz’schen Ungleichung: kv C wk D .v C w/  .v C w/ 2

D kvk2 C kwk2 C 2 v  w  kvk2 C kwk2 C 2 jv  wj  kvk2 C kwk2 C 2 kvk kwk D .kvk C kwk/2 :

Da bei der Maximumsnorm N1 die Gerade e 2 C R e 1 aber unendlich viele Schnittpunkte mit dem Einheitskreis E bezüglich N1 hat (. Abb. 9.4), kann diese somit von keinem Skalarprodukt induziert sein. 9 Kommentar Die Normen eines Vektorraums V , die von

Skalarprodukten induziert werden, lassen sich kennzeichnen. Es sind dies genau jene Normen, die der Parallelogrammidentität kv C wk2 C kv  wk2 D 2 kvk2 C 2 kwk2 für alle v; w 2 V genügen.

Je zwei Vektoren haben einen Abstand Mit dem Begriff der Norm können wir Abstände zwischen Vektoren bestimmen. Sind v und w zwei Vektoren eines euklidischen Vektorraums V , so nennen wir die reelle Zahl d.v; w/ D kv  wk D kw  vk den Abstand oder die Distanz von v und w. Im R2 oder R3 mit dem kanonischen Skalarprodukt entspricht dies genau dem anschaulichen Abstand zweier Punkte voneinander. Wir ermitteln einige Abstände zwischen Vektoren euklidischer Vektorräume. Beispiel

4 Im euklidischen R2 mit dem kanonischen Skalarprodukt ist der Abstand von e 1 zu e 2   p  1  p 2 2   ke  e k D 1 2  1  D 1 C .1/ D 2 : Jedes Skalarprodukt definiert somit eine Norm eines reellen Vektorraums. Aber es gibt auch Normen auf reellen Vektorräumen, die von keinem Skalarprodukt herrühren, beachte Aber bezüglich des Skalarprodukts,   das durch v  w D 2 1 das folgende Beispiel. > v Aw mit der Matrix A D definiert ist, erhal1 1 Beispiel Wir begründen, dass die Maximumsnorm N1 auf ten wir dem R2 durch kein Skalarprodukt induziert wird. Dazu be  s    1  nutzen wir die folgende Tatsache: 1    e k D .1; 1/ A ke D 2 1 2  1  Ist  ein Skalarprodukt auf R , so hat der Einheitskreis 1 E D fv 2 R2 j kvk D 1g bezüglich der von  auf R2 indus   1 zierten Norm k  k mit jeder Geraden a C b R mit a; b 2 R2 D .1; 0/ D 1: 1 höchstens zwei Schnittpunkte. Denn: Ein Element v D a C b  der Geraden a C b R ist genau dann ein Element des Einheitskreises, wenn gilt: 4 Die Polynomfunktion p W R ! R, p.x/ D x hat von der Sinusfunktion sin W R ! R bezüglich des euklidi1 D kvk2 D ka C b k2 schen Skalarprodukts D kak2 C kbk2 2 C 2 .a  b/  : Z hf; gi D f .t/ g.t/ dt Und diese quadratische Gleichung in der Unbestimmten  Da die Wurzelfunktion auf R0 monoton wachsend ist, folgt kv C wk  kvk C kwk. 

über R hat höchstens zwei Lösungen.



9

318

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

den Abstand

cos ˛

v uZ u u kp  sin k D t t 2  2 t sin t C sin2 .t/ dt

1



r D

˛

2

2 3  3 : 9 3

1 . Abb. 9.6 Der Kosinus bildet das Intervall Œ0;  bijektiv auf das Intervall Œ1; 1 ab

Winkel zwischen Vektoren eines euklidischen Vektorraums werden mithilfe des Skalarprodukts erklärt

9

In der Anschauungsebene R2 haben wir Winkel zwischen Vektoren durch das kanonische Skalarprodukt ausgedrückt. Zwischen zwei vom Nullvektor verschiedenen Vektoren v und w existieren stets zwei Winkel. Für den kleineren Winkel ˛ zwischen den beiden Vektoren v und w haben wir im 7 Kap. 5 die Formel ˛ D arccos

vw kvk kwk

Sind v und w zwei vom Nullvektor verschiedene Vektoren eines euklidischen Vektorraums V mit dem euklidischen Skalarprodukt , so nennt man das eindeutig bestimmte ˛ 2 Œ0;  mit cos ˛ D

vw kvk kwk

den Winkel zwischen v und w und schreibt hierfür auch ˛ D †.v; w/ :

hergeleitet. Nun gehen wir umgekehrt vor: Wir nutzen die CauchySchwarz’sche Ungleichung aus, um Winkel zwischen Vektoren eines allgemeinen euklidischen Vektorraums, die nicht der Nullvektor sind, zu definieren. Dabei gehen wir so vor, dass diese Definition sich mit der intuitiven Begriffsbildung im Anschauungsraum aus dem 7 Kap. 5 deckt. Dazu schreiben wir die Cauchy-Schwarz’sche Ungleichung für zwei vom Nullvektor verschiedene Vektoren v; w eines euklidischen Vektorraums mit dem euklidischen Skalarprodukt  um: 1 

Der Winkel zwischen Vektoren

vw  1: kvk kwk

Zu jeder reellen Zahl zwischen 1 und 1 gibt es genau ein ˛ 2 Œ0;  mit

Um je zwei solchen Vektoren genau einen Winkel zuordnen zu können, haben wir die Definitionsmenge auf das abgeschlossene Intervall Œ0;  eingeschränkt. Dadurch entspricht unsere Definition in der Anschauungsebene mit dem kanonischen Skalarprodukt der Wahl des kleineren Winkels zwischen zwei Vektoren (. Abb. 9.7). Beispiel

4 Im euklidischen R2 mit dem kanonischen Skalarprodukt schließen die beiden Vektoren e 1 und e 1 C e 2 den Winkel 1 †.e 1 ; e 1 C e 2 / D arccos p D =4 2 ein. 4 In dem euklidischen Vektorraum aller auf dem abgeschlossenen Intervall Œ0; 1 stetigen reellen Funktionen mit dem euklidischen Skalarprodukt

vw cos ˛ D kvk kwk (. Abb. 9.6).

Z1 hf; gi D w

˛

f .t/ g.t/ dt 0

v

˛

. Abb. 9.7 Die Einschränkung auf Œ0;  entspricht der Wahl des kleineren Winkels ˛ der beiden Winkel zwischen zwei Vektoren

w

˛ . Abb. 9.5 Zwischen zwei Vektoren existieren zwei Winkel

v

9

319 9.2  Norm, Winkel, Orthogonalität

schließen die Polynomfunktion p mit p.x/ D x und R1 die Funktion exp wegen hp; expi D 0 t exp t dt D 1, p p k exp k D p12 e2  1 und kpk D 1= 3 den Winkel †.p; exp/ D arccos p

1 6 .e2  1/

x2 1 1

0 1

D 1:409 : : : x1

ein. 9

. Abb. 9.8 Bezüglich des durch die Matrix A definierten Skalarprodukts stehen die beiden Vektoren senkrecht aufeinander, wenngleich die Anschauung anderes vermittelt

Zwei Vektoren sind orthogonal zueinander, wenn ihr Skalarprodukt null ergibt

4 In dem euklidischen Vektorraum aller auf dem abgeschlossenen Intervall Œ0; 1 stetigen reellen Funktionen mit dem euklidischen Skalarprodukt In 7 Abschn. 5.2 haben wir gezeigt, dass zwei Vekto3 ren v und w des R genau dann orthogonal zueinander Z1 sind, wenn ihr kanonisches Skalarprodukt v> w D 0 ist. hf; gi D f .t/ g.t/ dt Wir haben dabei mit der Anschauung argumentiert. Nun 0 abstrahieren wir dies, indem wir das Senkrechtstehen für Vektoren eines euklidischen Raums, also für beliebige eusteht die Polynomfunktion q mit q.x/ D 2  3 x auf klidische Skalarprodukte, definieren. dem Polynom p mit p.x/ D x senkrecht, da Z1 Orthogonalität von Vektoren Sind v und w Elemente eines euklidischen Vektorraums V mit dem euklidischen Skalarprodukt , so sagt man, v ist orthogonal zu w oder steht senkrecht auf w, wenn

2t  3t 2 dt D 0 :

h2  3 x; xi D 0

4 Die sogenannten Legendre’schen Polynome pn mit 1 dn 2 .x  1/n 2n nŠ dx n

vwD 0

p n .x/ D

gilt. Für diesen Sachverhalt schreibt man auch

sind auf ganz R für n D 0; 1; : : : Lösungen der Legendre’schen Differenzialgleichung

v ? w:

.1  x 2 / y 00  2 x y 0 C n .n C 1/ y D 0 :

Sind v und w vom Nullvektor verschieden, so gilt:

Die ersten Legendrepolynome lauten

v ? w , †.v; w/ D =2 :

p 0 .x/ D 1; p 1 .x/ D x; 1 3 p 2 .x/ D  C x 2 ; 2 2 3 5 p 3 .x/ D  C x 3 : 2 2

Beispiel

> 4 Bezüglich des Skalarprodukts,   das durch vw D v A w 2 1 mit der Matrix A D definiert ist, gilt: 1 1

    1 0 ? ; 1 1 da    2 1 0 .1; 1/ D0 1 1 1 (. Abb. 9.8).

Wir zeigen nun, dass die Legendrepolynome bezüglich des Skalarprodukts Z1 hp; qi D

p.t/ q.t/ dt 1

orthogonal zueinander sind. Dazu notieren wir die Legendre’sche Differenzialgleichung etwas anders: D y D n .n C 1/ y mit D D 

d d .1  x 2 / : dx dx

320

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Man beachte:   d d D y D  .1  x 2 / y dx dx d D  .y 0  x 2 y 0 / D y 00 C 2 x y 0 C x 2 y 00 ; dx d. h., dass also tatsächlich D y D n .n C 1/ y nur eine andere Schreibweise für die Legendre’sche Differenzialgleichung ist.

Die Anschauung vermittelt, dass Vektoren, die orthogonal zueinander sind, linear unabhängig sind. Dies ist tatsächlich für jedes beliebige Skalarprodukt der Fall. Sind nämlich v1 ; : : : ; vr vom Nullvektor verschiedene Vektoren eines euklidischen Vektorraums V orthogonal zueinander, gilt also vi  vj D 0 für i ¤ j ; so folgt für 1 ; : : : ; r 2 R mit

Kommentar Tatsächlich ist D nichts anderes als ein En-

9

1 v1 C    C r vr D 0 domorphismus des Vektorraums aller Polynomfunktionen. Man nennt einen solchen Endomorphismus eines Funktionenraums auch linearen Operator und benutzt durch Skalarproduktbildung beider Seiten von rechts nacheinander mit v1 ; : : : ; vr und der Linearität im ersten die angegebene Schreibweise D y anstelle von D.y/. Argument: In der Form D y D n .n C 1/y lässt sich die Legend1 D 1 .v1  v1 / C    C r .vr  v1 / D 0  v1 D 0; re’sche Differenzialgleichung auch als Eigenwertgleichung interpretieren: Die Lösung y ist ein Eigenvektor 2 D 1 .v1  v2 / C    C r .vr  v2 / D 0  v2 D 0; zum Eigenwert n .n C 1/ der (linearen) Abbildung D. :: Nun folgt mit partieller Integration für m; n 2 N0 : : r D 1 .v1  vr / C    C r .vr  vr / D 0  vn D 0 : Z1 hp n ; Dpm i D

p n .t/Dp m .t/dt 1

D .1  t 2 /.p n .t/p 0m .t/  p0n .t/p m .t//j11

Damit gilt 1 D    D r D 0, d. h., v1 ; : : : ; vr sind linear unabhängig.

Z1 C

Dp n .t/p m .t/dt

Orthogonale Vektoren sind linear unabhängig Jede Menge von Vektoren ¤ 0 eines euklidischen Vektorraums, die paarweise orthogonal zueinander sind, ist linear unabhängig.

1

D hD p n ; p m i ; also schließlich: hp n ; D p m i D m .m C 1/ hp n ; p m i hD pn ; p m i D n .n C 1/ hp n ; p m i : Für m ¤ n gilt also hp n ; p m i D 0. Und für m D n erhalten wir: Z1  hp n ; p n i D 1

1 dn 2 .x  1/n n 2 nŠ dx n

2

Eine naheliegende Fragestellung ist nun folgende: Gibt es in euklidischen Vektorräumen stets Orthonormalbasen? Der folgende Abschnitt behandelt diese Frage. 9.3

2 dx D : 2nC1

Orthonormalbasen und orthogonale Komplemente

Wir zeigen, dass in endlichdimensionalen euklidischen Also stehen je zwei verschiedene Legendrepolynome Vektorräumen stets Orthonormalbasen existieren. senkrecht aufeinander, und das n-te Legendrepolynom q hat die Norm

2 2 nC1 .

9

? Selbstfrage 9.6 Warum gelten die folgenden, mit der Anschauung verträglichen Merkregeln? 4 Ist v orthogonal zu w, so ist w orthogonal zu v. 4 Der Nullvektor ist zu jedem Vektor v orthogonal. 4 Vom Nullvektor abgesehen ist kein Vektor zu sich selbst orthogonal.

Eine Orthonormalbasis ist eine Basis, deren Elemente die Länge 1 haben und die paarweise orthogonal zueinander stehen Neben dem Begriff der Orthonormalbasis werden wir auch immer wieder den Begriff eines Orthonormalsystems brauchen.

321 9.3  Orthonormalbasen und orthogonale Komplemente

Beispiel

4 Es ist 80 1 0 1 0 19 1 2 < 2 = @1A ; @2A ; @ 1 A : ; 2 0 5=2

. Abb. 9.9 Normieren eines Vektors; seine Richtung bleibt dabei gleich

Orthogonal- und Orthonormalbasis Eine Menge B von Vektoren eines euklidischen Vektorraums V heißt Orthogonalsystem, wenn je zwei verschiedene Elemente von B orthogonal zueinander sind: Aus b; b0 2 B und b ¤ b0 folgt b ? b0 : Ein Orthogonalsystem B heißt Orthonormalsystem, wenn jeder Vektor aus B zusätzlich normiert ist, also die Länge 1 hat: Für jedes b 2 B gilt

p

eine Orthogonalbasis des R3 mit dem kanonischen Skalarprodukt, aber keine Orthonormalbasis. Hingegen ist die Menge, die diese Vektoren in ihrer normierten Form enthält, also 8 0 1 0 1 0 19 1 2 2 Q D En , und einer oberen Dreiecksmatrix R ist: A D QR: Problemanalyse und Strategie Mit dem Orthonormalisierungsverfahren von Gram und Schmidt bilden wir aus den linear unabhängigen Spalten von A eine Orthonormalbasis B des Rn und bestimmen die Darstellungen der Spalten von A bezüglich dieser Basis B. Das liefert eine Gleichheit der Form A D Q R mit n n-Matrizen der gesuchten Form. Lösung Weil A invertierbar ist, sind die Spalten a1 ; : : : ; an linear unabhängig. Also bilden die Spalten von A D .a1 ; : : : ; an / 2 Rn n eine Basis des Rn . Mit dem Verfahren von Gram und Schmidt können wir aus dieser Basis eine Orthonormalbasis B D fb1 ; : : : ; bn g bezüglich des kanonischen Skalarprodukts des euklidischen Rn konstruieren. Es gilt dann: a1 ? b2 ; : : : ; bn ; a2 ? b3 ; : : : ; bn ; :: : an1 ? bn : Bezüglich der geordneten Orthonormalbasis B D .b1 ; : : : ; bn / haben die Vektoren a1 ; : : : ; an die Darstellung a1 D .a1  b1 / b1 ; a2 D .a2  b1 / b1 C .a2  b2 / b2 ; :: :

Diese Gleichungen können wir wegen A D .a1 ; : : : ; an / in einer Matrizengleichung zusammenfassen: a1  b1 B 0 B A D .b1 ; : : : ; bn /  B : „ ƒ‚ … B @ :: DWQ 0 „

a2  b1 a2  b2

  :: :



0

ƒ‚

DWR

0

1 B A D @0 1

2 1 0

1 4 0C A D .a1 ; a2 ; a3 / ; 0

deren Spalten offenbar linear unabhängig sind. Mit dem Verfahren von Gram und Schmidt erhalten wir die Vektoren b1 ; b2 ; b3 einer Orthonormalbasis 0 1 0 1 0 1 1 1 2=3 1 B C 1 B C 3 B C b1 D p @0A ; b2 D p @ 1 A ; b3 D p @4=3A : 2 1 3 1 2 6 2=3 Damit haben wir bereits eine Matrix Q D .b1 ; b2 ; b3 / bestimmt. Die Matrix R erhalten wir nun durch das Berechnen von sechs Skalarprodukten: 0p

2 B RD@ 0 0

p 2 p 3 0

p 1 2 p C 4 3 3 p A 2 6 3

2

Da die Diagonaleinträge alle positiv sind, haben wir bereits die gesuchte Zerlegung:

an D .an  b1 / b1 C    C .an  bn / bn :

0

es gilt Q> D Q1 . Und R ist wie gewünscht eine obere Dreiecksmatrix. Ersetzen wir einen Vektor b der Orthonormalbasis B durch b, so erhalten wir wieder eine Orthonormalbasis B 0 und damit eine andere QR-Zerlegung A D Q0 R 0 . Wenn wir uns darauf einigen, dass wir die Vektoren b1 ; : : : ; bn der Orthonormalbasis B stets so wählen, dass die Matrix R positive Diagonaleinträge hat, so erreichen wir eine eindeutige Zerlegung in der Form A D Q R – man kann dann von der QR-Zerlegung von A sprechen. Nachzuweisen, dass eine solche Zerlegung eindeutig ist, haben wir als Übungsaufgabe gestellt. Wir bestimmen beispielhaft die QR-Zerlegung von

1 an  b1 an  b2 C C :: C C : A an  bn …

Eine solche Zerlegung, die für jede invertierbare Matrix A existiert, nennt man eine QR-Zerlegung von A. Die Spalten von Q bilden eine Orthonormalbasis des Rn , daher gilt Q> Q D En , d. h., Q ist eine orthogonale Matrix,

0

p1 2

B AD@ 0

p1 2

p1 3 p1 3  p13

1 0p

p1 6  p26 C A  p16

2 B @ 0 0

p 2 p 3 0

p 1 2 p C 4 3 3 p A 2 6 3

2

Kommentar Die QR-Zerlegung ist zum Beispiel bei der numerischen Berechnung der Eigenwerte einer Matrix mithilfe des sogenannten QR-Algorithmus ein integraler Bestandteil. Tatsächlich wird hierbei die QR-Zerlegung im Allgemeinen nicht mit dem Verfahren von Gram und Schmidt bestimmt, da dieses numerisch instabil ist, d. h., kleine Störungen in den Eingabedaten wirken sich stark auf die Berechnungen aus. In der Numerik benutzt man ausgefeilte Methoden, um die QR-Zerlegung einer Matrix numerisch stabil zu bestimmen.

9

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

326

Beweis (a) Die Menge U ? ist nicht leer, da der Nullvektor

0 in U ? enthalten ist. Sind v1 ; v2 2 U ? , u 2 U und  2 R, so gilt

U D ff 2 V j f ist stückweise konstantg :

.v1 C v2 /  u D v1  u C v2  u D 0 C 0 D 0

Offenbar steht nur die Nullfunktion senkrecht auf allen Treppenfunktionen, d. h. U ? D f0g. Da aber nicht jedes Element aus V eine Treppenfunktion ist, gilt:

und . v1 /  u D  .v1  u/ D  0 D 0 :

9

Nun betrachten wir den Untervektorraum U der Treppenfunktionen

U C U? D U ¨ V : 9 Somit ist U ? ein Untervektorraum von V . (b) Dies gilt nach Definition der Menge U ? . (c) Die Dimension von V bzw. U sei n bzw. r. ?Selbstfrage 9.7 Wozu braucht man die Linksstetigkeit und die Stetigkeit Wir wählen eine Orthonormalbasis fb1 ; : : : ; br g von in 0 in diesem Beispiel? U und ergänzen diese zu einer Orthonormalbasis B D fb1 ; : : : ; br ; brC1 ; : : : ; bn g von V . Offenbar gilt Ist V D U ˚ W eine direkte Summe, so ist jeder Vektor hbrC1 ; : : : ; bn i  U ? . v 2 V auf genau eine Weise als Summe v D u C w mit u 2 Ist nun v ein beliebiges Element von V , so gibt es U und w 2 W schreibbar. Daher erhalten wir als Folgerung 1 ; : : : ; n 2 R mit (man beachte auch die Dimensionsformel): v D 1 b1 C    C r br C rC1 brC1 C    C n bn : „ ƒ‚ … „ ƒ‚ … Folgerung Ist U ein Untervektorraum eines endlichdimenDWu2U DWu0 2U ? sionalen euklidischen Vektorraums V , so lässt sich jedes Damit haben wir V D U CU ? bewiesen. Wegen U \U ? D v 2 V eindeutig in der Form f0g ist diese Summe direkt, d. h., V D U ˚ U ? .  v D u C u0 i Die Voraussetzung dim V 2 N in (c) ist notwendig, es mit u 2 U und u0 2 U ? schreiben. Und im Fall dim V D gibt nämlich Beispiele unendlichdimensionaler euklidin 2 N gilt: scher Vektorräume V mit einem Untervektorraum U und U C U ? ¨ V , beachte das folgende Beispiel. In diesem Fall ist das orthogonale Komplement U also kein zu U komplementärer Untervektorraum – ein orthogonales Komplement ist also nicht notwendig ein Komplement.

dim U ? D dim V  dim U : ?Selbstfrage 9.8

Zeigen Sie die Eindeutigkeit der Darstellung v D u C u0 mit u 2 U und u0 2 U ? direkt.

Beispiel Es sei V der R-Vektorraum aller stückweise stetigen, beschränkten Funktionen auf dem abgeschlossenen Intervall Œ0; 1, die an der Stelle 0 stetig sind und an den Ist V die direkte Summe von zueinander orthogonalen Untervektorräumen U1 ; : : : ; Ur , d. h. jeweiligen rechten Ränder linksstetig sind (. Abb. 9.11). Als Skalarprodukt wählen wir wie gewöhnlich auf solV D U1 ˚    ˚ Ur mit Ui ? Uj für i ¤ j ; chen Vektorräumen so nennt man V auch die orthogonale Summe von Z1 U1 ; : : : ; Ur und schreibt dafür: hf; gi D f .t/ g.t/ dt für f; g 2 V :

?   ? Ur : V D U1 

0

Beispiel Im R2 gilt bezüglich des kanonischen Skalarpro-

y

dukts f0g? D R2 und .R2 /? D f0g sowie: 

1 1

 ? D

  1 : 1

Im R3 gilt bezüglich des kanonischen Skalarprodukts:

0

1

x

. Abb. 9.11 Die Funktionswerte an den rechten Rändern sind nicht beliebig

*011+? *0 1 1 0 0 1+ @1A D @1A ; @ 1 A 0 1 1 (. Abb. 9.12). 9

9

327 9.3  Orthonormalbasen und orthogonale Komplemente

x2 v u0 D v

U

u u b2 b1

x1

. Abb. 9.13 Der Punkt u entsteht aus dem Punkt v, indem man das Lot von v aus auf die Gerade U fällt. Der Vektor u0 D v  u steht senkrecht auf U

. Abb. 9.12 Der Untervektorraum U und sein orthogonales Komplement U ?

Für den Endomorphismus von V gilt offenbar 2 D , d. h., dass eine Projektion ist (vgl. Aufgabe 9.17).

Den minimalen Abstand eines Punkts zu einem Untervektorraum erhält man durch Projektion des Punkts auf den Untervektorraum

Beweis Der erste Teil dieser Aussage folgt aus obiger Folgerung. Für den zweiten Teil beachte man, dass für jedes w 2 U gilt .v  u/  .u  w/ D 0, da nämlich v  u senkrecht auf u  w steht. Damit erhalten wir die folgende, für alle w 2 U gültige Abschätzung:

Wir betrachten die Situation des letzten Beispiels erneut im R2 für einen eindimensionalen Untervektorraum U (. Abb. 9.13). Anschaulich ist klar, dass der kürzeste Abstand von v zu der Geraden U genau jener Abstand von v zu dem Fußpunkt u ist, d. h.:

kv  wk D k.v  u/ C .u  w/k p D .v  u/2 C 2 .v  u/  .u  w/ C .u  w/2 p D .v  u/2 C .u  w/2 p  .v  u/2 D kv  uk : 

ku0 k D kv  uk  kv   b1 k für alle  2 R :

Die . Abb. 9.14 illustriert diesen minimalen Abstand im R3 mit dem kanonischen Skalarprodukt. Der Vektor u entsteht dabei durch Projektion von v auf den Der Projektionssatz sagt uns zwar, dass es einen VekUntervektorraum U . Wir zeigen nun, dass dies allgemeiner tor w 2 U gibt, sodass kv  wk minimal ist, aber er macht möglich ist (vgl. auch die Ausführungen in 7 Abschn. 5.4). keine allgemeingültige Aussage dazu, wie man dieses w bestimmt (beachten Sie aber auch Aufgabe 9.21). Im Rn mit Projektionssatz

U?

Ist U ein Untervektorraum eines endlichdimensionalen euklidischen Vektorraums V , so gibt es zu jedem v 2 V genau ein u 2 U mit v  u ? U . Die hierdurch definierte Abbildung ( W

u0

v

V ! U; v 7! u

ist linear, sie heißt orthogonale Projektion oder Normalprojektion von V auf U . Für den Vektor u0 D v  u 2 U ? gilt:

u U

ku0 k  kv  wk für alle w 2 U : Der minimale Abstand von v zu U ist die Länge des Vektors u0 .

. Abb. 9.14 Der Vektor u0 D v  u steht senkrecht auf U , seine Länge ist der minimale Abstand von v zu U

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

328

dem kanonischen Skalarprodukt  finden wir w durch Lösen eines linearen Gleichungssystems – w ist eine Lösung der sogenannten Normalgleichung. Dazu zeigen wir vorab etwas allgemeiner:

Das lineare Ausgleichsproblem Es seien A 2 Rn r , n  r und v 2 Rn . Ein Vektor x 2 Rr ist genau dann eine Lösung des linearen Ausgleichsproblems

Kommentar Die Matrix A > A ist im Allgemeinen nicht in-

vertierbar. Also ist es im Allgemeinen nicht möglich, die Normalgleichung nach dem Vektor v durch Berechnen von .A > A/1 aufzulösen. Wir kehren nun zu der Situation des Projektionssatzes zurück im Fall V D Rn und U D hb1 ; : : : ; br i D 'A .Rr / D fA x j x 2 Rr g  V , wobei A D .b1 ; : : : ; br /. Zu v 2 Rn erhalten wir die orthogonale Projektion .v/ D u D A x durch Lösen der Normalgleichung A> A x D A> v :

kv  A xk D min wenn x eine Lösung der Normalgleichung A> A x D A> v

Bilden b1 ; : : : ; br eine Basis von U , so ist die Lösung eindeutig bestimmt. Beispiel 0 1Wir suchen den minimalen Abstand des Punktes

ist. Die Lösung x ist genau dann eindeutig bestimmt, wenn der Rang von A maximal, d. h. gleich r ist.

9

1 @ v D 2A zu der Ebene 3

0 1 0 1+ 1 1 U D b 1 D @0 A ; b 2 D @1 A : 1 1 *

Beweis Wir wenden den Projektionssatz an. Dazu setzen

wir V D Rn mit dem kanonischen Skalarprodukt  und U D 'A .Rr / D fA x j x 2 Rr g D hs1 ; : : : ; sr i  V mit den Spalten s1 ; : : : ; sr von A. Nach dem Projektionssatz ist ein Element A x 2 Rn mit x 2 Rr genau dann eine Lösung von kv  A xk D min, wenn v  A x ? U , d. h., A x ist die senkrechte Projektion von v auf U . Nun gilt: vAx ? U , v  A x ? si für alle i D 1; : : : ; r , si  .v  A x/ D 0 für alle i D 1; : : : ; r , s> i .v  A x/ D 0

für alle i D 1; : : : ; r

>

, A .v  A x/ D 0 >

>

, A Ax D A v: Damit ist gezeigt, dass die Lösungsmengen des linearen Ausgleichsproblem und der Normalgleichung übereinstimmen. Es bleibt zu zeigen, dass die Lösungsmenge genau dann einelementig ist, wenn A den Rang r hat. Das begründen wir, indem wir zeigen, dass A > A genau dann invertierbar ist, wenn A den Rang r hat. Es gilt: A > A ist invertierbar

Wir bilden die Matrix A, deren Spalten die Basisvektoren b1 ; b2 von U sind und erhalten dann den Koordinatenvektor von u bezüglich der Basis B D .b1 ; b2 / durch Lösen der Normalgleichung A> A x D A> v : Das Gleichungssystem lautet:     2 2 4 xD : 2 3 6   0 besagt, dass die 2 senkrechte Projektion von v auf U der Vektor u D 0 b1 C 0 1 2 2 b2 D @2A ist. 2 So erhalten wir für den minimalen Abstand von v zu U  0 1 0 1  1 2    p @2A  @2A D 2 : 9 kv  uk D     3 2 

Die eindeutig bestimmte Lösung

, A > A w D 0 nur für w D 0 , , , ,

w A > A w D 0 nur für w D 0 .A w/  .A w/ D 0 nur für w D 0 A w D 0 nur für w D 0 A hat Rang r.

Damit ist alles gezeigt.



Symmetrische Bilinearformen kann man über beliebigen Körpern erklären Wir haben das (euklidische) Skalarprodukt  eines R-Vektorraums V definiert als eine positiv definite, symmetrische

329 9.3  Orthonormalbasen und orthogonale Komplemente

Beispiel: Methode der kleinsten Quadrate

Eine Messung liefert zu den n verschiedenen Zeitpunkten t1 ; : : : ; tn die jeweiligen Messwerte y1 ; : : : ; yn . Gesucht ist eine Funktion f 2 RR , welche die gegebenen Messwerte an den Stellen t1 ; : : : ; tn möglichst gut annähert, wobei wir hier als Maß für gute 0 Annäherung 1 die Minimalität der f .t1 /  y1 B C :: C ansetzen. Es ist dann Größe k k mit D B : @ A f .tn /  yn k k2 D .f .t1 /  y1 /2 C    .f .tn /  yn /2 die Summe der Quadrate der Fehler, die dabei gemacht werden. Die Minimalität dieser Summe besagt, dass die senkrechten Abstände der Funktion f an den Stellen ti zu den vorgegeben Messwerten yi minimal ist. Das kann als beste Annäherung betrachtet werden.

Dies lässt sich mithilfe der reellen n r-Matrix 0 0 1 1 f1 .t1 /    fr .t1 / y1 B : B:C C : : :: C und v D B :: C ADB @ : @ A A f1 .tn /    fr .tn / yn auch ausdrücken als: Gesucht ist ein x 2 Rr mit der Eigenschaft, dass kv  A xk minimal ist. Nach dem Satz zum linearen Ausgleichsproblem erhalten wir x als Lösung der Normalgleichung: A> A x D A> v : Betrachten wir ein Beispiel. Eine Messreihe liefert .t1 ; y1 / D .1; 1/ ;

.t2 ; y2 / D .0; 1/ ;

.t3 ; y3 / D .1; 2/ ;

.t4 ; y4 / D .2; 2/ : f

2 1

Problemanalyse und Strategie Wir benutzen die Lösung des linearen Ausgleichsproblems durch die Normalgleichung. Dabei wählen wir Basisfunktionen, die einen Untervektorraum U des Vektorraums aller Funktionen erzeugen und bestimmen eine Funktion f aus U , deren Graph einen im oben erwähnten Sinne minimalen Abstand zu den gegebenen Punkten .t1 ; y1 /; : : : ; .tn ; yn / hat. Lösung Um eine solche beste Annäherung zu erhalten, trägt man zuerst die Messpunkte .t1 ; y1 /; : : : ; .tn ; yn / in ein Koordinatensystem ein und überlegt sich, welche Funktionen f1 ; : : : ; fr als Basisfunktionen in Betracht zu ziehen sind. Bei der ersten Punkteverteilung in der folgenden Skizze

wird man sich auf Geraden, also bei den Basisfunktionen auf f1 D 1 und f2 D X konzentrieren, bei der zweiten Punkteverteilung auf Parabeln und schließlich bei der dritten Punkteverteilung dieser Skizze auf Sinus- und Exponentialfunktionen. Hat man den Satz f1 ; : : : ; fr von Funktionen gewählt, so sind 1 ; : : : ; r 2 R gesucht, sodass die Funktion f D 1 f1 C    C r fr die Größe .f .t1 /  y1 /2 C    C .f .tn /  yn /2 minimiert.

2

1

0

1

2

Aufgrund der Verteilung der Punkte suchen wir nach einer Ausgleichsgeraden f W R ! R, f .x/ D a C b x, d. h., wir geben uns die Basisfunktionen f1 W R ! R, f .x/ D 1 und f2 W R ! R, f .x/ D x vor. Als Matrix A 2 R4 2 und Vektor v 2 R4 erhalten wir somit: 0 1 1 0 1 1 1 B1C B1 0 C B C C B ADB C und B C : @2A @1 1 A 2 1 2 Nun berechnen wir A > v und A > A: 0 1 ! ! 1 C 6 1 1 1 1 B B1C > : A vD B CD 5 1 0 1 2 @2A 2 0 1 ! 1 1 C 1 1 1 1 B 4 B1 0 C A> A D B CD 1 0 1 2 @1 1 A 2 1 2

! 2 6

Zu lösen bleibt nun das System ! ! ! 6 4 2 x1 D : 5 x2 2 6 Damit erhalten wir als die beste lineare Annäherung die Gerade f W R ! R ; f .x/ D

2 13 C x: 10 5

9

330

9

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Bilinearform,  W V V ! R. Für die positive Definitheit ist die Eigenschaft von R nötig, dass man die von null verschiedenen Elemente von R in positive und negative Elemente unterscheiden kann. Verzichtet man auf die positive Definitheit, so kann man für jeden Körper K eine symmetrische Bilinearform  in einem K-Vektorraum V erklären, also eine symmetrische, bilineare Abbildung  W V V ! K. Durch das Fehlen der positiven Definitheit haben diese Verallgemeinerungen von Skalarprodukten Eigenschaften, deren geometrische Deutungen etwas seltsam wirken. Ist V ein K-Vektorraum mit einer symmetrischen Bilinearform , so definiert man (wie beim euklidischen Skalarprodukt): 4 v heißt senkrecht bzw. orthogonal zu w, v ? w, für zwei Vektoren v; w 2 V , falls v  w D 0 gilt. 4 Man nennt v 2 V isotrop, falls v ? v gilt. 4 U ? D fv 2 V j v ? u für alle u 2 U g nennt man den Orthogonalraum zu U für jeden Untervektorraum U von V . 4 Rad.V / D V \ V ? ist das Radikal von V . 4 Man nennt  ausgeartet, falls Rad.V / ¤ f0g. Die Vektoren im Radikal sind allesamt isotrop, sie stehen nämlich auf allen Vektoren aus V , also insbesondere auch auf sich selbst, senkrecht. Ist K D R und  sogar positiv definit, d. h. ein euklidisches Skalarprodukt, so gilt: Rad.V / D f0g ; da V ? D f0g. Außerdem ist nur der Nullvektor in diesem Fall isotrop. Es folgen nun Beispiele von Vektorräumen mit symmetrischen Bilinearformen, die keine euklidischen Skalarprodukte sind. Beispiel

4 Es ist 8 2 R2 ! R; , d. h., dass V bezüglich  ausgeartet ist. Da aber .1; 0/> nicht isotrop ist, ist das Radikal nicht zweidimensional, wir erhalten * !+ 1 : Rad.V / D 1 Das Radikal besteht in diesem Beispiel genau aus den isotropen Vektoren. 9 9.4

Unitäre Vektorräume

Euklidische Vektorräume sind reelle Vektorräume mit einem euklidischen Skalarprodukt. Wir werden nun analog unitäre Vektorräume betrachten. Das sind komplexe Vektorräume mit einem sogenannten unitären Skalarprodukt. Die Theorie ist nahezu identisch. Vielfach werden euklidische und unitäre Vektorräume sogar parallel eingeführt. Jede Eigenschaft, die man bei dieser parallelen Einführung formuliert, ist dann in zwei Versionen zu interpretieren: Einmal für den reellen Fall, ein zweites Mal für den komplexen Fall. Um die Theorie übersichtlicher und klarer zu gestalten, wählten wir einen anderen Weg. Wir schließen vorläufig die Theorie der euklidischen Vektorräume ab und führen nun in einem eigenen Abschnitt die unitären Vektorräume ein.

In komplexen Vektorräumen gibt es keine symmetrischen, positiv definiten Bilinearformen An ein euklidisches Skalarprodukt eines reellen Vektorraums stellten wir die drei Forderungen der 4 (Bi-)linearität, 4 Symmetrie und 4 positiven Definitheit.

Die positive Definitheit war es letztlich, die es ermöglichte, steht der Vektor .1; 1/ auf sich selbst senkrecht, sodass Normen von Vektoren und damit Abstände, Winkel und Or.1; 1/> isotrop ist. Der Vektorraum R2 ist aber bezüg- thogonalität zwischen Vektoren zu erklären. Würde man in lich  nicht ausgeartet, da es zu jedem Vektor v 2 R2 , komplexen Vektorräumen nun ebenso vorgehen, um solche der vom Nullvektor verschieden ist, einen Vektor w 2 Begriffe einführen zu können, so stößt man auf ein Problem. R2 gibt mit v  w ¤ 0. So ist zwar das Produkt für Vektoren 2 4 Es sei V der Z2 -Vektorraum Z2 . Es ist 0 1 0 1 w1 v1 8 V ! Z2 ; B :: C B :: C

2

2

331 9.4  Unitäre Vektorräume

das wir analog zum kanonischen Produkt im Rn definieren, und       n 1Ci 1Ci 1i X  D .1 C i; 0/ D 2 2 R0 : v  w D v> w D vi wi 2 C ; 0 0 0 i D1

bilinear und symmetrisch, aber nicht positiv definit, da etwa     i i  D i2 D 1 … R0 : 0 0

Allgemeiner besagt die Eigenschaft hermitesch im Fall v D w: v v D v v;

d. h., v  v 2 R. Es kann auch sein, dass die Größe v> v gar keine reelle Zahl Die Eigenschaft hermitesch hat aber Auswirkungen auf ist: die Linearität im zweiten Argument. Wir werden das gleich     sehen. 1Ci 1Ci 2  D .1 C i/ D 2 i … R : 0 0 Also kann es im C n keine symmetrischen, positiv definiten Bilinearformen geben.

Ein unitäres Skalarprodukt ist eine positiv definite, hermitesche Sesquilinearform eines komplexen Vektorraums

? Selbstfrage 9.9 Nennen Sie für jede natürliche Zahl n einen Vektor v 2 C n mit v> v < 0.

Wir müssen unsere Forderungen ändern. Um weiterhin Normen, Winkel und Abstände betrachten zu können, verabschieden wir uns von der Symmetrie in dieser Form und damit dann auch von der Bilinearität. Weil man positive reelle Zahlen erhält, wenn man komplexe Zahlen mit ihrem konjugiert Komplexen multipliziert, 0  jzj2 D z z, stellen wir an unitäre Skalarprodukte eines komplexen Vektorraums V statt der Symmetrie die Forderung v  w D w  v für alle v; w 2 V : Vertauscht man die Faktoren des Produkts, so kommt das konjugiert Komplexe dabei heraus. Wir sagen, ein Produkt  W V V ! C ist hermitesch, wenn v  w D w  v für alle v; w 2 V gilt. Für jede Matrix A D .aij / 2 C r s , also auch für jeden Spaltenvektor, schreiben wir wieder A D .aij / und erwähnen die bereits benutzte Regel

Unitäres Skalarprodukt und unitärer Vektorraum Ist V ein komplexer Vektorraum, so heißt eine Abbildung ( V V ! C; W .v; w/ 7! v  w ein unitäres Skalarprodukt, wenn für alle v; v0 ; w 2 V und  2 C die folgenden Eigenschaften erfüllt sind: (i) .v C v0 /  w D v  w C v0  w und . v/  w D  .v  w/ (Linearität im ersten Argument), (ii) v  w D w  v (hermitesch), (iii) vv  0 und vv D 0 , v D 0 (positive Definitheit). Ist  ein unitäres Skalarprodukt in V , so nennt man V einen unitären Vektorraum.

Wir stellen die Axiome (i), (ii) und (iii) für den euklidischen und den unitären Fall gegenüber:

Av D Av für Vektoren v. Wir erklären nun ein Produkt  von Vektoren des C 2 : v  w D v> w D

Für die folgende Definition vergleiche man jene des euklidischen Skalarprodukts und des euklidischen Vektorraums.

n X

vi wi 2 C :

i D1

Nun rechnen wir mit unseren obigen Beispielen, aber bezüglich des neu erklärten Produkts  nach:       i i i  D .i; 0/ D i .i/ D 1 2 R0 0 0 0

Euklidisch 0

Unitär 0

.v C v /  w D v  w C v  w

.v C v0 /  w D v  w C v0  w

. v/  w D  .v  w/

. v/  w D  .v  w/

vw Dwv

vw Dwv

vv  0

vv  0

vv D0 , v D0

vv D0 , v D0

Aus (ii) folgt wegen der Additivität und der Multiplikativität des Konjugierens die halbe Linearität im zweiten

9

332

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Argument, d. h., es gilt für alle v; w; w0 2 V und  2 C: v  .w C w0 / D .w C w0 /  v D w  v C w0  v D v  w C v  w0 D v  w C v  w0 v  . w/ D . w/  v D  .w  v/ D  v  w D  .v  w/ : Eine Abbildung von V V nach C, die linear im ersten Argument und im obigen Sinne halb linear im zweiten Argument ist, nennt man auch eine Sesquilinearform, also eine eineinhalbfache Linearform. Damit ist ein unitäres Skalarprodukt eine hermitesche, positiv definite Sesquilinearform. i In einem unitären Vektorraum V gilt für alle v; w 2 V und  2 C: . v/  w D  .v  w/ und v  . w/ D  .v  w/ :

9

Auch im unitären Vektorraum V gilt für alle v 2 V :

4 Wir definieren fürVektoren v; w 2 C 2 mittelsder Ma 2 i trix A D das Produkt i 1 v  w D v> A w : Die Linearität im ersten Argument begründet man wie im reellen Fall. Das Produkt ist hermitesch, da wegen v> A w D .v> A w/> D w> A > v (Transponieren einer komplexen Zahl ändert diese Zahl nicht) und wegen A > D A gilt: v  w D v> A w D w> A > v D w> A v D w> A v D w  v : Schließlich ist das Produkt positiv definit, da für v D   v1 2 C 2 gilt: v2   v1 > v  v D v A v D .2 v1  i v2 ; i v1 C v2 / v2 D 2 v1 v 1  i v2 v 1 C i v1 v 2 C v2 v 2

v0 D 0 D 0v;

D jv1 j2 C jv1 C i v2 j2  0 ;

und Gleichheit gilt hierbei genau dann, wenn v D 0 ist. wenngleich das unitäre Skalarprodukt nicht kommutativ, 4 Wir erklären ein Produkt h ; i im Vektorraum aller auf d. h. nicht symmetrisch ist. dem abgeschlossenen Intervall Œa; b für reelle Zahlen a < b stetigen komplexwertigen Funktionen, also im Beispiel komplexen Vektorraum 4 Für jede natürliche Zahl n ist im komplexen Vektorraum n C das Produkt C D ff W Œa; b ! C j f ist stetig g : v  w D v> w

Dabei multiplizieren wir zwei Funktionen f und g aus C folgendermaßen:

ein unitäres Skalarprodukt. Dieses Skalarprodukt nennen wir das kanonische (unitäre) Skalarprodukt. Die Linearität im ersten Argument ist unmittelbar klar. 0 1 0 1 w1 v1 B :: C B :: C Sind v D @ : A und w D @ : A, so gilt: vn wn v  w D v> w n n X X vi w i D w i vi D i D0

D

n X

i D0

wi v i D w  v :

Zb hf; gi D

f .t/ g.t/ dt : a

Weil stetige Funktionen integrierbar sind, ist dieses Produkt auch definiert. Der Nachweis, dass  ein unitäres Skalarprodukt ist, erfolgt analog zum reellen Fall. 9 Das zweite Beispiel mit der Matrix A lässt sich wesentlich verallgemeinern. Ist n eine natürliche Zahl, so ist für jede Matrix A 2 C n n das Produkt v  w D v> A w für alle v; w 2 C n

linear im ersten Argument. Und erfüllt die Matrix A die Eigenschaft A > D A, so ist das Produkt  auch hermitesch. Also ist das Produkt auch hermitesch. Und die positive Daher ist die folgende Definition nur naheliegend. Definitheit des Produkts folgt aus i D0

v  v D v> v D jv1 j2 C    C jvn j2  0 ; wobei die Gleichheit genau dann gilt, wenn alle vi gleich null sind, d. h., wenn v D 0.

Hermitesche Matrizen Eine Matrix A 2 C n n mit A > D A, d. h., A heißt hermitesch.

>

D A,

333 9.5  Orthogonale und unitäre Endomorphismen

Die Diagonaleinträge ai i einer hermiteschen Matrix A D Nun lassen sich alle Überlegungen aus dem Abschnitt .aij / 2 C n n müssen wegen zu den euklidischen Vektorräume für unitäre Vektorräume wiederholen. Wir stellen alle wesentlichen Begriffe und Ei1 0 1 0 a11    an1 a11    a1n genschaften in einer Übersicht zusammen. B : :: C B :: :: C > D D A A D @ :: : A @ : : A Kommentar In vielen Lehrbüchern findet man auch die an1    ann a1n    ann > Schreibweise A H D A . Und Physiker schreiben in der > reell sein. Die hermiteschen Matrizen übernehmen im Quantentheorie oft auch A  für A . Komplexen die Rolle der symmetrischen Matrizen im Reellen. Wir untersuchen nun lineare Abbildungen in euklidischen und unitären Vektorräumen. Dabei behandeln wir diese Vektorräume nicht wie bisher getrennt, sondern gleichzeitig.

Positiv definite Matrizen definieren unitäre Skalarprodukte

9.5

Orthogonale und unitäre Endomorphismen

Jede hermitesche Matrix A liefert mit der Definition v  w D v> A w für alle v; w 2 C n

In diesem und im folgenden Abschnitt steht das Symbol K für einen der Körper R oder C. Wir sprechen allgemein von eine hermitesche Sesquilinearform. Aber das Produkt ist einem Skalarprodukt, meinen damit stets ein euklidisches nicht für jede hermitesche Matrix A positiv definit, man Skalarprodukt, falls K D R und ein unitäres Skalarprodukt, wähle etwa die Nullmatrix, diese ist hermitesch, das Pro- falls K D C gilt. dukt aber in diesem Fall sicher nicht positiv definit. Wir nennen eine hermitesche n n-Matrix A positiv definitindexDefinitheit, wenn für alle v 2 C n Orthogonale und unitäre Endomorphismen v> A v  0 und v> A v D 0 , v D 0 gilt – man beachte v> A v 2 R. Jede positiv definite Matrix liefert somit durch die Definition v  w D v> A w ein unitäres Skalarprodukt. Man beachte, dass positiv definite Matrizen insbesondere hermitesch sind.

Vektoren in unitären Vektorräumen haben eine Norm Unitäre Vektorräume entziehen sich, vom eindimensionalen Fall abgesehen, der Anschauung. Aber auch in diesen Räumen kann man Begriffe wie Norm und Winkel einführen. Dazu gehen wir völlig analog zum reellen Fall vor, das können wir wegen der positiven Definitheit des unitären Skalarprodukts.

erhalten Längen und Winkel Wir haben eine Abbildung ' eines K-Vektorraums V in einen K-Vektorraum W linear genannt, wenn sie den Verknüpfungen der Vektorräume Rechnung trägt, d. h., wenn für alle v; w 2 V und  2 K gilt: 4 '.v C w/ D '.v/ C '.w/ (Additivität), 4 '. v/ D  '.v/ (Homogenität). Ist V gleich W , d. h., ist ' eine lineare Abbildung von V in V , so nannten wir ' auch einen Endomorphismus. Bei euklidischen bzw. unitären Vektorräumen haben wir die weitere Verknüpfung  des euklidischen bzw. unitären Skalarprodukts. Trägt ein Endomorphismus ' auch dieser Verknüpfung des Skalarprodukts im folgenden Sinne Rechnung, so wollen wir einen solchen Endomorphismus einen orthogonalen bzw. unitären Endomorphismus nennen, je nachdem, ob ein euklidischer oder unitärer Vektorraum vorliegt.

Orthogonale und unitäre Endomorphismen Die Norm von Vektoren Ist v ein Element eines unitären Vektorraums mit dem unitären Skalarprodukt , so nennt man die nichtnegative reelle Zahl p kvk D v  v die Norm oder Länge des Vektors v.

Einen Endomorphismus ' eines euklidischen bzw. unitären Vektorraums V mit Skalarprodukt  mit der Eigenschaft v  w D '.v/  '.w/ für alle v; w 2 V nennt man im euklidischen Fall, d. h., K D R, einen orthogonalen Endomorphismus und im unitären Fall, d. h., K D C, einen unitären Endomorphismus.

9

334

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Übersicht: Eigenschaften und Begriffe euklidischer bzw. unitärer Vektorräume

Wir betrachten ein euklidisches bzw. unitäres Skalarprodukt  eines euklidischen bzw. unitären Vektorraums V . 4 Für alle Elemente v und w aus V gilt die CauchySchwarz’sche Ungleichung jv  wj  kvk kwk : Die Gleichheit gilt hier genau dann, wenn v und w linear abhängig sind. 4 Die Abbildung ( kkW

V ! R0 ; p v 7! kvk D v  v

ist eine Norm, insbesondere gilt für alle v; w 2 V die Dreiecksungleichung

9

kv C wk  kvk C kwk : 4 Sind v und w zwei Elemente aus V , so nennen wir die reelle Zahl d.v; w/ D kv  wk D kw  vk den Abstand oder die Distanz von v zu w. 4 Sind v und w Elemente aus V , so sagt man, v steht senkrecht auf w oder ist orthogonal zu w, wenn

4 Eine Basis B von V heißt Orthogonalbasis, wenn je zwei verschiedene Basisvektoren aus B senkrecht aufeinander stehen. Eine Orthogonalbasis heißt Orthonormalbasis, wenn jeder Basisvektor die Länge 1 hat. 4 Ist fa1 ; : : : ; an g eine Basis von V , so ist fb1 ; : : : ; bn g mit b1 D ka1 k1  a1 ; bkC1 D kc kC1 k1  c kC1 ; wobei c kC1 D akC1 

k P

bi .bi akC1 / für k D 1; : : : ; n1,

iD1

eine Orthonormalbasis von V , diese Konstruktion einer Orthonormalbasis aus einer Basis nennt man das Orthonormalisierungsverfahren von Gram und Schmidt. 4 Jeder höchstens abzählbardimensionale euklidische bzw. unitäre Vektorraum besitzt eine Orthogonalbasis. 4 Für jeden Untervektorraum U von V ist die Menge U ? D fv 2 V j v ? w für alle w 2 U g wieder ein Untervektorraum von V , das orthogonale Komplement von U in V . 4 Ist U ein Untervektorraum von V , so gibt es zu jedem v 2 V genau ein u 2 U mit v  u ? U . Die hierdurch definierte Abbildung ( pW

V ! U; v 7! u

vwD0

heißt orthogonale Projektion von V auf U . Und für den Vektor u0 D v  u 2 U ? gilt:

gilt. Für diesen Sachverhalt schreiben wir auch

ku0 k  kv  wk für alle w 2 U :

v ? w:

Es hat u minimalen Abstand zu v.

Wir haben die Länge eines Vektors v eines euklidischen k'.v C w/k2 auf zwei verschiedene Arten: oder unitären Vektorraums V definiert als k'.v C w/k2 D kv C wk2 D .v C w/  .v C w/ p D kvk2 C kwk2 C v  w C w v kvk D v  v : D kvk2 C kwk2 C 2 .v  w/ Ist ' ein orthogonaler oder unitärer Endomorphismus, so und gilt für jedes v 2 V : kvk D

p

vv D

p

'.v/  '.v/ D k'.v/k :

Nun gelte k'.v/k D kvk für alle v eines euklidischen oder unitären Vektorraums V . Wir behandeln zuerst den Fall eines euklidischen Vektorraums, d. h. K D R. Wir berechnen

k'.v C w/k2 D k'.v/ C '.w/k2 k D .'.v/ C '.w//  .'.v/ C '.w// D k'.v/k2 C k'.w/k2 C '.v/  '.w/ C '.w/  '.v/ D k'.v/k2 C k'.w/k2 C 2 .'.v/  '.w// :

335 9.5  Orthogonale und unitäre Endomorphismen

Sind v und w nicht der Nullvektor, so gilt für den Setzt man die zwei Ergebnisse gleich, so erhält man wegen k'.v/k D kvk und k'.w/k D kwk nach Kürzen der 2 Winkel ˛ zwischen v und w und einen orthogonalen Endomorphismus ': schließlich v  w D '.v/  '.w/ für alle v; w 2 V :

cos ˛ D

vw '.v/  '.w/ D ; kvk kwk k'.v/k k'.w/k

Nun zum Fall eines unitären Vektorraums, d. h. K D C. also gilt: Die gleiche Rechnung wie oben liefert in diesem Fall k'.v C w/k2 D kvk2 C kwk2 C v  w C v  w und k'.v C w/k2 D k'.v/k2 C k'.w/k2 C '.v/  '.w/ C '.v/  '.w/ :

†.v; w/ D †.'.v/; '.w// : Und weil zwei Vektoren genau dann senkrecht aufeinander stehen, wenn ihr Skalarprodukt Null ist, erhalten wir aus v  w D '.v/  '.w/ für einen orthogonalen bzw. unitären Enomorphismus ': Folgerung Orthogonale bzw. unitäre Endomorphismen bil-

Setzt man die zwei Ergebnisse gleich, so erhält man schließlich Re.v  w/ D Re.'.v/  '.w// für alle v; w 2 V : Die analoge Berechnung von k'.iv C w/k auf diese zwei Arten liefert schließlich 2

Im.v  w/ D Im.'.v/  '.w// für alle v; w 2 V : Somit gilt auch im unitären Fall v  w D '.v/  '.w/ für alle v; w 2 V : Wir haben damit begründet:

Orthogonale bzw. unitäre Endomorphismen sind längenerhaltend Ein Endomorphismus ' eines euklidischen bzw. unitären Vektorraums V ist genau dann orthogonal bzw. unitär, wenn für alle v 2 V gilt: kvk D k'.v/k :

den orthogonale Vektoren auf orthogonale Vektoren ab. Beispiel Zu einem ˛ 2 Œ0; 2 Œ betrachten wir die Matrizen

 S˛ D

cos ˛ sin ˛; sin ˛  cos ˛

 und D ˛ D

  cos ˛  sin ˛; : sin ˛ cos ˛

Die Abbildungen  2  2 R ! R2 R ! R2 und ı˛ W ˛ W v 7! S ˛ v v! 7 D˛ v sind orthogonale Endomorphismen bezüglich des kanonischen euklidischen Skalarprodukts des R2 . Dass die Abbildungen ˛ und ı˛ Endomorphismen sind, ist klar. Wir müssen nur nachweisen, dass beide Abbildungen längenerhaltend sind, dass also: k˛ .v/k D kvk und kı˛ .v/k D kvk für jedes v 2 R2 gilt. Wegen   cos ˛ sin ˛ cos ˛ S D S> ˛ ˛ sin ˛  cos ˛ sin ˛

 sin ˛ D E2  cos ˛

und    Wegen dieser längenerhaltenden Eigenschaften eines orthocos ˛ sin ˛ cos ˛  sin ˛ > D E2 D˛ D˛ D gonalen bzw. unitären Endomorphismus nennt man eine  sin ˛ cos ˛ sin ˛ cos ˛ solche Abbildung auch Isometrie. Weil nur der Nullvektor die Länge 0 hat und eine lineare gilt für jedes v 2 R2 : Abbildung genau dann injektiv ist, wenn ihr Kern nur aus p p dem Nullvektor besteht, können wir folgern: k˛ .v/k D .S ˛ v/  .S ˛ v/ D .S ˛ v/> .S ˛ v/ q p Folgerung Jeder orthogonale bzw. unitäre Endomorphisv> v D kvk I D v> S > ˛ S˛ v D mus ' ist injektiv, und ist V endlichdimensional, so ist ' und entsprechend für die Abbildung ı˛ : sogar bijektiv. q p Orthogonale Endomorphismen sind nicht nur längenerhalkı˛ .v/k D .D ˛ v/  .D ˛ v/ D v> D > ˛ D˛ v p tend, sie erhalten auch Winkel zwischen vom Nullvektor D v> v D kvk : verschiedenen Vektoren.

9

336

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

der Orthonormalbasis sind: A > A D En ;

˛ .a/

9 = ˛=2 ƒ‚ … „ cos ˛=2

˛ .b/

;

da die i-te Zeile von A > der Basisvektor bi und die j -te Spalte der Basisvektor bj ist, und somit gilt:  1 ; falls i D j; bi  bj D 0 falls i ¤ j:

sin ˛=2

a

b

Wegen A > A D En ist A > das Inverse zu A, d. h., >

>

A D A 1 ; und somit gilt auch A A D En ; . Abb. 9.15 Die Spiegelung ˛ ist längenerhaltend

was wiederum besagt, dass die Zeilenvektoren von A paarweise orthogonal zueinander sind und die Länge 1 haben, also auch eine Orthonormalbasis des Kn bezüglich des kanonischen Skalarprodukts bilden. Hat umgekehrt eine Matrix A 2 Kn n die Eigenschaft > > A A D En , so gilt wie eben auch A A D En , also bilden sowohl die Spalten als auch die Zeilen von A eine Orthonormalbasis des Kn bezüglich des kanonischen Skalarprodukts. Matrizen mit dieser Eigenschaft bekommen einen eigenen Namen.

x2 ı˛ .a/

a

b

˛

9

˛

x1

ı˛ .b/

Orthogonale und unitäre Matrizen

. Abb. 9.16 Die Drehung ı˛ ist längenerhaltend

Eine reelle bzw. komplexe n n-Matrix mit der Eigenschaft

Die Abbildung ˛ beschreibt die Spiegelung an der Gera cos ˛=2 den R (. Abb. 9.15). sin ˛=2 Die Abildung ı˛ ist die Drehung um den Winkel ˛ gegen den Uhrzeigersinn (. Abb. 9.16). Drehungen und Spiegelungen im R2 sind orthogonale Endomorphismen. 9 Die Matrizen S ˛ und D ˛ aus dem vorangegangenen Beispiel haben für jedes ˛ 20; 2  die Eigenschaft

>

A A D En heißt orthogonale bzw. unitäre Matrix. Die Zeilen und Spalten einer orthogonalen bzw. unitären n n-Matrix bilden Orthonormalbasen des Rn bzw. Cn . Die Determinante jeder orthogonalen bzw. unitären Matrix A 2 Kn n hat den Betrag 1, j det Aj D 1 :

> S> ˛ S ˛ D E2 und D ˛ D ˛ D E2 ;

d. h., dass die Spalten von S ˛ und D ˛ Orthonormalbasen des R2 sind. Beweis Wir bestimmen die Determinante einer orthogonalen bzw. unitären Matrix A 2 Kn n : >

Spalten und Zeilen von orthogonalen bzw. unitären Matrizen bilden Orthonormalbasen

1 D det En D det A A (i)

>

(ii)

D det A det A D det A det A (iii)

D det A det A D j det Aj :

Ist B D fb1 ; : : : ; bn g eine Orthonormalbasis des K bezüg- Dabei haben wir bei (i) den Determinantenmultiplikatilich des kanonischen Skalarprodukts onssatz benutzt. Bei (ii) haben wir ausgenutzt, dass die Determinanten zueinander transponierter Matrizen gleich > v  w D v w; sind Und zu (iii) beachte man die Leibniz’sche Formel, so gilt offenbar für die Matrix A D .b1 ; : : : ; bn / 2 wonach die Determinante eine Summe von Produkten komKn n , deren Spalten gerade die Basisvektoren b1 ; : : : ; bn plexer Zahlen ist.  n

337 9.5  Orthogonale und unitäre Endomorphismen

Beispiel: Spiegelungen im Rn sind diagonalisierbare orthogonale Endomorphismen

Wir betrachten im euklidischen Rn mit dem kanonischen Skalarprodukt  für einen Vektor w 2 Rn n f0g der Länge 1, d. h., kwk D 1, die Abbildung ( w W

Rn ! Rn ; v 7! v  2 .w  v/ w:

Wir nennen w die Spiegelung entlang w. Wir begründen: Jede Spiegelung w ist ein diagonalisierbarer orthogonaler Endomorphismus. Problemanalyse und Strategie

Damit erhalten wir sehr einfach eine geordnete Orthonormalbasis des Rn bezüglich der w eine Diagonalgestalt hat: Wir wählen die geordnete Orthonormalbasis .w; b2 ; : : : ; bn /, wobei .b2 ; : : : ; bn / eine geordnete Orthonormalbasis des .n  1/dimensionalen Untervektorraums w? ist. Für die Darstellungsmatrix B M .w /B bezüglich dieser Basis B gilt: 0 1 B0 B D D B M .w /B D B B :: @ : 0

0 1 

  :: :

1 0 0C C C C A 1

Weil für alle  2 R und u; v 2 Rn die Gleichung

Also ist jede Spiegelung w im Rn diagonalisierbar, und offenbar haben damit Spiegelungen und damit auch jede Darstellungsmatrix einer Spiegelung stets die Determinante 1. Wir ermitteln noch die Darstellungsmatrix der Spiegelung w bezüglich der geordneten Standardbasis En des Rn . Für jedes v 2 Rn gilt:

w . u C v/ D  u C v  2 .w  . u C v// w

w .v/ D v  2 .w  v/ w D v  2 .w> v/ w „ ƒ‚ …

Wir prüfen nach, dass w ein längenerhaltender Endomorphismus ist und konstruieren uns schließlich eine Basis bezüglich der der Endomorphismus Diagonalgestalt hat. Lösung

2R

D  w .u/ C w .v/ gilt, ist w ein Endomorphismus. Nun zeigen wir, dass w längenerhaltend ist. Ist v 2 Rn , so gilt:

D v  2 w .w> v/ D v  2 .w w> / v   D En  2 w w> v : Damit haben wir die Darstellungsmatrix der Spiegelung w bezüglich der Standardbasis En ermittelt:

kv  2.w  v/wk2 D kvk2  4.w  v/.w  v/ C 4.w  v/2 kwk2 En M .w /En

D kvk2 : Im R2 stimmt dieser Begriff der Spiegelung mit dem uns bereits bekannten überein. Man muss sich nur klar machen, dass das Spiegeln entlang w eben gerade das Spiegeln an der Geraden senkrecht zu w bedeutet. x2

x1 w

Anstelle von entlang w sagt man auch an der Hyperebene w? D hwi? ; dies ist ein .n  1/-dimensionaler Untervektorraum des Rn , im Fall n D 2 also eine Gerade. Wir untersuchen solche Spiegelungen etwas näher. Offenbar erfüllt jede Spiegelung w die Eigenschaften: 4 w .w/ D w. 4 Aus v ? w folgt w .v/ D v. 4 Für alle v 2 Rn gilt w2 .v/ D v.

D En  2 w w> :

Mit der oben gewählten geordneten Orthonormalbasis B D .w; b2 ; : : : ; bn / des Rn erhalten wir dann mit der transformierenden Matrix S D .w; b2 ; : : : ; bn / wegen S > D S 1 : D D S > .En  2 w w> / S : Im 0 R3 1hat etwa die Spiegelung w entlang des Vektors w D 1 1 B2C 14 @ A bezüglich der geordneten Standardbasis die Darstel3 lungsmatrix 0 1 0 1 1 2 3 6 2 3 B C B C E3  1=7 @2 4 6A D 1=7 @2 3 6A 3 6 9 3 6 2 Kommentar In manchen Büchern verlangt man nicht, dass der Vektor w die Länge 1 hat, und betrachtet stattdessen für einen beliebigen Vektor w ¤ 0 aus dem Rn die Abbildung ( Rn ! Rn w W wv v 7! v  2 ww w und nennt sie Spiegelung. Diese Abbildung wirkt komplizierter, tatsächlich sorgt aber der Nenner im Bruch für die Normierung, die wir für w vorausgesetzt haben.

9

338

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

i Eine orthogonale Matrix hat die Determinante C1 oder 1 und die Determinante einer unitären Matrix liegt auf dem Einheitskreis fz 2 C j jzj D 1g.

? Selbstfrage 9.10 Sind die Matrizen 0 0 1 2 0 1 0 1B B0 C 0 1A und @ 2 @ 3 1 1 0 0

Die Darstellungsmatrizen von orthogonalen bzw. unitären Endomorphismen bezüglich Orthonormalbasen sind orthogonal bzw. unitär

1 2 1C A 2

Wir geben uns in einem endlichdimensionalen euklidischen bzw. unitären Vektorraum V eine Orthonormalbasis B D .b1 ; : : : ; bn / vor. Eine solche existiert stets, man kann sie aus einer Basis mit dem Verfahren von Gram und Schmidt konstruieren. orthogonal? Wir zeigen, dass zwei Vektoren v; w 2 V genau dann Die Matrizen S ˛ und D ˛ aus obigem Beispiel sind somit senkrecht aufeinander stehen, wenn es ihre Koordinatenorthogonal. Und tatsächlich folgte die Orthogonalität der vektoren aus Rn bzw. C n bezüglich der Basis B und des Abbildungen ˛ und ı˛ bezüglich des kanonischen Ska- kanonischen Skalarprodukts tun, d. h.: larprodukts nur aus dieser Eigenschaft. Wir erhalten viel allgemeiner: v  w D 0 , Bv  Bw D 0 :

9

1 2 2

Orthogonale bzw. unitäre Endomorphismen und orthogonale bzw. unitäre Matrizen Für eine Matrix A 2 Kn n ist der Endomorphismus ( Kn ! Kn ; 'A W v 7! A v genau dann orthogonal (K D R) bzw. unitär (K D C) bezüglich des kanonischen Skalarprodukts, wenn die Matrix A orthogonal bzw. unitär ist.

i Der Punkt  links des Äquivalenzzeichens ist das Skalarprodukt in V , der Punkt  rechts des Äquivalenzzeichens ist das kanonische Skalarprodukt im Kn .

Sind nämlich v D 1 b1 C    C n bn und w D 1 b1 C    C n bn mit i ; j 2 K, so ist wegen der Linearität des Skalarprodukts und bi  bj D 0 für i ¤ j : v  w D .1 b1 C    C n bn /  .1 b1 C    C n bn / D .1 1 / .b1  b1 / C    C .n n / .bn  bn / D 1 1 C    C n n D B v  B w ;

also gerade das kanonische Skalarprodukt der Koordinatenthogonal bzw. unitär ist, wenn 'A orthogonal bzw. unitär vektoren. Wir betrachten nun einen Endomorphismus ' des eubezüglich des kanonischen Skalarprodukts ist. klidischen bzw. unitären Vektorraums V und bilden die Ist nun 'A orthogonal bzw. unitär, so gilt für alle v und n Darstellungsmatrix dieses Endomorphismus bezüglich der w aus K : Orthonormalbasis B v> w D v  w D .A v/  .A w/ D v> A > A w : A D B M .'/B D .B '.b1 /; : : : ; B '.bn // : Setzt man hier die Standardeinheitsvektoren e i für v und ej für w ein, so erhält man rechts die Komponente aij von Man beachte, dass mit obiger Gleichung v  w D v  w B B A > A und links 0, falls i ¤ j , und 1, falls i D j . Damit insbesondere auch gilt A > A D En . 

Beweis Es ist nur noch zu zeigen, dass die Matrix A or-

'.v/  '.w/ D B '.v/  B '.w/ Weil die Matrix A 2 Kn n gerade die Darstellungsmatrix A D En M .'A /En von 'A bezüglich der kanonischen Basis gilt. Wir berechnen nun das Produkt A > A: ist, kann dieses Ergebnis zusammengefasst auch in folgender Art formuliert werden: 0 >1 B '.b1 / C B :: A> A D @ Folgerung Die Darstellungsmatrix des Endomorphismus A .B '.b1 /; : : : ; B '.bn // : > 'A ist genau dann orthogonal bzw. unitär, wenn 'A bezügB '.bn / lich des kanonischen Skalarprodukts orthogonal bzw. unitär 0 1 > > B '.b1 / B '.b1 /    B '.b1 / B '.bn / ist. B C :: :: C DB : : @ A Wir verallgemeinern dieses Ergebnis für beliebige Skalar> > '.b / '.b /    '.b / '.b / B B B n 1 B n n produkte endlichdimensionaler Vektorräume.

9

339 9.5  Orthogonale und unitäre Endomorphismen

Ist nun ' ein orthogonaler bzw. unitärer Endomorphismus, d. h. '.v/  '.w/ D v  w, so können wir also ' in den n2 Produkten weglassen, damit folgt dann, weil die Elemente der Basis B ja eine Orthonormalbasis bilden:

Im i

A > A D En : Also ist die Matrix A orthogonal bzw. unitär. Ist umgekehrt vorausgesetzt, dass die Matrix A orthogonal bzw. unitär ist, d. h., A > A D En , so zeigt obige Darstellung des Produkts, dass '.bi /  '.bj / D bi  bj für alle i; j . Weil B eine Basis ist, folgt daraus, dass ' orthogonal bzw. unitär ist. Wir haben gezeigt:

1

1 Re

i . Abb. 9.17 Die Eigenwerte orthogonaler und unitärer Matrizen liegen auf dem Einheitskreis

Darstellungsmatrizen orthogonaler bzw. unitärer Endomorphismen Die Darstellungsmatrix eines Endomorphismus eines endlichdimensionalen euklidischen bzw. unitären Vektorraums bezüglich einer Orthonormalbasis ist genau dann orthogonal bzw. unitär, wenn der Endomorphismus orthogonal bzw. unitär ist.

Beweis Sind 1 und 2 verschiedene Eigenwerte einer orthogonalen bzw. unitären Matrix A 2 Kn n mit den Eigenvektoren v1 zu 1 und v2 zu 2 , so gilt mit dem kanonischen Skalarprodukt  im Kn :

v1  v2 D .A v1 /  .A v2 / D .1 v1 /  .2 v2 / D 1 2  .v1  v2 / :

? Selbstfrage 9.11 Beachten Sie, dass in diesem Satz kein mathematisches Symbol auftaucht. Können Sie diese Aussage mit möglichst vielen Symbolen formulieren?

Eigenwerte orthogonaler und unitärer Matrizen haben den Betrag 1 und Eigenvektoren zu verschiedenen Eigenwerten sind senkrecht

Aus v1  v2 ¤ 0 folgte 1 2 D 1. Wegen 1 D j2 j D 2 2 1 gilt 2 D 1 2 und somit 1 2 D 1, d. h. 1 D 2 , ein Widerspruch. Damit gilt v1  v2 D 0. 

Die orthogonalen 2  2-Matrizen sind Spiegelungs- oder Drehmatrizen

In den Beispielen haben wir die (reellen) orthogonalen MaIst  Eigenwert einer orthogonalen bzw. unitären Matrix trizen     A 2 Kn n und v 2 Kn ein Eigenvektor zum Eigenwert cos ˛ sin ˛ cos ˛  sin ˛ S D und D D ˛ ˛ , so gilt wegen der Längenerhaltung und der Normeigensin ˛  cos ˛ sin ˛ cos ˛ schaften der Länge: für ˛ 2 Œ0; 2 Œ angegeben. kvk D kA vk D k vk D jj kvk ; Wir nennen S ˛ eine 2  2-Spiegelungsmatrix und D ˛ wegen v ¤ 0, also jj D 1. eine 2  2-Drehmatrix. Tatsächlich gibt es keine weiteren orthogonale 2 2-Matrizen außer diesen.Wir begründen das:  Eigenwerte und Eigenvektoren orthogonaler bzw. a b Ist die Matrix A D orthogonal, so folgt aus unitärer Matrizen c d Ist  ein Eigenwert einer orthogonalen bzw. unitären MaA > A D E2 , d. h. A 1 D A > , und det A D a d  b c 2 trix, so gilt jj D 1. f˙1g: Eigenvektoren orthogonaler bzw. unitärer Matrizen zu verschiedenen Eigenwerten stehen senkrecht aufeinander.

Insbesondere können damit höchstens 1 und 1 reelle Eigenwerte orthogonaler bzw. unitärer Matrizen sein; und die komplexen Eigenwerte liegen auf dem Einheitskreis (. Abb. 9.17).

   d b a 1 D c a c det A   8 a b ˆ ˆ

falls det A D 1; falls det A D 1 :

  a c D b d

340

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

  a Zu dem Punkt 2 R2 mit a2 C b 2 D 1 gibt es genau b ein ˛ 2 Œ0; 2 Œ mit a D cos ˛ und b D sin ˛. Also gilt:

. Abb. 9.18 Die Drehachse einer Drehung im R3 ist der Eigenraum zum Eigenwert 1

Drehachse

Diagonalisierbarkeit orthogonaler 2  2-Matrizen Ist A 2 R2 2 orthogonal, so gilt: cos ˛ AD sin ˛ AD

cos ˛ sin ˛

! sin ˛ D S ˛ ; falls det A D 1;  cos ˛ !  sin ˛ D D ˛ ; falls det A D 1 : cos ˛

Jede 2 2-Spiegelungsmatrix S ˛ ist diagonalisierbar. Eine 2 2-Drehmatrix D ˛ mit ˛ 2 Œ0; 2 Œ ist genau dann diagonalisierbar, wenn ˛ 2 f0; g.

9

Drehmatrizen über R sind also nicht immer diagonalisierbar. Wir können aber jede solche (orthogonale) Drehmatrix auch als eine unitäre Matrix über C auffassen (siehe Aufgabe 9.10).

Dreireihige orthogonale Matrizen stellen Spiegelungen, Drehungen oder Drehspiegelungen dar

Zu jeder Drehmatrix A 2 R3 3 existiert also ein normierter Eigenvektor b1 zum Eigenwert 1. Wir wählen einen solchen und ergänzen diesen zu einer Orthonormalbasis .b1 ; b2 ; b3 / des R3 . Mit der orthogonalen Matrix S D .b1 ; b2 ; b3 / gilt dann: 0

1 1 0 0 M D S > A S D @0 r s A 0 t u Nun ist auch die Matrix M orthogonal, da M > M D .S > A S /> .S > A S / D S > A > A S D E3 :   r s Und weil det D det M D det S > det A det S D t u det A D 1, folgt die Existenz eines ˛ 2 Œ0; 2 Œ mit

Im R3 gibt es drei Arten von orthogonalen Matrizen: Spie    r s cos ˛  sin ˛ gelungs-, Dreh- und Drehspiegelungsmatrizen. D t u sin ˛ cos ˛ Wir betrachten zuerst den Fall einer orthogonalen 3 3-Matrix A mit der Determinante C1: Jeder der eventuell komplexen Eigenwerte 1 ; 2 ; 3 Damit haben wir gezeigt, dass es zu jeder orthogonalen von A hat den Betrag 1. Die Determinante von A ist das 3 3-Matrix A mit Determinante C1, d. h. zu jeder Drehmatrix, eine orthogonale Matrix S und ein ˛ 2 Œ0; 2 Œ gibt Produkt der Eigenwerte: mit 1 D 1 2 3 : 0 1 1 0 0 S > A S D @0 cos ˛  sin ˛ A Sind alle drei Eigenwerte 1 ; 2 ; 3 reell, so muss also einer 0 sin ˛ cos ˛ der Eigenwerte gleich 1 sein. Ist aber einer der Eigenwerte komplex, etwa 1 2 C n R, so ist wegen A 2 RŒX auch 1 ein Eigenwert, also etwa 1 D 2 . Damit erhalten wir Ist ˛ ¤ 0, so nennt man den dann eindimensionalen Eigenraum zum Eigenwert 1 einer Drehmatrix A die Drehachse aber wegen 1 2 D 1 sogleich 3 D 1. Damit hat also A auf jeden Fall den Eigenwert 1 der Drehung v 7! A v. Eine solche Darstellung einer Drehmatrix bezeichnet und damit auch einen Eigenvektor zum Eigenwert 1. Der Eigenraum zum Eigenwert 1 ist entweder ein- oder drei- man als ihre Normalform und meint damit, dass diese Form dimensional, in jedem Fall ist also folgende Bezeichnung die einfachste Darstellung ist. sinnvoll: Wir nennen eine orthogonale Matrix A 2 R3 3 mit ?Selbstfrage 9.13 Wie sieht die Darstellungsmatrix aus, wenn man die Vekdet A D 1 eine Drehmatrix. toren der Basis .b1 ; b2 ; b3 / zyklisch vertauscht?

? Selbstfrage 9.12 Wieso kann der Eigenraum zum Eigenwert 1 eigentlich nicht zweidimensional sein?

Nun wenden wir uns dem Fall zu, dass eine orthogonale Matrix A 2 R3 3 die Determinante 1 hat. Wie oben zeigt

341 9.5  Orthogonale und unitäre Endomorphismen

man, dass A in diesem Fall den Eigenwert 1 mit einem zugehörigen normierten Eigenvektor b1 besitzt. Es gilt also A b1 D b1 . Wieder ergänzen wir diesen Eigenvektor zu einer geordneten Orthonormalbasis .b1 ; b2 ; b3 / des R3 . Wir erhalten mit der orthogonalen Matrix S D .b1 ; b2 ; b3 / die ebenfalls orthogonale Matrix 0

1 1 0 0 M D S >A S D @ 0 r s A 0 t u

Unitäre Matrizen sind diagonalisierbar, orthogonale nicht immer Bei jeder unitären Matrix A 2 C n n zerfällt das charakteristische Polynom A als Polynom über C stets in Linearfaktoren: A D .1  X/    .n  X/

mit nicht notwendig verschiedenen 1 ; : : : ; n 2 C. Wir folgern nun, dass für solche Matrizen stets algebraische und geometrische Vielfachheit für jeden Eigenwert   r s Wegen  det D det M D det A D 1 folgt wie- übereinstimmen. Insbesondere sind also unitäre Matrizen t u stets diagonalisierbar. Wir folgern dieses Ergebnis aus dem der: Satz:     r s cos ˛  sin ˛ D t u sin ˛ cos ˛ Unitäre Endomorphismen sind diagonalisierbar für ein ˛ 2 Œ0; 2 Œ. 1. Fall: ˛ D 0. Es handelt sich dann bei 0 1 1 0 0 M D @ 0 1 0A 0 0 1 um die Darstellungsmatrix der Spiegelung entlang b1 . Damit ist erkannt, dass A die Darstellungsmatrix einer Spiegelung, kurz eine Spiegelungsmatrix, ist. 2. Fall: ˛ ¤ 0. Es handelt sich dann bei 0

1 0 M D @ 0 cos ˛ 0 sin ˛

1 0  sin ˛ A cos ˛

um die Darstellungsmatrix einer Drehspiegelung.

Die orthogonalen 3  3-Matrizen Jede orthogonale 3 3-Matrix A ist entweder eine Drehmatrix, eine Spiegelungsmatrix oder eine Drehspiegelungsmatrix. In jedem Fall gibt es eine orthogonale Matrix S 2 R3 3 und ein ˛ 2 Œ0; 2 Œ mit 0 ˙1 B 0 > S AS D @ 0

0 cos ˛ sin ˛

1 0  sin ˛ C A cos ˛

Ist ' ein unitärer Endomorphismus eines endlichdimensionalen unitären Vektorraums V mit den Eigenwerten 1 ; : : : ; n , so existiert eine Orthonormalbasis B von V ˙ aus Eigenvektoren von ', d.h. 0 1 B B B M .'/B D @ 0

0 ::

:

1 C C A

n

Beweis Wir beweisen den Satz durch Induktion nach der Dimension n von V . Ist n D 1, so ist die Behauptung richtig, da man jede von Null verschiedene komplexe Zahl als einziges Element einer solchen Orthonormalbasis wählen kann, jede solche Zahl ist ein Eigenvektor von '. Setzen wir also nun voraus, dass n > 1 ist und die Behauptung für alle Zahlen m < n gilt. Ist v1 ein Eigenvektor zum Eigenwert 1 von ', so betrachten wir das orthogonale Komplement zum Erzeugnis von v1 :

U D hv1 i? D fv 2 V j v1  v D 0g : Die Einschränkung des unitären Endomorphismus ' auf den Untervektorraum U von V , also die Abbildung  U ! V; 'jU W v 7! '.v/ hat wegen 1 .v1  '.v// D .1 v1 /  '.v/ D '.v1 /  '.v/ D v1  v D0

Drehmatrizen und Drehspiegelungsmatrizen lassen sich über R im Allgemeinen nicht diagonalisieren. Fasst man aber eine solche orthogonale 3 3-Matrix wieder als eine unitäre Matrix über C auf, so kann man sie diagonalisieren. Wir zeigen gleich viel allgemeiner, dass unitäre Matrizen für alle v 2 V die Eigenschaft, eine Abbildung von U in U zu sein, '.U /  U – man beachte, dass 1 ¤ 0 wegen stets orthogonal diagonalisierbar sind.

9

342

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

j1 j D 1 gilt. Und weil U als Untervektorraum eines unitären Vektorraumes selbst wieder ein unitärer Vektorraum ist und die Dimension von U gleich n1 < n ist, ist die Induktionsvoraussetzung auf U anwendbar: Der Vektorraum U besitzt eine geordnete Orthonormalbasis B 0 D .b2 ; : : : ; bn / mit 1 0 2 0 C B :: A : B 0 M .'jU /B 0 D @ 0 n Wir normieren den Eigenvektor v1 , setzen also b1 D kv1 k1  v1 , B D .b1 ; : : : ; bn /, und erhalten so die gewünschte Darstellung.  Für unitäre Matrizen besagt dieser Satz:

ist unitär, also diagonalisierbar. Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms: A D .i  X/2 .1  X/ : Damit haben wir den einfachen Eigenwert 1 und den doppelten Eigenwert i. Nun bestimmen wir die Eigenräume: 1 0 * p1 + 2 B p1 C EigA .1/ D ker.A  E3 / D @ 2 A ; 0 „ ƒ‚ … DWb1

0 1 0 1 * p1 0 + B p12 C @ 0 A : EigA .i/ D ker.A  i E3 / D @ 2 A; i 0 „ ƒ‚ … „ƒ‚… DWb2

Unitäre Matrizen sind diagonalisierbar

9

Ist A 2 C n n eine unitäre Matrix mit den Eigenwerten 1 ; : : : ; n , so existiert eine unitäre Matrix S 2 C n n mit 0 1 B > S AS D B @ 0

0 ::

:

1 C C A

DWb3

Die angegebenen Eigenvektoren b1 ; b2 ; b3 bilden bereits eine Orthonormalbasis des C 3 . Mit der Matrix S D .b1 ; b2 ; b3 / gilt: 0 1 1 0 0 @0 i 0 A D S > A S : 9 0 0 i

n

Unitäre Matrizen lassen sich immer diagonalisieren. Wir wissen, dass dies bei orthogonalen Matrizen anders ist. Bei den 3 3-Matrizen haben wir uns auf eine gewisse schönste Form, die Normalform, geeinigt. Und tatsächlich gibt es so eine Form auch für beliebig große orthogonale Matrizen. Ist A eine unitäre Matrix, so existiert nach dem Satz eine Wir zeigen das in 7 Abschn. 9.7. Orthonormalbasis des C n aus Eigenvektoren von A. Folglich existieren n linear unabhängige Eigenvektoren zu A. Damit muss für jeden Eigenwert von A die geometrische Jeder orthogonale Endomorphismus ist Vielfachheit gleich der algebraischen sein, d. h.: ein Produkt von Spiegelungen Die Dimension jedes Eigenraums ist der Exponent des zugehörigen Eigenwerts im charakteristischen Polynom. Damit ist klar, wie wir vorgehen, um zu einer unitären Die Spiegelungen sind die Bausteine der orthogonalen EnMatrix A 2 C n n eine Orthonormalbasis bestehend aus domorphismen, da jeder orthogonale Endomorphismus ein Produkt von Spiegelungen ist. Man hat sogar eine obere Eigenvektoren von A zu konstruieren: 4 Bestimme die Eigenwerte als Nullstellen des charakte- Grenze für die Anzahl der Spiegelungen, die hierzu als Faktoren auftauchen. Diese obere Grenze ist die Dimension des ristischen Polynoms. 4 Bestimme Basen der Eigenräume, wobei man jeweils Vektorraums, in dem die Spiegelung betrachtet wird; geals Basis gleich eine Orthonormalbasis wählt. Falls dies nauer: nicht mit freiem Auge möglich ist, so wende man das Orthonormalisierungsverfahren von Gram und Schmidt Zerlegung orthogonaler Endomorphismen an. Jeder orthogonale Endomorphismus ' des Rn ist ein 4 Die Vereinigung der Orthonormalbasen der Eigenräume Produkt von höchstens n Spiegelungen, d. h., es gibt norist dann eine Orthonormalbasis des C n aus Eigenvektomierte w1 ; : : : ; wk 2 Rn mit k  n und ren von A. Dabei sind die Spalten von S eine Orthonormalbasis des C n aus Eigenvektoren von A.

' D w1 ı    ı wk :

Beispiel Die Matrix

0 AD

1Ci 2 @ 1Ci 2

0

1Ci 2 1Ci 2

0

1 0 0A 2 C 3 3 i

Die Identität betrachten wir dabei als ein Produkt von 0 Spiegelungen.

343 9.5  Orthogonale und unitäre Endomorphismen

Beweis Ist ' ein orthogonaler Endomorphismus ungleich

der Identität, so wählen wir ein v 2 Rn mit '.v/ ¤ v. Dann gilt .v  '.v//  v ¤ 0, da andernfalls kvk2 D '.v/  '.v/ D .v  .v  '.v//  .v  .v  '.v/// D kvk2 C kv  '.v/k2 , also v D '.v/ folgte (vgl. auch . Abb. 9.19). Wir setzen nun w D v  '.v/ ¤ 0. Wegen wv v  v  '.v/  v D D 1=2 ww v  v C '.v/  '.v/  2 '.v/  v wv gilt also  1 w .v/ D v2 ww w D vw D vC'.v/v D kwk '.v/. Und nun begründen wir durch Induktion nach n die Behauptung. Wir betrachten die Abbildung ' 0 D  11 w ı '. kwk

Es ist ' 0 ein orthogonaler Endomorphismus mit ' 0 .v/ D v. Für W D hvi? gilt ' 0 .W / D W , denn für u 2 W gilt: v  ' 0 .u/ D ' 0 .v/  ' 0 .u/ D v  u D 0 : Folglich ist ' 0 jW ein orthogonaler Endomorphismus des n 1-dimensionalen euklidischen Vektorraums W bezüglich des kanonischen Skalarprodukts von W . Nach Induktionsvoraussetzung gibt es normierte w2 ; : : : ; wk 2 W mit k  n und ' 0 j W D  w2 ı : : : ı  wk : Wir zeigen nun ' 0 D w2 ı : : : wk , wobei wir die wi als Spiegelungen auf V auffassen. Dabei benutzen wir, dass sich jeder Vektor v 2 V wegen V D R v C W in der Form v D v C u schreiben lässt. Sind u 2 W und  2 R, so erhalten wir: .w2 ı : : : ı wk /.v C u/ D  .w2 ı : : : ı wk /.v/ C .w2 ı : : : ı wk /.u/ D v C ' 0 .u/ D  ' 0 .v/ C ' 0 .u/ D ' 0 . v C u/ : Damit gilt ' D 

1 w kwk

ı w2 ı : : : ı wk mit k  n.

'.v/

v

'.v/

v

. Abb. 9.19 Der Vektor v  '.v/ steht nicht senkrecht auf v

x2

'.v/

v x1 w . Abb. 9.20 Die Spiegelung erfolgt entlang w



Beispiel Wir betrachten die orthogonale 3 3-Matrix

0 1 2 1 2 1@ 2 2 1A AD 3 1 2 2 Es gilt det A D 1. Weil A ¤ E3 gilt, ist A ein Produkt von zwei Spiegelungsmatrizen. Wir zerlegen nun A in ein Produkt von Spiegelungsmatrizen. 0 1 2 Wegen A e 1 D 1=3 @ 2 A gilt A e 1 ¤ e 1 . Wir wählen 1 0 1 1 also v D e 1 und setzen w D v  A v D 1=3 @2A. Wir 1 2 > bilden S w D E3  w> w w w 0

0 1 1 3 0 0 1 2 1 2 D 1=3 @0 3 0A  1=9 @2 4 2A 6=9 0 0 3 1 2 1 0 1 2 2 1 D 1=3 @ 2 1 2 A und berechnen 1 2 2 A 0 D S 1 w A D Sw A 0 10 1 2 2 1 2 1 2 2 1A D 1=9 @ 2 1 2 A @ 2 1 2 2 1 2 2 0 1 1 0 0 D @0 0 1 A : 0 1 0 Weil wir wissen, dass A ein Produkt zweier Spiegelungsmatrizen ist, muss A 0 eine Spiegelungsmatrix sein. 0 Wir 1 0 können dies aber auch nachprüfen. Es ist a1 D @1A 1 0 1 1 @ 0A, ein Eigenvektor zum Eigenwert 1, und a2 D 0 0 1 0 a3 D @1A sind Eigenvektoren zum Eigenwert 1. Die Ma1 trix S D .s1 ; s2 ; s3 / mit den Spalten si D ka1i k ai erfüllt dann 0 1 1 0 0 S > A 0 S D @ 0 1 0A : 0 0 1 Wir erhalten die gewünschte Zerlegung: 0 10 1 2 2 1 1 0 0 A D 1=9 @ 2 1 2 A @0 0 1A : 9 1 2 2 0 1 0

9

344

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Wir haben nun ausführlich orthogonale bzw. unitäre Endomorphismen euklidischer bzw. unitärer Vektorräume behandelt. Nun betrachten wir weitere Endomorphismen euklidischer bzw. unitärer Vektorräume. 9.6

9

' D 'A W v 7! A v des Kn bezüglich des kanonischen Skalarprodukts selbstadjungiert, da für alle v; w 2 Kn gilt: '.v/  w D .A v/> w D v> A > w D v> .A w/ D v  '.w/ :

Selbstadjungierte Endomorphismen

Wir behandeln in diesem Abschnitt eine weitere wichtige Art von Endomorphismen euklidischer bzw. unitärer Vektorräume, die sogenannten selbstadjungierten Endomorphismen. Der Begriff selbstadjungiert steht für den reellen wie auch den komplexen Fall, eine Unterscheidung wie bei orthogonal und unitär gibt es nicht. Es ist allerdings bei den Darstellungsmatrizen eine Unterscheidung üblich: Die Darstellungsmatrix selbstadjungierter Endomorphismen euklidischer Vektorräume sind symmetrisch, jene selbstadjungierter Endomorphismen unitärer Vektorräume hingegen hermitesch. Das wichtigste Resultat lässt sich leicht formulieren: Selbstadjungierte Endomorphismen lassen sich stets diagonalisieren. Folglich sind auch reelle symmetrische und hermitesche Matrizen stets diagonalisierbar. Mit K bezeichnen wir wieder einen der Körper R oder C – je nachdem, ob wir im euklidischen oder unitären Fall sind.

Selbstadjungierte Endomorphismen sind durch '.v/  w D v  '.w/ definiert Wir erinnern an die orthogonalen bzw. unitären Endomorphismen. Für jeden solchen Endomorphismus ' eines euklidischen bzw. unitären Vektorraums V mit dem Skalarprodukt  gilt:

4 Im euklidischen Vektorraum V aller auf dem Intervall I D Œa; b stetiger reellwertiger Funktionen mit dem Skalarprodukt Zb hf; gi D

f .t/ g.t/ dt a

ist für jede fest gewählte Funktion h 2 V der Endomorphismus 'W

 V ! V; f 7! f  h

selbstadjungiert, da Zb hf; '.g/i D

Zb f .t/ g.t/ h.t/ dt D

a

f .t/ h.t/ g.t/ dt a

D h'.f /; gi für alle f; g 2 V : 4 Jede Spiegelung  des Rn ist selbstadjungiert. Es folgt nämlich aus  1 D  und der Orthogonalität von  für alle v; w 2 V :  .v/  w D v   1 .w/ D v   .w/ :

Ein anderes Argument ist die Symmetrie der Darstellungsmatrizen von Spiegelungen. 4 Nicht selbstadjungiert ist die Drehung ' im R2 umden  v  w D '.v/  '.w/ 1 Winkel 120 Grad. So gilt etwa für den Vektor v D , 0 ! ! p für alle v; w 2 V . Selbstadjungierte Endomorphismen sind 1=2 3=2 dass '.v/ D p und w D , also ganz ähnlich erklärt: 3=2 1=2

Selbstadjungierter Endomorphismus Man nennt einen Endomorphismus ' eines euklidischen bzw. unitären Vektorraums V selbstadjungiert, wenn für alle v; w 2 V gilt: '.v/  w D v  '.w/ :

0 D '.v/  w ¤ v  '.w/ : 9

Darstellungsmatrizen selbstadjungierter Endomorphismen bezüglich Orthonormalbasen sind symmetrisch bzw. hermitesch

Nach obigem Beispiel bestimmt jede reelle symmetrische Beispiel 4 Ist A 2 Kn n eine symmetrische bzw. hermitesche Ma- bzw. hermitesche Matrix A 2 Kn n durch ' W v 7! A v trix, gilt also A > D A, so ist der Endomorphismus einen selbstadjungierten Endomorphismus des Kn . Diese

9

345 9.6  Selbstadjungierte Endomorphismen

Wir erhalten nun für die Komponente aij der Darstellungsmatrix wegen der Orthonormalität von B den Ausdruck:

x2 '.v/

bi  '.bj / D bi  .a1j b1 C    C anj bn / D aij

w

'.w/

und analog für aj i :

120ı 30ı

e1 D v

x1

'.bi /  bj D .a1i b1 C    C ani bn /  bj D aj i : Wegen bi  '.bj / D '.bi /  bj folgt also aij D aj i .

. Abb. 9.21 Die Drehung um den Winkel 120 Grad ist nicht selbstadjungiert bezüglich des kanonischen Skalarprodukts, es ist nämlich '.v/  w D 0 ¤ v  '.w/



Mit diesem Satz haben wir die selbstadjungierten Endomorphismen durch reelle symmetrische bzw. hermitesche Darstellungsmatrizen bezüglich Orthonormalbasen beschrieben.

Eigenwerte reeller symmetrischer bzw. hermitescher Matrizen sind reell

Matrix ist dann auch Darstellungsmatrix dieses Endomorphismus bezüglich einer Orthonormalbasis, nämlich der kanonischen Orthonormalbasis En . Ist  2 K ein Eigenwert einer reellen symmetrischen bzw. Wir überlegen uns, dass die Darstellungsmatrizen hermiteschen Matrix A 2 Kn n und v D .vi / 2 Kn ein > selbstadjungierter Endomorphismen bezüglich beliebiger Eigenvektor zum Eigenwert , so gilt wegen A D A und Orthonormalbasen reell symmetrisch bzw. hermitesch sind. A v D  v:  .v> v/ D v>  v D v> A v D .A v/> v D  .v> v/ : Darstellungsmatrizen selbstadjungierter Endomorphismen Ist ' ein selbstadjungierter Endomorphismus eines endlichdimensionalen euklidischen bzw. unitären Vektorraums mit einer geordneten Orthonormalbasis B, so gilt für die Darstellungsmatrix A D B M .'/B : A> D A

bzw.

>

A DA:

Nun folgt wegen v ¤ 0 zuerst v> v D

n P i D1

jvi j2 ¤ 0 und

dann  D , also  2 R.

Eigenwerte symmetrischer und hermitescher Matrizen Ist  ein Eigenwert einer reellen symmetrischen bzw. hermiteschen Matrix, so ist  reell.

Beweis Es reicht aus, wenn wir das für den komplexen Fall

zeigen, der reelle Fall ergibt sich dann einfach durch Weglassen der Konjugation. Wir wählen eine beliebige Orthonormalbasis B D .b1 ; : : : ; bn / von V , insbesondere ist also die Dimension von V gleich n. Ist A D .aij / die Darstellungsmatrix des selbstadjungierten Endomorphismus ' bezüglich B, so ist für alle i; j 2 f1; : : : ; ng aij D aj i

Wir wissen aber bisher noch nichts über die Existenz von Eigenwerten reeller symmetrischer bzw. hermitescher Matrizen. Wir haben nur gezeigt, dass, wenn eine solche Matrix einen Eigenwert hat, dieser dann zwangsläufig reell ist. Tatsächlich ist es aber so, dass jede reelle symmetrische bzw. hermitesche n n-Matrix auch n Eigenwerte hat, hierbei zählen wir die Eigenwerte entsprechend ihrer algebraischen Vielfachheiten. Die Begründung erfolgt über einen Ausflug ins Komplexe.

zu zeigen. Wir geben uns i; j 2 f1; : : : ; ng vor. Die j -te Jede symmetrische n  n-Matrix hat n reelle Spalte von A ist der Koordinatenvektor des Bildes des Eigenwerte j -ten Basisvektors bj : '.bj / D a1j b1 C    C anj bn :

Wir betrachten eine symmetrische Matrix A 2 Rn n . Diese Matrix definiert einen selbstadjungierten Endomorphismus

346

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

'A W v 7! A v des Rn . Hier setzen wir an: Wir erklären einen selbstadjungierten Endomorphismus in dem größeren Vektorraum C n . Die Abbildung  n C ! Cn; 'QA W v 7! A v ist wegen A > D A ein selbstadjungierter Endomorphismus des C n . Die Darstellungsmatrix En M .'QA /En D A 2 C n n von 'QA bezüglich der kanonischen Orthonormalbasis ist hermitesch. Mit dem Fundamentalsatz der Algebra folgt nun, dass das charakteristische Polynom von A über C in Linearfaktoren zerfällt: A D .1  X/k1    .r  X/kr :

9

Dabei sind 1 ; : : : ; r die verschiedenen Eigenwerte von A mit den jeweiligen algebraischen Vielfachheiten k1 ; : : : ; kr , d. h., k1 C    C kr D n. Die Eigenwerte 1 ; : : : ; r sind reell. Wegen A D 'QA D 'A 2 RŒX hat A ein in Linearfaktoren zerfallendes charakteristisches Polynom, und damit hat A die reellen Eigenwerte 1 ; : : : ; r .

Eigenwerte symmetrischer bzw. hermitescher Matrizen Jede symmetrische bzw. hermitesche n n-Matrix hat n nicht notwendig verschiedene Eigenwerte. Jeder Eigenwert ist reell.

Wir wollen nun noch begründen, dass es zu jeder reellen symmetrischen bzw. hermiteschen Matrix A 2 Kn n eine Orthonormalbasis des Kn aus Eigenvektoren von A gibt. Dazu liefert der folgende Abschnitt einen ersten Anhaltspunkt.

Eigenvektoren symmetrischer bzw. hermitescher Matrizen Eigenvektoren reeller symmetrischer bzw. hermitescher Matrizen zu verschiedenen Eigenwerten stehen senkrecht aufeinander.

Symmetrische bzw. hermitesche Matrizen sind diagonalisierbar Das charakteristische Polynom reeller symmetrischer bzw. hermitescher Matrizen zerfällt stets in Linearfaktoren, und es stimmen – wie wir gleich sehen werden – algebraische und geometrische Vielfachheit für jeden Eigenwert überein. Insbesondere sind reelle symmetrische bzw. hermitesche Matrizen also diagonalisierbar.

Diagonalisierbarkeit selbstadjungierter Endomorphismen Ist ' ein selbstadjungierter Endomorphismus eines n-dimensionalen euklidischen bzw. unitären Vektorraums V mit den (reellen) Eigenwerten 1 ; : : : ; n , so existiert eine Orthonormalbasis B von V aus Eigenvektoren von ' mit 0 1 B B B M .'/B D @ 0

0 ::

:

1 C C A

n

Der Beweis geht ähnlich zu dem Beweis des Satzes zur Diagonalisierbarkeit unitärer Endomorphismen.

Beweis Wir beweisen den Satz durch Induktion nach der Dimension n von V . Ist n D 1, so ist die Behauptung richtig, man kann z. B. die reelle bzw. komplexe Zahl 1 als einziges Element einer solchen Orthonormalbasis wählen, Eigenvektoren zu verschiedenen diese Zahl ist ein Eigenvektor von '. Setzen wir also nun voraus, dass n > 1 ist und die Behauptung für alle Zahlen Eigenwerten stehen senkrecht zueinander m < n gilt. Ist v1 ein Eigenvektor zum Eigenwert 1 von ', so beSind 1 und 2 verschiedene Eigenwerte einer reellen trachten wir den Orthogonalraum zum Erzeugnis von v : 1 symmetrischen bzw. hermiteschen Matrix A 2 Kn n mit ? U D hv1 i D fv 2 V j v1  v D 0g : Eigenvektoren v1 zu 1 und v2 zu 2 , so gilt mit dem Ska> n larprodukt v  w D v w des K wegen v1 ; v2 ¤ 0: Die Einschränkung des selbstadjungierten Endomorphis> > 1 .v> 1 v 2 / D .1 v1 / v 2 D .A v 1 / v 2 > > D v> 1 A v 2 D v 1 .A v2 / > D v> 1 .2 v 2 / D 2 .v 1 v2 / :

Also muss v1  v2 D v> 1 v2 D 0 gelten, da 1 ¤ 2 D 2 vorausgesetzt ist.

mus ' auf den Untervektorraum U von V , also die Abbildung  U ! V; 'jU W v 7! '.v/ hat wegen v1  '.v/ D '.v1 /  v D .1 v1 /  v D 1 .v1  v/ D 0

347 9.6  Selbstadjungierte Endomorphismen

für alle v 2 V die Eigenschaft, eine Abbildung von U in Damit haben wir den einfachen Eigenwert 0 und den dopU zu sein, d. h. '.U /  U . Weil U als Untervektorraum pelten Eigenwert 2. Nun bestimmen wir die Eigenräume: eines euklidischen bzw. unitären Vektorraums selbst wie*0 i 1+ der ein euklidischer bzw. unitärer Vektorraum ist und die EigA .0/ D ker A D @1A ; Dimension von U gleich n  1 ist, ist die Induktionsvoraus0 setzung auf U anwendbar. Folglich besitzt der Vektorraum 0 1 *0 1 0 1+ 0 U eine geordnete Orthonormalbasis B D .b2 ; : : : ; bn / mit 1 i 0 i 0 1 0 @ A @ A @ i 1 0 1 D EigA .0/ D ker ; 0A : 2 0 0 0 0 0 1 C B :: A B 0 M .'jU /B 0 D @ : Die angegebenen Vektoren bilden bereits eine Orthogonal0 n basis des C 3 . Wir normieren nun diese Vektoren und erWir normieren den Eigenvektor v1 , setzen also b1 D halten eine geordnete Orthonormalbasis B D .b1 ; b2 ; b3 /, kv1 k1 v1 , B D .b1 ; : : : ; bn / und erhalten so die ge- explizit: 0 1 0 1 0 1 wünschte Darstellung.  i i 0 1 @ A 1 @ A @ 1 1 0A : b D p D p D ; b ; b 1 2 3 Für reelle symmetrische bzw. hermitesche Matrizen lässt 2 2 0 0 1 sich das wie folgt formulieren:

Diagonalisierbarkeit reeller symmetrischer bzw. hermitescher Matrizen Ist A 2 Kn n eine reelle symmetrische bzw. hermitesche Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S und 1 : : : ; n 2 R mit 0 B > S AS D B @

0

1 :: 0

:

1 C C A

n

Dabei sind die Spalten von S eine Orthonormalbasis des Kn aus Eigenvektoren von A.

Mit der Matrix S D .b1 ; b2 ; b3 / gilt: 0 1 0 0 0 @0 2 0 A D S > A S : 9 0 0 2 i Reelle symmetrische Matrizen sind zwar stets diagonalisierbar, für komplexe symmetrische Matrizen stimmt das hingegen nicht: Die symmetrische Matrix A D ! 1 i 2 C 2 ist nicht diagonalisierbar. i 1 Kommentar Im R3 hat man das Vektorprodukt zur Ver-

fügung. Damit kann man sich oftmals etwas an Arbeit ersparen. Sucht man eine Orthonormalbasis des R3 , wobei ein normierter Basisvektor b1 D .b1 ; b2 ; b3 /> ¤ e 3 vor> n n Ist A 2 K eine reelle symmetrische bzw. hermitesche gegeben ist, so ist .b1 ; b2 ; b3 / mit b2 D .b2 ; b1 ; 0/ und Matrix, so existiert nach diesem Satz eine Orthonormal- b3 D b1 b2 eine geordnete Orthogonalbasis. Normieren basis des Kn aus Eigenvektoren von A. Dies heißt aber, liefert eine Orthonormalbasis. dass n linear unabhängige Eigenvektoren von A existieren. Damit muss für jeden Eigenwert von A die geometrische Mithilfe der erzielten Ergebnisse können wir nun ein Problem lösen, vor dem wir zu Beginn dieses Kapitels standen. Vielfachheit gleich der algebraischen sein: Die Dimension jedes Eigenraums ist der Exponent des zugehörigen Eigenwertes im charakteristischem Polynom. Damit ist wieder klar, wie wir vorgehen, um eine Ortho- Die Definitheit von reellen symmetrischen normalbasis zu einer reellen symmetrischen bzw. hermite- bzw. hermiteschen Matrizen lässt sich mit den Eigenwerten und schen Matrix A 2 Kn n zu konstruieren.

Hauptunterdeterminanten bestimmen Beispiel Die Matrix

0

1 1 i 0 A D @i 1 0A 2 C 3 3 0 0 2

Es ist im Allgemeinen schwer zu entscheiden, ob eine reelle symmetrische oder hermitesche Matrix A 2 Kn n positiv (semi-), negativ (semi-) oder indefinit ist, da es im Allgeist hermitesch, also diagonalisierbar. Wir bestimmen die Ei- meinen nicht immer leicht ist, das Vorzeichen von genwerte von A, d. h. die Nullstellen des charakteristischen v> A v Polynoms zu bestimmen. Zum Glück gibt es Kriterien, die bei kleinen A D ..1  X/ .1  X/  1/ .2  X/ D X .2  X/2 : Matrizen leicht anzuwenden sind.

9

348

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Beispiel: Das orthogonale bzw. unitäre Diagonalisieren

Wir bestimmen zu der hermiteschen Matrix A 2 C 4 4 bzw. reellen symmetrischen Matrix B 2 R4 4 eine unitäre Matrix > S 2 C 4 4 bzw. orthogonale Matrix T 2 R4 4 , sodass S A S bzw. T > B T ein Diagonalmatrix ist: 0 1 2 i 0 0 Bi 2 0 0C B C ADB C 2 C 4 4 bzw. @ 0 0 2 iA 0 0 i 2 1 0 1 2 3 4 B2 4 6 8C C B BDB C 2 R4 4 @3 6 9 12A 4 8 12 16 Problemanalyse und Strategie Wir bestimmen die Eigenwerte und die Orthonormalbasen der Eigenräume.

9

Lösung Wegen A D ..2  X/ .2  X/ C i2 /2 D .1  X/2 .3  X/2 hat A die jeweils zweifachen Eigenwerte 1 und 3. Wir bestimmen Basen für die Eigenräume EigA .1/ und EigA .3/ zu den beiden Eigenwerten 1 und 3. 1 0 1 i 0 0 Bi 1 0 0C C B EigA .1/ D ker.A  1 E4 / D ker B C @ 0 0 1 iA 0 0 i 1 0 1 0 1 1 0 1 i 0 0 0 + * i B1C B 0 C B0 0 0 0C B C B C C B D ker B C D B C;B C : @0A @ i A @0 0 1 i A 0 0 0 0 0 1 „ ƒ‚ … „ ƒ‚ … DWa1

DWa2

Wir haben die Basisvektoren a1 und a2 so gewählt, dass sie senkrecht aufeinander stehen. Normieren von a1 und a2 liefert b1 D ka1 k1 a1 D p12 a1 und b2 D ka2 k1 a2 D p12 a2 . Die Vektoren b1 und b2 liefern also den ersten Teil einer Orthonormalbasis des C 4 bestehend aus Eigenvektoren von A. 1 0 1 i 0 0 B i 1 0 0C C B EigA .3/ D ker.A  3 E4 / D ker B C 0 1 i A @0 0 0 i 1 0 1 0 1 1 0 1 i 0 0 0 + * i B1C B0C B 0 0 0 0C B C B C C B D ker B CD B C ; B C : @0A @ i A @ 0 0 1 i A 0 0 0 0 0 1 „ƒ‚… „ƒ‚… DWa3

DWa4

Wieder wurden a3 und a4 so gewählt, dass sie senkrecht aufeinander stehen. Normieren liefert b3 D ka3 k1 a3 D p12 a3

und b4 D ka4 k1 a4 D p12 a4 . Mit b3 und b4 haben wir den anderen Teil einer Orthonormalbasis des C 4 bestehend aus Eigenvektoren von A. Mit der unitären Matrix S D .b1 ; b2 ; b3 ; b4 / gilt die Gleichung: >

diag.1; 1; 3; 3/ D S A S : Nun zur reellen symmetrischen Matrix B. Wegen B D X 3 .30  X/ hat B den dreifachen Eigenwert 0 und den einfachen Eigenwert 30. Wir bestimmen Basen für die Eigenräume EigB .0/ und EigB .30/ zu den beiden Eigenwerten 0 und 30. 1 0 1 2 3 4 B2 4 6 8C C B EigB .0/ D ker.B  0 E4 / D ker B C @3 6 9 12A 4 8 12 16 0 1 0 1 0 1 0 1 1 2 3 4 0 0 + * 2 B0 0 0 0C B1C B3C B 0 C B C B C B C B C D ker B C D B C;B C;B C : @0 0 0 0A @ 0 A @ 2 A @4A 0 0 0 0 0 3 0 „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … DWa1

DWa2

DWa3

Die drei Basisvektoren a1 , a2 und a3 bilden noch keine Orthonormalbasis des Eigenraums. Eine solche erhalten wir, indem wir das Verfahren von Gram und Schmidt auf die Vektoren a1 , a2 und a3 anwenden. Damit erhalten wir 1 0 1 0 1 0 2 0 5 C C C 1 B 1 B 1 B B1C B0C B10C b1 D p B C; b2 D p B C; b3 D p B C; 5@0A 5 @4A 5 6@ 3 A 0 3 4 also eine Orthonormalbasis fb1 ; b2 ; b3 g des Eigenraums zum Eigenwert 0, also den ersten Teil einer Orthonormalbasis des R4 bestehend aus Eigenvektoren von B. EigB .30/ D ker.B  30 E4 / : Die Bestimmung dieses Kerns ist mühsam. Eine Überlegung erspart uns diese Arbeit. Weil 30 ein einfacher Eigenwert ist, ist dieser Eigenraum eindimensional. Ein Vektor a4 , der diesen Eigenraum erzeugt, steht senkrecht auf allen Eigenvektoren zum Eigenwert 0. Ein Blick auf den Eigenvektor a1 zeigt, dass als erste zwei Komponenten von a4 die Zahlen 1 und 2 infrage kommen. Ein Blick auf a2 liefert dann die mögliche dritte Komponente 3 für a4 , und betrachtet man a3 , so erhält man den Vektor a4 D .1; 2; 3; 4/> , der senkrecht auf allen Eigenvektoren zum Eigenwert 0 ist, also ein Eigenvektor zum Eigenwert 30 sein muss. Es liefert dann b4 D ka4 k1 a4 D p130 a4 eine Orthonormalbasis von EigB .30/. Mit der orthogonalen Matrix T D .b1 ; b2 ; b3 ; b4 / erhalten wir die Gleichung diag.0; 0; 0; 30/ D T > B T :

349 9.6  Selbstadjungierte Endomorphismen

Wie wir gezeigt haben, hat eine reelle symmetrische Für ein zweites Kriterium, das ebenfalls leicht anzuwenden bzw. hermitesche n n-Matrix n (nicht notwendig verschie- ist, führen wir einen neuen Begriff ein. dene) reelle Eigenwerte; es ist somit sinnvoll, von positiven Für jede n n-Matrix A D .aij /nn und jede Zahl und negativen Eigenwerten zu sprechen. k 2 f1; : : : ; ng bezeichnet man die Determinante der linken oberen k k-Teilmatrix .aij /kk von A als Hauptminor oder Hauptunterdeterminante. Die n HauptunterdetermiDas Eigenwertkriterium zur Definitheit nanten einer n n-Matrix A D .aij /nn sind der Reihe nach Eine reelle symmetrische oder hermitesche n n-Matrix gegeben durch: A 2 Kn n ist genau dann 4 positiv definit, wenn alle Eigenwerte von A positiv sind, 4 negativ definit, wenn alle Eigenwerte von A negativ sind, 4 positiv semidefinit, wenn alle Eigenwerte von A positiv oder null sind, 4 negativ semidefinit, wenn alle Eigenwerte von A negativ oder null sind, 4 indefinit, wenn A positive und negative Eigenwerte hat.

Beweis Wir begründen das Kriterium für die positive De-

finitheit. Die Beweise für die negative Definitheit und die Semidefinitheit ergeben sich analog. Die Indefinitheit zu beweisen haben wir als Aufgabe gestellt. Ist  2 R ein Eigenwert einer positiv definiten Matrix A und v ein zugehöriger Eigenvektor zum Eigenwert , so gilt wegen A v D  v durch Skalarproduktbildung dieser Gleichung mit dem Vektor v> : >

>

>

v A v D v  v D  „ƒ‚… v v : „ƒ‚… >0

>0

Somit muss  positiv sein. Interessanter ist, dass auch die Umkehrung gilt. Wir gehen von einer reellen symmetrischen bzw. komplexen hermiteschen Matrix A 2 Kn n aus, deren n nicht notwendig verschiedenen Eigenwerte 1 ; : : : ; n positiv sind. Nach dem Satz zur Diagonalisierbarkeit reeller symmetrischer bzw. hermitescher Matrizen existiert eine Orthonormalbasis B D .v1 ; : : : ; vn / des Kn aus Eigenvektoren von A. Wir stellen v 2 Kn n f0g als Linearkombination bezüglich der Basis B dar: v D 1 v 1 C    C n v n ; wobei also 1 ; : : : ; n 2 K sind. > Wegen v> i vj D 0 für i ¤ j sowie v i v i D 1 erhalten wir mit der Sesquilinearität des kanonischen Skalarprodukts: ! ! n n X X > > v .A v/ D i v i i i vi i D1

D

n X

i D1

i ji j2 kvi k2 > 0 ;

i D1

weil alle Eigenwerte 1 ; : : : ; n positiv sind.



ˇ ˇ ˇ ˇ ˇa11    a1n ˇ ˇ ˇ ˇa11 a12 a13 ˇ ˇ ˇ ˇ ˇ ˇa11 a12 ˇ ˇ ˇ :: ˇ ˇ ; ˇa21 a22 a23 ˇ ; : : : ; ˇˇ :: ˇa11 ˇ ; ˇ : ˇˇ ˇa21 a22 ˇ ˇ ˇ ˇ : ˇa31 a32 a33 ˇ ˇan1    ann ˇ Damit können wir das zweite wichtige Kriterium für die Definitheit formulieren.

Das Hauptminorenkriterium zur Definitheit Eine reelle symmetrische oder hermitesche n n-Matrix A 2 Kn n ist genau dann 4 positiv definit, wenn alle n Hauptminoren positiv sind, 4 negativ definit, wenn die n Hauptminoren alternierend sind, d. h., det.aij /11 < 0 ; det.aij /22 > 0 ; det.aij /33 < 0 ; : : :

Beweis Wir begründen das Kriterium für die positive De-

finitheit: ): Die Matrix A sei positiv definit. Dann sind auch die Matrizen .aij /1i;j k für alle k D 1; : : : ; n positiv definit. Es genügt also, wenn wir det.A/ > 0 zeigen. Weil A symmetrisch bzw. hermitesch ist, gibt es eine orthogonale Matrix S und eine Diagonalmatrix D 2 Kn n mit > S A S D D. Da A positiv definit ist, sind sämtliche Diagonaleinträge von D reell und echt größer Null, ins> besondere ist det.D/ > 0. Also folgt det.S A S / D j det.S /j2 det.A/ D det.D/ > 0 und somit det.A/ > 0. (: Es sei nun det.aij /1i;j k > 0 für alle k D 1; : : : ; n. Wir beweisen durch vollständige Induktion nach n, dass A positiv definit ist. Für n D 1 ist die Behauptung klar. Es sei also n > 1. Wir betrachten die zu A gehörige hermitesche Sesquilinearform  W Kn Kn ! K, .v; w/ 7! v> A w. Wir setzen U D he 1 ; : : : ; e n1 i, wobei e i wie üblich den i-ten Vektor der kanonischen Basis des Kn bezeichne, und AQ D .aij /1i;j n1 . Die Matrix AQ beschreibt die Sesquilinearform jU U eingeschränkt auf den Untervektorraum U . Nach Induktionsvoraussetzung ist jU U positiv definit. Wir wählen mit dem Verfahren von Gram und Schmidt eine Orthonormalbasis .a1 ; : : : ; an1 / von U bezüglich des Skalarprodukts jU U und erhalten D ha1 ; : : : ; an1 i. Wir P U ai e n n wählen weiter u D e n  n1 i D1 kai k ai 2 K n U (wobei wir vereinfachend  anstelle von jU U geschrieben haben). Es gilt u ? ai für alle i 2 f1; : : : ; n  1g (es ist dann

9

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

350

.a1 ; : : : ; an1 ; u/ eine Basis des Kn ). Bezüglich der Basis .a1 ; : : : ; an1 ; u/ können wir dann  darstellen als 0

A D



B 0

0 d



?Selbstfrage 9.14

mit d D u  u und einer Diagonalmatrix B. Wegen det.A 0 / D det.B/ d > 0 und det.B/ > 0 ist auch d > 0. Da B nach Induktionsvoraussetzung positiv definit ist (es Q ein und dieselbe Sesquilinearform bezügstellen B und A lich verschiedener Basen dar) und d > 0 ist, ist also auch das durch A 0 gegebene Produkt positiv definit. Also ist auch A positiv definit. Das Kriterium für die negative Definitheit einer Matrix A D .aij / ergibt sich hieraus durch Betrachtung von A. Es ist nämlich A genau dann negativ definit, wenn A positiv definit ist, d. h., nach dem bereits bewiesenen Teil, wenn

9

von Vektoren v und w des R3 ein euklidisches Skalarprodukt, und R3 versehen mit diesem Produkt  ist ein euklidischer Vektorraum. 9

det .aij /11 > 0 ; det .aij /33 > 0 ;

det .aij /22 > 0 ; :::

Entscheiden Sie über die Definitheit einer Diagonalmatrix.

9.7

Normale Endomorphismen

Wir haben gezeigt, dass eine n n-Matrix A über einem beliebigen Körper genau dann diagonalisierbar ist, wenn das charakteristische Polynom über diesem Körper in Linearfaktoren zerfällt und für jeden Eigenwert die algebraische Vielfachheit gleich der geometrischen ist. Wir leiten nun für den Körper C ein deutlich einfacheres Kriterium her. Über C zerfällt jedes Polynom vom Grad größer gleich 1 in Linearfaktoren, damit ist die erste Bedingung automatisch erfüllt. Anstelle der Gleichheit der Vielfachheiten ist aber tatsächlich nur die Gleichheit >

>

A A D AA Wegen det.B/ D  det.B/ für jede quadratische Matrix B, deren Zeilen- und Spaltenzahl ungerade ist, folgt die nachzuweisen. Wir werden eine komplexe Matrix, die diese Gleichung erfüllt, normal nennen. Unter den komplexen Behauptung.  Matrizen sind es also genau die normalen Matrizen, die diaKommentar Es ist nur dann sinnvoll, eines der beiden ge- gonalisierbar sind. Natürlich behandeln wir nicht nur den komplexen Fall. schilderten Kriterien zu benutzen, wenn die Matrix klein ist. Große Matrizen bringt man besser auf Sylvester’sche Wir bestimmen auch im reellen Fall die Normalform norNormalform. An dieser Normalform kann ebenfalls die maler Matrizen. Abgesehen von evtl. 2 2-Kästchen auf der Definitheit entschieden werden. Wir behandeln diese Nor- Hauptdiagonalen ist dies ebenfalls eine Diagonalmatrix. Der Begriff des normalen Endomorphismus verallgemalform im 7 Kap. 10. meinert orthogonale bzw. unitäre und selbstadjungierte Endomorphismen. Beispiel   1 1 Mit K bezeichnen wir wieder einen der Körper R oder 4 Die Matrix A D ist positiv semidefinit. Sie hat 1 1 C – im euklidischen Fall ist K D R, im unitären gilt K D C. nämlich die Eigenwerte 0 und 2. Mit dem zweiten Kriterium finden wir, dass A nicht positiv definit ist, da det.aij /11 D 1 > 0 ; aber det.aij /22 D det A D 1  1  1  1  0 : 0

Nicht zu jedem Endomorphismus gibt es einen adjungierten Endomorphismus, aber falls einer existiert, so ist er eindeutig bestimmt

1 1 0 1 4 Die Matrix A D @0 1 2A ist nach dem zweiten KriWir nannten einen Endomorphismus ' eines euklidischen 1 2 6 bzw. unitären Vektorraums V selbstadjungiert, wenn für alterium positiv definit, da le v; w 2 V gilt: det.aij /11 D 1 > 0 ; det.aij /22 D 1  1 > 0 ; det.aij /33 D det A D 6  .1 C 4/ > 0 : Mit dieser Matrix A ist also das Produkt zwischen Vektoren v und w des R3 v  w D v> A w

v  '.w/ D '.v/  w : Diese Bedingung schwächen wir nun ab: Sind ' und Endomorphismen eines euklidischen oder unitären Vektorraums V , so heißt der Endomorphismus zu ' adjungiert, wenn für alle v; w 2 V gilt: v  '.w/ D

.v/  w :

351 9.7  Normale Endomorphismen

Ist ' selbstadjungiert, so ist ' zu sich selbst adjungiert – so Beispiel erklärt sich die Namensgebung der selbstadjungierten En- 4 Es sei V der Vektorraum der stetigen komplexwertigen domorphismen. Funktionen auf dem abgeschlossenen Intervall Œa; b mit Ist ' irgendein Endomorphismus von V , so kann man dem unitären Skalarprodukt natürlich die Frage stellen, ob es überhaupt einen EndomorZb phismus von V gibt, der zu ' adjungiert ist. Und falls es einen gibt, dann fragt man als nächstes, ob es verschiedehf; gi D f .x/ g.x/ dx : ne solche zu ' adjungierte Endomorphismen geben kann. a Wir werden zeigen, dass, falls es überhaupt einen zu ' adjungierten Endomorphismus gibt, dieser dann eindeutig Für eine Funktion h 2 V definieren wir den Endomorbestimmt ist. Daher ist es angebracht, einen Endomorphisphismus 'h W V ! V durch mus , der zu ' adjungiert ist, mit ' zu bezeichnen,  D ' , d. h., Œa; b ! C; 'h W f 7! h f W x 7! h.x/ f .x/: v  '.w/ D ' .v/  w für alle v; w 2 V : Mit ' D .' / bezeichnen wir den (eindeutig bestimmten) zu ' adjungierten Endomorphismus.

Es gilt dann für alle f; g 2 V : Zb hf; 'h .g/i D

Eindeutigkeit des adjungierten Endomorphismus

f .x/ h.x/ g.x/ dx a

Es sei ' ein Endomorphismus von V . Dann gilt: (a) Falls und 0 zu ' adjungierte Endomorphismen sind, so folgt D 0 . (b) Falls ' existiert, so existiert auch ' , und es gilt ' D '.

Zb D

h.x/ f .x/g.x/ dx a

˛ ˝ D 'h .f /; g :

Damit ist der zu 'h adjungierte Endomorphismus gleich (a) Es seien und 0 zwei zu ' adjungierte 'h , d. h., 'h D 'h . Endomorphismen. Wir zeigen, dass  0 der Nullendo- 4 Es sei V der Vektorraum der auf dem Intervall Œ1; 1 morphismus ist, es folgt dann die Behauptung. Dazu sei ein stetigen reellwertigen Funktionen mit dem euklidischen R1 beliebiges v 2 V vorgegeben. Für alle w 2 V gilt: Skalarprodukt hf; gi D 1 f .x/ g.x/ dx. Wir wählen den Punkt 0 2 Œ1; 1 und erklären einen . .v/  0 .v//  w D .v/  w  0 .v/  w Endomorphismus '0 von V durch D v  '.w/  v  '.w/  D 0: Œ1; 1 ! R; '0 W f 7! f0 W x 7! f .0/: 0 Somit steht der Vektor . .v/  .v// auf jedem w 2 V 0 ? senkrecht, d. h., . .v/  .v// 2 V D f0g. Es folgt Das Bild von f unter '0 ist also die konstante Funktion .v/  0 .v/ D 0. Da v 2 V beliebig war, gilt diese f 0 0 , die jedem x 2 Œ1; 1 die reelle Zahl f .0/ zuordnet. Gleichheit für alle v 2 V , und somit ist  die NullabWir zeigen nun, dass zu '0 keine adjungierte Abbilbildung. dung existiert. Dazu berechnen wir zuerst hf; '0 .g/i für (b) Der zu ' adjungierte Endomorphismus ' existiere. f; g 2 V: Es gilt somit für alle v; w 2 V

Beweis

v  '.w/ D ' .v/  w :

Z1 hf; '0 .g/i D

Wir zeigen nun, dass für alle v; w 2 V gilt:

f .x/ g.0/ dx D g.0/ 1

v  ' .w/ D '.v/  w :

( )

Es ist dann ' D ' gezeigt. Für alle v; w 2 V folgt mit der Tatsache, dass  hermitesch ist: v  ' .w/ D ' .w/  v D w  '.v/ D '.v/  w : Damit ist die Gleichung in . / bewiesen.

Z1

Angenommen, die zu '0 adjungierte Abbildung '0 exis tiert. Wir setzen h D ˝ '0 .f / ˛und beachten nun, dass wegen hf; '0 .g/i D '0 .f /; g D hh; gi für alle g 2 V gilt: Z1

Z1 f .x/ dx D

g.0/ 

f .x/ dx : 1

1

h.x/ g.x/ dx : 1

9

352

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Wir untersuchen nun die Standardvektorräume Rn und C n mit den kanonischen Skalarprodukten. Jeder Endomorphismus ' W Kn ! Kn hat die Form ' D 'A W v 7! A v mit einer Matrix A 2 Kn n . Wir können den Endomorphismus ' mit der Matrix A identifizieren. Wie sieht die Matrix des zu ' adjungierten Endomorphismus aus? Existiert der zu ' adjungierte Endomorphismus überhaupt? Die Antworten sind bestechend einfach:

y c

1

1 c2

1 c2

1

. Abb. 9.22 Das Integral dieser stetigen Funktion ist

x 1 22 2 c

cD

1 c

R1 Wäre nun aber 1 f .x/ dx ¤ 0, so erhielte man mit den bekannten Abschätzungen für bestimmte Integrale die für alle g 2 V gültige Ungleichung

9

Z1 jg.x/j dx für ein M 2 R0 :

g.0/  M 1

Adjungierte von Matrizen 4 Es sei V D Rn mit dem kanonischen euklidischen Skalarprodukt. Ist A 2 Rn n , so gilt für den Endomorphismus 'A W v 7! A v: 'A D 'A > :

4 Es sei V D C n mit dem kanonischen unitären Skalarprodukt. Ist A 2 C n n , so gilt für den Endomorphismus 'A W v 7! A v: D 'A > : 'A >

Man nennt die Matrix A 2 Kn n die zu A 2 Kn n ad-

Aber natürlich gibt es eine auf Œ1; 1 stetige Funktion g jungierte Matrix. R1 mit g.0/ > M 1 jg.x/j dx, etwa für c D maxf1; M g die Funktion g, deren Graph in . Abb. 9.22 gezeigt ist. R1 Dieser Widerspruch zeigt, dass 1 f .x/ dx D 0 gilt. Beweis Für alle v; w 2 Rn gilt: Aber auch diese Gleichheit ist sicher nicht für alle f 2 v  'A .w/ D v> .A w/ D .A > v/> w D 'A > .v/  w : V erfüllt. Und dieser Widerspruch begründet nun, dass zu ' keine adjungierte Abbildung existieren kann. Im komplexen Fall folgt die Aussage analog.  4 Es sei V der Vektorraum aller 2 -periodischen, unendlich oft differenzierbaren komplexwertigen Funktionen i Man verwechsle nicht die adjungierte Matrix (siehe oben) auf R. Dabei heißt eine Funktion 2 -periodisch, falls mit der adjunkten Matrix. f .x C 2 / D f .x/ für alle x 2 R : Wir versehen den Vektorraum V mit dem unitären Skalarprodukt Z hf; gi D

Im Standardvektorraum Kn existiert somit zu jedem Endomorphismus ' der dazu adjungierte Endomorphismus ' . Ist A die Darstellungsmatrix von ' bezüglich der kanoni> schen Basis, so ist A diese von ' .

f .x/ g.x/ dx : 

Nun betrachten wir den Endomorphismus ' W V ! V , f 7! f 0 . Mit partieller Integration gilt: Z f .x/ g 0 .x/ dx

hf; '.g/i D

Ein Endomorphismus ist normal, wenn er mit seinem Adjungierten kommutiert Nun kommen wir endlich zu der Definition normaler Endomorphismen.



D f . / g. /  f . / g. / „ ƒ‚ … D0

Z 

f 0 .x/ g.x/ dx



D h'.f /; gi :

Somit gilt ' D '. 9

Normale Endomorphismen und Matrizen 4 Ein Endomorphismus ' eines euklidischen bzw. unitären Vektorraums V heißt normal, falls der adjungierte Endomorphismus ' existiert und ' ı ' D ' ı ' gilt.

353 9.7  Normale Endomorphismen

4 Eine Matrix A 2 K

n n

>

A A DAA

heißt normal, falls

>

gilt.

den Endomorphismen endlichdimensionaler C-Vektorräume gerade die normalen die (orthogonal) diagonalisierbaren sind. Das nächste Ergebnis ist der erste Schritt in diese Richtung.

Die Eigenräume normaler Endomorphismen sind senkrecht zueinander

Im Fall K D R heißt eine quadratische Matrix also dann normal, wenn A > A D A A > gilt. Wir listen zahlreiche Ist ' ein Endomorphismus eines K-Vektorraums V , so beBeispiele auf. zeichneten wir den Eigenraum von ' zum Eigenwert  2 K stets mit Eig' ./. Wir verallgemeinern diese Bezeichnung Beispiel etwas. Für jedes  2 K setzen wir 4 Jede symmetrische Matrix A 2 Rn n ist normal; es gilt E' ./ D fv 2 V j '.v/ D  vg : A > D A und damit A > A D A A > . 4 Jede hermitesche Matrix A 2 C n n ist normal; es gilt > > > Es gilt: A D A und damit A A D A A . n n 4 Jede schiefsymmetrische Matrix A 2 R ist normal; E' ./ D Eig' ./ ; es gilt A > D A und damit A > A D A A > . 4 Jede schiefhermitesche Matrix A 2 C n n ist normal. falls  ein Eigenwert von ' ist. Ist  hingegen kein EigenDabei heißt eine Matrix A 2 C n n schiefhermitesch, wert von ', so gilt E' ./ D f0g. > falls gilt A D A. Für jede solche Matrix gilt > Lemma Es sei ' ein normaler Endomorphismus eines euA A D A A>. n n 4 Jede orthogonale Matrix A 2 R ist normal; es gilt klidischen bzw. unitären Vektorraums V . Dann gilt für > 1 > > jedes  2 K: A D A und damit A A D A A . > n n 4 Jede unitäre Matrix A 2 C ist normal; es gilt A D E' ./ D E' ./ : > > A 1 und damit A A D  AA . 1 2 4 Die Matrix A D 2 R2 2 ist nicht normal. Es Ist  ein Eigenwert von ', so heißt das, der Eigenraum von 3 4 ' zum Eigenwert  ist gleich dem Eigenraum der zu ' adgilt: jungierten Abbildung ' zum Eigenwert .      1 2 1 3 5 11 Beweis Es sei v 2 E' ./. Wir zeigen vorab zwei IdentitäD A A> D 3 4 2 4 11 25 ten: Zum einen gilt:      1 3 1 2 10 14 > D A AD k' .v/k2 D ' .v/  ' .v/ D v  '.' .v// 2 4 3 4 14 20 D v  ' '.v/ D v  ' . v/ D  .v  ' .v// ; 4 Jeder orthogonale bzw. unitäre Endomorphismus ' eines euklidischen bzw. unitären Vektorraums V ist nor- und zum anderen gilt: mal. Denn es gilt für alle v; w 2 V : ' .v/  v D v  '.v/ D v  . v/ D  kvk2 : 1 1 1 v  '.w/ D ' .v/  ' .'.w// D ' .v/  w : Mit diesen zwei Aussagen erhalten wir nun: 1 Somit gilt ' D ' . Beachte ' ı ' D idV D ' ı ' . k' .v/   vk2 D .' .v/   v/  .' .v/   v/ 4 Jeder selbstadjungierte Endomorphismus ' ist normal; D k' .v/k2   .' .v/  v/   .v  ' .v// C jj2 kvk2 es gilt ' D '. 4 Der Endomorphismus aus obigem Beispiel (das DiffeD  .v  ' .v//  jj2 kvk2  .v  ' .v// C jj2 kvk2 renzieren der 2 -periodischen Funktionen) ist normal; D 0: es gilt ' D '. 9 Damit sind die normalen Endomorphismen eine gemeinsame Verallgemeinerung der orthogonalen bzw. unitären und selbstadjungierten Endomorphismen. Unitäre und selbstadjungierte Endomorphismen endlichdimensionaler C-Vektorräume sind (orthogonal) diagonalisierbar, wie wir längst wissen. Und einer unserer Ziele ist es zu zeigen, dass unter

Damit folgt ' .v/   v D 0, d. h. v 2 E' ./. Gezeigt ist hiermit die Inklusion E' ./  E' ./. Die andere Inklusion erhalten wir nun ganz einfach: Wir wenden die obige Argumentation an auf ' und  anstelle von ' und . Wegen ' D ' und  D  gilt folglich E' ./  E' ./. 

9

354

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Übersicht: Die verschiedenen Klassen von Matrizen

Wir listen wichtige Arten von im Allgemeinen komplexen Matrizen auf, erwähnen wesentliche Eigenschaften und geben jeweils ein typisches Beispiel einer 2 2-Matrix an. 4 Diagonalmatrix: A D diag.1 ; : : : ; n /, hat die Eigenwerte 1 ; : : : ; n , ist genau dann invertierbar, wenn 1 ; : : : ; n ¤ 0: ! 1 0 AD 0 3 4 Obere bzw. untere Dreiecksmatrix: Die Eigenwerte stehen auf der Hauptdiagonalen, ist zu einer Jordan-Matrix ähnlich, ist genau dann invertierbar, wenn alle Diagonaleinträge ungleich null sind: ! 1 2 AD 0 3

9

4 Reelle symmetrische Matrix: A > D A, hat nur reelle Eigenwerte, ist diagonalisierbar, liefert eine symmetrische Bilinearform: ! 1 2 AD 2 3 4 Hermitesche Matrix: A > D A, hat nur reelle Eigenwerte, ist diagonalisierbar, liefert eine hermitesche Sesquilinearform: ! 1 i AD i 3 4 Reelle schiefsymmetrische Matrix: A > D A, hat nur Nullen auf der Hauptdiagonalen, hat nur rein imaginäre Eigenwerte: ! 0 1 AD 1 0 4 Invertierbare Matrix: A A 1 D En , es gilt det A ¤ 0, hat höchstens Eigenwerte ungleich 0: ! 1 0 AD 2 3 4 Idempotente Matrix: A 2 D A, stellt eine Projektion dar, hat höchstens die Eigenwerte 0 und 1, ist diagonalisierbar: ! AD

1 2 1 2

1 2 1 2

4 Nilpotente Matrix: A p D 0 für ein p 2 N, hat den einzigen Eigenwert 0, ist zu einer Jordan-Matrix ähnlich: ! 1 1 AD 1 1

4 Orthogonale Matrix: A > D A 1 , hat höchstens die Eigenwerte ˙1, ist invertierbar, ist von evtl. Drehkästchen auf der Diagonalen abgesehen diagonalisierbar, die Spalten und Zeilen der Matrix bilden Orthonormalbasen des Rn : !  p12 p12 AD 1 1 p

2

p 2

4 Spezielle orthogonale Matrix: eine orthogonale Matrix mit det A D 1, stellt eine Drehung dar: ! p1  p12 A D 12 1 p

2

p

2 >

4 Unitäre Matrix: A D A 1 , hat Eigenwerte vom Betrag 1, ist invertierbar, ist diagonalisierbar, die Spalten und Zeilen der Matrix bilden Orthonormalbasen des C n : ! AD

p1 2 pi 2

p1 2  pi 2

4 Positiv definite Matrix: v> A v > 0 für alle v ¤ 0, ist symmetrisch, hat nur positive Eigenwerte, ist invertierbar, liefert ein Skalarprodukt: ! 1 2 AD 2 5 4 Negativ definite Matrix: v> A v < 0 für alle v ¤ 0, ist symmetrisch, hat nur negative Eigenwerte, ist invertierbar: ! 3 2 AD 2 2 4 Indefinite Matrix: Es gibt v; w mit v> A v < 0 und w> A w > 0, ist symmetrisch, hat einen negativen und positiven Eigenwert: ! 1 2 AD 2 2 4 Reelle normale Matrix: A > A D A A > , ist von evtl. 2 2-Kästchen auf der Hauptdiagonalen abgesehen diagonalisierbar: ! 1 1 AD 1 1 >

>

4 Komplexe normale Matrix: A A D A A , ist diagonalisierbar: ! 1 i AD i 5

355 9.7  Normale Endomorphismen

Im Fall eines euklidischen Vektorraums, d. h., K D R, gilt Dimensionen der Eigenräume höchstens abzählbar unendlich sind. Falls zudem noch L? D f0g im Teil (b) gilt, so ist somit für jedes  2 R wegen  D : das Orthonormalsystem sogar eine Orthonormalbasis. Und nun kommt das Entscheidende: Ist V endlichdimensional, E' ./ D E' ./ ; so sind diese zwei Dinge von selbst erfüllt. d. h., dass in diesem Fall insbesondere die Eigenräume zu den gleichen Eigenwerten von ' und ' gleich sind. Mit dem eben gezeigten Lemma erhalten wir nun die Zu jedem normalen Endomorphismus Folgerung, dass die Eigenräume normaler Endomorphis- eines unitären Vektorraums gibt es men zu verschiedenen Eigenwerten senkrecht aufeinander eine Orthonormalbasis aus Eigenvektoren stehen. Damit sind wir dem Ziel, nämlich, dass es bei normalen Endomorphismen endlich-dimensionaler Vektorräume eine Orthonormalbasis aus Eigenvektoren gibt, wieder Wir wissen bereits, dass jeder unitäre und selbstadjungierte Endomorphismen ' eines endlichdimensionalen unitären etwas näher. Vektorraums V orthogonal diagonalisierbar ist, d. h, dass eine Orthonormalbasis B von V aus Eigenvektoren von ' Folgerung Es sei ' ein normaler Endomorphismus des euexistiert, bezüglich der die Darstellungsmatrix von ' eine klidischen bzw. unitären Vektorraums V . Ist L  V das Diagonalgestalt besitzt. Erzeugnis aller Eigenvektoren zu allen Eigenwerten von ', Unitäre und selbstadjungierte Endomorphismen sind so gilt: normal. Wir erhalten somit das alte Resultat wieder in dem (a) E' ./ ? E' ./ für alle ;  2 K mit  ¤ . allgemeinen Satz: (b) '.L? /  L? , und L? enthält keine Eigenvektoren von '. Beweis (a) Es seien v 2 E' ./ und w 2 E' ./. Mit obi-

gem Lemma folgt nun w 2 E' ./, also

.  / .v  w/ D  .v  w/   .v  w/ D . v/  w  v  . w/ D '.v/  w  v  ' .w/ D v  ' .w/  v  ' .w/ D 0:

Der Spektralsatz für unitäre Räume Es sei ' ein normaler Endomorphismus des endlichdimensionalen unitären Vektorraums V . Dann besitzt V eine Orthonormalbasis, die aus Eigenvektoren von ' besteht. Insbesondere ist ' diagonalisierbar.

Beweis Es sei L das Erzeugnis aller Eigenvektoren aller

Eigenwerte von '. Wir schränken den normalen Endomorphismus ' auf den Untervektorraum L? ein und erhalten wegen der Voraussetzung und dem Teil (b) aus obiger FolFür  ¤  folgt somit v ? w. Das ist die Behauptung. (b) Angenommen, es gibt einen Eigenvektor v von ' in gerung: ? L . Dann gilt v 2 L \ L? . Wegen L \ L? D f0g folgt 'jL? 2 EndC .L? / und dim.L? / < 1 : v D 0. Somit enthält L? keine Eigenvektoren von '. Es sei nun v 2 L? . Wir zeigen '.v/ 2 L? , d. h., '.v/ 2 ? E' ./? für alle  2 K. Nach obigem Lemma gilt E' ./ D Angenommen, L ¤ f0g. Da das charakteristische Polynom von 'jL? über C zerfällt, hat 'jL? Eigenwerte. Da E' ./ für jedes  2 K. Damit erhalten wir nun für ein nach der Aussage (b) der obigen Folgerung 'jL? keine Eiw 2 E' ./,  2 K: genvektoren hat, erhalten wir einen Widerspruch. Somit gilt L? D f0g, d. h., L D V . '.v/  w D v  ' .w/ D v  . w/ D  .v  w/ D 0 ; Sind 1 ; : : : ; r die verschiedenen Eigenwerte von ', so gilt also: da v 2 L? und w 2 L. Damit ist auch die Behauptung in (b) begründet.  V D Eig' .1 / C    C Eig' .r / : Nun haben wir alle Vorbereitungen getroffen, um das zentrale Ergebnis zu beweisen. Nach der Aussage (a) in obiger Folgerung erhält man mit der Vereinigung von Orthonormalbasen der Eigenräume eines normalen Endomorphismus ein Orthonormalsystem des Vektorraums V bestehend aus Eigenvektoren von V . Mit dem Orthonormierungsverfahren von Gram und Schmidt ist es möglich, in den Eigenräumen Orthonormalbasen zu erzeugen, solange die

Wegen dem Teil (a) der Folgerung stehen Eigenräume zu verschiedenen Eigenwerten senkrecht aufeinander. Weiterhin erhalten wir aus v1 C    C vr D 0 mit vi 2 Eig' .i /: 0 D 0  vi D .v1 C    C vr /  vi D kvi k2 ; d. h., dass v1 D    D vr D 0 gilt. Wir haben begründet, dass V die direkte orthogonale Summe der Eigenräume

9

356

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

Beim Spektralsatz für unitäre Räume bzw. für normale Matrizen ist es ganz wesentlich, dass der Grundkörper der V D Eig' .1 / ⦹    ⦹ Eig' .r / : Körper C der komplexen Zahlen ist. Über C zerfällt nämlich jedes Polynom in Linearfaktoren, sodass man sich Mit dem Gram-Schmidt’schen Orthonormierungsverfahren um die allgemeine Voraussetzung zur Diagonalisierbarkeit, können wir in jedem der r Eigenräume Eig' .i / eine Ordass nämlich das charakteristische Polynom zerfallen muss, thonormalbasis Bi konstruieren. Die Vereinigung nicht den Kopf zerbrechen muss. Über R ist dies nicht ger [ währleistet. Und so wird man natürlich erwarten, dass man BD Bi über R nicht jeden normalen Endomorphismus bzw. jede i D1 normale Matrix diagonalisieren kann. Wir untersuchen nun dieser Orthonormalbasen B1 ; : : : ; Br ist dann eine Ortho- den reellen Fall genauer. normalbasis von V . Die Elemente von B sind Eigenvektoren von '. Damit ist alles begründet.  ist, d. h.

Zu jedem normalen Endomorphismus

Wir übersetzen das erhaltene Ergebnis in das Matrizenkal- eines euklidischen Vektorraums kül und erhalten für eine komplexe quadratische Matrix A, gibt es eine Orthonormalbasis dass A genau dann normal ist, wenn sie orthogonal diago- bezüglich der die Darstellungsmatrix nalisierbar ist, etwas genauer:

eine Blockdiagonalmatrix ist

9

Der Spektralsatz für normale Matrizen

Wir haben bereits erwähnt, dass es zu orthogonalen und selbstadjungierten Endomorphismen ' eines endlichdimensionalen euklidischen Vektorraums V eine Orthonormalbasis gibt bezüglich der die Darstellungsmatrix von ' eine Blockdiagonalgestalt hat. Im Fall eines selbstadjunD D S 1 A S gierten Endomorphismus ist die Darstellungsmatrix sogar diagonal, im Fall eines orthogonalen Endomorphismus tauDiagonalgestalt hat. ˛  sin ˛ chen evtl. 2 2-Matrizen der Form . cos sin ˛ cos ˛ / auf. Nun sind orthogonale und selbstadjungierte Endomorphismen insbesondere normal. Wir erhalten somit diese Beweis Ist die Matrix A 2 C n n normal, so folgt aus Resultate aus dem allgemeineren Satz für normale Endodem Spektralsatz für unitäre Räume, dass es eine geordnete morphismen: Orthonormalbasis B D .b1 ; : : : ; bn / des C n aus Eigenvektoren des normalen Endomorphismus 'A W v 7! A v gibt. Die Matrix S D .b1 ; : : : ; bn /, deren Spalten gerade die BaDer Spektralsatz für euklidische Räume sisvektoren der Orthonormalbasis B bilde, ist dann unitär, Es sei ' ein normaler Endomorphismus des endlichdi> mensionalen euklidischen Vektorraums V . Dann besitzt V d. h., S 1 D S , und erfüllt D D S 1 A S , wobei D eine Diagonalmatrix ist. eine Orthonormalbasis B, sodass Nun existiere zu A 2 C n n eine unitäre Matrix S , d. h., 0 1 > 1 1 S D S , sodass D D S 1 A S eine Diagonalmatrix ist. B C :: Es folgt: B C : Es sei A 2 C n n . Die Matrix A ist genau dann normal, > wenn es eine unitäre Matrix S 2 C n n , S 1 D S , gibt, sodass

A DSDS

1

DS DS

>

>

>

und A D S D S :

Hieraus erhalten wir: >

AA D S DDS Folglich ist A normal.

>

DS DDS

>

>

D A A:



Kommentar In der linearen Algebra bezeichnet man die

Menge aller Eigenwerte einer linearen Abbildung ' bzw. einer Matrix A als das Spektrum von ' bzw. A. In der Funktionalanalysis wird dieses Spektrum für lineare Operatoren unendlichdimensionaler Räume verallgemeinert.

B B B B B B B B M .'/B D B B B B B B B B @

r a1 b1 b1 a1 ::

: as bs

C C C C C C C C C C C C C C bs C A as

mit 1 : : : ; r ; a1 ; : : : ; as ; b1 ; : : : ; bs 2 R, b1 ; : : : ; bs ¤ 0. Im Fall s D 0 ist ' diagonalisierbar.

357 9.7  Normale Endomorphismen

werden kann, und für j > r der Vektor vj Eigenvektor zum Eigenwert j 2 C n R ist. Setze für jedes solche j nun p p uj D 2 Re.vj / ; wj D 2 Im.vj / 2 Rn : Lemma Wir betrachten den Endomorphismus 'A W C n ! C n , v 7! A v, wobei A 2 Rn n . Dann gilt für jedes  2 C: Es gilt dann: (a) E ./ D E ./ D fv j v 2 E ./g. Zum Beweis dieses Satzes benötigen wir eine Hilfsaussage, die wir dem Beweis des Spektralsatzes voranstellen.

'A

'A

'A

(b) Für v 2 E'A ./ seien Re.v/; Im.v/ 2 Rn der Real- und Imaginärteil von v. Dann gilt: (i) 'A .Re.v// D Re./ Re.v/  Im./ Im.v/, (ii) 'A .Im.v// D Im./ Re.v/ C Re./ Im.v/.

uj  wj D D

Beweis (a) Wir schreiben kürzer ' D 'A . Ist v 2 E' ./,

p !2 2 .vj C vj / .vj  vj / 2

1 .kvj k2  kvj k2 / D 0 2

und

so gilt: '.v/ D A v D A v D  v D  v ;

kuj k2 D

p !2 2 .vj C vj / .vj C vj / 2

d. h., dass v 2 E' ./, d. h., E' ./  E' ./. Wendet man 1 D .1 C 1/ D 1 ; nun diese Argumentation auf  anstelle von  an, so erhält 2 man die andere Inklusion E' ./  E' ./. Damit ist bereits kwj k2 D 1 : (a) gezeigt. Für k ¤ j gilt weiterhin wj ? vk . Somit ist (b) Es gilt: Re.v/ D

1 1 .v C v/ ; Im.v/ D .v  v/ : 2 2i

Damit erhalten wir Re./ Re.v/  Im./ Im.v/ D   1 1 . C / .v C v/  2 .  / .v  v/ 4 i 1 D .2  v C 2  v/ 4 1 D .'.v/ C '.v// 2 D '.Re.v// :

D

B D .v1 ; : : : ; vr ; urC1 ; wrC1 ; : : : ; urCs ; wrCs /  Rn eine Orthonormalbasis. Nach dem Teil (b) aus obigem Lemma gilt: A uj D Re.j / uj  Im.j / wj : „ ƒ‚ … „ ƒ‚ … DWaj r

DWbj r

Es gilt weiterhin: A wj D bj r uj C aj r wj : Das zeigt, dass B M .'/B die im Satz angegebene Gestalt hat. 

Damit ist (i) in (b) nachgewiesen, die Gleichung in (ii) zeigt Da jeder selbstadjungierte Endomorphismus insbesondere man analog.  normal ist, können wir den Spektralsatz auf selbstadjunMit diesem Lemma ist der Beweis des Spektralsatzes gierte Endomorphismen endlichdimensionaler euklidischer Vektorräume anwenden. Diese Endomorphismen können kurz. wir weiterhin mit den symmetrischen Matrizen identifizieBeweis (des Spektralsatzes für euklidische Räume) Wir ren, daher erhalten wir: dürfen ohne Einschränkung annehmen, dass V D Rn ,  das kanonische Skalarprodukt und ' D 'A durch eine normale Matrix A 2 Rn n gegeben ist. Nach dem Spektralsatz für normale Matrizen existiert eine Orthonormalbasis BQ von C n aus Eigenvektoren von A. Nach obigem Lemma kann BQ als BQ D .v1 ; : : : ; vr ; vrC1 ; vrC1 ; : : : ; vrCs ; vrCs / gewählt werden, wobei für i  r der Vektor vi ein Eigenvektor zum Eigenwert i 2 R sogar aus dem Rn gewählt

Der Spektralsatz für symmetrische Matrizen Es sei A 2 Rn n . Die Matrix A ist genau dann symmetrisch, wenn es eine orthogonale Matrix S 2 Rn n , d. h. S 1 D S > , gibt, sodass D D S 1 A S Diagonalgestalt hat.

9

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

358

Übersicht: Reell versus komplex

Wir stellen wesentliche Begriffe für den reellen und den komplexen Fall eines Vektorraums mit einem Skalarprodukt gegenüber – dabei geben wir auch die Normalformen der Endomorphismen endlichdimensionaler Vektorräume bzw. Matrizen an. Reell

Komplex

Euklidisches Skalarprodukt

Unitäres Skalarprodukt

Symmetrische Matrix, A D A > , diagonalisierbar

Hermitesche Matrix, A D A , diagonalisierbar

Orthogonale Matrix, A 1 D A > , im Allgemeinen nicht diagonalisierbar, evtl. Drehkästchen auf der Diagonalen

Unitäre Matrix, A 1 D A , diagonalisierbar

Selbstadjungierter Endomorphismus, ' D ' , diagonalisierbar

Selbstadjungierter Endomorphismus, ' D ' , diagonalisierbar

Normale Matrix, A > A D A A > , im Allgemeinen nicht diagonalisierbar, evtl. schiefsymmetrische Kästchen auf der Diagonalen

Normale Matrix, A A D A A , diagonalisierbar

Normaler Endomorphismus, ' ' D ' ' , im Allgemeinen nicht diagonalisierbar

normaler Endomorphismus, ' ' D ' ' , diagonalisierbar

>

>

>

>

9 Ist A 2 Rn n symmetrisch, so ist der Endomorphismus 'A W v 7! A v selbstadjungiert und somit normal. Nach dem Spektralsatz für euklidische Räume gibt es eine Orthonormalbasis B des Rn aus Eigenvektoren von A mit der im Satz angegeben Form, B M .'A /B D S 1 A S , wobei die Spalten der orthogonalen Matrix S die Orthonormalbasis B bilden. Man beachte, dass die Darstellungsmatrix B M .'A /B D S 1 A S wegen Beweis

.S 1 A S /> D S > A > .S 1 /> D S 1 A S symmetrisch ist. Daher kann es wegen bi D bi , bi ¤ 0, keine 2 2-Kästchen auf der Diagonalen von B M .'A /B geben. Somit ist B M .'A /B eine Diagonalmatrix. Nun existiere zu A 2 Rn n eine orthogonale Matrix S , d. h., S 1 D S > , sodass D D S 1 A S eine Diagonalmatrix ist. Es folgt: A D S D S 1 D S D S > D .S D > S > /> > >

D .S D S / D A> : Folglich ist A symmetrisch.



Die Normalform eines orthogonalen Endomorphismus ist von Drehkästchen abgesehen eine Diagonalmatrix Nun ist es nicht mehr schwer, das bereits früher zitierte Ergebnis zu beweisen:

Die Normalform orthogonaler Endomorphismen Ist ' ein orthogonaler Endomorphismus eines endlichdimensionalen euklidischen Vektorraums V , so gibt es eine Orthonormalbasis B von V mit 0 1 B : :: B B B 1 B B B B B B M .'/ D B B B B B B B B B B @

1 C C C C C C C C C C C C C C C C C C A

1 ::

: 1 A1 ::

: Ak

wobei jedes A i für i D 1; : : : ; k!eine 2 2-Drehmatrix cos ˛i  sin ˛i mit ˛i 20; 2 Œnf g. ist, also A i D sin ˛i cos ˛i

359 Aufgaben

Beweis Laut dem Spektralsatz für euklidische Räume be-

sitzt V eine Orthonormalbasis B, sodass 0 B B B B B B B B M .'/ D B B B B B B B B B @

1

1 ::

: r a1 b1 b1 a 1 ::

:

C C C C C C C C C C C C C C as bs C A bs a s

Sind  und ı zwei Skalarprodukte des Rn , so ist jede Orthogonalbasis bezüglich  auch eine Orthogonalbasis bezüglich ı – stimmt das? 9.2 

Wieso ist für jede beliebige Matrix A 2 C n n > die Matrix B D A A hermitesch? 9.3 

9.4 

Für welche a; b 2 C ist

8 2 2 ! C; A S D ! 0 1 (ein entsprechender Ansatz führt zu einem 2 3 nicht lösbaren Gleichungssystem), jedoch gilt: ! ! !1 2 1 0 1 2 1 A D : 1 1 2 3 1 1 ! 4 0 4 Die Matrizen A und können nicht ähnlich 0 8 sein, da sie verschiedene Eigenwerte haben, jedoch gilt: ! ! !> 2 0 4 0 2 0 A D : 0 2 0 8 0 2

4 Zueinander ähnliche bzw. kongruente Matrizen haben denselben Rang, die Matrix A hat den Rang 2, die Nullmatrix den Rang 0. Somit können die Matrizen weder kongruent noch ähnlich sein.

vAntwort 9.5 Es gilt

0 1 11=2   Z p 1 5 1 1=2 t j0 kpk D @ t 2 t 2 dt A D D 1= 5 : 5 0

vAntwort 9.6 Die erste Regel gilt wegen der Symmetrie des Skalarprodukts, die zweite Regel wegen 0  v D 0 für jedes v und die dritte Regel wegen der positiven Definitheit des Skalarprodukts.

vAntwort 9.7 Würde man die Linksstetigkeit nicht fordern, so wäre auch jede Funktion, die stückweise die Nullfunktion ist und an den Zwischenstellen beliebige Werte annimmt, ein Element von V . Das Integral über das Quadrat einer solchen Funktion wäre null, obwohl die Funktion nicht die Nullfunktion ist. Somit wäre  kein Skalarprodukt, da die positive Definitheit verletzt wäre. Die Stetigkeit in 0 sorgt in ähnlicher Weise für die positive Definitheit: Eine Funktion, die abgesehen vom Punkt 0 die Nullfunktion ist und in der 0 einen sonst beliebigen (endlichen) Wert annimmt, wäre überall linksstetig, nicht die Nullfunktion und hätte die Norm 0.

vAntwort 9.8 Gilt u C u0 D v D w C w0 für Elemente u; w 2 U und u0 ; w0 2 U ? , so folgt: 0  u…0 : u wDw „ ƒ‚ „ƒ‚… 2U

2U ?

Weil aber für den Durchschnitt U \ U ? D f0g gilt, folgt sogleich u D w und u0 D w0 , also die Eindeutigkeit einer solchen Darstellung.

vAntwort 0 19.9

v1 B:C n :C vDB @ : A 2 C mit v1 D i und v2 ; : : : ; vn D 0, der Fall vn n D 1 ist eingeschlossen.

vAntwort 9.10

Ja, das prüft man durch den Nachweis von A > A D E3 nach.

vAntwort 9.11 Sind B D .b1 ; : : : ; bn / eine Orthonormalbasis von V und ' W V ! V linear, so gilt für A D B M .'/B : A > A D En , v  w D '.v/  '.w/ 8 v; w 2 V :

9

Kapitel 9  Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren

362

v Antwort 9.12 Weil in diesem Fall die Matrix A den zweifachen Eigenwert 1 haben müsste; der dritte (verbleibende) Eigenwert müsste dann aber auch 1 sein, da die Determinante das Produkt der Eigenwerte ist.

v Antwort 9.13 Dann rutscht die 1 mit zugehöriger Zeile und Spalte nach rechts unten durch, 0

1 1 0 0 B0 cos ˛  sin ˛ C @ A; 0 sin ˛ cos ˛ 0 1 cos ˛  sin ˛ 0 B sin ˛ cos ˛ 0C @ A: 0 0 1

0 cos ˛ B 0 @ cos ˛

0 1 0

1  sin ˛ 0 C A; sin ˛

v Antwort 9.14

9

Eine Diagonalmatrix D D diag.1 ; : : : ; n / ist genau dann positiv semidefinit bzw. negativ semidefinit, wenn alle 1 ; : : : ; n größer gleich bzw. kleiner gleich null sind. Die Diagonaleinträge von D sind nämlich die Eigenwerte der Matrix D.

363

Quadriken – vielseitig nutzbare Punktmengen

Inhaltsverzeichnis 10.1

Symmetrische Bilinearformen – 364

10.2

Hermitesche Sesquilinearformen – 374

10.3

Quadriken und ihre Hauptachsentransformation – 379

10.4

Die Singulärwertzerlegung – 392

10.5

Die Pseudoinverse einer linearen Abbildung – 395 Aufgaben – 404 Antworten zu den Selbstfragen – 406

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 C. Karpfinger, H. Stachel, Lineare Algebra, https://doi.org/10.1007/978-3-662-61340-5_10

10

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

364

n Sie finden unter anderem Antworten zu . . .

4 Was ist ein hyperbolisches Paraboloid? 4 Warum ist die Signatur einer quadratischen Form träge? 4 Inwiefern löst die Pseudoinverse unlösbare Gleichungssysteme?

10

Unter einer Quadrik in einem affinen Raum verstehen wir die Menge jener Punkte, deren Koordinaten einer quadratischen Gleichung genügen. Die zweidimensionalen Quadriken sind – von Entartungsfällen abgesehen – identisch mit den Kegelschnitten und seit der Antike bekannt. Den Ausgangspunkt für die Untersuchung der Kegelschnitte bildete damals allerdings nicht deren Gleichung, sondern die Kegelschnitte wurden als geometrische Orte eingeführt, etwa die Ellipse als Ort der Punkte, deren Abstände von den beiden Brennpunkten eine konstante Summe ergeben. Aber auch die Tatsache, dass Ellipsen als perspektive Bilder von Kreisen auftreten, war vermutlich bereits um etwa 300 v. Chr. bekannt. Anfang des 17. Jahrhunderts konnte Johannes Kepler nachweisen, dass die Planetenbahnen Ellipsen sind. Sir Isaak Newton formulierte die zugrunde liegenden mechanischen Gesetze und erkannte, dass sämtliche Kegelschnitttypen als Bahnen eines Massenpunkts bei dessen Bewegung um eine zentrale Masse auftreten. Dies war nur der Anfang jener herausragenden Rolle, welche die Kegelschnitte und ihre höherdimensionalen Gegenstücke, die Quadriken, in der Mathematik und ihren Anwendungen in Naturwissenschaften und Technik spielen. Quadriken haben bemerkenswerte geometrische Eigenschaften und werden oft als lokale oder globale Approximationen für Kurven und Flächen verwendet. Ellipsoide sind für die Konvexitätstheorie von besonderer Bedeutung. Doch soll die ästhetische Seite nicht unerwähnt bleiben. So treten Ellipsoide als Kuppeln auf oder hyperbolische Paraboloide als attraktive Dachflächen. Wir behandeln im Folgenden die Hauptachsentransformation und damit zusammenhängend die Klassifikation der Quadriken. Von den Quadriken ist es nur ein kurzer Weg zu anderen wichtigen Begriffen wie der „Singulärwertzerlegung“ oder der „Pseudoinversen“ einer Matrix, welche z. B. bei Problemen der Ausgleichsrechnung und Approximation eingesetzt werden.

10.1

Symmetrische Bilinearformen

Skalarprodukt noch eine weitere symmetrische Bilinearform, und deshalb wiederholen wir zunächst einiges aus 7 Abschn. 9.1, insbesondere die Definition der Bilinearformen. Ist V ein K-Vektorraum, so ist die Abbildung  V V ! K; W .x; y/ 7!  .x; y/ eine Bilinearform auf V , wenn für alle x; x 0 ; y; y 0 2 V und  2 K gilt:  .x C x 0 ; y/ D  .x; y/ C  .x 0 ; y/;  .x; y/ D   .x; y/;  .x; y C y 0 / D  .x; y/ C  .x; y 0 /;  .x; y/ D   .x; y/: Die Bilinearform  heißt symmetrisch, wenn stets gilt  .y; x/ D  .x; y/. Bei  .y; x/ D  .x; y/ heißt die Bilinearform alternierend. Beispiel Bei V D R2 ist z. B.

 .x; y/ D x1 y1 C x1 y2 C x2 y1  5x2 y2     x1 y1 für x D ,y D eine symmetrische Bilinearx2 y2 form. So wie im 7 Kap. 9 können wir diese Bilinearform auch mithilfe einer symmetrischen Matrix A darstellen, nämlich als    1 1 y1 > :  .x; y/ D x A y D .x1 x2 / 1 5 y2 Dabei ist zu beachten, dass an der Stelle .i; j / der Matrix A der Koeffizient von xi yj steht. Von der Berechnung zweireihiger Determinanten her kennen wir die alternierende Bilinearform  0 .x; y/ D x1 y2  x2 y1 : Die Matrix der Koeffizienten ist schiefsymmetrisch, denn    0 1 y1  0 .x; y/ D .x1 x2 / : 9 1 0 y2 Zu je zwei Bilinearformen 1 ; 2 auf dem K-Vektorraum V lässt sich eine Summe definieren durch die Vorschrift .1 C 2 /.x; y/ D 1 .x; y/ C 2 .x; y/

Bei der Definition des Skalarprodukts im Anschauungsraum wurde in 7 Abschn. 5.2 ein kartesisches Koordinatensystem vorausgesetzt. Im 7 Abschn. 9.1 gingen wir anders vor, nämlich koordinateninvariant: Das euklidische Skalarprodukt wurde anhand seiner Eigenschaften definiert, und zwar als eine positiv definite symmetrische Bilinearform auf Rn . In diesem Kapitel verwenden wir neben dem

für alle .x; y/ 2 V 2 . Offensichtlich ist 1 C 2 ebenfalls linear in beiden Anteilen und daher wieder eine Bilinearform. Nun erklären wir noch das skalare Vielfache   einer Bilinearform durch .  /.x; y/ D   .x; y/:

10

365 10.1  Symmetrische Bilinearformen

Das zweite Zahlenbeispiel, die alternierende BilineDann lässt sich leicht bestätigen, dass die Bilinearformen arform  0 .x; y/ D x1 y2  x2 y1 , ergibt als zugehörige auf V ebenfalls einen K-Vektorraum bilden. quadratische Form 0 .x/ D x1 x2  x2 x1 die Nullform ? Selbstfrage 10.1 0 .x/ D 0 für alle x 2 V , wie wir schon oben festgestellt a) Zeigen Sie, dass mit den obigen Definitionen für die haben. 9 Summe und das skalare Vielfache von Bilinearformen die Axiome (V1) bis (V4) der Definition eines Vektorraums aus 7 Abschn. 4.1 erfüllt sind. b) Zeigen Sie weiterhin, dass die symmetrischen und ebenso die alternierenden Bilinearformen jeweils einen Untervektorraum bilden.

Quadratische Formen auf dem R2 lassen sich auf eine Art veranschaulichen, die uns von den Landkarten her als Geländedarstellung mittels Höhenlinien vertraut ist: Denken wir uns die Ebene R2 horizontal und tragen wir über jedem Punkt x dieser Ebene den Wert .x/ auf. Dann entsteht eine Fläche, der Graph der quadratischen Form. Werden horizontale Schnitte dieser Fläche orthogonal in die Bilinearformen legen eine eindeutige Ebene R2 projiziert, so erhalten wir Niveaulinien .x/ D quadratische Form fest, aber nicht c D konst. dieser quadratischen Form. Alle Punkte einer Niveaulinie haben unter der Abbilumgekehrt dung  dasselbe Bild c. Die Niveaulinien sind somit die Fasern (vgl. . Abb. 2.3) der Abbildung W R2 ! R, und Nun wollen wir die auf dem K-Vektorraum V definierte Bi- sie vermitteln eine Vorstellung von der Werteverteilung eilinearform  W V V ! K auf die Diagonale f.x; x/ j x 2 ner quadratischen Form. . Abb. 10.1 zeigt die Niveaulinien V g von V 2 einschränken. Das bedeutet, wir betrachten nur der dort angegebenen quadratischen Form zu den Werdie Fälle von  .x; y/ mit x D y. Dann entsteht eine qua- ten c D 0; ˙1; ˙4; : : : Im Gegensatz dazu nimmt die in dratische Form . Abb. 10.2 gezeigte quadratische Form keine negativen  Werte an. Alternativ dazu ist in . Abb. 10.3 eine quadratiV ! K; sche Form dargestellt, bei welcher sämtliche Niveaulinien W x 7! .x/ D  .x; x/ aus Geraden bestehen. auf V . Auf der folgenden Seite lernen wir übrigens eine von  unabhängige Definition quadratischer Formen kennen. In dem Sonderfall einer alternierenden Bilinearform  entsteht als Einschränkung auf die Diagonale von V lediglich die Nullform, denn wegen  .y; x/ D  .x; y/ ist .x/ D  .x; x/ D  .x; x/; und somit .x/ D 0 für alle x 2 V .

?Selbstfrage 10.2

Beispiel Bei unserem Zahlenbeispiel, der symmetrischen Bilinearform

für alle x; y 2 V .

 .x; y/ D x1 y1 C x1 y2 C x2 y1  5 x2 y2

Beweisen Sie, dass die Einschränkungen der Bilinearformen  und  0 auf die Diagonale genau dann dieselbe quadratische Form ergeben, wenn    0 alternierend ist, also .   0 /.y; x/ D .y; x/   0 .y; x/ D .   0 /.x; y/

Wenn wir die quadratische Form  als Einschränkung der Bilinearform  definieren, so gilt nach den Eigenschaften

über V D R2 , gilt für die zugehörige quadratische Form:

x2

36

.x/ D

x12

C 2 x1 x2 

5 x22 :

25

2

1

4

4

0 3

2

1

1

1

x1

1

2

4

4 9

ergibt als Einschränkung auf die Diagonale dieselbe quadratische Form. Wenn wir allerdings nur symmetrische Bilinearformen zulassen, so bleibt einzig  übrig, denn bei der Ermittlung der Bilinearform muss der Koeffizient von x1 x2 zu gleichen Teilen auf die Koeffizienten von x1 y2 und x2 y1 aufgeteilt werden. Wir nennen die zu einer quadratischen Form gehörige symmetrische Bilinearform ihre Polarform.

0 0

1

 0 .x; y/ D x1 y1 C 3 x1 y2  x2 y1  5 x2 y2

9

1

Umgekehrt kann man von .x/ nicht auf die Bilinearform zurückschließen, denn

9

16

1

9 16

2

25 36

. Abb. 10.1 Einzelne Niveaulinien der quadratischen Form .x/ D x12 C 2x1 x2  5x22 , also Fasern f x j .x/ D c D konst.g der Abbildung 

366

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Offensichtlich ist e  symmetrisch. Als Einschränkung von e  auf die Diagonale entsteht die quadratische Form e  mit

x2

25 2

16

e .x/ D .2 x/  2 .x/ D 2 .x/:

9 4

1

1 3

0

1

2

1

2

x1

1 4

1

1 D

9 16 2

25

. Abb. 10.2 Niveaulinien der positiv definiten quadratischen Form .x/ D x12  2x1 x2 C 2x22

x2

0 10

4 14

2

10

1

16

3

2

4 0

0

1

1

x1

2

1

4 16

1 1 e  W .x; y/ 7! ..x C y/  .x/  .y// ; 2 2

deren Einschränkung auf die Diagonale gleich  ist. Man nennt diese Bilinearform die Polarform von . Angenommen, neben 1 sei auch 2 eine symmetrische Bilinearform mit 2 .x; x/ D 1 .x; x/ für alle x 2 V . Dann folgt aus 1 .x C y; x C y/ D 2 .x C y; x C y/ für alle .x; y/ 2 V 2 : 1 .x; x/ C 2 1 .x; y/ C 1 .y; y/ D 2 .x; x/ C 2 2 .x; y/ C 2 .y; y/

64 36

Nun kommt es auf die Charakteristik des Körpers K an: 4 Bei char K ¤ 2 gibt es zur quadratischen Form  eine symmetrische Bilinearform

2 36

64

0 10

4 14

. Abb. 10.3 Zum Vergleich: Niveaulinien der quadratischen Form .x/ D 4x12  12x1 x2 C 9x22 D .2x1  3x2 /2 zu den Werten c D 0; 4; 16; : : :

und daher 1 .x; y/ D 2 .x; y/, also 1 D 2 . 4 Bei char K D 2 ist e  gleichzeitig alternierend, d. h. e  .y; x/ D e  .x; y/, und die Einschränkung von e  auf die Diagonale ist die Nullform. Folgerung Bei char K ¤ 2 gibt es zu jeder quadratischen Form  auf dem K-Vektorraum V genau eine symmetrische Bilinearform  mit .x/ D  .x; x/, nämlich deren Polarform.

Bilinearformen sind stets durch Matrizen einer Bilinearform . x/ D  . x;  x/ D  .x/ sowie darstellbar 2

.x C y/ D  .x C y; x C y/ D  .x; x/ C  .y; y/ C . .x; y/ C  .y; x// In 7 Kap. 6 wurde gezeigt, dass jede lineare Abbildung 'W V ! W zwischen endlichdimensionalen K-VektorräuD .x/ C .y/ C  0 .x; y/ men V und W nach der Einführung von Basen B in V und 0 C in W eine Darstellungsmatrix C M .'/B besitzt mit der mit  .x; y/ D  .x; y/ C  .y; x/ als symmetrischer BiliEigenschaft nearform. Wir nehmen dies zum Anlass für eine Definition, die nicht von Bilinearformen ausgeht. C '.x/ D C M .'/B B x: Definition einer quadratischen Form Eine Abbildung  des Vektorraums V in seinen Grundkörper K heißt quadratische Form, wenn für alle x; y 2 V und  2 K gilt: 1. . x/ D 2 .x/, und 2. die Abbildung

e  W .x; y/ 7! .x C y/  .x/  .y/ ist eine Bilinearform auf V .

Dies bedeutet, die C -Koordinaten des Bildes '.x/ 2 W sind aus den B-Koordinaten des Urbilds x 2 V durch Multiplikation mit der Darstellungsmatrix C M .'/B zu berechnen. Umgekehrt stellt jede Matrix eine lineare Abbildung dar, und Eigenschaften von Matrizen spiegeln sich in Eigenschaften von linearen Abbildungen wieder. Wir zeigen im Folgenden, dass die symmetrischen Matrizen M , also solche mit M > D M , auf ähnliche Weise den symmetrischen Bilinearformen zugeordnet werden können.

367 10.1  Symmetrische Bilinearformen

V sei ein n-dimensionaler Vektorraum über K mit der Folgerung Symmetrische Bilinearformen sind durch symgeordneten Basis B D .b1 ; : : : ; bn /. Für x; y 2 V , also metrische Darstellungsmatrizen gekennzeichnet, alternierende Bilinearformen durch schiefsymmetrische oder alterx D x1 b1 C    C xn bn und y D y1 b1 C    C yn bn ; nierende Darstellungsmatrizen. ergibt sich aus unseren Regeln für Bilinearformen: 1 0 n n X X xi bi ; yj bj A  .x; y/ D  @ i D1

D

n X

Beweis a) Bei symmetrischem  ergibt sich die Symmetrie

der Darstellungsmatrix M B . / unmittelbar aus  .bj ; bi / D  .bi ; bj /, und zwar für alle Basen B. Umgekehrt legt jede n n -Matrix M durch die Definition

j D1

xi yj  .bi ; bj /:

M .x; y/ D x > M y

i;j D1

n Die letzte Summe erfolgt über alle möglichen Paare .i; j / eine Bilinearform auf K fest, denn es gilt mit i; j 2 f1; : : : ; ng. Die darin auftretenden n2 Koeffizien.x C x 0 /> M y D x > M y C x 0 > M y; ten  .bi ; bj / legen  eindeutig fest. .x/> M y D .x > M y/;

Definition der Darstellungsmatrix Ist  eine Bilinearform auf dem n-dimensionalen K-Vektorraum V und B eine Basis von V , so heißt die Matrix   M B ./ D .bi ; bj / 2 Kn n

und analog für den zweiten Vektor y. Bei symmetrischem M ist auch M symmetrisch, denn wegen y > M x 2 K folgt: y > M x D .y > M x/> D x > M > y D x > M y:

Es ist zu beachten, dass von den n2 Einträgen in einer n n -Matrix im symmetrischen Fall nur n.nC1/ voneinan2 der unabhängig sind. b) Bei alternierendem  ist  .bj ; bi / D  .bi ; bj /, alMithilfe der Darstellungsmatrix M B . / lässt sich  .x; y/ so M B . /> D M B . /. als Matrizenprodukt schreiben, nämlich: Umgekehrt können wir wie im symmetrischen Fall vor(10.1) gehen: Bei einer schiefsymmetrischen Matrix M ist  .x; y/ D B x > M B . / B y: Darstellungsmatrix von  bezüglich der Basis B.

Beweis Wir bestätigen die in (10.1) angegebene Matrizeny > M x D .y > M x/> D x > M > y D x > M y schreibweise für  .x; y/ durch Nachrechnen: Zunächst ist und daher M .y; x/ D M .x; y/. 1 0 1 0Pn Wegen der Nullen in der Hauptdiagonale einer schiefy1 j D1  .b1 ; bj / yj symmetrischen n n -Matrix treten darin nur n.n1/ von2 C B:C B :: : M B . / @ :: A D @ A einander unabhängige Einträge auf.  : Pn yn j D1  .bn ; bj / yj Beispiel Wir kehren zurück zum obigen Beispiel einer BiDaraus folgt: linearform auf V D R2 : 0 1 y1 X   .x; y/ D x1 y1 C x1 y2 C x2 y1  5x2 y2 : n n B :: C X xi  .bi ; bj / yj .x1 : : : xn / M B . / @ : A D Wie lautet die Darstellungsmatrix M B . / bezüglich der i D1 j D1 yn Basis B D .b1 ; b2 / mit n X     D xi yj  .bi ; bj /:  1 2 ; b2 D ‹ b1 D i;j D1 1 1 Man beachte die Bauart der beteiligten Matrizen in der MaWir berechnen trizendarstellung (10.1) von  .x; y/: 1 1

n

n

D

 .x; y/ D



1

Bx

>

1

 M B . /

n

By

 .b1 ; b1 / D 2;  .b1 ; b2 / D  .b2 ; b1 / D 0;  .b2 ; b2 / D 3

10

368

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

und übertragen diese Werte in die Matrix   2 0 M B . / D : 0 3 Die gegebene Koeffizientenmatrix A in der Darstellung 

  1 1 y1  .x; y/ D x > A y D .x1 x2 / 1 5 y2 ist die Darstellungsmatrix von  zur kanonischen Basis E D .e 1 ; e 2 /, also A D M E . /. 9

10

Nachdem die quadratischen Formen und die zugehörigen symmetrischen Bilinearformen, die Polarformen, einander gegenseitig bedingen, macht es keinen Unterschied, ob man von der Darstellungsmatrix einer quadratischen Form spricht oder von der Darstellungsmatrix der Polarform. ?Selbstfrage 10.3 Bestimmen Sie die Polarform .x; y/ zur gegebenen quadratischen Form .x/ D x12  3x32 C 2x1 x2  5x2 x3 auf dem Vektorraum R3 zusammen mit deren kanonischer Darstellungsmatrix, also der Darstellungsmatrix M E ./ bezüglich der kanonischen Basis E.

Wenn wir nun die auf dem n-dimensionalen K-Vektorraum V definierte Bilinearform  mit der Darstellungsmatrix M B . / auf die Diagonale von V einschränken, so entsteht So wie bei den linearen Abbildungen eines Vektorraums in die quadratische Form , wobei mit (10.1) gilt: sich, den Endomorphismen, wollen wir auch bei den Bilinearformen durch die Wahl spezieller Basen möglichst .x/ D  .x; x/ D B x > M B . / B x: einfache Darstellungsmatrizen erreichen. Dabei ist es hier etwas einfacher, denn es gibt zu jeder symmetrischen BiliBei M B . / D .aij / lautet die Summendarstellung dieser nearform Darstellungsmatrizen in Diagonalform. Nachdem quadratischen Form: umgekehrt eine Diagonalmatrix stets symmetrisch ist, muss jede diagonalisierbare Bilinearform symmetrisch sein. n X Eine Darstellungsmatrix M B . / in Diagonalform hat aij xi xj : (10.2) .x/ D viele Vorteile: Es vereinfacht sich die Koordinatendarsteli;j D1 lung von  zu Auf der rechten Seite steht ein Polynom oder genauer n X eine Polynomfunktion in .x1 ; : : : ; xn /, in welcher jeder  .x; y/ D xi yj  .bi ; bj / Summand den Grad 2 hat. Wir können darin die rein i;j D1 quadratischen Glieder ai i xi2 trennen von den gemischten 2 2 D a11 x1 y1 C    C ann xn yn : Summanden mit xi xj , die bei i ¤ j jeweils zweifach vorkommen, nämlich als .aij C aj i / xi xj . Ist umgekehrt die quadratische Form durch die Sum- Es gibt nur mehr n Summanden. Die zugehörige quamenformel (10.2) gegeben, so können wir die Koeffizien- dratische Form  ist genau dann positiv definit (siehe tenmatrix .aij / noch abändern, ohne dabei .x/ zu ändern. 7 Abschn. 9.1), wenn ai i > 0 ist für alle i 2 f1; : : : ; ng. Wir müssen ja nur dafür sorgen, dass die Einträge in der Hauptdiagonalen gleich bleiben und ebenso die Summen .aij C aj i /. Bei char K ¤ 2 können wir diese Summen zu Je zwei Darstellungsmatrizen einer Bilinearform sind kongruent gleichen Teilen aufteilen, also aij0 D aj0 i D

1 .aij C aj i / 2

Wenn wir in unserem Vektorraum von der Basis B zu B 0 wechseln, so gilt für die jeweiligen Koordinaten von x:

setzen. Damit erhalten wir eine symmetrische KoeffizienB 0 x D B 0 T B B x: tenmatrix .aij0 /. Diese ist offensichtlich die Darstellungsmatrix der vorhin als eindeutig erkannten Polarform der Die hier auftretende Transformationsmatrix quadratischen Form, also jener symmetrischen Bilinearform  0 , deren Einschränkung auf die Diagonale von V die B 0 T B D B 0 M .idV /B D . B 0 b1 ; : : : ;B 0 bn / gegebene quadratische Form liefert. Ist die Matrix der Koeffizienten aij in (10.2) bereits ist invertierbar (siehe 7 Kap. 4). In ihren Spalten stehen die symmetrisch, so können wir die Summe auch schreiben als B 0 -Koordinaten der Basisvektoren von B. Man beachte als Merkregel, dass der linke Index von B 0 T B übereinstimmt n n X X 2 mit dem linken Index der Spaltenvektoren B 0 bi und das Koai i xi C 2 aij xi xj : .x/ D ordinatensystem festlegt, in welchem die Vektoren der im i;j D1 i D1 i M B . / B y D

B0 x

>

M B 0 . / B 0 y:

Dazu beachten wir die Transformationsmatrix   1 2 Wir ersetzen im mittleren Ausdruck die B-Koordinaten von : E T B D . E b1 ;E b2 / D 1 1 x und y durch die jeweiligen B 0 -Koordinaten. Dies führt zu .B T B 0 B 0 x/> M B . / .B T B 0 B 0 y/   D B 0 x > B T B>0 M B . / B T B 0 B 0 y

Aus unserem Gesetz über die Transformation der Darstellungsmatrizen von Bilinearformen folgt nun: M B . / D .E T B /> M E . / E T B     1 1 1 1 1 2 D 2 1 1 5 1 1      2 4 1 2 2 0 D D ; 3 3 1 1 0 3

D B 0 x > M B 0 . / B 0 y:

Nachdem die letzte Gleichung für alle B 0 x; B 0 y 2 Kn gelten muss, können wir hierfür Vektoren der kanonischen Basis einsetzen, etwa B 0 x D e i und B 0 y D ej . Dann aber bedeutet die Gleichung, dass in der Matrix M B 0 . / und in dem Matrizenprodukt .B T B 0 /> M B . / B T B 0 die Einträin Übereinstimmung  mit dem vorhin angegebenen Wert für ge an der Stelle .i; j / übereinstimmen, und zwar für alle M B . / D  .bi ; bj / . 9 i; j D 1; : : : ; n. Also sind diese Matrizen gleich.

Transformation von Darstellungsmatrizen Für die Darstellungsmatrizen der Bilinearform  bezüglich der Basen B und B 0 gilt M B 0 ./ D .B T B 0 /> M B ./ B T B 0 mit B T B 0 D



0 B b1

(10.3)

    B b0n als invertierbarer Matrix.

Allgemein heißt die n n -Matrix D kongruent zur n n -Matrix C (siehe 7 Abschn. 9.1), wenn es eine invertierbare n n -Matrix T gibt mit D D T > C T . Folgerung Alle Darstellungsmatrizen derselben Bilinearform sind untereinander kongruent. Umgekehrt sind je zwei kongruente Matrizen aus Kn n aufzufassen als Darstellungsmatrizen derselben Bilinearform auf Kn .

Beweis Die Umkehrung folgt aus der Tatsache, dass jede invertierbare Matrix aus Kn n als Transformationsmatrix Als kleine Gedächtnisstütze merken wir uns, indem wir die für einen Basiswechsel interpretierbar ist.  Transformationsgleichung von rechts lesen: Wir bekommen die Darstellungsmatrix von  bezüglich B 0 , indem wir ?Selbstfrage 10.4 die B 0 -Koordinaten zuerst auf B-Koordinaten umrechnen Beweisen Sie, dass die zu einer symmetrischen Matrix und diese dann mit der zur Basis B gehörigen Darstellungskongruenten Matrizen ebenfalls symmetrisch sind. Dasmatrix multiplizieren. selbe gilt für die Schiefsymmetrie. Noch ein Hinweis zu der hier verwendeten Bezeichnungsweise der Darstellungsmatrizen: Bei den linearen Die Kongruenz von Matrizen ist natürlich zu unterscheiAbbildungen schreiben wir beide Basen dazu, also z. B. den von der im 7 Abschn. 6.8 behandelten Ähnlichkeit. Zur B 0 M .'/B . Bei den symmetrischen Bilinearformen oder Erinnerung, zwei quadratische Matrizen C , D heißen zu1 quadratischen Formen ist, so wie in M B . /, nur eine Ba- einander ähnlich, wenn D D T C T ist mit einer invertierbaren Matrix T . Wenn man allerdings die Transformasis erforderlich. tionsmatrizen T auf orthogonale Matrizen T beschränkte, 1 D T > (siehe 7 Abschn. 9.5), dann Beispiel Wir bestätigen (10.3) anhand des Beispiels der Bi- also auf solche mit T 2 wären ähnliche Matrizen D, C gleichzeitig kongruent und linearform  auf V D R von vorhin mit umgekehrt.  .x; y/ D x1 y1 C x1 y2 C x2 y1  5 x2 y2 ; Nach den Ergebnissen von 7 Kap. 6 ändert sich der Rang einer Matrix nicht bei Rechts- oder Linksmultiplialso  .x; y/ D x > A y und kation mit einer invertierbaren Matrix. Demnach haben   alle Darstellungsmatrizen einer Bilinearform  denselben 1 1 Rang. Wir nennen diesen den Rang von  und bezeichnen M E . / D A D 1 5 ihn mit rg. /.

10

370

10

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Es gibt noch eine andere Begründung für die Invarianz des Rangs, bei der wir uns allerdings auf den Fall einer symmetrischen Bilinearform  beschränken wollen: Wie im 7 Abschn. 9.3 erklärt, ist  Anlass für eine symmetrische Relation auf V : Zwei Vektoren x; y 2 V heißen  -orthogonal genau dann, wenn  .x; y/ D 0 ist. Vektoren mit  .y; y/ D 0 heißen isotrop bezüglich  . Zu jedem Unterraum U von V gibt es einen  -Orthogonalraum U ? mit der Eigenschaft, dass  .x; y/ D 0 ist für alle x 2 U und y 2 U ? . Der  -Orthogonalraum V ? heißt Radikal der symmetrischen Bilinearform  . Die Vektoren y 2 V ? sind zu allen Vektoren aus V  -orthogonal, also insbesondere auch zu sich selbst und daher isotrop. Die Matrizengleichung x > M B . / y D 0 ist genau dann für alle x 2 V erfüllt, wenn M B . / y D 0 ist, also y das homogene lineare Gleichungssystem mit der Koeffizientenmatrix M B . / löst. Die Dimension des Radikals von  ist somit n  rg  . Eine symmetrische Bilinearform auf dem n-dimensionalen K-Vektorraum V heißt entartet , wenn ihr Rang kleiner ist als n. Andernfalls heißt  nicht entartet oder radikalfrei, denn das Radikal ist f0g. Ist  z. B. positiv definit, wie bei einem euklidischen Skalarprodukt, so gilt für x ¤ 0 stets  .x; x/ D x  x > 0. Dann ist 0 der einzige isotrope Vektor und  daher radikalfrei.

1. Die Vertauschung von bi und bj bewirkt in M B . / die Vertauschung der Elemente  .bi ; bk / mit  .bj ; bk / für jedes k 2 f1; : : : ; ng, also der i-ten Zeile mit der j -ten Zeile. Es werden aber auch die Elemente an den Stellen .k; i/ und .k; j / vertauscht, also die i-Spalte mit der j -Spalte. 2. Die Multiplikation von bi mit dem Faktor  bewirkt eine Multiplikation der i-ten Zeile und der i-ten Spalte von M B . / mit dem Faktor . Insbesondere kommt das Diagonalelement an der Stelle .i; i/ zweimal dran; es wird daher insgesamt mit 2 multipliziert. 3. Wird bi ersetzt durch bi C  bj , so wird zur i-ten Zeile das -Fache der j -ten Zeile addiert und zur i-ten Spalte das -Fache der j -ten Spalte. Dadurch kommt das Element an der Stelle .i; i/ wiederum zweimal dran – ganz in Übereinstimmung mit  .bi C  bj ; bi C  bj / D  .bi ; bi / C 2  .bi ; bj / C 2  .bj ; bj /:

Jede symmetrische Bilinearform besitzt eine Darstellungsmatrix in Diagonalform

Die zu diesen Basiswechseln gehörigen Transformationsmatrizen B T B 0 , die Elementarmatrizen (siehe 7 Kap. 7) entstehen aus der Einheitsmatrix durch Ausübung der jeweiligen elementaren Spaltenumformung. So gehört etwa zum Ersatz von bi durch b0i D bi C  bj die Transformationsmatrix 0 1 1 B C :: B C : B C B C 1 B C i B C : B C : B T B0 D B : C B C j  1 B C B C B C :: : @ A 1

Ein Wechsel von der geordneten Basis B zu einer anderen Basis B 0 in dem K-Vektorraum V lässt sich aus folgenden elementaren Basiswechseln zusammensetzen: 1. Zwei Basisvektoren werden vertauscht, d. h. b0i D bj und bj0 D bi bei i ¤ j . 2. Ein Basisvektor wird durch das -Fache ersetzt, also b0i D bi und  ¤ 0. 3. Zum i-ten Basisvektor wird das -Fache des j -ten Basisvektors addiert, also b0i D bi C  bj bei i ¤ j .

Jeder Umrechnung der Darstellungsmatrix einer symmetrischen Bilinearform auf eine geänderte Basis kommt somit der wiederholten Anwendung von jeweils gleichartigen elementaren Zeilen- und Spaltenumformungen gleich. In dem folgenden Beispiel wird vorgeführt, welcher Algorithmus angewandt werden kann, um die Darstellungsmatrix einer symmetrischen Bilinearform durch geeigneten Basiswechsel auf Diagonalform zu bringen: Dabei wenden wir wiederholt elementare Zeilenoperationen und die damit gekoppelten gleichartigen Spaltenoperationen an.

? Selbstfrage 10.5 Welche Eigenschaft hat die symmetrische Darstellungsmatrix M B ./, wenn der i-te Basisvektor bi 2 B isotrop ist bezüglich ? Wie sieht M B ./ aus, wenn bi dem Radikal von  angehört?

Was bedeuten diese elementaren Basiswechsel für die   sym- Beispiel Gegeben ist die symmetrische Bilinearform metrische Darstellungsmatrix M B . / D  .bi ; bj / ?  .x; y/ D x > A y auf R4 mit der Darstellungsmatrix Wir werden erkennen, dass jeder dieser Schritte eine 0 1 0 1 2 1 elementare Zeilenumformung und die gleichartige elemenB 1 1 tare Spaltenumformung nach sich zieht. Dabei ist gleich0 0C C ADB @2 0 4 gültig, ob zuerst die Zeilen- und dann die Spaltenumfor4A mung vorgenommen wird oder umgekehrt. Diese elemen1 0 4 1 taren Zeilenumformungen sind uns übrigens erstmals im 7 Kap. 3 beim Verfahren von Gauß und Jordan zur Lösung Schritt 1: Wenn es ein Element ai i ¤ 0 in der linearer Gleichungssysteme begegnet. Hauptdiagonale gibt, so bringen wir dieses durch die Zei-

371 10.1  Symmetrische Bilinearformen

lenvertauschung zi $ z1 und die gleichartige Spaltenvertauschung si $ s1 nach links oben. In unserem Beispiel ist es das Element a22 : 0 0 1 1 1 1 0 0 1 1 0 0 1C 0 2 1C z2 $z1 B 0 1 2 2 $s 1 B1 B C s! C A ! B @2 0 4 @0 2 4 4A 4A 1 0 4 1 0 1 4 1

Das Resultat ist eine Diagonalmatrix, die wir platzsparend als diag.1; 1; 4; 1/ schreiben können. 9 Das hier in dem Beispiel aus R4 vorgeführte Verfahren funktioniert auch in anderen Körpern K. Allerdings versagt bei char K D 2 Schritt 3, denn 2 aij D 0.

Diagonalisierbarkeit symmetrischer Schritt 2: Nun subtrahieren wir geeignete Vielfache der Bilinearformen ersten Zeile von den übrigen Zeilen und wenden die analoV sei ein endlichdimensionaler K-Vektorraum und gen Spaltenumformungen an. Dadurch werden – bis auf das char K ¤ 2. Dann gibt es zu jeder symmetrischen BiliElement in der Hauptdiagonale – alle Einträge der ersten nearform  auf V eine Basis B 0 , für welche M B 0 ./ eine Zeile und Spalte zu null. In unserem Beispiel subtrahieren Diagonalmatrix ist. wir z1 von der zweiten Zeile und ebenso s1 von s2 . 1 0 0 1 1 1 0 0 1 0 0 0 Beweis Wir wenden auf die gegebene n-reihige DarstelB0 1 2 1C 1C z2 z1 B0 1 2 2 s 1 C lungsmatrix A D M . / den folgenden Algorithmus an: B C s! ! B B @0 2 4 @0 2 4 4A 4A Gibt es in der Hauptdiagonalen von A ein ai i ¤ 0, so 4 1 0 1 0 1 4 1 wenden wir die nachstehend angeführten Schritte 1 und 2 Damit sind die erste Zeile und erste Spalte erledigt, und an. Stehen hingegen in der Hauptdiagonale lauter Nullen, wir verfahren mit der dreireihigen Restmatrix auf dieselbe und gibt es ein aij ¤ 0, so beginnen wir mit Schritt 3. Andernfalls ist A die Nullmatrix, und wir sind bereits fertig. Weise: 1. Schritt: Wir vertauschen die 1. Zeile mit der i-ten Schritt 1 entfällt, denn es ist a22 ¤ 0. Wir brauchen Zeile und ebenso die 1. Spalte mit der i-ten Spalte. Damit also nur geeignete Vielfache der zweiten Zeile und Spalte entsteht die Matrix A 0 D .aj0 k /, in welcher links oben ein zu subtrahieren: 0 von null verschiedenes Element a11 steht. 0 0 1 1 1 0 0 0 1 0 0 0 2. Schritt: Wir subtrahieren für j D 2; : : : ; n von der z3 2z2 s3 2s2 0 0 0C z4 Cz2 B0 1 2 1C s4 Cs2 B0 1 0 j -ten Zeile das a =a -Fache der ersten Zeile und ebenso B B C C j1 11 ! @ ! @ 0 0 0 0 0 2A 0 0 0 2A 0 0 von der j -ten Spalte wegen a1j D aj1 das aj1 =a11 -Fache 0 2 0 0 0 0 0 2 0 der ersten Spalte. Bis auf das Element a11 links oben stehen dann in der ersten Zeile und in der ersten Spalte lauter Nun bleibt nur mehr eine zweireihige Matrix rechts unten Nullen. übrig. Allerdings tritt hier ein neues Phänomen auf: Die 3. Schritt: Stehen in der Hauptdiagonalen lauter NulRestmatrix ist noch nicht gleich der Nullmatrix, aber ih- len, und gibt es ein Element a D a ¤ 0 bei j ¤ i, ij ji re Hauptdiagonale enthält nur mehr Nullen. Wir können so addieren wir zur i-ten Zeile die j -te Zeile und ebenso weder Schritt 1, noch Schritt 2 anwenden, jedoch den fol- zur i-ten Spalte die j -te Spalte. Dann entsteht an der Stelle genden .i; i/ das neue Element 2 aij , das bei char K ¤ 0 von null Schritt 3: Gibt es außerhalb der Hauptdiagonalen noch verschieden ist. Wir können daher mit den Schritten 1 und ein Element aij ¤ 0, so addieren wir zur i-ten Zeile die 2 fortfahren. j -te Zeile und verfahren ebenso mit den Spalten. Dies erIn der Folge lassen wir die erste Zeile und die ersgibt als neues Diagonalelement ai i D 2 aij , und wir können ten Spalte der Matrix A außer Acht und wenden uns der mit Schritt 2 fortfahren. verbleibenden Matrix A 1 2 K.n1/ .n1/ zu: Ist A 1 die In unserem Beispiel ist a34 ¤ 0, daher Nullmatrix, so sind wir bereits fertig. Andernfalls beginnen 0 0 1 1 wir je nach Situation mit Schritt 1 oder Schritt 3 und kom1 0 0 0 1 0 0 0 men zu einer Matrix, in welcher die ersten beiden Zeilen z3 Cz4 B0 1 0 0C s3 Cs4 B0 1 0 0C C ! B C ! B und Spalten lauter Nullen außerhalb der Hauptdiagonalen @0 @0 0 2 2A 0 4 2A aufweisen. Es verbleibt die Restmatrix A 2 2 K.n2/ .n2/ 0 0 2 0 0 0 2 0 u.s.w. Dieses Vorgehen wird so lange wiederholt, bis die RestNun werden die dritte Zeile und Spalte noch gemäß matrix rechts unten nur mehr ein Element enthält oder die Schritt 2 reduziert: Nullmatrix ist.  0 0 1 1 1 0 0 0 1 0 0 0 z4  12 z3 B0 1 0 s  12 s3 B0 1 0 0C 0C B C 4! C Will man bei dem oben vorgeführten Algorithmus gleich! B @0 @ A 0 4 2 0 0 4 0A zeitig wissen, welche Transformationsmatrix B T B 0 die Um0 0 0 1 0 0 0 1 rechnung von M B . / auf M B 0 . / bewirkt, so kann man zu

10

372

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Beginn unter der Darstellungsmatrix M B . / die Einheitsmatrix En dazuschreiben und bei den elementaren Spaltenumformungen gleichzeitig mit umformen. Dann steht am Ende des Algorithmus unter M B 0 . / genau die Transformationsmatrix B T B 0 , welche mittels (10.3) die Umrechnung auf die Diagonalmatrix ermöglicht.

Lemma Es sei  eine symmetrische Bilinearform auf dem n-dimensionalen K-Vektorraum V . Dann hat die Darstellungsmatrix M B . / genau dann die Diagonalform diag.a11 ; : : : ; arr ; 0; : : : ; 0/, wenn die Vektoren der Basis B paarweise  -orthogonal sind, also  .bi ; bj / D 0 ist für alle i ¤ j , und wenn die letzten n  r Basisvektoren brC1 ; : : : ; bn dem Radikal von  angehören.

Beispiel Welche Transformationsmatrix B T B 0 bewirkt ge-

Die zum Vektor u 2 V  -orthogonalen Vektoren y gehören mäß (10.3) in dem Beispiel von vorhin die Umrechnung dem Kern der Linearform von A auf die endgültige Diagonalmatrix? Wir wenden alle obigen Spaltenoperationen der Reihe 'u W V ! K; y 7!  .u; y/ nach auf die Einheitsmatrix E4 an: 0

10

0 s2 $s1 B1 E4 ! B @0 0 0 0 s3 2s2 B 1 s4 Cs2 ! B @0 0 0 0 s3 Cs4 B1 ! B @0 0 0 0 s4  12 s3 B1 ! B @0 0

1 0 0 0

0 0 1 0

1 1 0 0 1 1 0 0 1 1 0 0

0 1 0 0 1 0 0C s2 s1 B1 1 0 C ! B @0 0A 0 1 1 0 0 0 1 2 1 2 1C C 1 0A 0 1 1 1 1 1 1C C 1 0A 1 1 1 1 3=2 1 3=2C C D B TB0 : 1 1=2A 1 1=2

1 0 0C C 0A 1

Damit gilt M B 0 . / D .B T B 0 /> M B . / B T B 0 , denn

an. Liegt u im Radikal von  , so ist 'u die Nullform und der zugehörige Kern ganz V . Andernfalls ist der Kern von 'u 2 V ein .n  1/-dimensionaler Unterraum von V . Kommentar Bei unserem Diagonalisierungsverfahren mittels gekoppelter Zeilen- und Spaltenumformungen ergibt sich die zugrunde liegende Basis automatisch (. Abb. 10.4): Wir können keinesfalls erwarten, dass diese orthogonal oder gar orthonormiert ist. Es gibt zwar in euklidischen Räumen eine diagonalisierende und gleichzeitig orthonormierte Basis, wie wir aus 7 Kap. 9 wissen, doch erfordert deren Berechnung die Bestimmung von Eigenwerten und -vektoren einer symmetrischen Matrix. Wir kommen darauf noch bei der Hauptachsentransformation im nächsten Abschnitt zurück und nennen dies das orthogonale Diagonalisieren.

Eine symmetrische Bilinearform hat viele verschiedene Diagonaldarstellungen

0

1 Obwohl der obige Algorithmus zum Diagonalisieren der 0 1 0 0 Darstellungsmatrix eine gewisse Abfolge von Zeilen- und B 1 1 0 0C C diag.1; 1; 4; 1/ D B Spaltenumformungen vorschreibt, so bestehen doch Wahl@ 1 1 1 1A möglichkeiten in den Schritten 1 und 3. Deshalb sind die 3=2 3=2 1=2 1=2 diagonalisierten Darstellungsmatrizen der symmetrischen 1 0 10 0 1 1 3=2 0 1 2 1 Bilinearform  keinesfalls eindeutig. Das geht auch aus C B 1 1 C B1 1 1 3=2 0 0 C 9 dem obigen Lemma hervor. B CB @2 0 4 0 1 1=2A 4 A @0 So können wir in der Basis B mit der Darstellungs0 0 1 1=2 1 0 4 1 matrix M B . / D diag.a11 ; : : : ; ann / den Vektor bi durch b0i D  bi ersetzen. Die Darstellungsmatrix behält Diagonalform, aber das Diagonalelement  .bi ; bi / D ai i aus ? Selbstfrage 10.6 0 0 2 M B . / wird ersetzt durch  .bi ; bi / D  ai i in M B 0 . /. Geben Sie einen Basiswechsel an, welcher die symmetri0 Aber auch Basiswechsel mit bi … K bi können ersche Bilinearform neut zu Diagonalmatrizen führen, wie das folgende Beispiel zeigt. 2 W R ! R;

.x; y/ D x1 y2 C x2 y1

auf Diagonalform bringt.

Nach der algorithmischen Diagonalisierung folgt noch eine Charakterisierung der diagonalisierenden Basen.

Beispiel Die symmetrische Bilinearform auf V D R2 mit

der kanonischen Darstellungsmatrix M E . / D

  1 1 1 5

10

373 10.1  Symmetrische Bilinearformen

x2

36 25

2 9 4

1

9

16 b1

1 0 0 2

1

x1 2

9

4

1

3

b2

b02 1

p von bi durch b0i D  bi mit  D 1= ai i auf 1 normiert werden. p Bei einem negativen ai i ergibt die Wahl  D 1= ai i das Diagonalelement 1. Damit kommen in der Hauptdiagonale von M B 0 . / nur mehr Werte aus f1; 1; 0g vor. Nach einer eventuellen Umreihung der Basisvektoren erreichen wir die folgende Normalform.

1

b01

Normalform reeller symmetrischer Bilinearformen

9 16

2

25 36

. Abb. 10.4 Die Niveaulinien der quadratischen Form .x/ aus . Abb. 10.1 samt den diagonalisierenden Basen B D .b1 ; b2 / und B 0 D .b01 ; b02 /

Zu jeder symmetrischen Bilinearform  vom Rang r auf dem n-dimensionalen reellen Vektorraum V gibt es eine Basis B 0 mit M B 0 ./ D diag.a11 ; : : : ; ann /

(10.4)

bei a11 D    D app D 1, apC1 pC1 D    D arr D 1, arC1 rC1 D    D ann D 0 und 0  p  r  n.

1 2 hat bezüglich der Basis B D (beachte ; 1 1 In den zugehörigen Koordinaten gilt: . Abb. 10.4) die Darstellungsmatrix  .x; y/ D x1 y1 C    C xp yp  xpC1 ypC1      xr yr :   2 0 M B . / D D diag.2; 3/: Wir werden sehen, dass diese spezielle Darstellungsmatrix 0 3 von  sogar eindeutig ist, und wir nennen sie die Normalform der reellen Bilinearform  . Zu ihrer Festlegung sind Aber auch die Basis drei Zahlen erforderlich, die Anzahlen p der Einsen, .r p/     1 1 der Minus-Einsen und .n  r/ der Nullen in der Hauptdia0 0 0 0 0 ; b2 D B D .b1 ; b2 / mit b1 D 1 0 gonale von M B 0 . /. Dieses Zahlentripel (. Abb. 10.4) führt auf eine Diagonalmatrix, denn

6 0 M B 0 . / D  .b0i ; bj0 / D D diag.6; 1/: 0 1 Es sind sowohl b1 und b2  -orthogonal, als auch b01 und b02 . Das ist auch anhand der Niveaulinien der zu  gehörigen quadratischen Form  erkennbar. Man kann nämlich zeigen, dass zwei  -orthogonale und von 0 verschiedene Vektoren ein Paar konjugierter Durchmesser der Niveaulinien aufspannen; es haben nämlich die Niveaulinien in den Schnittpunkten mit einem der Durchmesser stets Tangenten, die zu dem anderen Durchmesser parallel sind. 9 Was haben die verschiedenen diagonalisierten Darstellungsmatrizen von  gemein? Im Fall K D R gibt es darauf eine Antwort, wie der folgende Abschnitt zeigt.

Reelle symmetrische Bilinearformen haben eine eindeutige Signatur

.p; r  p; n  r/ heißt Signatur von  . Dabei sind diese drei Zahlen bereits vor der obigen Normierung als Anzahlen der positiven und negativen Einträge sowie der Nullen in der Hauptdiagonale von M B . / D diag.a11 ; : : : ; ann / feststellbar. Dass kongruente Matrizen denselben Rang r haben, wissen wir schon. Dass sie aber auch dasselbe p und damit dieselbe Signatur haben, ist Gegenstand des folgenden Satzes.

Trägheitssatz von Sylvester Alle diagonalisierten Darstellungsmatrizen der reellen symmetrischen Bilinearform  weisen dieselbe Anzahl p von positiven Einträgen auf. Ebenso haben alle dieselbe Anzahl r  p von negativen Einträgen. Also ist die Signatur .p; r  p; n  r/ von  eindeutig.

Beweis Mit jeder  diagonalisierenden Basis .b1 ; : : : ; bn / sind gewisse Unterräume verknüpft: Für Vektoren Ppx aus der Hülle der ersten p BasisvektoAngenommen, die Darstellungsmatrix M B . / 2 Rn n der ren, also x D i D1 xi bi 2 h b1 ; : : : ; bp i, ist bei x ¤ 0 symmetrischen Bilinearform  hat Diagonalform. Dann .x/ D  .x; x/ D a11 x12 C    C app xp2 > 0; kann jedes positive Diagonalelement ai i durch den Ersatz

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

374

nachdem alle hier auftretenden Koeffizienten positiv sind. Analog ist für alle x 2 h bpC1 ; : : : ; bn i 2 .x/ D apC1 pC1 xpC1 C    C arr xr2  0;

denn hier sind die Koeffizienten durchwegs negativ, und die restlichen Koordinaten xrC1 ; : : : ; xn kommen gar nicht vor. Wir vergleichen dies mit einer zweiten Diagonaldarstellung von  : Die Basis B 0 D .b01 ; : : : ; b0n / bringe  auf 0 0 eine Diagonalform diag.a11 ; : : : ; ann / mit p 0 positiven und r  p 0 negativen Einträgen, also mit 8 0 0 0 für i D 1; : : : ; p ; 0 0 0 .bi / D ai i < 0 für i D p C 1; : : : ; r; : 0 ai i D 0 für i D r C 1; : : : ; n: Wir zeigen, dass die Annahme p 0 ¤ p, also z. B. p > p 0 , auf einen Widerspruch führt. Dazu konzentrieren wir uns auf die beiden Unterräume U>0 D h b1 ; : : : ; bp i mit dim U>0 D p

10

und 0 0 U0 D h bp0 0 C1 ; : : : ; b0n i mit dim U0 D n  p0 :

definit oder semidefinit sind oder indefinit. Negativ semidefinit etwa ist äquivalent zu p D 0. ?Selbstfrage 10.7 Bestimmen Sie die Signaturen der auf den ersten neun Seiten dieses Abschnitts behandelten symmetrischen Bilinearformen . Welche Basen B 0 bringen  auf die jeweilige Normalform?

10.2

Hermitesche Sesquilinearformen

Die Aussage, dass die Darstellungsmatrix einer symmetrischen Bilinearform  diagonalisierbar ist, gilt für alle Körper K mit char K ¤ 2. Von einer Signatur kann man nur sprechen, wenn in K zwischen positiven und negativen Elementen sinnvoll unterschieden werden kann. Dies trifft auf angeordnete Körper zu, wie z. B. R, aber nicht auf C. Und doch gilt ein Resultat ähnlichen Inhalts auch noch für C, allerdings nicht für die symmetrischen Bilinearformen, sondern für die im 7 Kap. 9 bereits vorgestellten hermiteschen Sesquilinearformen. Wir wiederholen nochmals kurz deren Definition. Wir setzen V als Vektorraum über C voraus. Eine Abbildung  V V ! C; W .x; y/ 7!  .x; y/

0 Die Summe der Dimensionen von U>0 und dim U0 beträgt 0 pCnp > n. Daher ist nach der Dimensionsformel (siehe 7 Abschn. 4.5)   heißt Sesquilinearform, wenn für alle x; x 0 ; y; y 0 2 V und 0 dim U>0 \ U0  1:  2 K gilt:

Es gibt also einen Vektor x ¤ 0 aus dem Durchschnitt dieser Unterräume, und dies führt zum offensichtlichen Widerspruch x 2 U>0 n f0g 0 x 2 U0

H) H)

.x/ > 0 und .x/  0:

 .x C x 0 ; y/ D  .x; y/ C  .x 0 ; y/;  .x; y/ D   .x; y/;  .x; y C y 0 / D  .x; y/ C  .x; y 0 /;  .x; y/ D   .x; y/;

wobei  die zu  konjugiert komplexe Zahl bezeichnet.  ist somit linear im ersten und halblinear im zweiten Argument, also insgesamt anderthalbfach (lateinisch: sesqui) Kommentar linear. 1. Das etwas ungewohnte Wort „Trägheit“ in diesem auf Nach Charles Hermite (1822–1901) heißt eine SesquiliJames J. Sylvester (1814–1897) zurückgehenden Ergeb- nearform hermitesch, wenn stets gilt: nis bezieht sich auf die Tatsache, dass sich die Signatur bei Basiswechseln, also beim Übergang zwischen kon(10.5)  .y; x/ D  .x; y/: gruenten Darstellungsmatrizen, nicht ändert. 2. Der Begriff Signatur wird in der Literatur nicht immer ?Selbstfrage 10.8 einheitlich verwendet: Manchmal bezeichnet man daWarum kann eine Sesquilinearform nicht symmetrisch mit nur das Zahlenpaar .p; r  p/, vor allem dann, sein, d. h., warum führt eine generelle Forderung wenn die Dimension n von V von vornherein feststeht. .y; x/ D .x; y/ zu Widersprüchen? Manchmal meint man damit die Folge der Vorzeichen, also etwa .C C C   0/ anstelle des Tripels .3; 2; 1/. Die Einschränkung der hermiteschen Sesquilinearform  auf die Diagonale von V 2 ist die Abbildung  Natürlich lässt sich anhand der Signatur .p; r  p; n  r/ V ! R; sofort beantworten, ob eine reelle symmetrische BilinearW x 7! .x/ D  .x; x/: form  oder ihre Darstellungsmatrizen positiv oder negativ

Somit bleibt p 0 D p.



10

375 10.2  Hermitesche Sesquilinearformen

Sie heißt hermitesche Form auf dem C-Vektorraum V . so folgt aus unseren Regeln für Sesquilinearformen: Dass hier als Zielmenge R angegeben ist, ist kein Tipp0 1 n n fehler, sondern wegen (10.5)  .y; x/ D  .x; y/ muss X X  .x; y/ D  @ xi b i ; yj bj A .x/ D .x/ und damit reell sein. Es macht also durchaus i D1 j D1 Sinn, von positiv definiten hermiteschen Formen zu spren chen, wenn für alle x 2 V n f0g das .x/ > 0 ist. Und X xi yj  .bi ; bj /: D dieser Begriff wurde in 7 Abschn. 9.4 auch schon verweni;j D1 det. ? Selbstfrage 10.9 Beweisen Sie für hermitesche Formen die beiden Rechenregeln: .x/ D jj2 .x/

und

.x C y/ C .x  y/ D 2 ..x/ C .y// :

Die n2 Koeffizienten  .bi ; bj / legen  eindeutig fest und können in Form der Darstellungsmatrix   M B . / D  .bi ; bj / angeordnet werden. Schreiben wir die Koordinaten aus, so bedeutet dies:

0 1 Ähnlich wie quadratische Formen kann man auch die hery1 miteschen Formen direkt definieren, ohne von einer hermiB :: C  .x; y/ D .x1 : : : xn / M B . / @ : A teschen Sesquilinearform auf dem C-Vektorraum V auszu(10.6) yn gehen: Dazu fordert man von einer Abbildung W V ! R für alle x; y 2 V und  2 C: DB x > M B . / B y: 1. .x/ D   .x/. 2. .x C y/ C .x  y/ D 2 ..x/ C .y//. Ist die Sesquilinearform überdies hermitesch, so hat deren 3. Die induzierte Abbildung e  W V V ! C mit Darstellungsmatrix die kennzeichnende Eigenschaft e  .x; y/ D .x C y/ C i.x C iy/  .1 C i/ ..x/ C .y//

M B . /> D M B . /;

(10.7)

denn aj i D  .bj ; bi / D  .bi ; bj / D aij . Derartige Matrizen aus C n n heißen hermitesch. ist eine Sesquilinearform. Man beachte: Die Theorie der hermiteschen Sesquilinearformen umfasst jene der reellen symmetrischen BiliEs stellt sich dann  als Einschränkung der Sesquilinearnearformen als Sonderfall. Wenn wir nämlich in der Darform  D 12 e  auf die Diagonale von V heraus, denn stellungsmatrix nur Einträge aij 2 R zulassen, so handelt es sich um die Darstellungsmatrix einer reellen symmee  .x; x/ D 4 .x/ C i.1 C i/.1  i/.x/  2.1 C i/.x/ trischen Bilinearform, nachdem die im hermiteschen Fall D 4 .x/ C 2i .x/  2.x/  2i .x/ geforderte Bedingung (10.7) dann wegen aj i D aij D aij eben nur die gewöhnliche Symmetrie bedeutet. D 2 .x/: Wie lautet eine hermitesche Form .x/, wenn sie in Man nennt dann so wie im Reellen e  die zu  gehörige Koordinaten dargestellt wird? Wie kann man aus dieser Darstellung ersehen, dass .x/ stets reell ist? Polarform. Wir spalten die Summe

Alle Darstellungsmatrizen einer hermiteschen Sesquilinearform sind untereinander kongruent Bei der Definition der Darstellungsmatrix einer Sesquilinearform können wir wie im Reellen vorgehen: Sind B D .b1 ; : : : ; bn / eine geordnete Basis des endlichdimensionalen C-Vektorraums V und xD

n X i D1

xi bi sowie y D

n X j D1

yj bj ;

n X

.x/ D  .x; x/ D

aij xi xj

i;j D1

auf in n X i D1

ai i xi xi C „ƒ‚… jxi j2

X i M B . / B T B 0 B 0 y 0 0 10   DB 0 x > .B T B 0 /> M B . / B T B 0 B 0 y: Soll auch hier die Transformationsmatrix B T B 0 mitberechDas führt auf die folgende Gleichung zwischen den Dar- net werden, so wenden wir auf die Einheitsmatrix E3 der stellungsmatrizen. Reihe nach die obigen Spaltenoperationen an. Dies führt zu B T B0 : Darstellungsmatrizen von Sesquilinearformen Für die Darstellungsmatrizen der Sesquilinearform  bezüglich der Basen B und B 0 gilt M B 0 ./ D .B T B 0 /> M B ./ B T B 0

(10.8)

  mit B T B 0 D B b01    B b0n als invertierbarer Matrix. Je zwei derartige Darstellungsmatrizen von  heißen zueinander hermitesch kongruent .

? Selbstfrage 10.10 Warum sind die zu einer hermiteschen Matrix kongruenten Matrizen wieder hermitesch?

0

0 1 1 1 0 0 s2 i s1 1 i i s3 Ci s1 E3 D @0 1 0A ! @0 1 0A 0 0 1 0 0 1 0 1 1 i 1  2i s3 C.3i/s2 3  i A D B T B0 : ! @0 1 0 0 1 Zur Probe können wir für M B . / D A bestätigen: 0

1 1 0 0 i 1 0A .B T B 0 /> M B . / B T B 0 D @ 1 C 2i 3 C i 1 0 10 1 1 i i 1 i 1  2i @i 0 2  iA @0 1 3i A i 2Ci 1 0 0 1 0 1 1 0 0 D @0 1 0 A D M B 0 . /: 9 0 0 10

Will man eine hermitesche Darstellungsmatrix diagonalisieren, so kann man mithilfe dieser neuartig gekoppelten elementaren Zeilen- und Spaltenumformungen ganz ähnlich vorgehen wie in dem in 7 Abschn. 10.1 vorstellten Algorithmus für symmetrische Bilinearformen. Wir verzichten auf die genaue Formulierung der notwendigen Die Elemente in der Hauptdiagonalen einer hermiteschen Matrix sind wegen ajj D ajj stets reell. Man kann daher Schritte 1 bis 3 und zeigen dafür ein Zahlenbeispiel.

10

377 10.2  Hermitesche Sesquilinearformen

die positiven Diagonaleinträge wieder mittels bj0 D  bj p und  D 1= ajj auf +1 normieren und die negativen mit p  D 1= ajj auf 1. Nun ist eine Bemerkung notwendig: Da wir mit komplexen Zahlen rechnen, könnte man z. B. bei ajj D 4 auch den Basiswechsel bj0 D 21i bj vornehmen. Wird die j -te Zeile mit 21i D  2i multipliziert, so muss die j -te Spalte mit dem konjugiert komplexen Wert 2i multipliziert werden. Beides zusammen ergibt als neues Diagonalelement aber erst wieder 14 .4/ D 1. Beide Möglichkeiten führen zu demselben Ergebnis. Somit gilt die Normalform aus (10.4) auch für die hermiteschen Sesquilinearformen. Und auch der Trägheitssatz von Sylvester bleibt weiterhin gültig, denn wegen .x/ 2 R kann der obige Beweis wortwörtlich übernommen werden.

diesen Basen die orthonormierten heraussuchen. Dazu sind tiefer liegende Methoden erforderlich, die jedoch bereits im 7 Kap. 9 entwickelt worden sind. In der Folge verwenden wir neben der Sesquilinearform  noch das durch einen Punkt gekennzeichnete Skalarprodukt sowie dessen Koordinatendarstellung als Matrizenprodukt, sofern den Koordinaten eine orthonormierte Basis B zugrunde liegt. Das folgenden Lemma zeigt, dass sich  direkt mit einem Skalarprodukt in Beziehung bringen lässt. Lemma Zu jeder auf einem unitären Raum definierten Sesquilinearform  gibt es einen Endomorphismus ' mit

 .x; y/ D '.x/  y; wobei

B M .'/B

D M B . /> :

 ist genau dann hermitesch, wenn ' selbstadjungiert ist. Beweis Nach (10.6) ist

Trägheitssatz für Sesquilinearformen Für hermitesche Sesquilinearformen  gilt ebenfalls der Trägheitssatz von Silvester:  hat eine eindeutige Signatur .p; r  p; n  r/, und es gibt stets Basen B, deren Darstellungsmatrix M B ./ die Normalform (10.4) aufweist.

Liegt eine positiv definite hermitesche Sesquilinearform vor wie beim Skalarprodukt in unitären Räumen (7 Abschn. 9.4), also mit der Signatur .n; 0; 0/, so gibt es Basen B mit der Einheitsmatrix als Darstellungsmatrix. In Koordinaten ausgedrückt nimmt dann die Sesquilinearform die kanonische Form  .x; y/ D x1 y1 C    C xn yn D

Bx

>

By

 .x; y/ D B x > M B . / B y  > D M B . /> B x B y D '.x/  y: Nach den Ergebnissen aus dem 7 Abschn. 9.6 sind selbstadjungierte Endomorphismen durch hermitesche Darstellungmatrizen gekennzeichnet. Und dies ist in unserem Fall gegeben, denn > B M .'/B

D M B . / D M B . /> D B M .'/B :



Mit diesem Lemma ist klar, dass eine orthonormierte Basis, welche  diagonalisiert, zugleich ' diagonalisieren muss. Nach 7 Abschn. 8.2 führt der Weg dazu über die Eigenwerte und -vektoren der Darstellungsmatrix. Wir gehen somit von einer beliebigen orthonormierten Basis B eines n-dimensionalen unitären Vektorraums aus und bestimmen die Eigenvektoren der hermiteschen Darstellungsmatrix M B . /> . Zwar wissen wir bereits aus 7 Abschn. 9.6, dass es eine Basis aus Eigenvektoren gibt, die sogar orthonormiert ist, doch zum besseren Verständnis fügen wir noch die folgende Rechnung an. Dabei bezeichnen wir die orthonormierte Basis aus Eigenvektoren mit H , nachdem deren Vektoren h1 ; : : : ; hn die Hauptachsen von  aufspannen. Für die zugehörigen Eigenwerte 1 ; : : : ; n gilt:

an. Es ist also tatsächlich jede positiv definite hermitesche Sesquilinearform als ein Skalarprodukt mit den üblichen Eigenschaften aufzufassen. In diesem Sinn ist dann jede Basis B mit M B . / D En orthonormiert. Im Folgenden verwenden wir in dem C-Vektorraum V zwei hermitesche Sesquilinearformen  und 1 gleichzeitig: Dabei soll 1 positiv definit sein. Damit können wir 1 als Skalarprodukt interpretieren. Wir verwenden einfachheitshalber den Punkt als Verknüpfungssymbol, setzen also xy D 1 .x; y/. Der Vektorraum V wird dadurch zu einem M B . /> B hi D i B hi für i D 1; : : : ; n: unitären Raum (7 Abschn. 9.4) mit einer weiteren hermiteschen Sesquilinearform  . Nun folgt für das Skalarprodukt zweier Eigenvektoren die Gleichung:

In unitären Räumen haben hermitesche Sesquilinearformen diagonalisierende Orthonormalbasen

i .hi  hj / D .i hi /  hj D .i B hi /> B hj  > D M B . /> B hi B hj D B h> i M B . / B hj >

Die bisher behandelten Basen, für welche die Darstellungsmatrix einer gegebenen hermiteschen Sesquilinearform  Diagonalform hatte, wurden allein durch Zeilen- und Spaltenumformungen bestimmt. Sie unterlagen keinerlei weiteren Einschränkungen. Jetzt möchten wir uns aber aus all

D B h> i M B . / B hj   > D B h> i M B . / B hj   D B h> i j B hj D hi  .j hj / D j .hi  hj /:

378

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Folgerung Ist  eine hermitesche Sesquilinearform auf ei- orthogonal bzw. unitär ist, können wir auch sagen: Zu jeder nem unitären Raum, so gilt für je zwei Eigenvektoren hi ; hj reellen symmetrischen bzw. hermiteschen Matrix M gibt es eine orthogonale bzw. unitäre Matrix T derart, dass der Matrix M B . /> und deren Eigenwerte i bzw. j

i .hi  hj / D j .hi  hj /:

10

M 0 D T > M T D diag.1 ; : : : ; n /

Zwei unmittelbare Konsequenzen daraus lauten: 1. Für i D j folgt i .hi hi / D i .hi hi / bei hi ¤ 0. Die Eigenwerte der hermiteschen Matrix M B . / sind also wegen i D i alle reell, das charakteristische Polynom zerfällt bereits über R in lauter Linearfaktoren. 2. Sind i und j zwei verschiedene Eigenwerte, so folgt wegen i .hi  hj / D j .hi  hj / für das Skalarprodukt hi  hj D 0. Zwei zu verschiedenen Eigenwerten gehörige Eigenvektoren sind also zueinander orthogonal.

ist mit 1 ; : : : ; n 2 R. Die Vektoren unserer orthonormierten Basis H sind nicht eindeutig. Es kann z. B. hi durch hi ersetzt werden. Treten zudem mehrfache Eigenwerte der Darstellungsmatrix M B . / auf, ist also etwa i ein k-facher Eigenwert, so ist der zugehörige Eigenraum EigM .i / k-dimensional, und in diesem Eigenraum sind dann k orthonormierte Eigenvektoren beliebig festsetzbar.

Schließlich kann durch Induktion gezeigt werden, dass zu einem k-fachen Eigenwert  einer hermiteschen Matrix M stets ein k-dimensionaler Eigenraum EigM ./ gehört. Aus diesem lassen sich somit k orthonormierte Eigenvektoren auswählen. Dies ermöglicht insgesamt die genannte orthonormierte Basis aus Eigenvektoren h1 ; : : : ; hn . Aber dies alles ist lediglich eine Folge des Spektralsatzes für hermitesche Matrizen von 7 Abschn. 9.7. Nun können wir verifizieren, dass die zur orthonormierten Basis H aus Eigenvektoren gehörige Darstellungsmatrix M H . / Diagonalform aufweist: Nach (10.6) ist nämlich

Beispiel Wir bestimmen die Hauptachsen der schon mehr-

 .hi ; hj / D B h> i M B . / B hj  > D M B . /> B hi B hj D .i B hi /> B hj D .i hi /  hj D i .hi  hj / D i ıij

fach verwendeten reellen symmetrischen Bilinearform  .x; y/ D x1 y1 C x1 y2 C x2 y1  5 x2 y2    1 1 y1 D .x1 x2 / : 1 5 y2 Zunächst berechnen wir die Eigenwerte der kanonischen Darstellungsmatrix M E . / als Nullstellen des charakteristischen Polynoms det

  1 1 D .  1/.5 C /  1; 1 5  

also die Wurzeln von 2 C 4  6 D 0:

unter Verwendung des Kronecker-Symbols ıij . Also ist Wir erhalten: M H . / D diag.1 ; : : : ; n /, was aber auch direkt aus dem p p obigen Lemma folgt, denn  .hi ; hj / D '.hi /  hj . 1 D 2 C 10; 2 D 2  10 Bei all diesen Rechnungen sind natürlich die reellen symmetrischen Bilinearformen als Sonderfall enthalten. und als Lösungen der homogenen linearen Gleichungssysteme .M E . /  i E2 / x D 0 die orthonormierte Basis H D .h1 ; h2 / mit Transformation auf Hauptachsen Zu jeder reellen symmetrischen Bilinearform bzw. hermiteschen Sesquilinearform  auf einem n-dimensionalen euklidischen bzw. unitären Vektorraum gibt es eine orthonormierte Basis H , welche  diagonalisiert. Bei M H ./ D diag.1 ; : : : ; n / sind die i die stets reellen Eigenwerte der Darstellungsmatrix M B ./ bezüglich einer beliebigen orthonormierten Basis B. Die B-Koordinaten B hi der orthonormierten Vektoren aus H sind Eigenvektoren von M B ./> .

Nachdem die Transformationsmatrix B TH

D .B h1 ; : : : ; B hn /

h1;2 D p

1

p 20 ˙ 6 10



p 1

! 10

:

Die neue Darstellungsmatrix von  lautet:  1 M H . / D 0

! p  0 0 2 C 10 p : D 2 0 2  10

Die . Abb. 10.5 mit den Niveaulinien von .x/ verdeutlicht den Unterschied zwischen der nunmehr orthonormierten Basis und den früher verwendeten diagonalisierenden Basen in der . Abb. 10.4. 9

379 10.3  Quadriken und ihre Hauptachsentransformation

x2

36

2

25 16 9

4

9

1 h2 1

2

0

1

3

1

x1 2

1

Von den quadratischen Formen zu quadratischen Funktionen

4

4 9

h1

0

1

häufig sowohl den reellen Vektorraum, als auch den reellen affinen Raum. In diesem Sinn wurde im 7 Kap. 5 vom Anschauungsraum R3 gesprochen; eigentlich war dabei der affine Raum A .R3 / gemeint. Wir wollen in diesem Kapitel nun doch konsequent das Symbol A .V / für den affinen Raum über dem Vektorraum V verwenden.

9 16

2

25 36

. Abb. 10.5 Niveaulinien der quadratischen Form .x/ D x12 C2x1 x2  5x22 mit der orthonormierten und gleichzeitig diagonalisierenden Basis H D .h1 ; h2 /

Um quadratische Formen bildlich darstellen zu können, haben wir in . Abb. 10.1, 10.2 und 10.3 die Niveaulinien von quadratischen Formen W R2 ! R dargestellt. Das waren die von den Punkten x mit .x/ D c D konst.

Ein weiteres Zahlenbeispiel zur Hauptachsentransformation einer quadratischen und einer hermiteschen Form findet sich im 7 Abschn. 9.6. Wie schon vorhin erwähnt, erfordert die Bestimmung diagonalisierender Basen deutlich weniger Aufwand als jene der Hauptachsen. Für einige Fragen müssen die Hauptachsen gar nicht bestimmt werden, so z. B. bei jener nach dem Typ einer Quadrik, wie der folgende Abschnitt zeigen wird. 10.3

Quadriken und ihre Hauptachsentransformation

Schauplatz der vorhin behandelten Bilinear- und Sesquilinearformen war ein Vektorraum V . Die nun folgenden Begriffe quadratische Funktion und Quadrik gehören zum zugehörigen affinen Raum A .V /. Darunter versteht man die Gesamtheit der affinen Teilräume von V , also der Nebenklassen a C U mit a 2 V und mit U als Untervektorraum von V (siehe 7 Abschn. 5.1). Die nulldimensionalen affinen Teilräume fag D a C f0g sind die Punkte. Statt fag schreiben wir einfachheitshalber nur a und sprechen vom „Punkt a“, so wie bereits im Anschauungsraum. Es mag anfangs etwas verwirren, dass Vektoren V und Punkte aus A .V / mit demselben Symbol bezeichnet werden. Aus dem Zusammenhang wird aber meist klar, was gemeint ist. Der Hauptgrund, weshalb Quadriken als Punktmengen im affinen Raum A .V / interpretiert werden, liegt in der größeren Freiheit bei der Festlegung von Koordinaten. Neben einer Basis B des zugrunde liegenden Vektorraums V benötigen wir noch einen Punkt o als Koordinatenursprung. Die .oI B/-Koordinaten des Punkts p sind dann im Sinne von (5.10) die Komponenten des Ortsvektors p  o bezüglich der Basis B. Übrigens wird in der Literatur oft gar kein eigenes Symbol für den affinen Raum verwendet wird; so bezeichnet Rn

gebildeten Kurven, die Fasern der Abbildung . In den genannten Abbildungen traten als Niveaulinien Hyperbeln, Ellipsen und Geradenpaare auf. Wir hatten dort übrigens bereits von Punkten x gesprochen, also stillschweigend bereits die affine Ebene A .R2 / verwendet. Wir verallgemeinern diese Punktmengen, indem wir neben der quadratischen Form  und der Konstanten c auch noch eine Linearform ' einfügen.

Definition einer quadratischen Funktion V sei ein endlichdimensionaler Vektorraum über dem Körper K mit char K ¤ 2 und A .V / der zugehörige affine Raum. Eine Abbildung ( W

A .V / ! K

x 7!

.x/ D .x/ C 2 '.x/ C a

mit einer quadratischen Form W V ! K, einer Linearform 'W V ! K (siehe 7 Abschn. 6.1) und einer Konstanten a 2 K heißt quadratische Funktion.

Auch wenn viele Eigenschaften quadratischer Funktionen über beliebigen Körpern K nachgewiesen werden können, beschränken wir uns von nun an auf den Fall eines n-dimensionalen euklidischen Vektorraums V und damit auf K D R. In V sei B D .b1 ; : : : ; bn / eine orthonormierte Basis. Nach Wahl eines Koordinatenursprungs o sprechen wir so wie im 7 Kap. 5 von einem kartesischen Koordinatensystem .oI B/ in A .V /. In diesem steht uns die symmetrische Darstellungsmatrix A D M B . / 2 Rn n der zu  gehörigen Polarform  zur Verfügung (siehe 7 Abschn. 10.1) und ebenso der Vektor a> als einzeilige Darstellungsmatrix der Linearform 'W V ! K und zugleich als Vektor des

10

380

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Dualraums zu V (siehe 7 Abschn. 6.9). Die quadratische lautet: Funktion hat also die Koordinatendarstellung 0 5   >   > B .x/ D .oIB/ x A .oIB/ x C 2 a .oIB/ x C a 0 M .0IE/ . / D B (10.9) @3 1 mit A > D A. Dies bedeutet ausführlich: n X

In Verallgemeinerung der eingangs genannten Niveaulinien einer quadratischen Form interessieren wir uns nun für i;j kD1 diejenigen Punkte x des affinen Raums A .V /, welche die Gleichung .x/ D 0 erfüllen, also für die NullstellenmenDie xi sind dabei die .oI B/-Koordinaten des Punktes x. ge 1 .0/ der quadratischen Funktion. Die Konstante a ist das Bild .o/ des Koordinatenursprungs, denn .oIB/ o D 0. Nach der obigen Definition zählt auch die Nullfunktion Definition einer Quadrik mit .x/ D 0 für alle x 2 Rn , also mit A als Nullmatrix, Ist W A .V / ! K eine von der Nullfunktion verschiedea D 0 und a D 0 zu den quadratischen Funktionen. ne quadratische Funktion, wobei V ein K-Vektorraum ist Es liegt nahe, die n2 Einträge ai k von A zusammen mit char K ¤ 2, so heißt deren Nullstellenmenge mit den n Koordinaten .a1 ; : : : ; an / des Vektors a> und der Konstanten a in eine symmetrische .n C 1/-reihige Matrix Q. / D 1 .0/ D f x j .x/ D 0 g A .V / zu packen, nämlich in 1 0 a a1 : : : an Quadrik des A .V /.   Ba1 a11 : : : a1n C > a a C B M .oIB/ . / D D B :: :: :: C a A @: : : A Wird die Bedingung .x/ D 0 in Koordinaten dargestellt, an an1 : : : ann so nennt man dies eine Gleichung der Quadrik Q. /. Wir nennen diese symmetrische Matrix aus R.nC1/ .nC1/ Diese ist selbstverständlich abhängig vom verwendeten Kodie erweiterte Darstellungsmatrix der quadratischen ordinatensystem. Ist V D Kn und handelt es sich um Funktion . So wie bereits in 7 Abschn. 5.5 können wir kanonische Koordinaten .0I E/ in A .Kn /, so sprechen wir die Koordinatenvektoren x der Punkte durch Hinzufügen von der kanonischen Gleichung der Quadrik. der nullten Koordinate 1 zu Vektoren x 2 RnC1 erweitern. Dies führt auf die erweiterte Matrizendarstellung der Beispiel 1. Die Quadrik des A .R2 / mit der kanonischen quadratischen Funktion: Gleichung .x/ D

10

n X

1 0 3 1 2 0 2C C: 9 0 1 0A 2 0 0

aij xi xj C 2

ak xk C a bei aj i D aij :

.x/ D .oIB/ x > M .oIB/ . / .oIB/ x

(10.10)

.x/ D x12 C x22  1 D 0

oder ausführlich 0

10 1 an 1 a1n C Bx1 C CB C :: C B :: C : : A@ : A : : : ann xn

ist der Einheitskreis. 2. Bei .x/ D x12  x22 besteht die Nullstellenmenge Q. / aus den zwei Geraden mit den Gleichungen x1 ˙ x2 D 0. 3. Bei .x/ D x12 ist die Nullstellenmenge eine einzige Gerade, nämlich die x2 -Achse x1 D 0. 4. Bei .x/ D x12 C x22 ist Q. / D f0g, d. h., die Beispiel Die erweiterte Darstellungsmatrix der quadratiQuadrik besteht aus einem einzigen Punkt. 9 schen Funktion a B a1 B .x/ D .1; x1 ; : : : ; xn / B :: @: an

a1 a11 :: : an1

::: :::

.x/ D 2x12  x22 C 4x1 x3  6x2  2x3 C 5; also

0 10 1 2 0 2 x1 .x/ D .x1 ; x2 ; x3 / @0 1 0A @x2 A x3 2 0 0 0 1 x1 C .0; 6; 2/ @x2 A C 5 x3

Kommentar Die quadratische Funktion

bestimmt die zugehörige Quadrik Q. / eindeutig. Umgekehrt ist dies nicht der Fall. So haben z. B. die beiden Funktionen 2 1 ; 2 W A .R / ! R mit den kanonischen Darstellungen 1 .x/

D x12 C x22 und

2 .x/

D 2 x12 C x22

dieselbe Nullstellenmenge Q. 1 / D Q. 2 / D f0g. Erst über C ist die zu einer Quadrik gehörige quadratische Funktion bis auf einen Faktor eindeutig, außer .x/ ist das

381 10.3  Quadriken und ihre Hauptachsentransformation

Quadrat einer linearen Funktion. Es haben nämlich z. B. die Wir können dies durch Nachrechnen überprüfen. Dazu quadratischen Funktionen bestimmen wir zunächst die Umkehrtransformation zu . /. Nachdem die dort auftretende 2 2 -Matrix orthogonal ist, 2 1 .x/ D x1 und 2 .x/ D x1 ist ihre Inverse die Transponierte, und wir erhalten: p !     0 selbst in A .C 2 / dieselbe Nullstellenmenge. x1 2 1 x1 C 3= 5 1 p Dp x2 x20 C 4= 5 5 1 2     0 2 2 1 x1 1 Koordinatentransformationen können D Cp : 1 x20 1 2 5 die Gleichung einer Quadrik vereinfachen Dies setzen wir in der obigen quadratischen Funktion .x/ ein und erhalten nach einiger Rechnung die oben angeführUnser Ziel ist es, eine Übersicht über alle möglichen Quate einfache Gleichung. driken in reellen affinen Räumen zu bekommen. Wir erreiWarum genau die Koordinatentransformation . / auf chen dies, indem wir durch spezielle Wahl des kartesischen diese einfache Gleichung führt, soll im Folgenden geklärt Koordinatensystems die Koordinatendarstellung der quawerden. 9 dratischen Funktion und damit die Q definierende Gleichung auf eine Normalform bringen. Durch einen Basiswechsel gelingt es, die Darstellungsmatrix A D M B . / der Die Transformation enthaltenen quadratischen Form zu diagonalisieren. Lässt man auch eine Verschiebung des Koordinatenursprungs zu, einer Quadrikengleichung so kann in vielen Fällen die enthaltene Linearform zum Ver- auf Normalform erfolgt in zwei Schritten schwinden gebracht werden. W A .R2 / ! R mit Wir beginnen damit, die Auswirkungen eines allgemeinen Koordinatenwechsels auf eine quadratische Funktion zu der kanonischen Darstellung untersuchen. Dabei beschränken wir uns weiterhin auf kar2 2 tesische Koordinatensysteme. Wir untersuchen in diesem .x/ D 9 x1  4 x1 x2 C 6 x2  32 x1  4 x2 C 24 Sinn die euklidische Geometrie der Quadriken und nicht deren affine Geometrie. bestimmt als Nullstellenmenge Q. / eine Ellipse mit den p Ersetzen wir das Koordinatensystem .oI B/ durch das Achsenlängen 1 und 2 (. Abb. 10.6), denn nach UmrechSystem .o0 I B 0 /, so bedeutet dies für die Koordinaten desnung auf die Koordinaten selben Punkts x (vergleiche 7 Abschn. 5.5):  0      x1 x1 1 3 1 2 1 0 Dp ( ) Cp .oIB/ x D .oIB/ o C B T B 0 .o0 IB 0 / x; x20 x2 2 5 4 5 1 Beispiel Die quadratische Funktion

wird dieselbe Punktmenge Q. / durch die Gleichung x102 C

1 02 x 1D0 2 2

wobei die Matrix B T B 0 orthogonal, also .B T B 0 /1 D .B T B 0 /> ist. Wir setzen dies in die Darstellung (10.9) .x/ D

.oIB/ x

>

A

.oIB/ x

C 2 a> .oIB/ x C a

ein, wobei wir kurz T für die Transformationsmatrix B T B 0 schreiben sowie t statt .oIB/ o0 und x 0 statt .o0 IB 0 / x:

beschrieben.

.x/ D .t > C x 0> T > /A.t C T x 0 /

x20

x2

C 2 a> .t C T x 0 / C a

Q. / o0 x10 0

x1

. Abb. 10.6 Die Quadrik Q. / mit der kanonischen Gleichung .x/ D 9x12  4x1 x2 C 6x22  32x1  4x2 C 24 D 0 ist eine Ellipse

D x 0> .T > A T /x 0   C t > A T x 0 C x 0> T > A t C 2 a> T x 0   C t > A t C 2 a> t C a : Wir formen den mittleren, in x 0 linearen Term noch etwas um: Wegen A > D A können wir für die reelle Zahl x 0> T > A t auch schreiben: x 0> T > A t D .x 0> T > A t/> D t > A T x 0 : Deshalb bleibt als linearer Term: 2 t > A T x 0 C 2 a> T x 0 D 2 .t > A C a> / T x 0 :

10

382

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

Nach der oben erklärten Hauptachsentransformation tems von .oI B/ zu .o0 I B 0 / mittels der Transformations- symmetrischer Bilinearformen haben wir als neue orthogleichung .oIB/ x D t C T .o0 IB 0 / x verändert gleichzeitig die normierte Basis B 0 D H eine aus lauter Eigenvektoren von Darstellung .x/ D .oIB/ x > A .oIB/ x C 2 a> .oIB/ x C a A zu wählen. Die Transformationsmatrix lautet: der quadratische Funktion W A .V / ! R zu B T H D . B h1 ; : : : ;B hn /: .x/ D .o0 IB 0 / x > A 0 .o0 IB 0 / x C 2 a0> .o0 IB 0 / x C a0 Damit wird A 0 zur Diagonalmatrix diag.1 ; : : : ; n / mit mit den Eigenwerten i von A. Deren Vorzeichenverteilung ergibt sich aus der Signatur .p; r  p; n  r/ von A. Wir 0 > A D T AT; können jedenfalls die p positiven Eigenwerte zu Beginn (10.11) reihen, anschließend bei r D rg.A/ die r  p negativen a0 D T > .A t C a/ ; und schließlich die n  r Nullen. a0 D t > A t C 2 a> t C a D .o0 /: Wenn wir die positiven Eigenwerte i durch 1=˛i2 er2 Kommentar Die in der quadratischen Funktion setzen und die negativen durch 1=˛i bei ˛i > 0, so folgt W A .V / ! R vorkommende quadratische Form als quadratischer Anteil in der transformierten Darstellung W V ! R bleibt unverändert, denn die Darstellungsmatrix von : A wird durch eine zu A kongruente Matrix A 0 ersetzt. > 0 02 02 .o0 IB 0 / x A .o0 IB 0 / x D 1 x1 C    C r xr Die lineare Abbildung ' hingegen wird verändert, denn 02 der Übergang von der einzeilige Darstellungsmatrix a> zu xp0 2 xpC1 x0 2 x0 2 D 12 C    C 2  2      r2 a0> ist bei t ¤ 0 keine Äquivalenz mehr. Dies ist deshalb ˛p ˛r ˛1 ˛pC1 ohne Änderung der quadratischen Funktion möglich, weil nach dem Koordinatenwechsel  nicht allein auf x, mit 0  p  r D rg.A/  n. sondern auf x  o0 angewendet wird. 2. Schritt: Nach der Beseitigung der gemischten SumDurch die Vorgabe einer quadratischen Funktion manden verlagern wir den Ursprung derart, dass die lineaW A .V / ! R wird zwar die quadratische Form  einren Summanden ai xi weitgehend verschwinden. deutig festgelegt, nicht aber die lineare Abbildung ' sowie Um in dem neuen Koordinatensystem .o0 I B 0 / gleichdie Konstante a. Letztere ändern sich bei Verlagerung des zeitig die Linearform zum Verschwinden zu bringen, muss Ursprungs von A .V /. in (10.11) a0 D 0 sein. Wegen der Invertierbarkeit von T ist hierfür notwendig und hinreichend, dass t D .oIB/ o0 das Wenn wir diesen Koordinatenwechsel so wie im 7 Kap. 5 inhomogene lineare Gleichungssystem durch die erweiterte Transformationsmatrix T beschreiben, also in der Form A x D a (10.12)      > 1 1 1 0 D x D D T x 0 ; löst. Hier sind zwei Fälle zu unterscheiden. x x0 t T Fall a) Das System (10.12) ist lösbar: Nach den Ergebnissen von 7 Kap. 3 wird in diesem Fall so erhalten wir die gegenüber M .oIB/ . / aus (10.10) neue der Rang nicht größer, wenn zur Koeffizientenmatrix die erweiterte Darstellungsmatrix M .o0 IB 0 / . / auch direkt als Absolutspalte hinzugefügt wird – auch wenn diese zuvor das Matrizenprodukt mit 1 multipliziert wird. Also ist !   > > > 1 t a a 1 0 M .o0 IB 0 / . / D ; rg.A j a/ D rg.A/ D r: a A t T 0 T> Lemma Eine Änderung des kartesischen Koordinatensys-

10

wie eine einfache Rechnung mittels blockweiser Matrizenmultiplikation bestätigt. Der Rang der erweiterten Matrix bleibt bei dieser Transformation unverändert, weil T invertierbar ist. Nun können wir darangehen, durch eine geeignete Wahl der Basis B 0 und des Koordinatenursprungs o0 die Koordinatendarstellung der quadratischen Funktion aus (10.11) und damit die Gleichung der Quadrik Q. / zu vereinfachen. 1. Schritt: Wir diagonalisieren die Polarform und eliminieren damit in der Quadrikengleichung alle gemischten Summanden aij xi xj mit i ¤ j .

Jeder Punkt m, dessen .oI B/-Koordinaten dieses Gleichungssystem lösen, heißt Mittelpunkt der Quadrik. In dem Koordinatensystem .mI H / nimmt die Gleichung der Quadrik Q. / die Form 02 xp0 2 xpC1 x10 2 xr0 2 C    C       C a0 D 0 2 ˛p2 ˛r2 ˛12 ˛pC1

an. Die Lösungsmenge dieser Gleichung, also Q. /, bleibt unverändert, wenn wir die Gleichung mit einem von null verschiedenen Faktor multiplizieren. Bei a0 ¤ 0 können wir durch die Multiplikation mit 1=a0 die Konstante auf

383 10.3  Quadriken und ihre Hauptachsentransformation

1 normieren. Bei a0 D 0 erreichen wir durch eine etwaige Multiplikation mit 1, dass die Anzahl der positiven Diagonaleinträge in A 0 nicht kleiner ist als jene der negativen. Die Bezeichnung Mittelpunkt für die Lösungen von (10.12) ist berechtigt, denn mit x 0 2 Q. / ist stets auch x 0 2 Q. /, da die .mI H /-Koordinaten x10 ; : : : ; xn0 von x alle nur im Quadrat vorkommen. Der Punkt m ist also tatsächlich ein Symmetriezentrum der Quadrik. Bei r D rg.A/ < n gibt es mehr als einen Mittelpunkt; jeder Punkt aus m C EigA .0/ löst das inhomogene Gleichungssystem, denn der .n  r/-dimensionale Eigenraum zum Eigenwert 0 – übrigens das Radikal der Polarform zu quadratischen Form  in – ist genau die Lösungsmenge des zu (10.12) gehörigen homogenen Systems A x D 0 (siehe 7 Abschn. 3.3). Verschwindet die Konstante a0 in der Quadrikengleichung, so gehört der Mittelpunkt m gemäß (10.11) der Quadrik an. In diesem Fall enthält die Gleichung nur quadratische Summanden. Die zugehörige Quadrik heißt kegelig. Mit jedem vom Koordinatenursprung m verschiedenen Punkt mit den .mI H /-Koordinaten .x10 ; : : : ; xn0 / gehört die ganze Verbindungsgerade der Quadrik an, denn dann ist r X i D1

i .t xi0 /2 D t 2

r X

Nachdem die Koordinaten von a bezüglich der Basis H Skalarprodukte sind (siehe 7 Abschn. 9.3), gilt: n X

a0 D

2

i D1

a1 D

i DrC1

r X

.a  hj / hj ; (10.13)

j D1

wobei nach wie vor a D a0 Ca1 gilt. Wegen der geforderten Unlösbarkeit des Systems in (10.12) ist a0 ¤ 0.  Angenommen, der erste Schritt ist bereits erledigt. Dann ist die Quadrikengleichung bereits auf die aus Eigenvektoren bestehende Basis H umgerechnet, also A D diag.1 ; : : : ; r ; 0; : : : ; 0/, und die Quadrikengleichung lautet: 1 x12 C    C r xr2 C 2 .a1 x1 C    C an xn / C a D 0 mit .a1 ; : : : ; an / als H -Koordinaten von a. Das inhomogene Gleichungssystem A x D a aus (10.12) bekommt die Form 1 x1 ::

i xi0 D 0 für alle t 2 R:

.a  hi / hi ;

D a1 :: : : r xr D ar 0 D arC1 :: :: : : 0 D an

Fall b) Das System (10.12) ist nicht lösbar, es gibt keinen Mittelpunkt: Nun ist r D rg.A/ < rg.A j a/  n. In diesem Fall können nicht alle linearen Summanden Nun ist die Zerlegung von a in die beiden Komponenten ai xi in der Quadrikengleichung eliminiert werden. Es wird offensichtlich. Wir setzen sich zeigen, dass ein linearer Term 2 xn0 bestehen bleibt. Da1 0 1 0 zu verhilft eine geeignete Zerlegung von a in die Summe a1 0 zweier zueinander orthogonaler Komponenten. B:C B : C B :: C B :: C C B C B Ba C B 0 C C B rC B und H a0 D B C: H a1 D B C Lemma Ist das lineare Gleichungssystem A x D a in B0C BarC1 C C C B B (10.12) nicht lösbar, so lässt sich der Vektor a derart in eine B :: C B :: C @:A @ : A Summe a0 Ca1 zerlegen, dass einerseits a0 ein Eigenvektor 0 an von A zum Eigenwert 0 ist und andererseits das System A x D a1 lösbar wird. Beweis Für die Lösbarkeit des Systems A x D a1 ist notwendig und hinreichend, dass a1 im Bild der linearen Abbildung 'A W x 7! A x liegt. Dieser Unterraum Im.'A / wird wegen A hi D i hi für i D 1; : : : ; n bei rC1 D    D n D 0 von den ersten r Eigenvektoren h1 ; : : : ; hr aufgespannt. Der zur Hülle dieser Eigenvektoren orthogonale Raum ist die Hülle von hrC1 ; : : : ; hn , der Eigenraum EigA .0/ zum Eigenwert 0. Die Zerlegung a D a0 C a1 wird durch die Bedingungen a0 2 EigA .0/ D h hrC1 ; : : : ; hn i und a1 2 Im.'A / D h h1 ; : : : ; hr i eindeutig. Die beiden Komponenten a0 bzw. a1 entstehen durch orthogonale Projektion von a in den Eigenraum EigA .0/ bzw. in dessen orthogonales Komplement.

Im parabolischen Fall bleibt ein linearer Term in der Quadrikengleichung bestehen Wenn wir in der .oI B/-Darstellung von .x/ den Vektor a durch die Summe a0 C a1 nach (10.13) ersetzen, so entsteht .x/ D

.oIB/ x

>

A .oIB/ x C 2 a> 0 .oIB/ x

C 2 a> 1 .oIB/ x C a: Darin kann der zweite lineare Summand zum Verschwinden gebracht werden, indem als Ursprung o0 ein Punkt gewählt wird, dessen .oI B/-Koordinaten das System A x D a1 lösen.

10

Kapitel 10  Quadriken – vielseitig nutzbare Punktmengen

384

Wegen der freien Wahl der letzten nr orthonormierten Basisvektoren hrC1 ; : : : ; hn innerhalb von EigA .0/ dürfen wir den letzten in Richtung von a0 festsetzen. Dann ist in H a0 nur die letzte Koordinate von null verschieden, etwa H a0 D an hn . Es bleibt in der Gleichung der Quadrik nur ein einziger linearer Term übrig, nämlich 2 an xn . Wegen r < n kommt sicherlich kein xn2 vor. Nun können wir noch die Konstante zu null machen, indem wir den Ursprung o0 durch ein geeignetes o00 D o0 C  hn ersetzen. Dies bedeutet, wir substituieren xn D xn0  , während alle anderen Koordinaten unverändert bleiben. Auf der linken Seite der Quadrikengleichung folgt: r X

i xi2 C 2 an .xn0  / C a:

i D1

10

Die Wahl  D a=2an beseitigt die Konstante. Schließlich können wir noch erreichen (gegebenenfalls nach Multiplikation mit 1), dass unter den quadratischen Summanden die Anzahl der positiven nicht kleiner ist als jene der negativen. Nach der Division durch jan j wird der Koeffizient von xn zu 2 oder 2. Im erstgenannten Fall können wir den Basisvektor hn noch umorientieren, also xn durch xn ersetzen. Damit finden wir für jede Quadrik ein geeignetes Koordinatensystem, in welchem die Gleichung eine der nachstehend angeführten Normalformen annimmt. Die Koordinatenachsen sind Achsen der Quadrik.

wurde, auch allein durch kombinierte Zeilen- und Spaltenumformungen bestimmbar, also ohne orthogonales Diagonalisieren mittels Berechnung der Eigenwerte. Auch die Entscheidung, um welchen Typ es sich handelt, kann ohne die Transformation auf Hauptachsen getroffen werden, nämlich allein anhand der Ränge der Matrizen A, .A j a/ und der erweiterten Darstellungsmatrix A . Die auf Normalform gebrachte Quadrik vom Typ 2 s